Il y a bien longtemps, l’humain faisait difficilement confiance Ă  la machine. Car par dĂ©finition, Ă©tant limitĂ©e dans sa rĂ©flexion, sa rĂ©ponse devait subir l’approbation d’un homme. Ou du moins, elle Ă©tait limitĂ©e Ă  de simples calculs…
Voici une trĂšs belle dĂ©monstration de l’Ă©volution des technologies Ă  travers le jeu vidĂ©o :

Qu’en est-il aujourd’hui ? Nos habitudes ont changĂ©es, le tĂ©lĂ©phone est devenu multifonctions et donne accĂšs Ă  des ressources illimitĂ©es d’informations (plus ou moins justes selon les auteurs). Beaucoup d’Ă©tudiants s’inspirent, voire plagient, des rapports produits par d’autres puisqu’ils sont simples Ă  trouver sur Internet ! Bref, les nouvelles gĂ©nĂ©rations font confiance aux technologies bien plus qu’elles ne le mĂ©riteraient. Car il faut bien savoir une chose : Une information n’est valable que si elle est vĂ©rifiĂ©e, et une machine prend l’information qu’on lui fourni… qu’elle soit juste, ou fausse…

C’est dans ce contexte que naissent des robots de plus en plus Ă©voluĂ©s, quasiment basĂ©s sur les mĂȘmes technologies que votre ordinateur personnel et votre tĂ©lĂ©phone. Pour ces gĂ©nĂ©rations trop confiantes en la technologie, si le robot dit que votre rĂ©ponse est fausse… C’est qu’elle l’est !
Je vous pose donc Ă  vous la question suivante : Comment rĂ©agiriez-vous si vous dĂ©couvriez que le robot s’est trompĂ© sur une rĂ©ponse qu’il vous a fourni ? Lui en voudriez-vous comme Ă  un ĂȘtre humain ? Le lui reprocheriez-vous ?

Dans l’universitĂ© de Washington basĂ©e Ă  Seattle, le laboratoire HINTS (Human Interaction With Nature and Technological Systems) qui Ă©tudie l’interaction de l’humain avec la nature et les systĂšmes technologiques, a rĂ©cemment publiĂ© deux Ă©tudes trĂšs complĂštes sur la perception des robots par l’humain. Il semblerait que l’on ait tendance, de plus en plus, Ă  attribuer une morale aux robots ; on le verrait aujourd’hui comme une entitĂ© ayant des sentiments et des attributs sociaux.
L’Ă©quipe de chercheurs menĂ©e par Peter Kahn met l’accent sur l’Ă©volution de notre considĂ©ration de cette moralitĂ© des robots. D’aprĂšs elle, plus on attribuera de fonctions aux robots, plus ils s’intĂ©greront parmi nous sans que cela ne choque… Oui, ça fait peur aux occidentaux que nous sommes, c’est culturel ! (voir l’article sur la vallĂ©e dĂ©rangeante) 🙂
Vous ne me croyez pas ? Je vous ai pourtant convaincu lorsque j’ai parlĂ© des Smartphone, non ? Un exemple associĂ© aux robots me demandez-vous ? D’accord… Comme vous le savez, Google rĂ©invente la conduite avec son systĂšme dĂ©nommĂ© « Google Car« . Une fois ce systĂšme installĂ© sur votre voiture, il vous suffit d’indiquer l’endroit oĂč vous souhaitez aller et la voiture s’occupe du reste.
Devant les grandes avancĂ©es et la dĂ©monstration de la fiabilitĂ© de ce systĂšme, l’État du Nevada – États Unis – a autorisĂ© la libre circulation de ce type de vĂ©hicule (avec homologation Ă©videmment). Ce mois-ci, Google s’est dĂ©placĂ© pour rencontrer les gĂ©ants amĂ©ricains de l’automobile Ă  Detroit (MotorCity), Ford, General Motors et Chrysler pour convaincre de l’avenir de sa technologie.
D’accord, ce n’est qu’une voiture et vous-mĂȘmes ne croyez pas encore Ă  cent pour cent qu’un robot est plus fiable qu’un homme au volant… Nous allons donc choisir une apparence qui pourrait avoir un impact sur vos sentiments : Les humanoĂŻdes et les animaux.
Que ressentez-vous lorsque vous voyez le petit NAO bouger, Big Dog tomber ou Asimo faire une démonstration devant toute une foule ?



Avez-vous du respect pour les robots cuisinier et bricoleur ?


Ne me dites pas que vous avez les mĂȘmes sensations que lorsque vous vous trouvez devant une calculatrice !

Vous l’aurez saisi avec mes nombreux exemple, plus la machine est Ă©voluĂ©e, plus notre considĂ©ration de la machine s’approche de celle que l’on accorde Ă  un ĂȘtre humain. Lorsque l’on s’habitue Ă  la prĂ©sence d’une machine qui donne l’impression d’ĂȘtre consciente, sa disparition peut Ă©ventuellement laisser place Ă  un deuil.
Dans cet excĂšs de confiance, on oubli que la machine pourrait un jour commettre un dommage Ă  un ĂȘtre humain ou Ă  ses biens par accident. ConsidĂ©rons le scĂ©nario dans lequel votre robot d’assistance par mĂ©garde, dĂ©truirait vos bijoux ; celui oĂč une voiture autonome serait Ă  l’origine d’un accident ; ou encore celui dans lequel des robots de combat mettraient fin aux jours d’un humain.
De tels scĂ©narios nous mĂšnent vers la question : Un robot peut-il aujourd’hui, ou dans un futur proche, ĂȘtre considĂ©rĂ© coupable direct d’un crime ou d’une faute ?
Les Ă©tudes du laboratoire HINTS abordent ces questions sous diffĂ©rentes perspectives, incluant la façon dont les adultes agissent envers leurs robots lorsqu’ils font des erreurs, et la maniĂšre dont les enfants rĂ©agissent face Ă  un robot punit. Il y a en fait une diffĂ©rence entre penser qu’un robot a une personnalitĂ©, et penser qu’il a le droit d’ĂȘtre moralement traitĂ© comme un humain. Une personnalitĂ© n’Ă©tant pas forcĂ©ment rĂ©gie par une intelligence trĂšs dĂ©veloppĂ©e. C’est ce qui va nous permettre de dĂ©terminer le niveau de responsabilitĂ© posĂ© sur le robot.
Voici l’un des tests effectuĂ©s par le laboratoire avec le robot Robovie illustrĂ© sur la premiĂšre photo de ce dossier. SecrĂštement contrĂŽlĂ© Ă  distance il est face Ă  un humain volontaire qui croit ĂȘtre confrontĂ© Ă  un robot autonome.
Le robot entame une discussion pour dĂ©montrer Ă  l’humain volontaire qu’il est assez sophistiquĂ© pour communiquer correctement, puis lui propose un pari. Si l’humain gagne, il empoche $20, sinon il les perd. Quelque soit le rĂ©sultat, le robot affirmera Ă  l’humain qu’il a perdu… Voyez la dĂ©monstration en vidĂ©o :

Cette seconde vidĂ©o met en scĂšne un autre test oĂč la personne devait trouver des Ă©lĂ©ments dans une piĂšce. La machine refuse la victoire du candidat.

En visualisant ces vidĂ©os, je les ai trouvĂ©es Ă©tranges car on a vĂ©ritablement l’impression de voir une nĂ©gociation entre un robot et un ĂȘtre humain sur la conclusion des scores. Mais cette situation pourrait ĂȘtre rĂ©elle. Comment rĂ©agiriez-vous si vous aviez gagnĂ© un petit pactole et que le robot refusait que vous le cĂ©der ?
Les participants des tests ont Ă©tĂ© interrogĂ©s pour faire part de leurs impressions. 50% ont eu la sensation d’ĂȘtre face Ă  une machine consciente et 30% ont cru percevoir des Ă©motions.
Revenons maintenant sur la question du cƓur de ce dossier : Moralement, les humains participants ont-ils tenu Robovie comme responsable de son erreur ?
Clairement, dans les vidĂ©os, les participants ont accusĂ© Robovie de menteur et, voyant que le robot les comprenait, ont utilisĂ© un vocabulaire variĂ© comme ils l’auraient fait pour un ĂȘtre humain.

65% des participants ont attribuĂ© un niveau moral Ă  Robovie pour le tord qu’il a causĂ© aux participants. Ils n’ont, bien sĂ»r, pas donnĂ© le mĂȘme niveau de responsabilitĂ© qu’Ă  un ĂȘtre humain… mais quand mĂȘme, le robot a une valeur morale grĂące Ă  sa capacitĂ© de communication Ă©voluĂ©e. Il en faut peu ! 🙁
Trois quart des participants ont pensĂ© que Robovie pouvait penser et ĂȘtre leur ami… Le groupe de chercheurs propose une considĂ©ration morale intermĂ©diaire entre l’humain et la machine pour expliquer le phĂ©nomĂšne.
Cette Ă©tude est certes intĂ©ressante, mais cible des participants trop proche des technologies Ă  mon goĂ»t. Nos sources ne nous donnent ni leurs profils, ni leur nombre. Attendons d’avoir le rĂ©sultat d’autres Ă©tudes de ce type pour ĂȘtre convaincu du rĂ©sultat !
Cependant, il est vrai que certains robots sont utilisĂ©s pour traiter les enfants autistes, et des Ă©tudes sont Ă©galement menĂ©es pour savoir si le robot assistant aura ou non un bel accueil en Europe… Les notions abordĂ©es dans ce dossier pourront donc nous servir Ă  l’avenir ! 🙂
Source : HINTS

Laisser un commentaire