L'humain attribuerait une valeur morale aux robot…

0
1306


Il y a bien longtemps, l’humain faisait difficilement confiance √† la machine. Car par d√©finition, √©tant limit√©e dans sa r√©flexion, sa r√©ponse devait subir l’approbation d’un homme. Ou du moins, elle √©tait limit√©e √† de simples calculs…
Voici une tr√®s belle d√©monstration de l’√©volution des technologies √† travers le jeu vid√©o :

Qu’en est-il aujourd’hui ? Nos habitudes ont chang√©es, le t√©l√©phone est devenu multifonctions et donne acc√®s √† des ressources illimit√©es d’informations (plus ou moins justes selon les auteurs). Beaucoup d’√©tudiants s’inspirent, voire plagient, des rapports produits par d’autres puisqu’ils sont simples √† trouver sur Internet ! Bref, les nouvelles g√©n√©rations font confiance aux technologies bien plus qu’elles ne le m√©riteraient. Car il faut bien savoir une chose : Une information n’est valable que si elle est v√©rifi√©e, et une machine prend l’information qu’on lui fourni… qu’elle soit juste, ou fausse…

C’est dans ce contexte que naissent des robots de plus en plus √©volu√©s, quasiment bas√©s sur les m√™mes technologies que votre ordinateur personnel et votre t√©l√©phone. Pour ces g√©n√©rations trop confiantes en la technologie, si le robot dit que votre r√©ponse est fausse… C’est qu’elle l’est !
Je vous pose donc √† vous la question suivante : Comment r√©agiriez-vous si vous d√©couvriez que le robot s’est tromp√© sur une r√©ponse qu’il vous a fourni ? Lui en voudriez-vous comme √† un √™tre humain ? Le lui reprocheriez-vous ?

Dans l’universit√© de Washington bas√©e √† Seattle, le laboratoire HINTS (Human Interaction With Nature and Technological Systems) qui √©tudie l’interaction de l’humain avec la nature et les syst√®mes technologiques, a r√©cemment publi√© deux √©tudes tr√®s compl√®tes sur la perception des robots par l’humain. Il semblerait que l’on ait tendance, de plus en plus, √† attribuer une morale aux robots ; on le verrait aujourd’hui comme une entit√© ayant des sentiments et des attributs sociaux.
L’√©quipe de chercheurs men√©e par Peter Kahn met l’accent sur l’√©volution de notre consid√©ration de cette moralit√© des robots. D’apr√®s elle, plus on attribuera de fonctions aux robots, plus ils s’int√©greront parmi nous sans que cela ne choque… Oui, √ßa fait peur aux occidentaux que nous sommes, c’est culturel ! (voir l’article sur la vall√©e d√©rangeante) ūüôā
Vous ne me croyez pas ? Je vous ai pourtant convaincu lorsque j’ai parl√© des Smartphone, non ? Un exemple associ√© aux robots me demandez-vous ? D’accord… Comme vous le savez, Google r√©invente la conduite avec son syst√®me d√©nomm√© ¬ę¬†Google Car¬ę¬†. Une fois ce syst√®me install√© sur votre voiture, il vous suffit d’indiquer l’endroit o√Ļ vous souhaitez aller et la voiture s’occupe du reste.
Devant les grandes avanc√©es et la d√©monstration de la fiabilit√© de ce syst√®me, l‚Äô√Čtat du Nevada – √Čtats Unis – a autoris√© la libre circulation de ce type de v√©hicule (avec homologation √©videmment). Ce mois-ci, Google s’est d√©plac√© pour rencontrer les g√©ants am√©ricains de l’automobile √† Detroit (MotorCity), Ford, General Motors et Chrysler pour convaincre de l’avenir de sa technologie.
D’accord, ce n’est qu’une voiture et vous-m√™mes ne croyez pas encore √† cent pour cent qu’un robot est plus fiable qu’un homme au volant… Nous allons donc choisir une apparence qui pourrait avoir un impact sur vos sentiments : Les humano√Įdes et les animaux.
Que ressentez-vous lorsque vous voyez le petit NAO bouger, Big Dog tomber ou Asimo faire une démonstration devant toute une foule ?



Avez-vous du respect pour les robots cuisinier et bricoleur ?


Ne me dites pas que vous avez les mêmes sensations que lorsque vous vous trouvez devant une calculatrice !

Vous l’aurez saisi avec mes nombreux exemple, plus la machine est √©volu√©e, plus notre consid√©ration de la machine s’approche de celle que l’on accorde √† un √™tre humain. Lorsque l’on s’habitue √† la pr√©sence d’une machine qui donne l’impression d’√™tre consciente, sa disparition peut √©ventuellement laisser place √† un deuil.
Dans cet exc√®s de confiance, on oubli que la machine pourrait un jour commettre un dommage √† un √™tre humain ou √† ses biens par accident. Consid√©rons le sc√©nario dans lequel votre robot d’assistance par m√©garde, d√©truirait vos bijoux ; celui o√Ļ une voiture autonome serait √† l’origine d’un accident ; ou encore celui dans lequel des robots de combat mettraient fin aux jours d’un humain.
De tels sc√©narios nous m√®nent vers la question : Un robot peut-il aujourd’hui, ou dans un futur proche, √™tre consid√©r√© coupable direct d’un crime ou d’une faute ?
Les √©tudes du laboratoire HINTS abordent ces questions sous diff√©rentes perspectives, incluant la fa√ßon dont les adultes agissent envers leurs robots lorsqu’ils font des erreurs, et la mani√®re dont les enfants r√©agissent face √† un robot punit. Il y a en fait une diff√©rence entre penser qu’un robot a une personnalit√©, et penser qu’il a le droit d’√™tre moralement trait√© comme un humain. Une personnalit√© n’√©tant pas forc√©ment r√©gie par une intelligence tr√®s d√©velopp√©e. C’est ce qui va nous permettre de d√©terminer le niveau de responsabilit√© pos√© sur le robot.
Voici l’un des tests effectu√©s par le laboratoire avec le robot Robovie illustr√© sur la premi√®re photo de ce dossier. Secr√®tement contr√īl√© √† distance il est face √† un humain volontaire qui croit √™tre confront√© √† un robot autonome.
Le robot entame une discussion pour d√©montrer √† l’humain volontaire qu’il est assez sophistiqu√© pour communiquer correctement, puis lui propose un pari. Si l’humain gagne, il empoche $20, sinon il les perd. Quelque soit le r√©sultat, le robot affirmera √† l’humain qu’il a perdu… Voyez la d√©monstration en vid√©o :

Cette seconde vid√©o met en sc√®ne un autre test o√Ļ la personne devait trouver des √©l√©ments dans une pi√®ce. La machine refuse la victoire du candidat.

En visualisant ces vid√©os, je les ai trouv√©es √©tranges car on a v√©ritablement l’impression de voir une n√©gociation entre un robot et un √™tre humain sur la conclusion des scores. Mais cette situation pourrait √™tre r√©elle. Comment r√©agiriez-vous si vous aviez gagn√© un petit pactole et que le robot refusait que vous le c√©der ?
Les participants des tests ont √©t√© interrog√©s pour faire part de leurs impressions. 50% ont eu la sensation d’√™tre face √† une machine consciente et 30% ont cru percevoir des √©motions.
Revenons maintenant sur la question du cŇďur de ce dossier : Moralement, les humains participants ont-ils tenu Robovie comme responsable de son erreur ?
Clairement, dans les vid√©os, les participants ont accus√© Robovie de menteur et, voyant que le robot les comprenait, ont utilis√© un vocabulaire vari√© comme ils l’auraient fait pour un √™tre humain.

65% des participants ont attribu√© un niveau moral √† Robovie pour le tord qu’il a caus√© aux participants. Ils n’ont, bien s√Ľr, pas donn√© le m√™me niveau de responsabilit√© qu’√† un √™tre humain… mais quand m√™me, le robot a une valeur morale gr√Ęce √† sa capacit√© de communication √©volu√©e. Il en faut peu ! ūüôĀ
Trois quart des participants ont pens√© que Robovie pouvait penser et √™tre leur ami… Le groupe de chercheurs propose une consid√©ration morale interm√©diaire entre l’humain et la machine pour expliquer le ph√©nom√®ne.
Cette √©tude est certes int√©ressante, mais cible des participants trop proche des technologies √† mon go√Ľt. Nos sources ne nous donnent ni leurs profils, ni leur nombre. Attendons d’avoir le r√©sultat d’autres √©tudes de ce type pour √™tre convaincu du r√©sultat !
Cependant, il est vrai que certains robots sont utilis√©s pour traiter les enfants autistes, et des √©tudes sont √©galement men√©es pour savoir si le robot assistant aura ou non un bel accueil en Europe… Les notions abord√©es dans ce dossier pourront donc nous servir √† l’avenir ! ūüôā
Source : HINTS

Laisser un commentaire