A droite Noah Goodman, Michael Frank à gauche, sont deux professeurs de psychologie de l’université de Stanford. Ils pensent tous deux que la psychologie a sa place dans l’interprétation du langage humain par les machines.
Le langage est tellement plus qu’une simple chaine de mots. Nous avons souvent besoin d’un contexte pour nous comprendre.
Considérons l’expression française « Ce quartier n’est pas terrible ». Si la machine décode mot à mot ce que l’on dit, elle considèrera que le quartier dont nous parlons est sans danger ou éventuellement à visiter. Le problème est que dans ce contexte, la négation diminue juste la signification du mot terrible dans la phrase. Elle ne l’annule même pas comme une négation aurait du le faire… En fait, un quartier qui n’est pas terrible peut même être dangereux.
Si on évoque maintenant de la nourriture, le danger est exclu. Mais la négation vient adoucir le fait que ce que l’on vient de goûter n’était pas très agréable une fois en bouche.
Pour apprendre un langage à un ordinateur, il faudrait donc lui apprendre des situations associées à des phrases. Deux professeurs de l’université de Stanford ont peut être trouvé une autre manière d’agir.
Dans un journal publié récemment dans le journal Science, les professeurs assistants Michael Frank et Noah Goodman décrivent une théorie quantitative pragmatique qui promet d’ouvrir la porte à un ordinateur plus axé sur le fonctionnement humain. Il serait aussi flexible que nous avec le langage…
Le modèle mathématique qu’ils ont réalisé aide à prédire un raisonnement et peut éventuellement mener les machines à comprendre les subtilités selon le contexte et les règles sociales. Si cela fonctionne, la psychologie aura avancé d’un grand pas dans l’aide des personnes souffrantes de troubles du langage.
Cela pourrait par ailleurs rendre les conversations téléphoniques des centres d’appel automatisés un peu moins frustrantes.
Mais transformer un discours et un langage en nombres a ses limites, tellement le formalisme d’une langue est difficile à décomposer.
Les chercheurs ont demandé à 745 volontaires de prendre par à une expérimentation en ligne. Les participants visualisaient une suite d’objets et devaient respectivement y associer les mots d’une liste.
Par exemple, un groupe de participants ont vu un carré bleu, un cercle bleu et un carré rouge. La question pour ce groupe était : Imaginez que vous parlez à quelqu’un et que vous souhaitez évoquer l’objet du milieu. Quel mot allez-vous utiliser ? « Bleu » ou « Cercle » ?
Un autre groupe devait imaginer que quelqu’un leur parlait en utilisant le mot bleu pour se référer à l’un de ces objets. Ce groupe devait ensuite répondre à la question : « De quel objet parle-t-il ? ».
L’objectif pour les psychologues était de modéliser la manière dont une personne comprend ce qu’elle écoute, et comment la personne qui parle choisi ses mots.
Les résultats ont permit à Frank et Goodman de créer un modèle mathématique qui prédit l’attitude d’un humain et détermine les probabilités (likelihood) qu’un mot évoque un objet plutôt qu’un autre.
Les chercheurs ont déjà eu l’idée d’appliquer ce modèle sur les hyperboles, le sarcasme et autres aspects du langage.
Il y a encore beaucoup de travail, et malgré toutes ces idées et toutes ces avancées, Frank se montre réaliste et avoue qu’il faudra de nombreuses années avant d’arriver à un résultat viable ; avant d’arriver à ce jour où les ordinateurs et robots comprendront ce que l’on sous-entend, ce que l’on pense à travers une phrase dite, ou ce que l’on raconte dans une histoire…
Source : Stanford University
Accueil Ancien classement Dossiers Les psychologues de Stanford pourraient aider les machines à mieux nous comprendre…