Les machines progressent dans leur apprentissage du langage naturel

, Partager

Services clients, assistants virtuels, plateformes d’apprentissage ou encore services automatiques de messagerie sont quelques-unes des applications courantes des automates conversationnels. Reposant sur le traitement automatique du langage naturel, ces programmes mettent en lumière les difficultés que représentent l’apprentissage et la compréhension du langage par un automate programmé.

Le traitement du langage naturel : une des premières applications de l’informatique

Dès 1950, Alan Turing publie « Computing Machinery and Intelligence », article fondateur de l’intelligence artificielle, qui propose une méthodologie d’évaluation connue désormais sous l’appellation « test de Turing ». Ce test mesure le degré d’intelligence d’une machine, basé sur la capacité d’un programme conversationnel à se faire passer pour un être humain : dans une conversation par échange de messages écrits, un sujet humain doit évaluer si son interlocuteur est une machine ou non. Les notions introduites par Turing ainsi que la notoriété acquise par ses travaux ont servi de modèle au premier automate conversationnel implémenté par Joseph Weizenbaum en 1966, ELIZA, qui fut le premier « chatbot » à tromper un être humain quant à sa nature. Une question restant en suspens est celle du scénario de conversations, les interlocuteurs humains abordant les discussions de différentes manières, non-prévisibles par une machine à priori.

Les difficultés et leurs perceptions par les utilisateurs

Les êtres humains abordent les conversations naturellement en utilisant leur compréhension du langage, acquises pendant de longues années, l’apprentissage préalable leur permettant d’inférer à partir du contexte et de résoudre les ambiguïtés qui peuvent se présenter. L’une des principales difficultés que rencontrent les « chatbots » concerne cette compréhension globale et contextualisée du langage. Faisant face à la décidabilité statistique, le traitement automatique du langage naturel peut donner l’illusion d’une compréhension du langage par l’automate, sans pour autant convaincre un utilisateur humain de ses véritables capacités conversationnelles.

Les réseaux de neurones et la montée en puissance du deep learning offrent des applications directes dans le traitement automatique du langage naturel en entrainant les automates à des conversations toujours plus complexes. Ces outils n’apportent cependant pas encore de solutions véritablement crédibles dans le registre des conversations, au sens d’une véritable interaction avancée et réellement intelligente entre l’homme et la machine.

Compréhension du langage

Les approches classiques issues du big data visant à extraire des schémas présentent des carences dès lors qu’il s’agit d’extraire la façon dont un être humain acquiert et maitrise le langage. Des projets menés par Google et Microsoft s’inscrivent dans cette démarche visant à comprendre de quelle façon la maitrise du langage permet de communiquer du sens. Ce sens est construit à partir des structures linguistiques et de la représentation du langage, clefs nécessaires à la compréhension et à la communication. Apprendre le langage à des machines nécessite une mise en relation du langage avec une représentation que la machine est à même de gérer et de comprendre. Cette approche supervisée base son fonctionnement sur le partenariat entre l’utilisateur et la machine pour la création de modèles conversationnels, tendance qui a le vent en poupe dans la Silicon Valley.

Les modèles conversationnels

Le défi posé par le Natural Language Understanding est relevé par des acteurs industriels tels que Pat Inc, Facebook ou encore Samsung par l’intermédiaire de l’acquisition d’entreprises spécialisées comme Pat Inc, Wit.ai ou encore Viv. Les approches de ces entreprises divergent sur la méthode mais ont le même objectif : créer des modèles conversationnels pour une interaction plus naturelle entre chatbot et utilisateur humain.
L’objectif commun est d’entraîner des plateformes de traitement du langage naturel et de compréhension naturelle du langage en réconciliant les notions de description par le langage et de représentation pour la machine. Pat Inc, basée à Palo Alto propose cette approche par l’intermédiaire d’une plateforme (actuellement en version béta) visant à être exploitée par des applications tierces.

Wit.ai (rachetée par Facebook), connue pour être le cœur des automates conversationnels de Facebook Messenger, et Viv (filiale de Samsung) sont des plateformes plus complètes. Elles visent à fournir une boîte à outils complète au développeur pour entrainer la plateforme et évaluer les interactions avec les utilisateurs, tout en permettant de créer des interfaces conversationnelles à de nombreuses applications.

Ces plateformes font progresser la façon dont les êtres humains représentent leurs langages, permettant de créer de nouveaux modèles utilisables pour créer une représentation du langage sur des machines. Les résultats obtenus sont en forte progression par rapport aux approches passées et montrent que l’aboutissement de ce type de technologie ne peut être achevé que par l’intervention d’acteurs issus de différentes disciplines. Alan Turing se demandait si les machines seraient capables de penser : le machine learning leur apporte déjà une compréhension accrue du monde et les progrès autour de la compréhension du langage naturel les dotent petit à petit de la parole.


Rédacteur

- Marc-Emmanuel Perrin, Attaché adjoint pour la Science et la Technologie, San Francisco, deputy-sf@ambascience-usa.org

Sources

- https://venturebeat.com/2017/01/26/how-silicon-valley-is-teaching-language-to-machines/
- https://arxiv.org/abs/1609.08144
- https://pat.ai
- http://fortune.com/2017/08/31/facebook-dna-diversity-netflix/
- https://www.wired.com/2017/01/move-coders-physicists-will-soon-rule-silicon-valley/