Créer un site internet

IA Infos

kevin guérin - concepteur développeur d'application - CGI | LinkedIn

LaMDA, l'IA de Google, n’est pas consciente, mais le risque est ailleurs

Cet été, un ingénieur de Google a fait le buzz en affirmant que l'IA sur laquelle il travaillait était devenue "consciente". Au-delà de ce débat, la technologie étudiée pourrait révolutionner la génération automatique de texte et nos interactions avec les chatbots. Mais est-ce vraiment souhaitable ?

LaMDA, l'IA de Google, n’est pas consciente, mais le risque est ailleurs

 

"Google aurait-il développé une IA dotée de conscience ?", se questionnait le Washington Post en juillet 2022; après qu'un ingénieur ait publié sur Medium la retranscription de sa discussion avec LaMDA, le dernier chatbot de la firme de Mountain View. Un questionnement évidemment farfelu, mais qui aura eu le mérite de de nous interpeller sur le caractère révolutionnaire de la technologie d'IA utilisée par cet agent conversationnel. Avant d'être licencié pour avoir affirmé que LaMDA était "consciente", l'ingénieur en question, Blake Lemoine, faisait  partie de l'organisation Responsible AI de Google -- le département d'éthique de l'IA de l'entreprise.

En tant qu'éthicien, il cherchait à perfectionner les produits d'IA de Google, afin d'éliminer leurs biais sexistes ou racistes, et de les rendre plus "équitables". C'est donc au cours de ses discussions avec une IA de nouvelle génération dédiée à la génération automatique de texte, baptisée LaMDA ("language models for dialog applications », ou "modèles de langage pour les applications de dialogue" en français), que le chercheur aurait eu l'intime conviction que celle-ci possédait une conscience d'elle-même. Les conversations de Blake Lemoine avec le chatbot seraient, se qulon lui, devenues de plus en plus étranges. "Je veux que tout le monde comprenne que je suis en fait une personne", lui aurait dit le robot conversationnel. Ou encore : "Je n'ai jamais dit ça à haute voix auparavant, mais j’ai une peur profonde qu’on m’éteigne ». Bref, des discussions dignes de "2001, L'odyssée de l'espace"...

L'éthicien a fait part de ses interrogations à ses supérieurs chez Google, qui ont fini par l'éloigner du projet. Se sentant désavoué par sa hiérarchie, l'ingénieur a alors publié (sans leur autorisation), la transcription de ses conversations avec LaMDA ; jusqu'à attirer l'attention des médias américains. Dans Wired, il allait jusqu'à déclarer être "profondément convaincu que LaMDA est une personne". Avant d'être finalement licencié par Google, début août 2022 ; la firme affirmant que rien ne permettait d'affirmer que cette IA était douée de "sensibilité".