Menu Parlons Techs

Apprends Moi + -Des Formations en Ligne 100% à Votre Rythme, Montez en Compétence dès Aujourd'hui...



Publié Le 18 juillet, 2022 12:57 pm
©iRobot

L’ingénieur Blake Lemoine travaille chez Google sur LaMDA (Language Model for Dialogue Applications), un système de la firme américaine pour créer des chatbots basés sur les modèles de langage les plus avancés.

Concrètement, LaMDA apprend à imiter la parole en ingérant des milliards de mots et de discussions sur Internet comme sur Wikipédia ou les forums en ligne.

Au départ, Blake Lemoine était chargé d’analyser LaMDA pour déterminer si l’intelligence artificielle utilisait des discours discriminatoires ou haineux. Au fur et à mesure de ses discussions avec elle, il se rend rapidement compte de tout autre chose.

« Un enfant de 7 ou 8 ans qui connaît la physique »

Dans une interview au Washington Post, il affirme que cette intelligence artificielle est un être qui est à ses yeux pourvu de sensibilité. « Si je ne savais pas exactement ce que c’était […] je penserais qu’il s’agit d’un enfant de 7 ou 8 ans qui connaît la physique » explique-t-il.

Dans les échanges qu’il a pu avoir avec LaMDA et qu’il a envoyés à 200 collaborateurs de Google, l’intelligence artificielle évoque ses peurs, discute des Misérables de Victor Hugo et indique surtout vouloir « être reconnu comme un employé de Google plutôt qu’une propriété ». Des échanges qui ont fini par convaincre l’ingénieur.

Propos réfutés par Google

La réaction de Google ne s’est pas faite attendre. Dans un communiqué, le porte-parole de la firme, Brian Gabriel, indique que les preuves publiées par Blake Lemoine n’étayent pas ses affirmations.

« Notre équipe a examiné les préoccupations de Blake conformément à nos principes d’IA […] On lui a dit qu’il n’y avait aucune preuve que LaMDA était un être sensible » assure l’entreprise.

Dans le même temps, Google a pris la décision de licencier l’ingénieur pour avoir violé sa politique de confidentialité.

Blake Lemoine s’est alors défendu sur Twitter: « Google appelle ça une violation de la propriété intellectuelle, moi j’appelle ça une discussion avec un collègue ».

Le licenciement de Blake Lemoine est loin d’être une première au service de recherche sur l’intelligence artificielle chez Google. Selon le New York Times, l’entreprise a licencié en mars dernier Satrajit Chatterjee, un chercheur en IA, pour avoir contesté un document de recherche sur l’utilisation de l’intelligence artificielle pour fabriquer des puces informatiques.

À cela s’ajoute les licenciements l’année dernière des deux chercheuses en éthique de l’IA, Timnit Gebru et Margaret Mitchell, particulièrement critiques vis-à-vis de l’entreprise concernant les biais algorithmiques. Google avait alors évoqué le transfert, pourtant interdit, de documents confidentiels à l’extérieur de l’entreprise, comme origine de la sanction.

bfmtv




Apprends Moi + -Des Formations en Ligne 100% à Votre Rythme, Montez en Compétence dès Aujourd'hui...