5 % de possibilités d’extinction de l’humanité, 70 %, selon un ancien chercheur d’OpenAI ! Qui dit mieux ? Le très pessimiste Roman Yampolskiy, chercheur en IA et professeur d’informatique de l’Université de Louisville aux États-Unis, estime que l’arrivée d’une IA générale a 99,9 % de chances de détruire l’humanité lors des 100 prochaines années.
C’est dans un récent épisode du podcast du chercheur en IA, Lex Fridman, que Roman Yamposkiy s’est exprimé sur cette probabilité que l’essor des AGI — autrement dit les superintelligences générales — tourne suffisamment mal pour qu’il entraîne l’anéantissement de l’humanité. Pour lui, à partir du moment où une IA est capable de prendre un milliard de décisions par seconde durant une centaine d’année, il est pratiquement certain que cela va entraîner la fin du monde.
Pour étayer ses inquiétudes, il met en avant quelques exemples d’accidents, ou encore les réguliers détournements de GPT pour en débrider sa puissance, comme le « mode Dieu » qui a été récemment bloqué par OpenAI. Il estime qu’aucun grand modèle de langage n’a échappé à des manipulations pour accomplir des tâches inattendues par ses créateurs. Pour lui, c’est une menace que nous ne sommes toujours pas capables d’imaginer.
Le chercheur est loin d’être le seul à soulever cette inquiétude. Même Yann Le Cun, le patron de l’IA de Meta, considéré comme l’un des parrains des IA, s’est dit préoccupé par le risque existentiel que pourrait poser la technologie dans l’avenir. De même, les problèmes de manque de considérations éthiques autour du développement des IA sont régulièrement soulevés par la communauté des spécialistes depuis plusieurs années.
La semaine dernière Futura (lire ci-dessous) évoquait la publication d’une lettre ouverte signée par d’anciens et actuels salariés d’OpenAI qui s’inquiètent du manque de prudence des dirigeants développant des IA au profit de la fascination de leurs possibilités. Si de nombreux chercheurs expriment leur crainte, leur considération ne fait pas non plus l’objet d’un consensus général de leurs pairs. Il faut dire que la science de la prévision autour du développement de ces IA en est à ses balbutiements et qu’elle pourrait bien progresser positivement. Et puis, en termes de menaces existentielles, les IA restent loin d’être les seules à pouvoir poser problème en ce moment.
Pour dénoncer le manque de considération par OpenAI sur les risques que pourraient engendrer les IA, un collectif d’anciens et d’actuels salariés de la société a rédigé une lettre ouverte. L’un des signataires a même fait la prédiction que les IA pourraient détruire l’humanité.
Les questions d’éthique autour des intelligences artificielles qu’elles développent ne sont pas le point fort d’OpenAI. D’anciens cadres de la société l’ont même quittée pour monter leur propre entreprise afin de développer un chatbot plus vertueux. C’est le cas de Claude d’Anthropics.
Aujourd’hui, c’est un collectif d’anciens et d’actuels employés d’OpenAI, ainsi que de Google DeepMind et d’Anthropic, qui soulève les problèmes de sécurité que pourrait engendrer l’IA. Ces spécialistes, ont publié une lettre ouverte affirmant qu’ils se trouvent réduits au silence lorsqu’ils soulèvent des problèmes de sécurité dans leurs firmes et surtout chez OpenAI. Ils ont pris soin de rédiger cette lettre pour que le public ait le droit de connaître la réalité des risques posés par l’IA.
L’un des signataires, Daniel Kokotajlo, qui fait partie des anciens chercheurs d’OpenAI, a également donné une interview au New York Times sur le sujet. L’ex-employé y accuse la firme d’ignorer les risques posés par l’intelligence artificielle générale
INTELLIGENCE ARTIFICIELLE GÉNÉRALE
Le cinéma de science-fiction met régulièrement en scène des créatures capables de rivaliser avec l’Homme ou même de le surpasser. Ces personnages opèrent sur ce que l’on appelle l’Intelligence Artific…
(AGI). Il explique que les décideurs de la firme sont tellement fascinés par ses possibilités qu’ils se précipitent imprudemment pour être les premiers à la lancer.
Lorsqu’il était en poste, il aurait pourtant pratiquement convaincu Sam Altman, le patron de la société, de mettre en place des garde-fous pour maîtriser la technologie plutôt que de continuer à la rendre intelligente. Mais, au fil du temps, le décideur a finalement montré son désintérêt sur le sujet au profit du développement sans condition de l’IA.
Pour l’ancien employé d’OpenAI, la firme devrait parvenir à finaliser cette AGI d’ici 2027. Selon lui, elle viendra certainement nuire à l’humanité, voire la détruira. Lors de l’interview, il s’est alarmé en expliquant que le monde n’est pas du tout prêt à supporter les risques que pourraient engendrer ces IA. Et pour rendre un peu plus concrète cette préoccupation, le chercheur va même plus loin en estimant que la probabilité que l’IA détruise l’humanité est d’environ 70 pour cent. Inquiétant !
De son côté, en réaction à cette lettre et cette interview, OpenAI s’est voulu rassurant en se disant à l’écoute de ces inquiétudes et en expliquant que la gestion des risques répond à une approche scientifique dont la firme se dit confiante.
avec futura