De 2017 (où Elon Musk affirmait que l’intelligence artificielle est un risque fondamental pour l’humanité) à 2020 en passant par 2019 (où il a déclaré que l’IA est bien plus dangereuse que l’arme nucléaire), sa position sur la question reste constante. Ses craintes portent notamment sur ceci que les avancées dans la filière pourraient déboucher sur une intelligence artificielle dite générale (AGI). Et à ce sujet, il se veut précis dans une récente entrevue en indiquant que « l’intelligence artificielle va surpasser l’humain le plus intelligent en 2025 ou dès 2026 et que les capacités de l’intelligence artificielle vont dépasser celles de l’ensemble des humains dans les 5 prochaines années. » Sa sortie intervient dans un contexte où des observateurs estiment que le concept d’intelligence artificielle générale est un mensonge.
— Nicolai Tangen (@NicolaiTang1) April 8, 2024
C’est en raison de ces prédictions que Neuralink d’Elon Musk projette de développer des implants cérébraux susceptibles d’augmenter les capacités des êtres humains pour rivaliser avec l’intelligence artificielle. En des termes simples, cela voudrait dire s’appuyer sur l’intelligence artificielle pour mettre l’humain en capacité de rivaliser avec les robots. Cela s’entend transformer l’humain en une espèce de dispositif connecté à Internet comme le personnage Kusanagi dans Ghost in the Shell.
La perspective de l’atteinte d’une intelligence artificielle trouve en sus écho dans certains cercles académiques. « L’idée que l’IA puisse devenir plus intelligente que les gens, quelques personnes y ont cru. Mais la plupart des gens pensaient que c’était une erreur. Et je pensais personnellement que c’était loin d’être le cas. Je me disais qu’il fallait attendre dans les 30 à 50 ans, voire plus. Évidemment, je ne le pense plus », prévient Geoffrey Hinton – l’un des pionniers de l’apprentissage profond.
Des observateurs sont néanmoins d’avis que le concept d’intelligence artificielle générale est un mensonge raconté pour des raisons financières et politiques
Dans une analyse publiée sur le sujet, le journaliste Blankenhorn expose les aspects critiques de son point de vue comme suit :
Avant que tout le monde ne commence à publier des articles sur le « meilleur de 2023″, voici le mensonge de l’année.
L’intelligence artificielle générale (AGI)
Ce mensonge a été élaboré lorsque l’OpenAI a commencé à pousser des programmes d' »intelligence artificielle générative » comme son ChatGPT, et il continue de se répandre. L’IA générative est issue de l’informatique de base de données basée sur le cloud que nous avons depuis une décennie. Elle est issue d’entreprises telles que Salesforce.com, qui vendaient des bases de données en tant que service dans le sillage de l’explosion de l’année 2000.
L’IA générative combine l’apprentissage automatique à partir d’une grande base de données avec une sortie flexible. Vous voulez une photo d’Elon Musk en rat ? Que diriez-vous d’une chanson sur les arbres dans le style de Steely Dan ? Voulez-vous une histoire sur l’actualité racontée par Mark Twain ? Que diriez-vous de rendre le pare-feu de votre entreprise proactif plutôt que réactif ? Il existe un programme d’IA générative qui vous aide à accomplir toutes ces tâches. C’est génial.
L’apprentissage automatique sur le Big Data
Mais l’IA générative n’est pas la même chose que l’intelligence générale.
Il s’agit d’un apprentissage automatique fondé sur un grand modèle de langage. Il s’agit d’un logiciel dont les résultats imitent ce que les gens ont fait avant lui. Cela signifie qu’elle a besoin d’informations sur ce qui a déjà été fait et d’algorithmes basés sur des données humaines pour faire quoi que ce soit.
L’IA générative ne peut pas penser. Elle ne peut que calculer.
Le mensonge sur l’intelligence artificielle générale est, comme la plupart des autres mensonges aujourd’hui, raconté pour des raisons politiques. Sam Altman veut que les grandes entreprises technologiques contrôlent le marché. Il veut que le gouvernement « réglemente » l’IA afin que seules quelques personnes et entreprises puissent l’utiliser, et il veut bien sûr faire partie des élus. Au minimum, son objectif est d’élever considérablement les barrières à l’entrée du nouveau marché.
En effet, l’IA générative peut rapporter beaucoup d’argent. Elle peut augmenter la productivité. Par exemple, elle peut planifier les ressources d’un hôpital, y compris son personnel, plus efficacement que la direction, parce qu’elle connaît toutes les ressources dont dispose l’hôpital, ainsi que les schémas d’utilisation.
C’est ce que nous montrent les travaux des entreprises de bases de données existantes. Elles s’appellent toutes vendeuses d' »IA » aujourd’hui. Palantir et ServiceNow connaissent une croissance de 20 à 30 % par an, de manière rentable.
L’utilisation des clouds pour traiter les données des programmes d’IA a également permis au fabricant de puces Nvidia de croître de 60 % par an. La capacité des clouds est absorbée par les clients, impatients de former de nouveaux modèles, aussi vite qu’elle est installée.
Mais il ne s’agit pas d’intelligence. Il s’agit de logiciels, d’algorithmes spécifiques conçus pour des ensembles de données spécifiques, avec des cas d’utilisation spécifiques, écrits, installés et gérés par des êtres humains. Ce n’est rien sans vous.
Un autre écrit : « nous avons inventé de nouveaux modèles d’apprentissage automatique capables de produire des images et des passages de texte convenables, si bien que les entreprises technologiques pensent que nous sommes sur le point de donner naissance à des esprits numériques qui pensent. Pour le dire simplement, il s’agit de fantasmes stupides et naïfs fondés sur une vision du monde axée sur la fiction. L’IA a changé et continuera de changer le monde en fonction de la façon dont les gens l’utilisent, mais l’idée que des formes de vie numériques conscientes d’elles-mêmes sont sur le point de naître est une fanfaronnade d’entreprise ».
D’un autre côté, l’analyse de Blankenhorn est sujette à contradictions. « Je suis d’accord pour dire que nous n’avons pas atteint l’AGI, mais son analyse est vraiment stupide. Il a oublié de fournir des preuves. L’ensemble de cet article peut être complètement rejeté. C’est en grande partie d’un argument d’homme de paille. L’argument principal était que les grands modèles de langage ne sont pas des AGI. Mais OpenAI et d’autres groupes travaillant sur les grands modèles de langages (et l’IA en général) ne prétendent pas attendre une AGI d’un grand modèle de langage », a écrit un critique. Selon lui, l’analyse de Blankenhorn n’apporte aucune information utile.
Un autre critique a écrit : « il s’agit donc de l’argument standard : « il n’y a pas d’intelligence, ce n’est que de l’autocomplétion ». La réponse à cela est « qui s’en soucie ? ». Si le système est capable d’augmenter la productivité, de nous aider à résoudre des problèmes qui étaient auparavant insolubles (le repliement des protéines) et de remplacer des emplois, alors on se moque de savoir s’il est réellement intelligent ». Mais ce critique est controversé à son tour, puisqu’il semble minimiser l’influence du battage médiatique autour de l’IA et de l’AGI sur les décisions des consommateurs. À la limite, son argument encourage la surmédiatisation de la technologie.
En somme, bien que Blankenhorn ne remette pas en cause le concept de l’AGI, il s’offusque contre le battage médiatique autour de cette technologie « hypothétique » et ses dangers potentiels pour l’humanité. Il affirme que tout ceci est fait afin de permettre à un petit groupe d’entreprises de contrôler le secteur de l’IA et d’entraver la concurrence en rendant difficile l’entrée de nouveaux acteurs sur le marché.
Source : Twitter Spaces Nicolai Tangen