Menu Parlons Techs

Apprends Moi + -Des Formations en Ligne 100% à Votre Rythme, Montez en Compétence dès Aujourd'hui...



Publié Le 19 janvier, 2024 9:30 am

intelligence artificielle IA © Anton Gvozdikov / Shutterstock

Le grand public a pu découvrir l’intelligence artificielle grâce au lancement du chatbot ChatGPT. Depuis, la technologie a connu un essor prodigieux, sur lequel la rédaction de Clubic revient pour vous.

L’année 2023 sera peut-être consignée dans les livres d’histoire comme étant celle du début d’un changement majeur pour l’humanité : l’arrivée de l’intelligence artificielle. Autrefois seulement objet de fantasme dans les œuvres de science-fiction ou de recherche pour quelques grandes entreprises telles que Deepmind, la technologie est brusquement devenue cette année un outil du quotidien pour de nombreux habitants de la planète. Et pour ceux qui n’auraient pas suivi toute l’histoire, il y a cette rétrospective de l’année 2023 de l’IA.

 

La révolution ChatGPT

Qui se souvient de l’époque où le mot « ChatGPT » n’éveillait rien chez vous ? Cela semble une éternité. Et pourtant, le monde découvrait à peine le chatbot en décembre 2022. OpenAI, une start-up fondée en 2015 avec l’aide de grands noms de la tech comme Elon Musk, avait réussi à appliquer les grandes avancées dans les grands modèles de langage à un chatbot, qui s’était avéré capable d’effectuer en conséquence un nombre de tâches fabuleux.

La machine pouvait en effet, à l’aide d’une simple commande, dite « prompt », écrire une dissertation, coder ou tout simplement trouver des informations qui auraient demandé beaucoup plus de temps de recherche. L’étonnement était tel que très vite, beaucoup d’emplois étaient apparus comme étant dorénavant en sursis. Des journaux comme CNET ont ainsi dès janvier essayé de remplacer des journalistes par l’IA, avant de devoir faire machine arrière du fait de nombreuses erreurs détectées.

OpenAI_ChatGPT_Illus_2211 © Tada Images / Shutterstock

Pour autant, l’utilisation de l’IA en milieu professionnel est rapidement devenue commune, notamment dans des secteurs particuliers, comme le monde des développeurs. De manière plus générale, les chatbots ont été adoptés avec une facilité déconcertante à travers la planète. ChatGPT a ainsi explosé tous les records, en atteignant les 100 millions d’utilisateurs en à peine deux mois, un chiffre tout simplement unique. À titre de comparaison, Instagram avait mis deux ans et demi pour atteindre ce seuil, et TikTok neuf mois.

 

« En 20 ans de suivi de l’espace internet, nous ne pouvons pas nous souvenir d’une montée en puissance plus rapide d’une application internet grand public » avait alors expliqué l’étude d’UBS à l’origine de ces statistiques. Le succès était tel que, bien évidemment, OpenAI ne pouvait pas rester seul bien longtemps dans le domaine. Car si l’entreprise californienne travaille étroitement en partenariat avec Microsoft, d’autres GAFAM se sont sentis pris de vitesse par ChatGPT. Au premier rang desquels, bien sûr, Google !

 

Les géants de la tech courent après OpenAI

Il faut en effet rappeler que, durant des années, quand l’intelligence artificielle était évoquée, c’était la filiale de Google spécialisée dans l’IA DeepMind qui venait à l’esprit de tous. Alors la firme de Mountain View s’est très vite mise à la page, et a cherché à produire un concurrent viable à ChatGPT. Dès le mois de février 2023, cette IA voyait apparaître son premier véritable rival : Bard. Un chatbot intéressant, mais qui a connu des débuts assez difficiles, au point même que sa sortie précipitée a été fortement critiquée en interne par les employés.

Derrière, Bard s’est amélioré, avec notamment une capacité à chercher des informations actuelles directement sur le web, contrairement à la version gratuite de ChatGPT. L’intelligence artificielle, rendue à la base disponible dans quelques pays seulement, a ensuite été déployée à travers la planète, jusqu’à être accessible en France au mois de juillet. Google ne s’est pas arrêté là, et a continuellement cherché à améliorer la machine. À l’instar de ChatGPT, qui a pu bénéficier du nouveau modèle de langage GPT-4, Bard a eu droit à une mise à jour d’ampleur avec l’arrivée du modèle de langage Gemini durant ce mois de décembre.

ChatGPT vs Google Bard

Google a vite cherché à concurrencer ChatGPT avec Bard

Si Google est apparu comme le challenger le plus sérieux à ChatGPT, il est très loin d’être le seul à avoir cherché à rapidement offrir un produit. Meta, qui compte dans ses rangs une pointure mondiale dans le domaine en la personne de Yann Le Cun, son scientifique en chef, a ainsi présenté son modèle de langage en open source, Llama. Un modèle qui, dès l’été, avait le droit à une nouvelle génération dite Llama 2, réalisée en partenariat avec Microsoft.

Mais l’IA en 2023 n’a pas seulement été une fabrication tranquille des GAFAM. Tous les grands acteurs du numérique ont voulu cette année se doter d’un service qu’ils puissent appeler une « intelligence artificielle. » Les réseaux sociaux comme Snapchat, TikTok ou même WhatsApp se sont ainsi chacun à leur tour mis à offrir de l’IA générative. De même, les grands concurrents des GAFAM, leurs équivalents chinois, les BATX, ont rapidement proposé des IA adaptées au marché chinois. Dès le mois de juin, Baidu se vantait de posséder avec son chatbot Ernie une IA meilleure que ChatGPT.

Preuve par ailleurs de l’explosion de la technologie, l’intelligence artificielle n’a pas été cantonnée aux seuls chatbots. L’IA générative est apparue comme étant capable de réaliser des images avec des outils comme Midjourney ou Stable Diffusion, de créer de la musique ou bien même de cloner les voix de personnes réelles pour leur faire dire n’importe quoi.

 

La régulation gouvernementale de l’IA arrive

Difficile de ne pas voir dans tous ces puissants outils qui ont émergé les uns à la suite des autres d’éventuelles sources de danger. Il faut dire que les délinquants se sont très rapidement emparés de l’IA pour mener à bien des escroqueries, coder des malwares ou même tout simplement créer du contenu malveillant.

Les problèmes posés par l’IA générative dépassent par ailleurs les actes délictuels (et déjà particulièrement dommageables). Pour beaucoup, l’avenir pourrait être rapidement assombri par les textes et les images générés par les IA, du fait de l’impossibilité qu’il y aurait à différencier ce qui a été créé par l’intelligence artificielle et ce qui est réel.

La nécessité de la régulation s’est donc imposée à tous, au point de recueillir une unanimité des entreprises du secteur et des gouvernements. Des géants comme Google ont ainsi proposé d’introduire des filigranes invisibles dans les contenus produits par l’IA générative, alors qu’OpenAI s’est directement faite l’avocate d’une structure internationale de régulation de la technologie, analogue à l’Agence internationale de l’énergie atomique (AIEA).

ChatGPT drapeau de l'Union européenne en fond © Vitor Miranda / Shutterstock.com

L’Europe ne veut pas laisser les IA sans contrôle © Vitor Miranda

Et même si les grandes entreprises de la tech se sont rassemblées pour être plus efficaces dans leurs initiatives de régulation, il était évident que les gouvernements devaient vite entrer dans la danse. L’Union européenne a été la grande entité à légiférer le plus rapidement et le plus complètement.

Car contrairement à ses concurrents internationaux, Bruxelles a déjà trouvé un accord pour encadrer le développement de l’intelligence artificielle sur le Vieux Continent. L’AI Act va ainsi mettre en place différentes catégories d’intelligences artificielles, avec un niveau de contraintes corrélé à la dangerosité potentielle de la technologie et des amendes importantes pouvant être prononcées.

Aux États-Unis, la réflexion est encore en cours, même si les autorités n’ont pas souhaité aller aussi vite que l’Europe. Une rencontre au sommet avait notamment été organisée en ce sens au mois de septembre entre les grandes entreprises du secteur et des sénateurs. Du côté de son grand rival, la Chine, Pékin a évidemment très vite imposé des règles pour le développement des IA, afin d’en garder le contrôle. Enfin, des pays comme le Royaume-uni veulent voir plus loin sans trop perdre de temps, et promeuvent dores et déjà une régulation mondiale de l’intelligence artificielle.

 

L’heure des procès

La question de la régulation se pose d’autant plus que la technologie est arrivée au monde de manière assez soudaine, sans que les pouvoirs publics ne s’y attendent. Et même s’ils ne souhaitent pas reproduire l’erreur faite avec les réseaux sociaux, dont les règles de contrôles ont mis des années à être établies, les pouvoirs publics ne peuvent pas appliquer les règles qui sont encore en gestation aux IA déjà effectives. Résultat, c’est à la justice de prendre en charge les différends nés du développement des divers chatbots.

La plupart des procès intentés à ce jour concernent l’utilisation des données par les fabricants de grands modèles de langage. Ces derniers doivent leur faire ingérer des quantités astronomiques d’informations afin de les améliorer. Or, très souvent, ces opérations étaient faites sans obtenir les autorisations nécessaires, ce qui a été considéré par nombre d’ayants droit comme du vol. C’est ainsi qu’OpenAI a petit à petit vu les dossiers judiciaires s’empiler sur sa table, avec même des grands noms parmi ses accusateurs. On peut ainsi retrouver l’auteur de la série fantastique à succès Games of Thrones, George R.R. Martin, parmi ceux qui désormais rendez-vous avec la société de Sam Altman devant un juge.

OpenAI_Altman_0612 © Meir Chaimowitz / Shutterstock

OpenAI va commencer à devoir rendre des comptes © Meir Chaimowitz / Shutterstock

Et si certaines actions en justice peuvent être vues comme étant simplement opportunistes, d’autres montrent un niveau de sérieux qui devrait sûrement donner naissance à une jurisprudence. Une institution comme le New York Times a ainsi décidé en cette fin du mois de décembre qu’il était temps d’attaquer en justice OpenAI et Microsoft pour l’utilisation de millions d’articles produits pour le journal au fil des décennies. La plainte semble d’autant plus sérieuse qu’elle a été précédée par une tentative de conciliation du média américain avec ces deux sociétés.

Reste que tout n’est pas noir dans ce domaine. Si OpenAI est assez mal vu par certains grands producteurs de contenus, certains de ses concurrents ont décidé d’user de méthodes plus accommodantes. C’est le cas d’Apple, qui a entamé des discussions avec des grands éditeurs de presse afin d’obtenir le droit d’utiliser leurs archives, contre des sommes d’argent conséquentes. Les deals évoqués jusque-là parlent d’accords à hauteur au moins de 50 millions de dollars. De quoi peut-être permettre de désengorger les tribunaux à l’avenir ?

 

2024, le danger des IA superintelligentes ?

Si l’intelligence artificielle est actuellement conçue, et sûrement à raison, comme une incroyable opportunité pour les êtres humains, elle pourrait vite devenir une technologie qui éveille les craintes plus que les espoirs. Dès l’arrivée de ChatGPT, des voix du secteur de la tech se sont ainsi élevées pour expliquer que le développement de l’IA avait été beaucoup plus rapide qu’ils ne l’attendaient, certains même prédisant l’arrivée d’IA superintelligentes dans les prochaines années. L’ancien monsieur IA de chez Google, Geoffrey Hinton, fait partie de ceux-là.

Le chercheur canadien de 76 ans, qui avait présenté en 2017 le concept de réseaux de neurones à capsule, a en effet démissionné de Google en mai dernier afin de pouvoir exprimer librement ses craintes. Il expliquait alors regretter la création et le développement de réseaux de neurones artificiels, « l’œuvre de sa vie », devenue un danger potentiellement mortelle pour notre espèce. « Les futures versions de cette technologie pourraient être un risque pour l’humanité » écrivait ainsi le chercheur dans un article le 1er mai dernier.

OpenAI © © Vitor Miranda / Shutterstock

Et le plus effrayant tient au fait que cette peur pourrait déjà bien avoir une réalité matérielle. Car l’ensemble du monde de la tech se souvient de l’étrange semaine passée par Sam Altman à la fin du mois de novembre dernier, semaine durant laquelle le patron d’OpenAI avait été brutalement débarqué par le Conseil d’administration avant d’être réintégré à la hâte sous la pression des employés et du partenaire Microsoft.

Si les détails de cet aller-retour express n’ont jamais été vraiment divulgués au public, on sait que l’une des raisons ayant poussé le chef scientifique Ilya sutskever à mener la rébellion aurait un lien avec une IA existant dans les laboratoires d’OpenAI, et considérée comme extrêmement dangereuse. Du nom de Q*, ce système d’intelligence artificielle générale a été catalogué par deux auteurs d’une lettre interne comme une IA qui « pourrait menacer l’humanité. »

Même si depuis, des chercheurs de la trempe de Yann Le Cun ont souhaité calmer les inquiétudes à ce sujet (il a notamment qualifié les spéculations autour de de Q* de « déluge d’absurdités »), les nouvelles qui nous arrivent en cette fin d’année sur l’IA montrent des progrès constants de la technologie. Quel genre de puissance les meilleures IA pourront-elles bien montrer d’ici un an ?

avec clubic

 

 




Apprends Moi + -Des Formations en Ligne 100% à Votre Rythme, Montez en Compétence dès Aujourd'hui...