Menu Parlons Techs

Apprends Moi + -Des Formations en Ligne 100% à Votre Rythme, Montez en Compétence dès Aujourd'hui...



Publié Le 21 septembre, 2022 8:41 am
Les experts d’Europol tirent l’alarme : d’ici 4 ans, 90 % de l’ensemble du contenu en ligne sera généré par l’IA

Selon un rapport publié par Europol, le partenariat entre les forces de police européennes, jusqu’à 90 % de l’ensemble du contenu en ligne pourrait être généré par l’intelligence artificielle (IA) d’ici 2026.

Le terme « deepfake » n’existe que depuis 2017 et désigne une technique utilisée pour modifier ou composer des images humaines en se basant sur l’IA. Ces dernières années, cette technologie a été de plus en plus utilisée pour générer des vidéos et des images, mais aussi également pour générer du texte, créer des images et même écrire des articles entiers.

Si l’objectif principal de cette technologie est de faciliter la vie des gens, Europol prévient désormais que le contenu en ligne produit de cette manière comporte également des risques : « La prolifération des médias synthétiques et des technologies améliorées a créé des possibilités de désinformation », peut-on lire dans le rapport.

Plus de confiance dans les médias

Mais ce n’est pas tout. Selon Europol, les deepfakes auront un impact « profond » sur la manière dont les gens interagissent avec les figures d’autorité et les médias. La confiance dans les faits officiels serait de plus en plus ébranlée, ce qui pourrait conduire les citoyens à ne plus avoir de « réalité partagée » à l’avenir, selon le rapport.

Le risque de criminalité augmentera également, estime Europol. Par exemple, il deviendrait plus facile d’humilier ou de harceler des personnes en ligne en utilisant des « deepfakes », mais la fraude, l’extorsion et autres pourraient également être plus facilement réalisées grâce à ces technologies.

Enfin, Europol avertit que les forces de police pourraient être induites en erreur en utilisant ce type de contenu. L’organisation s’alarme également que des vidéos pourraient être mises en scène, montrant des policiers en train de commettre des méfaits. Ainsi, les deepfakes pourraient être utilisés pour éroder la confiance ou même inciter à la violence envers la police.

De plus en plus difficile à vérifier

S’il est actuellement encore possible de vérifier manuellement si une vidéo est authentique ou non, cela deviendra de plus en plus difficile, selon Europol. Pour cette raison, de nouvelles capacités seraient nécessaires, comme des systèmes automatisés capables de détecter les « deepfakes ». Les litiges nécessiteraient également des protocoles pour garantir l’authenticité des preuves. Europol pense également que des entreprises comme Meta et Google devraient en faire davantage pour limiter ce type de contenu.

avec business am




Apprends Moi + -Des Formations en Ligne 100% à Votre Rythme, Montez en Compétence dès Aujourd'hui...