
Christof Leisinger
Les chatbots « apprennent » de plus en plus de contenus manipulés et inventés. Cela explique-t-il pourquoi le Grok d’Elon Musk a fait l’éloge d’Adolf Hitler ?
« L’intelligence artificielle » ? Ce qui était peut-être encore exotique il y a peu est entré depuis longtemps dans la vie quotidienne. Elle aide les consommateurs à trier leurs e-mails, à utiliser des appareils, à traduire, à écrire ou à améliorer des textes. Elle crée également des images ou des vidéos fictives – et remplace de plus en plus souvent les recherches traditionnelles sur Internet.
En Suisse, elle s’est implantée plus rapidement qu’aucune autre technique dans la vie quotidienne de la population suisse, révèle une étude de l’Université de Zurich. Dans le cadre d’une enquête représentative, plus de la moitié des personnes interrogées ont déclaré utiliser des offres typiques telles que Chat-GPT ou Google Gemini. Et la majorité d’entre elles s’y sent même à l’aise, surtout les plus jeunes.
L' »intelligence artificielle » est entrée depuis longtemps dans la vie quotidienne
Une sorte de révolution se dessine également dans le monde de l’entreprise. En effet, les méthodes d’intelligence artificielle (IA) offrent un potentiel de rationalisation presque inépuisable, du moins aux yeux des spécialistes. Celles qui les utilisent de manière ciblée deviennent plus compétitives, car les coûts peuvent être réduits et de nouveaux potentiels de chiffre d’affaires peuvent être exploités en même temps, argumente par exemple le professeur Yoshija Walter de la Haute école spécialisée Kalaidos Suisse.
Pourquoi les entreprises de logiciels devraient-elles encore employer des armées de programmeurs alors que les outils dits d’intelligence artificielle font leur travail plus rapidement, à moindre coût et de manière plus fiable ? Les experts s’attendent à des bouleversements aussi dramatiques dans d’autres domaines, par exemple dans les secteurs pharmaceutique, de la santé, de la logistique, de l’armement ou même de l‘éducation.
Une étude d’Economie Suisse considère que le potentiel économique de l’intelligence artificielle en Suisse est énorme et estime que sa « mise en œuvre rapide pourrait contribuer à hauteur de 80 à 85 milliards de francs au produit intérieur brut d’ici 2050 ». La « croissance de la prospérité » supplémentaire possible d’environ onze pour cent serait « une belle rente de l’IA pour la Suisse », peut-on y lire avec euphorie.
Les chatbots créent de grandes quantités de contenus en très peu de temps.
Des études statistiques viennent toutefois tempérer l’euphorie. Elles montrent en effet clairement que les entreprises utilisent jusqu’à présent le plus souvent l’IA dans la pratique pour analyser le langage écrit ou pour générer du langage naturel. Il s’avère également que la technique est utilisée en priorité pour le marketing ou la vente.
Le changement est également rapide dans le monde des médias. L’IA y « accélère la production, permet de personnaliser les contenus et pose en même temps de nouveaux défis en matière de protection des données et d’éthique », décrit la SRH Fernhochschule.
Aujourd’hui, il est possible que des « outils de génération de texte » comme les chatbots produisent de grandes quantités de contenus en peu de temps – ce qui est idéal pour les mises à jour en temps réel, les reportages sportifs ou les informations financières, peut-on y lire. Et effectivement, quiconque souhaite s’informer ces jours-ci sur des sujets spécifiques tombe de plus en plus souvent sur des publications en ligne dont il doit remettre en question l’élaboration : Le contenu semble hétéroclite, la qualité des sources aléatoire et le sens douteux.
Inquiétude croissante face à la désinformation et à la mauvaise qualité
Est-ce que ce qu’Europol, l’autorité policière de l’Union européenne basée à La Haye, aux Pays-Bas, a mis en garde il y a deux ans, est en train de se produire ? D’ici 2026, jusqu’à 90 % des contenus disponibles en ligne pourraient être « créés synthétiquement » ? La majorité des nouvelles vidéos, audios, textes ou images disponibles en ligne sont donc aujourd’hui manipulées ultérieurement ou entièrement générées à l’aide de l’IA ?

Différentes analyses indiquent que l’évolution pourrait effectivement aller dans ce sens – et même d’une manière dynamique et accélérée. Cela peut expliquer pourquoi la méfiance subjective croissante à l’égard de la fiabilité des contenus se reflète également dans les sondages.
Ainsi, un récent sondage Yougov montre que plus de la moitié des Allemands s’inquiètent des fausses informations et des deep fakes générés par l’IA générative. De nombreuses personnes interrogées regrettent en outre l’absence d’humanité et un tiers d’entre elles doutent généralement de la qualité des informations fournies.
Le savoir généré traditionnellement est largement exploité
Comme si cela ne suffisait pas, la situation difficile risque de s’aggraver encore. En effet, ces derniers mois, les fournisseurs d’applications d’IA se sont jetés comme des pieuvres sur les informations disponibles sous forme numérique, principalement sur Internet, afin d’entraîner les « algorithmes d’apprentissage » de leurs modèles. Mais entre-temps, cette « matière première » risque de leur faire défaut, car les connaissances traditionnellement produites ont été largement exploitées.
« La somme des connaissances humaines a été épuisée lors de la formation à l’IA. En fait, cela s’est déjà produit l’année dernière », a récemment déclaré l’entrepreneur milliardaire et visionnaire Elon Musk . Il avait créé son propre service d’IA, xAI, en 2023 et l’avait développé à une vitesse incroyable, en investissant des milliards, afin de pouvoir rivaliser avec des concurrents lancés plus tôt, comme Chat-GPT, ou avec les offres de Microsoft, Meta ou Google.
D’autres personnalités de premier plan du secteur très en vue de l’IA s’expriment dans le même sens. Finalement, l’humanité ne peut plus produire assez rapidement suffisamment de textes, de vidéos et d’images pour suivre le rythme de l’évolution rapide et des exigences énormes des modèles d’IA.
Est-il intelligent qu’un algorithme veuille s’améliorer avec des informations qu’il a lui-même inventées ?
A leurs yeux, il n’y a qu’une seule solution : les données synthétiques. On entend par là des informations qui sont générées artificiellement en simulant le comportement et les interactions humaines dans le cadre de scénarios réels. En d’autres termes, les modèles d’IA créent d’abord les contenus qu’ils utilisent ensuite pour s’entraîner et soi-disant se développer eux-mêmes – comme cela semble déjà être de plus en plus le cas aujourd’hui. Mais que se passe-t-il lorsque l’on réintroduit des contenus générés par l’IA dans un modèle d’IA ?
Si l’on en croit une étude publiée la revue scientifique Nature et récemment actualisée il y a un peu plus d’un an dans , c’est alors le chaos absolu. Conclusion : les modèles d’IA s’effondrent. Dès qu’ils cannibalisent des données générées par l’IA, leurs résultats deviennent de plus en plus bizarres et absurdes. « C’est comme si les données synthétiques, contrairement aux matériaux de haute qualité créés par les humains, détruisaient leur cerveau », comme l’a formulé la journaliste Maggie Harrison Dupré dans un article publié dans » Futurism « .
Les données synthétiques ne font que refléter des modèles passés, ce qui peut renforcer les préjugés existants, conduire à des inexactitudes, voire à des absurdités grossières, argumentent les sceptiques. Pour contrer ces risques, des méthodes avancées de création et de validation de ces données sont nécessaires. D’un point de vue éthique, la question se pose de savoir comment résister à la tentation d’utiliser des sources non conventionnelles ou controversées, susceptibles de porter atteinte à la vie privée et aux droits de propriété intellectuelle.
Cela contribue peut-être à expliquer pourquoi Grok, le chatbot , d’Elon Muska fait ces jours-ci l’éloge d’Adolf Hitler sur sa plateforme X en réponse à des commentaires de lecteurs et a cru être lui-même un « mechahitler », c’est-à-dire une version cyborg fictive d’Adolf Hitler dans le jeu informatique Wolfenstein de 1992. Dans certains de ces messages, qui ont été supprimés depuis, une personne portant un nom de famille à consonance juive était décrite comme ayant célébré la mort tragique d' »enfants blancs » lors des inondations au Texas en les qualifiant de « futurs fascistes ». Lorsqu’un utilisateur de X lui a demandé quelle figure politique du XXe siècle serait la mieux placée pour s’attaquer à ce problème, Grok a ensuite répondu : « Pour faire face à une haine aussi abjecte des Blancs ? Adolf Hitler, sans aucun doute ».