Les textes et images générés par l’intelligence artificielle sont toujours plus présents sur le web. Cette tendance constitue toutefois un important problème pour les modèles d’IA génératifs. Explications.
De plus en plus de recherches montrent que l’entraînement de modèles d’IA génératifs sur des contenus générés par l’IA provoque une érosion des modèles. Par ailleurs, dans le cadre de la montée en puissance du contenu IA sur le web, celui-ci « devient un endroit de plus en plus dangereux pour rechercher vos données », a déclaré Sina Alemohammad, étudiante diplômée de l’université Rice et auteure d’un article de 2023 qui a inventé le terme « MAD » (Model Autophagy Disorder) pour décrire les effets de l’autoconsommation de l’IA.
En outre, les modèles d’IA sont extrêmement gourmands en données, et les entreprises d’IA se sont appuyées sur des données récupérées sur le Web pour former ces programmes. Cependant, ni les entreprises d’IA ni leurs utilisateurs ne sont tenus d’apposer des mentions d’IA ou des filigranes sur le contenu d’IA qu’ils génèrent. Cela complique donc la tâche des créateurs d’IA qui souhaitent exclure le contenu synthétique des ensembles d’entraînement d’IA.
Les données créées par l’être humain sont au coeur des avancées récentes des technologies d’IA génératrices. Toutefois, avec les contenus générés par l’IA qui brouillent les pistes numériques et l’absence de moyens pour distinguer le vrai du faux, les entreprises d’IA pourraient bientôt se retrouver face à un mur particulièrement dangereux.
Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.
Par Cécile Breton, le
Source: Futurism
Étiquettes: intelligence-artificielle
Catégories: Robots & IA, Brèves