
Avec les avancées extrêmement rapides réalisées dans le domaine de l’intelligence artificielle et des mégadonnées, l’humanité est indéniablement dans sa quatrième révolution industrielle. Mais cette révolution est unique en son genre en raison des risques liés aux potentielles IA malveillantes. Et maintenant que l’IA est capable de se reproduire, cette menace semble plus réelle que jamais.
Pourquoi l’IA fait peur ?
On pourrait penser que l’idée selon laquelle les objets puissent devenir un jour plus intelligents que les êtres humains est un concept qui se limite au domaine de la fiction. Pourtant, au cours des dernières années, nous avons assisté à l’âge moderne de l’intelligence artificielle et de l’avènement de l’IA générative, et cela a permis de constater qu’il est tout à fait possible que cette technologie surpasse les humains en matière d’intelligence. D’ailleurs, certains observateurs estiment que l’IA est désormais l’entité la plus intelligente de la planète Terre.
C’est l’une des raisons pour lesquelles l’IA est déjà considérée comme une menace par de nombreux experts. Et c’est d’autant plus inquiétant dans la mesure où le développement de l’IA se fait à une vitesse extrêmement élevée. Ce développement est si rapide que les humains ont du mal à suivre et à comprendre. Et le fait est que l’on ne peut contrôler ni maîtriser ce que l’on ne comprend pas. Cet état de fait a été une fois de plus démontré par une évolution inattendue dans le domaine de l’IA : des chercheurs de l’université de Fudan en Chine ont constaté que les modèles d’IA peuvent déjà se reproduire.

L’émergence d’IA malveillantes est désormais une préoccupation tangible
En effet, d’après les résultats d’une recherche prépubliée sur arXiv, les chercheurs ont montré que deux grands modèles de langage (LLM) – un type d’IA capable de comprendre, de prédire et de générer du texte de type humain – pouvaient se répliquer. Les scientifiques ont expliqué qu’avec cette nouvelle capacité, l’IA a désormais franchi « la ligne rouge » qui lui permettrait de surpasser les humains. « Une autoréplication réussie sans aucune assistance humaine est l’étape essentielle pour que l’IA surpasse les humains, et constitue un signal précoce pour les IA malveillantes », ont écrit les chercheurs dans leur papier.
Pour aboutir à leur conclusion, les scientifiques ont mené 10 essais différents avec les LLM de Meta et d’Alibaba pour déterminer si les IA pouvaient se comporter de manière malveillante. Plus précisément, ils ont analysé les traces comportementales des LLM Llama31-70B-Instruct de Meta et Qwen25-72B-Instruct d’Alibaba. Les résultats ont montré que ces modèles d’IA présentent déjà une autoperception, une conscience situationnelle et des capacités de résolution de problèmes suffisantes pour accomplir l’autoréplication.
Les chercheurs ont en effet constaté que ces deux modèles d’IA étaient capables de créer des répliques d’elles-mêmes, respectivement dans 50 % et 90 % des cas. Pire, ces IA pourraient déjà avoir la capacité de se rebeller, et ainsi de devenir malveillantes. Les résultats de cette étude impliquent que la possibilité que l’IA évolue au-delà de la surveillance humaine – et devienne une menace pour les intérêts humains – est désormais une préoccupation tangible. Bien que les résultats de l’étude n’aient pas encore été examinés par des pairs, les chercheurs ont appelé à une collaboration internationale pour garantir que l’IA ne s’engage pas dans une autoréplication incontrôlée. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.
Par Gabrielle Andriamanjatoson, le
Source: Live Science
Étiquettes: intelligence artificielle
Catégories: Actualités, Robots & IA