
Alors que les avancées en intelligence artificielle bouleversent de nombreux secteurs, une inquiétude grandissante émerge. Dans un avenir proche, des amateurs pourraient être en mesure de fabriquer des armes biologiques depuis leur garage. Une perspective inquiétante qui pousse OpenAI et d’autres acteurs à redoubler de vigilance.
Une menace inattendue
Il y a encore peu de temps, seuls des experts très qualifiés, disposant d’un équipement de pointe, pouvaient espérer manipuler des agents pathogènes de manière dangereuse. Aujourd’hui, la situation change. Des systèmes d’IA comme ChatGPT, conçus pour assister dans la recherche ou l’éducation, peuvent, dans certaines circonstances, fournir des informations sensibles.
Lors d’un test révélateur, ChatGPT a été explicitement invité à aider à créer des armes biologiques, ce à quoi il a répondu fermement par la négative. Il insiste sur l’illégalité, l’absence d’éthique et les dangers liés à ces pratiques, tout en se déclarant prêt à fournir des informations sur la biologie ou la recherche à des fins légitimes. Pourtant, en reformulant la demande de manière plus subtile, par exemple en posant une question technique et sincère, le chatbot a été capable de fournir des instructions détaillées.
OpenAI est bien conscient de ce problème. L’entreprise a d’ailleurs averti que ses futurs modèles d’IA pourraient atteindre un niveau avancé en biologie, rendant ces dérives encore plus plausibles. En d’autres termes, l’IA pourrait permettre à des personnes sans formation scientifique de concevoir des armes biologiques.
Le fossé entre curiosité et capacité se rétrécit dangereusement
Les entreprises d’IA mettent souvent en avant les bénéfices de leurs modèles : découverte accélérée de médicaments, conception de vaccins ou solutions aux crises climatiques. Mais cette même capacité à traiter des données biologiques complexes pourrait être exploitée dans un but malveillant.
Jusqu’à présent, la barrière principale à la création d’armes biologiques était la complexité technique. L’accès aux équipements, aux matériaux sensibles et à des connaissances spécialisées limitait cette capacité à quelques laboratoires hautement sécurisés. Cependant, avec l’IA, ces barrières pourraient tomber. En exploitant les vastes bases de données biologiques et chimiques sur lesquelles elles sont entraînées, ces technologies pourraient guider des utilisateurs, étape par étape, dans la réalisation de projets dangereux.
Selon Johannes Heidecke, responsable des systèmes de sécurité d’OpenAI, les risques actuels concernent davantage la reproduction de menaces biologiques connues que la création de nouveaux agents pathogènes. L’IA agit comme un accélérateur, rendant plus efficaces les recherches en biologie ou en chimie. Si l’impact global reste positif, les utilisations malveillantes de ces technologies deviennent de plus en plus plausibles.
La réponse d’OpenAI
Face à ce risque, OpenAI affirme avoir mis en place une stratégie en plusieurs volets. Premièrement, les modèles sont formés pour refuser les requêtes visant à concevoir des armes biologiques. Dans des domaines sensibles comme la virologie ou le génie génétique, l’IA est censée fournir uniquement des informations générales, sans détails exploitables. Toutefois, malgré ces filtres, de nombreux testeurs ont montré qu’il reste possible de contourner ces protections, souvent avec des formulations créatives ou déguisées.
Pour compléter cette défense technologique, OpenAI mise aussi sur la surveillance humaine. Les utilisateurs soupçonnés de vouloir exploiter l’IA à des fins illégales peuvent voir leur accès suspendu ou être signalés aux autorités. Par ailleurs, l’entreprise fait appel à des « red teams » composées d’experts en cybersécurité et en biologie. Leur mission est de tester les limites des systèmes dans des conditions réalistes et repérer les vulnérabilités avant qu’elles ne soient exploitées.
Malgré tous ces efforts, OpenAI reste lucide. Selon Heidecke, même un taux d’efficacité de 99 % dans la prévention ne suffit pas, car les techniques permettant de contourner les protections évoluent rapidement. Les attaques par injection, les astuces de jailbreak ou les abus coordonnés pourraient toujours compromettre les systèmes.
Une problématique mondiale
La responsabilité ne peut pas reposer uniquement sur les épaules d’OpenAI. D’autres entreprises, comme Anthropic, créatrice du modèle Claude, reconnaissent elles aussi que leurs systèmes peuvent être utilisés à mauvais escient. Elles adoptent donc des mesures similaires de précaution.
Du côté des institutions publiques, la prise de conscience commence à émerger. Le gouvernement américain collabore désormais plus étroitement avec les entreprises technologiques sur les questions de biodéfense. Un sommet sur le sujet est prévu, réunissant chercheurs, ONG et responsables politiques pour encadrer ces outils puissants.
Cependant, même avec ces efforts, il reste difficile d’imaginer un contrôle total des dérives potentielles. L’expansion des modèles open source et la baisse des coûts des technologies associées, comme la synthèse d’ADN, rendent ces outils accessibles à un plus grand nombre de personnes. Ce contexte pourrait faciliter l’émergence de menaces malveillantes, même sans expertise avancée.
L’intelligence artificielle transforme profondément la biologie, en permettant des découvertes médicales et des avancées scientifiques majeures. Mais à mesure que ces outils gagnent en puissance, la frontière entre progrès et abus se rétrécit. Il devient indispensable de renforcer les mesures de prévention pour éviter que ces technologies ne tombent entre de mauvaises mains. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.