L’intelligence artificielle est devenue un outil puissant dans le monde professionnel, promettant d’augmenter la productivité et de simplifier les tâches quotidiennes. Une récente étude a révélé que Copilot, l’intelligence artificielle développée par Microsoft, présente des vulnérabilités importantes.
Michael Bargury, cofondateur de la société de sécurité Zenity, a mis en lumière les vulnérabilités de Copilot lors de la conférence sur la sécurité Black Hat à Las Vegas. Ce dernier a indiqué que l’intelligence artificielle de Microsoft peut être manipulée pour révéler des informations sensibles et peut être utilisée pour créer des attaques de phishing très efficaces, avec peu d’efforts.
Michael Bargury a montré comment transformer Copilot en un outil de phishing automatique. Avec son code LOLCopilot, un pirate peut utiliser l’IA pour accéder à la messagerie d’une personne, voir avec qui elle communique souvent, imiter son style d’écriture, et envoyer des messages trompeurs avec des liens ou des pièces jointes malveillantes. « Je peux le faire avec toutes les personnes à qui vous avez parlé, et je peux envoyer des centaines de courriels en votre nom. Un pirate passerait des jours à concevoir le bon courriel pour vous inciter à cliquer dessus, mais il peut générer des centaines de ces courriels en quelques minutes », a-t-il déclaré.
Microsoft est conscient de ces risques et travaille avec des chercheurs pour améliorer la sécurité de Copilot. En réponse aux préoccupations actuelles, la firme prévoit de lancer des outils spécialement conçus pour les besoins de sécurité des utilisateurs gouvernementaux. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.
Par Kanto Andriamanjatoson, le
Source: Futurism
Étiquettes: microsoft, intelligence-artificielle
Catégories: Robots & IA, Brèves