
L’un des pires dangers que peut représenter l’IA concerne son usage à des fins militaires ou à tout autre usage impliquant des armes. Si Google fait partie des entreprises qui ont promis que les IA qu’elles développent contrôleraient leur technologie pour arriver à de telles extrémités, il semblerait qu’elle ait retourné sa veste.
Ça y est, Google a ouvert la boîte de Pandore. Alors que le géant américain de la technologie avait initialement promis que des programmes d’intelligence artificielle ne seraient jamais utilisés à des fins malveillantes ou dangereuses, Alphabet – la société mère de Google – est revenu sur cette promesse. Alphabet a notamment annoncé une mise à jour de ses lignes directrices éthiques concernant l’IA. Et désormais, cette règlementation interne ne fait plus référence à l’interdiction de poursuivre des technologies qui peuvent « causer ou sont susceptibles de causer un préjudice général ».
Cela implique que les IA de Google peuvent maintenant être utilisées pour des projets très dangereux comme le développement d’armes et d’outils de surveillance ou d’espionnage. Autrement dit, au lieu de se contenter de dessiner des images de robots de guerre avec l’IA, des outils comme Gemini pourraient être utilisés pour aider à construire de véritables machines de guerre. Étant donné la facilité d’accès aux IA de Google, ces nouvelles directives ouvrent des perspectives effrayantes quant à l’abus dans l’usage de ces outils par des personnes malveillantes.
Le plus terrifiant étant que Google n’est pas la seule entreprise de technologie à avoir levé ses restrictions sur l’usage de l’IA. L’année dernière, OpenAI – l’entreprise derrière ChatGPT – a également énoncé des directives similaires. Par ailleurs, voici comment se terminera une guerre entre l’intelligence artificielle et l’humanité.
Par Gabrielle Andriamanjatoson, le
Source: Futurism
Étiquettes: google, intelligence-artificielle
Catégories: Robots & IA, Brèves