L’IA a très certainement eu un impact important sur l’industrie créative. Pour protéger l’intérêt des artistes, il a récemment été suggéré de payer les artistes lorsque leurs œuvres sont utilisées pour entraîner des IA. Si c’est une idée pertinente et éthique, les investisseurs dans l’IA sont horrifiés par cette idée.
Nous sommes à l’ère de la révolution de l’intelligence artificielle. C’est une technologie dont la progression est extrêmement rapide, et elle a également la particularité de rapporter énormément d’argent à ceux qui investissent dans ce domaine. Mais il est important de savoir que l’IA est également considérée comme une menace à de nombreux égards. Face aux craintes et aux défis imposés par cette technologie, diverses propositions de règlementations commencent à émerger à son encontre. L’une de ces règlementations concerne la protection des droits d’auteurs.
Il faut savoir que l’IA est une technologie générative qui ne peut exister qu’à la condition qu’on lui fournisse des données existantes pour l’entraîner. Parmi ces données figurent de nombreuses œuvres qui appartiennent aux artistes et qui sont soumises aux droits d’auteurs. Notons que, jusqu’à présent, les IA ont utilisé ces œuvres sans la permission des artistes, et sans aucune considération pour leurs droits. Mais cela risque de changer à l’avenir. En effet, il a été récemment proposé que les artistes soient désormais payés lorsque leurs œuvres sont utilisées pour entraîner les IA.
Si cela semble tout à fait normal et juste, les investisseurs dans l’IA aux États-Unis trouvent que c’est absurde. Selon ces derniers, une telle règlementation va freiner considérablement le développement de l’IA. Ils affirment que toute information disponible sur Internet devrait pouvoir être utilisée par tout le monde, et que c’est injuste de priver les entreprises d’IA de ce droit. Ils sont même allés jusqu’à affirmer que cette règlementation allait mettre à mal les États-Unis dans le domaine de la technologie. Par ailleurs, pour lutter contre le plagiat par l’IA, cet outil “empoisonne” les images originales.