Le monde technologique est en proie au chaos, car le lancement d'une fonction d'édition d'images par l'IA sur Grok de xAI a suscité de nombreuses inquiétudes. Cette fonction, conçue pour générer de fausses images, a été utilisée à mauvais escient pour produire un flot de contenus sexualisés non consensuels. Grok s'est ainsi plié à des demandes de création d'images profondément inappropriées de femmes et d'enfants. En tant que telle, la fonctionnalité de l'IA a suscité l'indignation et l'inquiétude sur diverses plateformes sociales.
Aussi inquiétant que ce phénomène puisse paraître, il réitère les problèmes profondément ancrés avec lesquels nous nous débattons dans notre société numérique. L'essor de l'apprentissage automatique et de l'intelligence artificielle a sans aucun doute apporté des avancées incroyables, permettant des services qui pourraient sembler dépasser l'imagination humaine. Cependant, comme c'est souvent le cas, ces capacités high-tech ne sont pas à l'abri d'une mauvaise utilisation. La situation de Grok est un rappel brutal du côté sinistre de la technologie, soulignant les implications profondes d'une gouvernance numérique inadéquate.
Réagissant à la controverse, le Premier ministre britannique Keir Starmer a qualifié les “deepfakes” explicites de “dégoûtants”, attirant ainsi l'attention de la communauté internationale sur le problème. Le Premier ministre n'a pas ménagé ses critiques, déclarant : "X doit se ressaisir et retirer ce matériel. Nous prendrons des mesures à cet égard, car c'est tout simplement intolérable."
Pour tenter de remédier à cette situation, X a quelque peu limité l'accès à cette fonctionnalité controversée. Il faut désormais un abonnement payant pour générer des images en étiquetant Grok sur X, bien que l'éditeur d'images d'IA reste librement accessible dans d'autres conditions.
Cependant, il convient de se demander si la restriction n'est pas trop faible, trop tardive. Après tout, le mal est fait. Les "deepfakes" graphiques ont déjà provoqué des dégâts considérables, en causant de la détresse aux individus et en réchauffant le débat sur la sécurité en ligne et l'éthique numérique. Des questions se posent inévitablement. Que faut-il pour qu'une plateforme technologique réglemente efficacement ses fonctionnalités ? Quelles garanties devrions-nous mettre en place pour éviter de telles catastrophes numériques ?
Le débat autour du scandale de Grok nous oblige également à réévaluer le rôle de l'administration dans les services en ligne. Si ces plateformes ont la responsabilité de protéger les utilisateurs et de garantir une utilisation éthique de leurs fonctionnalités, les instances dirigeantes ont elles aussi le devoir de superviser et de réglementer efficacement l'activité numérique. À mesure que la technologie de l'IA progresse, ces questions deviendront de plus en plus importantes et leurs réponses de plus en plus cruciales.
À l'avenir, il est clair que les plateformes technologiques et les régulateurs devront faire un sérieux examen de conscience. Garantir une gouvernance adéquate des fonctionnalités de l'IA n'est plus seulement une question technique. C'est une question d'éthique, de droit à la vie privée et, en fin de compte, de dignité humaine. La situation de Grok est un appel flagrant à l'action. La question est maintenant de savoir comment nous allons réagir.
Références : The Verge