Un appel mondial pour combler les lacunes de la politique en matière d'IA

Les délibérations sur l'utilisation incontrôlée de l'intelligence artificielle (IA) dominent depuis longtemps le discours technologique. Aujourd'hui, des centaines de dirigeants et d'organisations du monde entier ont franchi une étape décisive dans la gestion de ce dilemme. Lundi, plus de 200 anciens chefs d'État, diplomates, lauréats du prix Nobel, spécialistes de l'IA, chercheurs et autres ont uni leurs forces pour proposer un accord international sur les "lignes rouges" que l'IA ne devrait jamais franchir. Parmi les limites suggérées figure l'interdiction pour l'IA de se faire passer pour un être humain ou de se répliquer.

Avec plus de 70 organisations dédiées à l'IA, ces personnalités ont soutenu l'initiative "Global Call for AI Red Lines" (Appel mondial pour des lignes rouges en matière d'IA). Cette initiative exhorte les gouvernements du monde entier à accepter ces "lignes rouges" pour l'IA avant la fin de l'année 2026. Parmi les signataires les plus en vue figurent Geoffrey Hinton, informaticien canadien d'origine britannique, Wojciech Zaremba, cofondateur d'OpenAI, Jason Clinton, RSSI d'Anthropic, et Ian Goodfellow, chercheur chez Google DeepMind.

Selon Charbel-Raphaël Segerie, directeur exécutif du Centre français pour la sécurité de l'IA (CeSIA), l'objectif de cette initiative est d'aborder les risques associés à l'IA de manière proactive, plutôt que de réagir seulement après un incident important. Il a souligné la nécessité d'un accord, déclarant : "Si les nations ne peuvent pas encore se mettre d'accord sur ce qu'elles veulent faire avec l'IA, elles doivent au moins se mettre d'accord sur ce que l'IA ne doit jamais faire."

Cette initiative arrive à la veille de la semaine de haut niveau de la 80e Assemblée générale des Nations unies à New York. Elle a été lancée par le CeSIA, la Future Society et le Center for Human-Compatible Artificial Intelligence de l'université de Berkeley. Lors de l'assemblée, Maria Ressa, lauréate du prix Nobel de la paix, a fait référence à l'initiative dans son discours d'ouverture, plaidant pour une responsabilité mondiale afin de mettre un terme à l'impunité des grandes entreprises technologiques.

Si des "lignes rouges" régionales concernant l'utilisation de l'IA sont déjà en place, comme la loi sur l'IA de l'Union européenne et un accord entre les États-Unis et la Chine selon lequel les armes nucléaires devraient rester sous le contrôle de l'homme, il manque encore un consensus mondial. Niki Iliadis, directeur de la gouvernance mondiale de l'IA à la Future Society, estime qu'à terme, une institution mondiale indépendante dotée d'une autorité exécutoire est nécessaire pour établir, superviser et faire respecter ces lignes rouges. "La responsabilité doit être plus qu'un engagement volontaire", a-t-elle ajouté.

Mais cet appel à la prudence ne signifie pas qu'il faille étouffer l'innovation ou la croissance économique, comme l'affirment certains sceptiques. Stuart Russell, professeur d'informatique à l'université de Berkeley et l'un des principaux chercheurs dans le domaine de l'IA, a établi un parallèle entre l'industrie émergente de l'IA et les débuts de l'énergie nucléaire. Il a déclaré : "Ils peuvent se conformer à la réglementation en ne construisant pas d'IA tant qu'ils ne savent pas comment la rendre sûre, tout comme les développeurs d'énergie nucléaire n'ont pas construit de centrales nucléaires tant qu'ils n'avaient pas une idée de la manière de les empêcher d'exploser".

Selon M. Russell, nous pouvons exploiter la puissance de l'IA pour le développement économique sans donner libre cours à une intelligence générale avancée (AGI) que nous ne pouvons pas contrôler. "Cette prétendue dichotomie, selon laquelle si l'on veut des diagnostics médicaux, il faut accepter une IA qui détruise le monde, me paraît tout simplement absurde", a-t-il déclaré.

À une époque où l'IA perturbe et renforce les capacités, l'appel mondial pour des lignes rouges en matière d'IA vise à établir un équilibre entre les vastes potentiels de la technologie et les risques inhérents, en appelant à un consensus international pour régir l'utilisation prudente de l'IA. Toutefois, cet appel initial n'est que la première étape vers une gouvernance mondiale de l'IA. Il reste à voir comment les dirigeants répondront à cet appel.

Article original

Vous aimerez peut-être aussi

Porozmawiaj z ALIA

ALIA