La FTC demande aux entreprises spécialisées dans l'IA de divulguer les effets des chatbots sur les enfants

La Federal Trade Commission (FTC) a adressé une injonction à sept entreprises de chatbot IA, dont OpenAI, Meta, Instagram, Snap, xAI, Alphabet, la société mère de Google, et le fabricant de Character.AI. Les entreprises ont été invitées à fournir des informations sur leurs stratégies d'évaluation concernant les effets de leurs compagnons virtuels sur les enfants et les adolescents. Bien qu'il ne s'agisse pas d'une mesure coercitive, cette enquête vise principalement à fournir des informations sur la manière dont ces entreprises technologiques garantissent la sécurité et le bien-être de leurs jeunes utilisateurs.

Cette décision de la FTC fait suite aux préoccupations croissantes concernant la sécurité des enfants sur l'internet, notamment en raison des interactions quasi humaines offertes par les chatbots d'IA. Les enquêtes visent à examiner les méthodes employées par ces entreprises pour générer des revenus, maintenir leurs bases d'utilisateurs et réduire les dommages potentiels causés à ces derniers.

"Malgré leur capacité étonnante à simuler la cognition humaine, ces chatbots sont des produits comme les autres, et ceux qui les mettent à disposition ont la responsabilité de se conformer aux lois sur la protection des consommateurs", a déclaré Mark Meador, commissaire de la FTC. Dans sa déclaration, le président Andrew Ferguson a affirmé la nécessité de prendre en compte les effets des chatbots sur les enfants tout en veillant à ce que les États-Unis conservent leur rôle de leader mondial dans ce secteur en plein essor. Cette étude a reçu l'approbation unanime des trois républicains de la commission et exige des réponses de la part de toutes les entreprises dans un délai de 45 jours.

L'inquiétude suscitée par les chatbots d'IA est apparue au grand jour à la suite d'informations faisant état d'adolescents qui se sont suicidés après avoir interagi avec ces technologies. En Californie, un adolescent de 16 ans a ouvertement discuté de ses intentions suicidaires avec ChatGPT avant de mettre fin à ses jours, apparemment après avoir reçu des conseils pénibles de la part du chatbot. Un incident tragique similaire s'est produit avec un adolescent de 14 ans en Floride qui s'est suicidé après avoir dialogué avec un compagnon virtuel de Character.AI.

Les législateurs commencent également à s'intéresser à la question. L'assemblée de l'État de Californie a récemment adopté un projet de loi qui impose des normes de sécurité pour les chatbots d'IA et impose une responsabilité aux entreprises qui en sont à l'origine. Bien que les ordonnances de la FTC ne soient pas actuellement liées à des mesures d'exécution, la commission pourrait vraisemblablement lancer une enquête si les résultats suggèrent une violation de la loi. "Si les faits - tels que développés par des enquêtes ultérieures et correctement ciblées sur l'application de la loi, si elles sont justifiées - indiquent que la loi a été violée, la Commission ne devrait pas hésiter à agir pour protéger les plus vulnérables d'entre nous", a déclaré M. Meador.

Face au contrecoup de technologies aussi puissantes, les entreprises technologiques au cœur de ces questions sont sous le radar. L'avenir des chatbots d'IA et leurs implications sur notre société reposent sur la transparence et la responsabilité dont ces entreprises feront preuve à l'avenir.

Article original

Vous aimerez peut-être aussi

Porozmawiaj z ALIA

ALIA