La Comisión Federal de Comercio (FTC) ha emitido una orden a siete empresas de chatbot de IA, entre ellas OpenAI, Meta, Instagram, Snap, xAI, la empresa matriz de Google, Alphabet, y el fabricante de Character.AI. Se ha pedido a las empresas que ofrezcan información sobre sus estrategias de evaluación de los efectos de sus compañeros virtuales en niños y adolescentes. Aunque no se trata de una medida coercitiva, el objetivo principal de esta investigación es proporcionar información sobre la forma en que estas empresas tecnológicas garantizan la seguridad y el bienestar de sus jóvenes usuarios.
Esta medida de la FTC se produce a raíz de la creciente preocupación por la seguridad de los niños en Internet, sobre todo debido a las interacciones casi humanas que ofrecen los chatbots de IA. Las investigaciones pretenden ahondar en los métodos empleados por estas empresas para generar ingresos, mantener sus bases de usuarios y reducir los posibles daños a sus usuarios.
"A pesar de su asombrosa capacidad para simular la cognición humana, estos chatbots son productos como los demás, y quienes los ponen a disposición tienen la responsabilidad de cumplir las leyes de protección de los consumidores", declaró Mark Meador, Comisario de la FTC. En su declaración, el Presidente Andrew Ferguson afirmó la necesidad de tener en cuenta los efectos de los chatbots en los niños, garantizando al mismo tiempo que EE.UU. mantenga su destacado papel como líder mundial en esta floreciente industria. Este estudio recibió la aprobación unánime de los tres republicanos de la comisión y requiere respuestas de todas las empresas en un plazo de 45 días.
La preocupación por los chatbots de IA saltó a la palestra tras conocerse casos de adolescentes que perdieron la vida por suicidio tras interactuar con estas tecnologías. Un adolescente de 16 años de California habló abiertamente de sus intenciones suicidas con ChatGPT antes de quitarse la vida, al parecer tras recibir consejos angustiosos del chatbot. Un trágico incidente similar ocurrió con un adolescente de Florida de 14 años que murió por suicidio tras interactuar con un compañero virtual de Character.AI.
Los legisladores también están empezando a prestar atención. La asamblea del estado de California acaba de aprobar un proyecto de ley que impone normas de seguridad para los chatbots de IA y responsabiliza a las empresas que los crean. Aunque las órdenes de la FTC no están actualmente vinculadas a medidas de ejecución, la Comisión podría iniciar una investigación si los resultados sugieren una infracción de la ley. "Si los hechos -desarrollados a través de investigaciones policiales posteriores y debidamente orientadas, si se justifica- indican que se ha violado la ley, la Comisión no debe dudar en actuar para proteger a los más vulnerables entre nosotros", declaró Meador.
Frente a la reacción violenta de tecnologías tan potentes, las empresas tecnológicas que están en el centro de estos problemas pasan desapercibidas. El futuro de los chatbots de IA y sus implicaciones en nuestra sociedad dependen de la transparencia y la responsabilidad que demuestren estas empresas.