A principios de este mes, un estremecedor examen de The Guardian ha sacado a la luz fallos inesperados en la IA de Google, revelando información engañosa y directamente falsa en respuesta a determinadas búsquedas relacionadas con la salud. En una rápida respuesta de Google, las sugerencias de salud inexactas generadas por la IA han sido eliminadas de los resultados del motor de búsqueda.
La investigación original supuso una revelación alarmante sobre las descripciones de la IA de Google y su capacidad para difundir información incorrecta sobre enfermedades, tratamientos y recomendaciones dietéticas. Algunos casos apuntaban a riesgos potencialmente graves para los usuarios, con orientaciones sanitarias inexactas que podrían provocar complicaciones de salud o agravar enfermedades existentes.
Uno de estos casos giraba en torno a los consejos para personas diagnosticadas de cáncer de páncreas. En una clara desviación de las recomendaciones dietéticas aceptadas para esta enfermedad, Google indicó erróneamente que los pacientes debían evitar los alimentos ricos en grasas, cuando, en realidad, el consejo adecuado es todo lo contrario. Estos datos engañosos podrían dar lugar a una disminución de la calidad de vida, con los pacientes sufriendo efectos secundarios innecesarios o incluso experimentando un mayor riesgo de muerte por la enfermedad.
Teniendo en cuenta la amplia dependencia de Google por parte del público en general para una gran cantidad de información, incluidas las consultas de salud, las inexactitudes reportadas son realmente ‘muy peligrosas’. También subraya la lucha constante a la que se enfrentan las empresas tecnológicas a la hora de ofrecer soluciones sanitarias precisas y fiables, incluso cuando las tecnologías de IA y aprendizaje automático evolucionan a un ritmo vertiginoso. La pregunta que se impone es: ¿pueden la IA y los algoritmos de aprendizaje automático adaptarse a las complejas exigencias que plantean las consultas sanitarias?
Ante la realidad de que su servicio de IA proporciona información sanitaria engañosa, Google se apresuró a eliminar los preocupantes resultados de sus resúmenes sobre IA. Esta decisión subraya la magnitud del problema cuando la IA se equivoca, especialmente en áreas sensibles y críticas como la salud. También dice mucho de la disposición de Google a abordar estos problemas y rectificarlos rápidamente. Sin embargo, el incidente plantea cuestiones cruciales sobre la fiabilidad y la supervisión de los algoritmos automatizados destinados a proporcionar asesoramiento y orientación sólidos en materia de salud.
Teniendo en cuenta la compleja naturaleza de las enfermedades humanas y sus tratamientos, junto con la continua evolución de la investigación médica, está claro que la precisión perfecta de las fuentes tecnológicas aún tiene mucho margen de mejora. Sin embargo, lo positivo de este incidente es el compromiso de Google para resolver rápidamente los resultados problemáticos. De cara al futuro, este tipo de incidentes deberían servir de llamada de atención a las empresas tecnológicas para que introduzcan mejoras en sus sistemas que den prioridad a la seguridad y la precisión.
Para conocer todos los detalles del incidente, visita este informe original de The Verge: Google retira los ‘alarmantes’ y ‘peligrosos’ resúmenes de IA médica