Au début de ce mois, un examen choquant effectué par l The Guardian a mis en lumière des failles inattendues dans l'intelligence artificielle de Google, révélant des informations trompeuses, voire carrément fausses, en réponse à certaines recherches liées à la santé. Google a réagi rapidement en supprimant des résultats du moteur de recherche les suggestions inexactes générées par l'IA en matière de santé.
L'enquête initiale a fait l'objet d'une révélation alarmante décrivant les aperçus de l'IA de Google et leur capacité à diffuser des informations erronées sur les conditions médicales, les traitements et les recommandations diététiques. Certains cas ont mis en évidence des risques potentiellement graves pour les utilisateurs, avec des conseils de santé inexacts qui pourraient entraîner des complications ou exacerber des maladies existantes.
L'un de ces cas concernait des conseils destinés aux personnes atteintes d'un cancer du pancréas. S'écartant radicalement des recommandations diététiques acceptées pour cette maladie, Google a indiqué à tort que les patients devaient éviter les aliments riches en graisses, alors qu'en réalité, le conseil à suivre est tout à fait contraire. Ces données trompeuses peuvent entraîner une diminution de la qualité de vie, des effets secondaires inutiles ou même un risque accru de décès dû à la maladie.
Étant donné que le grand public se fie largement à Google pour une myriade d'informations, y compris sur la santé, les inexactitudes signalées sont en effet ‘vraiment dangereuses’. Elles soulignent également la difficulté que rencontrent les entreprises technologiques pour fournir des solutions précises et fiables en matière de santé, alors même que les technologies d'IA et d'apprentissage automatique évoluent à un rythme rapide. La question qui se pose est la suivante : l'IA et les algorithmes d'apprentissage automatique peuvent-ils s'adapter pour répondre aux exigences complexes posées par les demandes de renseignements sur les soins de santé ?
Confronté à la réalité de son service d'IA fournissant des informations trompeuses sur la santé, Google s'est empressé d'effacer les résultats troublants de ses aperçus sur l'IA. Cette décision souligne l'ampleur du problème lorsque l'IA dérape, en particulier dans des domaines sensibles et critiques tels que la santé. Elle en dit également long sur la volonté de Google de s'attaquer à ces problèmes et de les rectifier rapidement. Toutefois, l'incident soulève des questions cruciales sur la fiabilité et la surveillance des algorithmes automatisés destinés à fournir des conseils et des orientations solides en matière de santé.
Compte tenu de la nature complexe des problèmes de santé humaine et de leurs traitements, ainsi que de l'évolution constante de la recherche médicale, il est clair que la précision parfaite des sources technologiques peut encore être améliorée de manière substantielle. Toutefois, le point positif à retenir de cet incident est l'engagement de Google à traiter rapidement les résultats problématiques. À l'avenir, de tels incidents devraient servir de signal d'alarme pour les entreprises technologiques et conduire à des améliorations de leurs systèmes qui donnent la priorité à la sécurité et à la précision.
Pour connaître tous les détails de l'incident, consultez le rapport original de The Verge : Google retire les aperçus ‘alarmants’ et ‘dangereux’ de l'IA médicale