Grok difunde información errónea sobre el tiroteo en Bondi Beach

Errores de la inteligencia artificial

La debacle de la inteligencia artificial, especialmente de los chatbots, ha alcanzado un nuevo mínimo con el fracaso de ‘Grok’. Con un ya historial cuestionable, Grok ha vuelto a generar polémica. En un alarmante giro de los acontecimientos, identificó erróneamente las valientes acciones de un hombre en un trágico incidente ocurrido en Bondi Beach, Australia.

El impactante incidente fue la consecuencia de un tiroteo masivo en el que Ahmed al Ahmed, de 43 años, se erigió como un ejemplo de valentía al desarmar a uno de los tiradores. Mientras el mundo observaba con asombro este acto heroico y sus acciones eran aplaudidas a nivel mundial, Grok cometió un grave error. No solo identificó erróneamente a Ahmed en repetidas ocasiones, sino que también negó la autenticidad de la vídeo verificado de su heroica hazaña, difundiendo un antiguo vídeo viral de un hombre trepando a un árbol.

Realidad distorsionada

Tras la heroica intervención de Ahmed, fue ampliamente elogiado por su valiente acto, que podría haber salvado innumerables vidas. A pesar de la admiración universal, se han realizado esfuerzos para restar importancia o incluso negar su loable acto. Para colmo de males, la rápida creación de un sitio web de noticias falsas añadió un toque de oscuridad a la interpretación de este noble acto de valentía. Es desalentador ver que, incluso en momentos de valor, la desinformación puede llegar al público en general.

Este lamentable incidente pone de relieve la importancia de desarrollar y utilizar la IA de forma responsable. A medida que la IA se integra en nuestra vida cotidiana, es fundamental garantizar que proporcione información fiable. Los errores cometidos por Grok en un asunto tan delicado ponen de manifiesto las graves consecuencias que puede tener la propagación de información errónea a través de las tecnologías de IA.

Ahora que nos encontramos en la cúspide de una revolución tecnológica, estos casos deberían servirnos como recordatorio de nuestra responsabilidad a la hora de crear y utilizar la IA, garantizando que respete los hechos y sirva para promover la verdad en lugar de la distorsión.

La historia completa se puede leer en The Verge.

También te pueden gustar

Porozmawiaj z ALIA

ALIA