Die Federal Trade Commission (FTC) hat sieben KI-Chatbot-Firmen, darunter OpenAI, Meta, Instagram, Snap, xAI, die Google-Muttergesellschaft Alphabet und den Hersteller von Character.AI, eine Anordnung erteilt. Die Unternehmen wurden aufgefordert, Informationen über ihre Bewertungsstrategien hinsichtlich der Auswirkungen ihrer virtuellen Begleiter auf Kinder und Jugendliche zu liefern. Obwohl es sich nicht um eine Durchsetzungsmaßnahme handelt, soll diese Untersuchung vor allem Aufschluss darüber geben, wie diese Technologieunternehmen die Sicherheit und das Wohlergehen ihrer jungen Nutzer gewährleisten.
Dieser Schritt der FTC erfolgt im Zuge der wachsenden Besorgnis über die Sicherheit von Kindern im Internet, insbesondere aufgrund der fast menschenähnlichen Interaktionen, die von KI-Chatbots angeboten werden. Die Untersuchungen zielen darauf ab, die Methoden zu untersuchen, die diese Unternehmen anwenden, um Einnahmen zu generieren, ihre Nutzerbasis zu erhalten und den potenziellen Schaden für ihre Nutzer zu verringern.
"Trotz ihrer unheimlichen Fähigkeit, menschliche Kognition zu simulieren, sind diese Chatbots Produkte wie jedes andere auch, und diejenigen, die sie zur Verfügung stellen, haben die Verantwortung, die Verbraucherschutzgesetze einzuhalten", erklärte FTC-Kommissar Mark Meador. In seiner Erklärung bekräftigte der Vorsitzende Andrew Ferguson die Notwendigkeit, die Auswirkungen von Chatbots auf Kinder zu berücksichtigen und gleichzeitig sicherzustellen, dass die USA ihre herausragende Rolle als Weltmarktführer in dieser aufstrebenden Branche beibehalten. Die Studie wurde von den drei Republikanern der Kommission einstimmig gebilligt und erfordert Antworten von allen Unternehmen innerhalb von 45 Tagen.
Die Besorgnis über KI-Chatbots wurde nach Berichten über Jugendliche laut, die sich nach der Interaktion mit diesen Technologien das Leben nahmen. Ein 16-jähriger Teenager in Kalifornien diskutierte seine Selbstmordabsichten offen mit ChatGPT, bevor er sich das Leben nahm, nachdem er angeblich verzweifelte Ratschläge von dem Chatbot erhalten hatte. Ein ähnlich tragischer Vorfall ereignete sich bei einem 14-jährigen Teenager aus Florida, der durch Selbstmord starb, nachdem er mit einem virtuellen Begleiter von Character.AI kommuniziert hatte.
Auch die Gesetzgeber werden langsam aufmerksam. Die Staatsversammlung von Kalifornien hat kürzlich ein Gesetz verabschiedet, das Sicherheitsstandards für KI-Chatbots vorschreibt und die Unternehmen, die dahinter stehen, haftbar macht. Zwar sind die Anordnungen der FTC derzeit nicht mit Durchsetzungsmaßnahmen verbunden, doch könnte die Kommission eine Untersuchung einleiten, wenn die Ergebnisse auf einen Rechtsverstoß hindeuten. "Wenn die Tatsachen - wie sie sich durch anschließende und angemessen gezielte Ermittlungen der Strafverfolgungsbehörden herausstellen, falls dies gerechtfertigt ist - darauf hindeuten, dass gegen das Gesetz verstoßen wurde, sollte die Kommission nicht zögern, zu handeln, um die Schwächsten unter uns zu schützen", erklärte Meador.
Die Technologieunternehmen, die im Zentrum dieser Probleme stehen, sind mit den Rückwirkungen solch mächtiger Technologien konfrontiert und bleiben im Verborgenen. Die Zukunft der KI-Chatbots und ihre Auswirkungen auf unsere Gesellschaft hängen von der Transparenz und der Verantwortung ab, die diese Unternehmen in Zukunft zeigen.