Die Filmemacherin Valerie Veatch, die aus einem Umfeld kommt, in dem Kreativität und menschliche Beziehungen an erster Stelle stehen, hätte nie gedacht, dass sie sich für die relativ kalte, logische Welt der künstlichen Intelligenz interessieren würde. Die Veröffentlichung von Sora von OpenAI, einem generativen KI-Modell, das Text in Videos umwandelt, im Jahr 2024 weckte jedoch ihre Neugierde. Wie viele andere war auch Veatch von der komplexen und neuartigen Technologie fasziniert, auch wenn sie deren Feinheiten nicht vollständig verstand.
Die Anwendung von KI in der Kunst war eine Neuheit, die die Aufmerksamkeit des Filmemachers erregte. Die entstehenden Online-Gemeinschaften von Künstlern, die KI nutzen, um einzigartige Kunstwerke zu schaffen und zu teilen, zogen Veatch an wie die Motten das Licht. Die Möglichkeit, sinnvolle Verbindungen mit gleichgesinnten Künstlern herzustellen, zog sie in den Bereich der KI, der sonst als frei von menschlicher Berührung und Emotionen gilt.
Ihre Begeisterung wurde jedoch schnell durch Schock und Verzweiflung ersetzt. Die Technologie, die dafür bekannt ist, Wellen innovativer Inhalte hervorzubringen, zeigte eine dunkle Seite, die von der KI-Gemeinschaft eklatant ignoriert wurde. Das KI-Modell, das als Werkzeug des kreativen Ausdrucks gedacht war, produzierte Bilder, die mit Rassismus und Sexismus behaftet waren.
In ihrer ersten Erfahrung mit KI war Veatch zutiefst beunruhigt über die Gleichgültigkeit der KI-Gemeinschaft gegenüber den Vorurteilen, die von der Maschine ausgingen. Diese Vorurteile, die schon seit langem ein gesellschaftliches Problem sind, schienen mühelos in die Programmierung der KI eingesickert zu sein und die von ihr erzeugten Inhalte mit Ungleichheit zu färben. Die eklatante Ignoranz ihrer Mitstreiter gegenüber diesen Themen war für Veatch noch entmutigender.
Diese Enthüllung machte nicht nur die schwerwiegenden Mängel der KI-Modelle deutlich, sondern warf auch die Frage nach der Verantwortung der KI-Gemeinschaft bei der Beseitigung dieser Vorurteile auf. Maschinen zeigen nur das, womit sie gefüttert werden. Der in KI-Bildern vorherrschende Rassismus und Sexismus ist lediglich ein Spiegelbild der Vorurteile, die in den zur Verfügung gestellten Trainingsdaten vorhanden sind. Aber sollten die Entwickler und Nutzer dieser Modelle nicht mehr Verantwortung für die Inhalte übernehmen, die die KI produziert?
Veatchs Begegnung mit der künstlichen Intelligenz und ihre anschließenden Enthüllungen werfen ein Licht auf die dunkle Seite des technologischen Fortschritts, die oft unbemerkt bleibt. Ihre Geschichte unterstreicht die Folgen, die sich ergeben, wenn man die Technologie als objektive Kraft betrachtet und dabei ihr Potenzial ignoriert, menschliche Vorurteile aufrechtzuerhalten. Letztendlich unterstreicht Veatchs Geschichte das Engagement, das notwendig ist, um die Integrität von KI-produzierten Inhalten zu gewährleisten und der unbeabsichtigten Verbreitung von gesellschaftlichen Vorurteilen entgegenzuwirken.
Originalartikel verfügbar hier.