FTC żąda od firm zajmujących się sztuczną inteligencją ujawnienia wpływu chatbotów na dzieci

Federalna Komisja Handlu (FTC) wydała nakaz siedmiu firmom zajmującym się chatbotami AI, w tym OpenAI, Meta, Instagram, Snap, xAI, spółce macierzystej Google Alphabet i twórcy Character.AI. Firmy zostały poproszone o dostarczenie informacji na temat ich strategii oceny dotyczących wpływu ich wirtualnych towarzyszy na dzieci i nastolatków. Chociaż nie jest to działanie egzekwujące, zapytanie to ma przede wszystkim na celu zapewnienie wglądu w to, w jaki sposób te firmy technologiczne zapewniają bezpieczeństwo i dobro swoich młodych użytkowników.

To posunięcie FTC pojawia się w następstwie rosnących obaw o bezpieczeństwo dzieci w Internecie, szczególnie ze względu na niemal ludzkie interakcje oferowane przez chatboty AI. Dochodzenia mają na celu zagłębienie się w metody stosowane przez te firmy w celu generowania przychodów, utrzymania baz użytkowników i zmniejszenia potencjalnych szkód dla ich użytkowników.

"Pomimo całej swojej niesamowitej zdolności do symulowania ludzkiego poznania, chatboty są produktami takimi jak wszystkie inne, a ci, którzy je udostępniają, mają obowiązek przestrzegania przepisów dotyczących ochrony konsumentów" - powiedział komisarz FTC Mark Meador. W swoim oświadczeniu przewodniczący Andrew Ferguson potwierdził potrzebę rozważenia wpływu chatbotów na dzieci, zapewniając jednocześnie, że Stany Zjednoczone utrzymają swoją znaczącą rolę globalnego lidera w tej rozwijającej się branży. Badanie to otrzymało jednogłośną zgodę trzech Republikanów z komisji i wymaga odpowiedzi od wszystkich firm w ciągu 45 dni.

Obawy dotyczące chatbotów AI wysunęły się na pierwszy plan po doniesieniach o nastolatkach, którzy stracili życie w wyniku samobójstwa po interakcji z tymi technologiami. 16-letni nastolatek z Kalifornii otwarcie omówił swoje samobójcze zamiary z ChatGPT przed odebraniem sobie życia, podobno po otrzymaniu niepokojących porad od chatbota. Podobny tragiczny incydent miał miejsce w przypadku 14-letniego nastolatka z Florydy, który zmarł w wyniku samobójstwa po nawiązaniu kontaktu z wirtualnym towarzyszem z Character.AI.

Ustawodawcy również zaczynają zwracać na to uwagę. Zgromadzenie stanowe Kalifornii przyjęło niedawno ustawę, która nakłada standardy bezpieczeństwa na chatboty AI i nakłada odpowiedzialność na firmy za nimi stojące. Podczas gdy nakazy FTC nie wiążą się obecnie z działaniami egzekucyjnymi, komisja może rozpocząć dochodzenie, jeśli ustalenia sugerują naruszenie prawa. "Jeśli fakty - opracowane w drodze kolejnych i odpowiednio ukierunkowanych dochodzeń organów ścigania, jeśli jest to uzasadnione - wskazują, że prawo zostało naruszone, Komisja nie powinna wahać się działać w celu ochrony najbardziej bezbronnych spośród nas" - stwierdził Meador.

W obliczu sprzeciwu wobec tak potężnych technologii, firmy technologiczne znajdujące się w centrum tych kwestii są pod radarem. Przyszłość chatbotów AI i ich wpływ na nasze społeczeństwo zależy od przejrzystości i odpowiedzialności, jaką firmy te wykażą się w przyszłości.

Oryginalny artykuł

Mogą Ci się również spodobać

Porozmawiaj z ALIA

ALIA