Sam Altman: ChatGPT może wkrótce zaoferować seks dla zweryfikowanych dorosłych

Nadchodzi nowa era dla ChatGPT OpenAI

OpenAI, wiodący deweloper sztucznej inteligencji, przesuwa granice swojej technologii chatbotów. CEO, Sam Altman, ogłosił we wtorek, że firma przygotowuje się do wdrożenia "erotyki" dla tych użytkowników ChatGPT, którzy zweryfikują swój wiek na platformie. Ta zmiana polityki, zaplanowana na grudzień, jest zgodna z zasadą OpenAI "traktuj dorosłych użytkowników jak dorosłych".

Wdrożenie tej nowej funkcji wykracza jednak poza zwykłe dodawanie treści dla dorosłych. Odpowiada to szerszemu programowi OpenAI polegającemu na wzmocnieniu kontroli weryfikacji wieku i wzmocnieniu zarządzania dotyczącego dojrzałych rozmów na ich platformie. Ta metamorfoza wskazuje na przyszłe aspiracje firmy, ponieważ wcześniej sugerowała, że programiści mogą mieć możliwość tworzenia "dojrzałych" aplikacji ChatGPT po wprowadzeniu odpowiednich kontroli weryfikacji wieku.

Podążanie za sztuczną inteligencją w erotyce

W tętniącej życiem branży sztucznej inteligencji OpenAI nie jest jedynym podmiotem zajmującym się erotyką. Inicjatywa Elona Muska, xAI, jest już na fali dzięki swoim zalotnym towarzyszom AI. Towarzysze ci manifestują się jako intrygujące modele anime 3D w aplikacji Grok, wskazując, że pojawienie się erotyki AI jest zgodne z globalnym trendem bardziej wciągających i podobnych do ludzkich doświadczeń AI.

Równolegle z dodaniem erotyki, OpenAI idzie pełną parą, aby uruchomić nowszą wersję ChatGPT. Ta najnowsza iteracja ma na celu dokładniejsze odtworzenie cech, które użytkownicy docenili we wcześniejszej wersji "4o". W związku z tym, tuż po tym, jak GPT-5 został mianowany panującym modelem ChatGPT, OpenAI ponownie wprowadził GPT-4o jako opcję, ze względu na opinie użytkowników sugerujące, że najnowszy model był mniej osobisty.

Dążenie do dobrego samopoczucia dzięki sztucznej inteligencji

Skłonność OpenAI do bardziej angażujących doświadczeń AI wykracza poza funkcje i koncentruje się na poznawczych i emocjonalnych aspektach interakcji. W świetle tego Altman twierdzi, że pierwotnie surowe ograniczenia ChatGPT zostały wprowadzone w celu zapewnienia ostrożnej nawigacji w kwestiach zdrowia psychicznego.

Zgodnie z tą misją, firma niedawno uruchomiła narzędzia do lepszego wykrywania użytkowników znajdujących się w trudnej sytuacji psychicznej. Posunięcie to jest zgodne z jej zaangażowaniem w bezpieczeństwo i dobre samopoczucie użytkowników bez uszczerbku dla przyjemności ogromnej bazy użytkowników platformy. Równolegle do tego rozwoju, gigant AI ogłosił niedawno utworzenie rady skupiającej się na "dobrym samopoczuciu i sztucznej inteligencji".

Składająca się z zespołu ośmiu badaczy i ekspertów rada ma za zadanie kształtować reakcję OpenAI na złożone lub wrażliwe scenariusze, w szczególności dotyczące wpływu technologii i sztucznej inteligencji na zdrowie psychiczne. Co ciekawe, zwrócono uwagę, że w panelu tym nie ma ekspertów ds. zapobiegania samobójstwom, pomimo niedawnych apeli ze strony takich ekspertów, którzy stanowczo wyrażali swoje poparcie dla solidniejszych zabezpieczeń dla użytkowników doświadczających myśli samobójczych.

Zaprojektowany z myślą o bezpieczeństwie, zoptymalizowany pod kątem zaangażowania

Jednak teraz, gdy OpenAI twierdzi, że skutecznie złagodziło poważne problemy ze zdrowiem psychicznym i wprowadzono nowe narzędzia, firma wydaje się złagodzić ograniczenia w większości przypadków. Posunięcie to odzwierciedla delikatną równowagę, jaką firma stara się osiągnąć między rozwijaniem możliwości sztucznej inteligencji a ochroną dobrego samopoczucia psychicznego użytkowników. Wprowadzenie dojrzałych treści stanowi zatem krok w kierunku liberalizacji platformy bez narażania na szwank podstawowych wartości firmy lub bezpieczeństwa użytkowników.

Oryginalny artykuł: The Verge.

Mogą Ci się również spodobać

Porozmawiaj z ALIA

ALIA