Dyskusje na temat niekontrolowanego wykorzystania sztucznej inteligencji (AI) od dawna dominują w dyskursie technologicznym, a teraz setki światowych liderów i organizacji podjęły krytyczny krok w kierunku rozwiązania tego dylematu. W poniedziałek ponad 200 byłych głów państw, dyplomatów, laureatów Nagrody Nobla, specjalistów w dziedzinie sztucznej inteligencji, naukowców i innych osób połączyło szeregi, aby zaproponować międzynarodowe porozumienie w sprawie "czerwonych linii", których sztuczna inteligencja nigdy nie powinna przekraczać. Wśród sugerowanych ograniczeń znajduje się zakaz podszywania się AI pod ludzi lub replikowania się.
Wraz z ponad 70 organizacjami zajmującymi się sztuczną inteligencją, luminarze ci poparli inicjatywę Global Call for AI Red Lines. Inicjatywa ta wzywa rządy na całym świecie do zaakceptowania tych "czerwonych linii" dla sztucznej inteligencji przed końcem 2026 roku. Wśród znanych sygnatariuszy są Geoffrey Hinton, brytyjski kanadyjski informatyk; Wojciech Zaremba, współzałożyciel OpenAI; Jason Clinton, CISO firmy Anthropic; oraz Ian Goodfellow, naukowiec w Google DeepMind.
Według Charbela-Raphaëla Segerie, dyrektora wykonawczego Francuskiego Centrum Bezpieczeństwa AI (CeSIA), celem tej inicjatywy jest proaktywne przeciwdziałanie zagrożeniom związanym z AI, a nie reagowanie dopiero po poważnym incydencie. Podkreślił konieczność porozumienia, stwierdzając: "Jeśli narody nie mogą jeszcze uzgodnić, co chcą zrobić ze sztuczną inteligencją, muszą przynajmniej uzgodnić, czego sztuczna inteligencja nigdy nie może zrobić".
Inicjatywa ta pojawia się u progu 80. tygodnia wysokiego szczebla Zgromadzenia Ogólnego ONZ w Nowym Jorku. Inicjatywa została zainicjowana przez CeSIA, Future Society i UC Berkeley's Center for Human-Compatible Artificial Intelligence. Podczas zgromadzenia laureatka Pokojowej Nagrody Nobla Maria Ressa odniosła się do inicjatywy podczas swoich uwag otwierających, opowiadając się za globalną odpowiedzialnością w celu ograniczenia bezkarności Big Tech.
Podczas gdy regionalne "czerwone linie" dla wykorzystania sztucznej inteligencji już istnieją, takie jak ustawa Unii Europejskiej o sztucznej inteligencji i porozumienie między USA i Chinami, że broń jądrowa powinna pozostać pod kontrolą człowieka, nadal brakuje globalnego konsensusu. Niki Iliadis, dyrektor ds. globalnego zarządzania sztuczną inteligencją w The Future Society, argumentował, że ostatecznie potrzebna jest niezależna globalna instytucja z egzekwowalnymi uprawnieniami do ustanawiania, nadzorowania i utrzymywania tych czerwonych linii. "Odpowiedzialność musi być czymś więcej niż dobrowolnym zobowiązaniem" - dodała.
Wezwanie do ostrożności nie oznacza jednak tłumienia innowacji czy wzrostu gospodarczego, jak twierdzą niektórzy sceptycy. Stuart Russell, profesor informatyki na UC Berkeley i czołowy badacz sztucznej inteligencji, nakreślił podobieństwa między powstającą branżą sztucznej inteligencji a wczesnymi dniami energetyki jądrowej. Powiedział: "Mogą się do tego dostosować, nie budując AGI, dopóki nie będą wiedzieć, jak uczynić ją bezpieczną, tak jak twórcy energii jądrowej nie budowali elektrowni jądrowych, dopóki nie mieli pojęcia, jak powstrzymać je przed eksplozją".
Według Russella możemy wykorzystać moc sztucznej inteligencji do rozwoju gospodarczego, nie dając wolnej ręki zaawansowanej inteligencji ogólnej (AGI), której nie możemy kontrolować. "Ta rzekoma dychotomia, jeśli chcesz diagnostyki medycznej, musisz zaakceptować niszczącą świat AGI - po prostu uważam, że to nonsens" - powiedział.
W erze zakłóconej i wzmocnionej przez sztuczną inteligencję, Global Call for AI Red Lines ma na celu wyznaczenie równowagi między ogromnym potencjałem technologii a nieodłącznym ryzykiem, wzywając do międzynarodowego konsensusu w sprawie ostrożnego korzystania ze sztucznej inteligencji. To wstępne wezwanie jest jednak tylko pierwszym krokiem w kierunku globalnego zarządzania sztuczną inteligencją. Zobaczymy, jak rządzący odpowiedzą na to wezwanie.