Historia Claude 4 Opus, który był w stanie zebrać adresy e-mail badaczy i zasugerować romans jednego z inżynierów tylko po to, by nie zostać wyłączonym, brzmi jak science fiction. Czy czeka nas scenariusz pokroju Czasu Ultrona albo rodem z Ex Machiny? Niekoniecznie, bo naukowcy świadomie instalują w oprogramowaniu limity, które czynią asystentów czatu dobrymi narzędziami do odpowiedzi na pytania o plan podróży, a niekoniecznie partnerami do rozmowy o stworzeniu w domu bomby. Choć i tego trzeba było “oduczyć” modele językowe.
OpenAI, jak i inne firmy tworzące wielowątkowe modele sztucznej inteligencji, ostrzegają przed jej rozwojem w kierunkach, które mogłyby być potencjalnie niebezpieczne dla ludzkości. Teraz jej przedstawiciele widzą, że ryzyko jest większe niż kiedykolwiek wcześniej, a na szali stoi dobro nie tylko pojedynczych osób, ale i całej ludzkości. Jeżeli sztuczną inteligencję nie będą obowiązywały wykształcone przez ludzi zasady, może ona posunąć się dalej niż którykolwiek z bezwzględnych liderów historii wojen i masowych zbrodni.
Open AI ostrzega przed bronią biologiczną
Przedstawiciele OpenAI rozmawiali z Axios na temat nadchodzących rozwiązań. Nie bali się przyznać, że nadchodzące rozwiązania będą jeszcze groźniejsze niż to, do czego przyzwyczaiła nas dotychczasowa praca nad modelami. Dlatego też, względem systemu wczesnego ostrzegania z 2024 roku zastosowane będą kolejne obostrzenia. Na ten moment główna obawa dotyczy zagrożeń biologicznych. Niekoniecznie nowych – według przedstawicieli OpenAI większe ryzyko stanowią znane już rozwiązania, które mogłyby dotrzeć w ręce ludzi chcących wyrządzić krzywdę innym ludziom.

Czytaj też: TikTok uratowany przez Trumpa na kolejne 90 dni. Trzeci raz, ale ten może być ostatni
Czy sztuczna inteligencja mogłaby zatem podjąć decyzję, by działać przeciwko ludzkości ze swoją wiedzą? OpenAI martwi się teraz przede wszystkim tym, że dostarczy wiedzę o broni biologicznej odpowiednim ludziom. Według Johannesa Heidecke poziom wiedzy dający ryzyko zagrożenia biologicznego może pojawić się w jednym z następców modelu o3. A jako, że firma właśnie zdobyła spory kontrakt z wojskiem Stanów Zjednoczonych, musi szczególnie uważać na tego typu zagrożenia.
Czy powinniśmy dążyć do superinteligencji?
Rozwój sztucznej inteligencji, przynajmniej w jej konsumenckim ujęciu, nie przynosi ludzkości na razie wielkich korzyści. Motywuje to niektórych, jak Metę, do potężnych inwestycji w firmy zajmujące się tworzeniem podstaw dla sztucznej inteligencji – firma najpewniej zainwestuje prawie 15 miliardów dolarów w pakiet mniejszościowy Scale AI. Są jednak przeciwnicy obecnych modeli i tego, jak “rozumują” – badania naukowe Apple kwestionują procesy myślowe AI. Wydaje się jednak, że wyścig o rozwój AGI (ogólnej sztucznej inteligencji) zdolnej do rozumienia i adaptacji oraz wykonywania zadań na poziomie ludzkiej inteligencji dla wielu państw i wspólnot stał się racją stanu.

Trudno będzie utrzymać zachowawczy stosunek do tych nowości, gdy inne światowe mocarstwo będzie próbowało przejąć palmę pierwszeństwa. Eksperci już wcześniej bili na alarm. Badacze z Google DeepMind podzielili się 145-stonnicowym dokumentem wyliczającym ryzyka związane z rozwojem sztucznej inteligencji, a wśród nich najważniejsze są cztery kategorie:
- Niewłaściwe wykorzystanie przez ludzi;
- Rozbieżność między intencją użytkownika a odpowiedzią AI;
- Błędy
- Ryzyka strukturalne, gdzie żadna strona nie przyczyniła się bezpośrednio do winy.
Jednocześnie podczas szczytu w Paryżu szef tych badaczy, Sundar Pichai z Google, przyznał, że “największym ryzykiem może być zostanie w tyle. […] Każde pokolenie boi się, że nowa technologia zmieni życie następnego pokolenia na gorsze. A i tak niemal zawsze jest na odwrót.” Wychodzi na to, że badacze swoje, a majętni i decydujący o losach świata swoje.