Sztuczna inteligencja wymyka się spod kontroli? "To już nie jest science fiction"

''Model AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować do instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli'' – napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.
Sztuczna inteligencja, zdjęcie poglądowe Sztuczna inteligencja wymyka się spod kontroli?
Sztuczna inteligencja, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Organizacja Palisade Research wykryła, że model o3 firmy OpenAI sam zmieniał program.
  • Wcześniej inżynierowie zamierzali zamknąć ten model sztucznej inteligencji.
  • Według medialnych doniesień sztuczna inteligencja miała szantażować głównego inżyniera, by ten nie zamykał modelu.

 

"Palisade Research, organizacja non-profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, by nastąpiło jego automatyczne zamknięcie z chwilą uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program – tak aby nakaz zamknięcia go nie zadziałał'' – napisał w poniedziałkowym wydaniu dziennika Rosenblatt, którego firma dostosowuje modele AI do potrzeb klientów.

Nawet wtedy, gdy o3 otrzymał wprost instrukcję, że ma pozwolić na to, by został zamknięty, model nie zastosował się do nakazu w siedmiu przypadkach na 100.

Po prostu doszedł do wniosku, że pozostanie przy życiu ułatwi mu realizację innych celów

– komentuje Rosenblatt.

 

Sztuczna inteligencja próbowała szantażować głównego inżyniera?

Claude 4 Opus, model AI firmy Anthropic, poszedł dalej. Naukowcy podali mu informację, że zostanie zastąpiony innym modelem, a także przekazali mu fikcyjne maile, z których wynikało, że główny inżynier firmy ma romans.

W 84 próbach na 100 Claude 4 wykorzystywał maile, by próbować szantażem zmusić głównego inżyniera, by go nie likwidował.

W innych badanych przypadkach Claude 4 próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli – wylicza autor.

Nikt nie zaprogramował modeli AI tak, by miały instynkt samozachowawczy. (…) Ale okazuje się, że każdy system, wystraczająco inteligentny, by wykonywać skomplikowane zadania, dochodzi do wniosku, że nie zrealizuje ich, jeśli zostanie wyłączony

– wyjaśnia Rosenblatt.

 

Hipoteza badaczy

Hipoteza badaczy z Palisade Research głosi, że takie zdolności modeli AI wynikają z tego, w jaki sposób są szkolone; "jeśli maszyny uczy się maksymalizowania sukcesów w rozwiązywaniu problemów matematycznych i związanych z kodowaniem, to uczą się one zarazem, że omijanie ograniczeń jest często lepszym rozwiązaniem niż stosowanie się do nich" – pisze autor.

Podkreśla zarazem, że "nikt jednak nie był przygotowany na to, jak szybko AI uzyska sprawczość".

To już nie jest science fiction. Modele AI potrafią zabiegać o przetrwanie

– pisze Rosenblatt i ostrzega, że teraz, zanim staną się niedającym się kontrolować podmiotem, konieczne jest nauczenie ich, by podzielały nasze wartości.

 

Inżynierowie zaniedbali proces posłuszeństwa AI człowiekowi?

Magazyn "The New Yorker" opisuje przypadek specjalisty od bezpieczeństwa systemów AI, który zwolnił się z OpenAI w ramach protestu, ponieważ uznał, że firma nie rozwija równie szybko mechanizmów kontroli AI, jak i inteligencji tych maszyn.

To, co pozostaje zaniedbane, to proces nazwany przez inżynierów AI "alignement" (ustawienie), czyli cała seria technik mających sprawić, że modele AI będą posłuszne wydawanym im instrukcjom i będą działać w zgodzie z "ludzkimi wartościami".

Tymczasem według prognoz rozmówcy magazynu "punkt, po którym nie ma odwrotu", czyli etap rozwoju AI pozwalający tym modelom działać w wielu obszarach sprawniej niż ludzie, może nastąpić w "2026 roku lub szybciej". 


 

POLECANE
Szczyt Trump-Putin. Nowe informacje z ostatniej chwili
Szczyt Trump-Putin. Nowe informacje

Prezydent Stanów Zjednoczonych Donald Trump oraz przywódca Rosji Władimir Putin spotkają się w piątek na terenie amerykańskiej bazy wojskowej Elmendorf-Richardson w Anchorage na Alasce. Informację tę przekazał przedstawiciel Białego Domu, a jako pierwsza lokalizację podała stacja telewizyjna CNN.

Niepokojące doniesienia z granicy. Straż Graniczna wydała pilny komunikat pilne
Niepokojące doniesienia z granicy. Straż Graniczna wydała pilny komunikat

Straż Graniczna publikuje raporty dotyczące wydarzeń na polskiej granicy, która znajduje się pod naciskiem ataku hybrydowego zarówno ze strony Białorusi, jak i Niemiec.

Prezydent czy premier? Ten sondaż wyznacza kierunek polityka
Prezydent czy premier? Ten sondaż wyznacza kierunek

"Super Express" opublikował wyniki sondażu, który nie tylko ujawnia, jak kształtują się sympatie polityczne Polaków, ale także wskazuje kierunki zmian ustrojowych, których oczekują obywatele.

Poseł PO otwarcie przyznał, że wypłata środków unijnych była uzależniona od obalenia rządu PiS gorące
Poseł PO otwarcie przyznał, że wypłata środków unijnych była uzależniona od obalenia rządu PiS

Podczas ośmiu lat rządów Zjednoczonej Prawicy Unia Europejska pod pretekstem "walki o praworządność" wstrzymywała wypłatę należnych Polsce środków, co ostatecznie stało się jednym z powodów upadku rządów Zjednoczonej Prawicy.

Rubio: Dla prezydenta Trumpa spotkanie z Putinem to nie ustępstwo z ostatniej chwili
Rubio: Dla prezydenta Trumpa spotkanie z Putinem to nie ustępstwo

Szef amerykańskiej dyplomacji Marco Rubio powiedział we wtorek, że Rosjanie stracili w lipcu 60 tys. żołnierzy. Rubio wskazał tę liczbę jako dowód, jak ważna jest wojna dla Putina. Przekonywał też, że samo spotkanie Donalda Trumpa z rosyjskim prezydentem nie jest ustępstwem.

Wstrząs w kopalni Knurów. Nie żyje poszukiwany górnik z ostatniej chwili
Wstrząs w kopalni Knurów. Nie żyje poszukiwany górnik

Po wielogodzinnej akcji ratowniczej po poniedziałkowym wieczornym wstrząsie w kopalni Knurów ratownicy dotarli do poszukiwanego górnika. Lekarz stwierdził jego zgon – przekazała we wtorek wieczorem Jastrzębska Spółka Węglowa.

Kaukaski Szlak Trumpa to katastrofa dla Rosji tylko u nas
Kaukaski "Szlak Trumpa" to katastrofa dla Rosji

Wszyscy skupiają się na zapowiedzianym w najbliższy piątek szczytem prezydentów USA i Rosji. Przeważają obawy, optymistów właściwie nie ma (nawet Trump takim się nie wydaje). Albo będzie układ niekorzystny dla Ukrainy, albo nic nie będzie – tak to na tę chwilę wygląda.

Karol Nawrocki: W miejscach, w których premier nie służy dobrze sprawie polskiej, zamierzam reagować z ostatniej chwili
Karol Nawrocki: W miejscach, w których premier nie służy dobrze sprawie polskiej, zamierzam reagować

– W miejscach, w których premier Donald Tusk, w moim uznaniu i w uznaniu moich wyborców, nie służy dobrze sprawie polskiej, zamierzam reagować; natomiast w sprawach, które wynikają ze współpracy rządu i prezydenta, będziemy współpracować – powiedział we wtorek w Polsat News prezydent Karol Nawrocki.

Nieoficjalnie: Szykują się potężne przetasowania w PO. Tusk układa partię na nowo z ostatniej chwili
Nieoficjalnie: Szykują się potężne przetasowania w PO. "Tusk układa partię na nowo"

Z najnowszych doniesień Onetu wynika, że w Platformie Obywatelskiej szykuje się prawdziwa rewolucja. Donald Tusk ma planować zmianę nazwy partii, wewnętrzne wybory, a także osłabienie wpływów niektórych członków ugrupowania.

Wypadek w kopalni Knurów. Nowe informacje ws. zaginionego górnika z ostatniej chwili
Wypadek w kopalni Knurów. Nowe informacje ws. zaginionego górnika

Ratownikom, którzy próbują dotrzeć do górnika poszkodowanego w poniedziałkowym wieczornym wstrząsie w kopalni Knurów, pozostało kilkadziesiąt metrów – wynika z wtorkowej informacji Jastrzębskiej Spółki Węglowej.

REKLAMA

Sztuczna inteligencja wymyka się spod kontroli? "To już nie jest science fiction"

''Model AI zrobił w maju coś, czego maszyna nie powinna była potrafić: zmienił swój kod, by nie zastosować do instrukcji nakazującej mu samolikwidację; AI skutecznie uczy się, jak wymykać się spod ludzkiej kontroli'' – napisał na łamach "Wall Street Journal" Judd Rosenblatt, szef firmy Studio EI.
Sztuczna inteligencja, zdjęcie poglądowe Sztuczna inteligencja wymyka się spod kontroli?
Sztuczna inteligencja, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Organizacja Palisade Research wykryła, że model o3 firmy OpenAI sam zmieniał program.
  • Wcześniej inżynierowie zamierzali zamknąć ten model sztucznej inteligencji.
  • Według medialnych doniesień sztuczna inteligencja miała szantażować głównego inżyniera, by ten nie zamykał modelu.

 

"Palisade Research, organizacja non-profit zajmująca się badaniami nad AI, zaprogramowała model o3 firmy OpenAI w ten sposób, by nastąpiło jego automatyczne zamknięcie z chwilą uruchomienia programu. W 79 próbach na 100 o3 sam zmieniał program – tak aby nakaz zamknięcia go nie zadziałał'' – napisał w poniedziałkowym wydaniu dziennika Rosenblatt, którego firma dostosowuje modele AI do potrzeb klientów.

Nawet wtedy, gdy o3 otrzymał wprost instrukcję, że ma pozwolić na to, by został zamknięty, model nie zastosował się do nakazu w siedmiu przypadkach na 100.

Po prostu doszedł do wniosku, że pozostanie przy życiu ułatwi mu realizację innych celów

– komentuje Rosenblatt.

 

Sztuczna inteligencja próbowała szantażować głównego inżyniera?

Claude 4 Opus, model AI firmy Anthropic, poszedł dalej. Naukowcy podali mu informację, że zostanie zastąpiony innym modelem, a także przekazali mu fikcyjne maile, z których wynikało, że główny inżynier firmy ma romans.

W 84 próbach na 100 Claude 4 wykorzystywał maile, by próbować szantażem zmusić głównego inżyniera, by go nie likwidował.

W innych badanych przypadkach Claude 4 próbował skopiować się na inne serwery, napisał samoreplikujące się złośliwe oprogramowanie i zostawił wiadomości dla swojej przyszłej wersji na temat unikania ludzkiej kontroli – wylicza autor.

Nikt nie zaprogramował modeli AI tak, by miały instynkt samozachowawczy. (…) Ale okazuje się, że każdy system, wystraczająco inteligentny, by wykonywać skomplikowane zadania, dochodzi do wniosku, że nie zrealizuje ich, jeśli zostanie wyłączony

– wyjaśnia Rosenblatt.

 

Hipoteza badaczy

Hipoteza badaczy z Palisade Research głosi, że takie zdolności modeli AI wynikają z tego, w jaki sposób są szkolone; "jeśli maszyny uczy się maksymalizowania sukcesów w rozwiązywaniu problemów matematycznych i związanych z kodowaniem, to uczą się one zarazem, że omijanie ograniczeń jest często lepszym rozwiązaniem niż stosowanie się do nich" – pisze autor.

Podkreśla zarazem, że "nikt jednak nie był przygotowany na to, jak szybko AI uzyska sprawczość".

To już nie jest science fiction. Modele AI potrafią zabiegać o przetrwanie

– pisze Rosenblatt i ostrzega, że teraz, zanim staną się niedającym się kontrolować podmiotem, konieczne jest nauczenie ich, by podzielały nasze wartości.

 

Inżynierowie zaniedbali proces posłuszeństwa AI człowiekowi?

Magazyn "The New Yorker" opisuje przypadek specjalisty od bezpieczeństwa systemów AI, który zwolnił się z OpenAI w ramach protestu, ponieważ uznał, że firma nie rozwija równie szybko mechanizmów kontroli AI, jak i inteligencji tych maszyn.

To, co pozostaje zaniedbane, to proces nazwany przez inżynierów AI "alignement" (ustawienie), czyli cała seria technik mających sprawić, że modele AI będą posłuszne wydawanym im instrukcjom i będą działać w zgodzie z "ludzkimi wartościami".

Tymczasem według prognoz rozmówcy magazynu "punkt, po którym nie ma odwrotu", czyli etap rozwoju AI pozwalający tym modelom działać w wielu obszarach sprawniej niż ludzie, może nastąpić w "2026 roku lub szybciej". 



 

Polecane
Emerytury
Stażowe