Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Biały Dom: Trump nie weźmie udziału w tegorocznej konferencji CPAC z ostatniej chwili
Biały Dom: Trump nie weźmie udziału w tegorocznej konferencji CPAC

Prezydent USA Donald Trump nie weźmie udziału w tegorocznej konferencji środowisk konserwatywnych CPAC w Teksasie – przekazał w środę Biały Dom. Oznacza to, że Trump nie spotka się w Dallas z prezydentem RP Karolem Nawrockim, który w sobotę wystąpi na konferencji.

Samuel Pereira: Ten proces, to Wasz proces, Koalicjo Obywatelska tylko u nas
Samuel Pereira: Ten proces, to Wasz proces, Koalicjo Obywatelska

Mężczyzna spotykał się z dziewczynkami pod pretekstem badań nad wadami postawy. Miał im kazać się rozbierać, dotykać je oraz fotografować. Twierdził, że zdjęcia są po prostu elementem dokumentacji medycznej. Śledczy zajęli się sprawą po tym, jak matka jednej z ofiar złożyła zawiadomienie. Szefa złotowskiej Platformy Obywatelskiej i działacza sportowego Piotra P. zatrzymano pod zarzutem pedofilii 1 grudnia 2023 roku.

Copa-Cogeca: Ustępstwa poczynione przez KE wobec Australii są nie do przyjęcia z ostatniej chwili
Copa-Cogeca: Ustępstwa poczynione przez KE wobec Australii są nie do przyjęcia

„Ogłoszenie zawarcia umowy o wolnym handlu między UE a Australią w Canberze przez przewodniczącą Komisji Europejskiej von der Leyen i premiera Australii Albanese budzi liczne i poważne obawy dotyczące europejskiego rolnictwa, które jest wyraźnie i po raz kolejny kartą przetargową strategii UE mającej na celu zabezpieczenie szerszych celów handlowych i politycznych” – stwierdzają Copa-Cogeca.

Uzależniła się od mediów internetowych. Meta i YouTube mają jej wypłacić 3 mln dol. z ostatniej chwili
Uzależniła się od mediów internetowych. Meta i YouTube mają jej wypłacić 3 mln dol.

Ława przysięgłych w sądzie w Los Angeles uznała, że Meta i YouTube są odpowiedzialne za szkody dla zdrowia psychicznego 20-letniej kobiety, która oskarżyła je o przyczynienie się do uzależnienia, kiedy była dzieckiem. Firmy mają wypłacić kobiecie 3 mln dol. odszkodowania.

Biały Dom: Trump rozpęta piekło, jeśli Iran nie zawrze porozumienia z ostatniej chwili
Biały Dom: Trump "rozpęta piekło", jeśli Iran nie zawrze porozumienia

– Jeśli Iran nie zawrze porozumienia i nie zrozumie, że został pokonany, prezydent Donald Trump gotowy jest rozpętać piekło – zapowiedziała rzeczniczka Białego Domu Karoline Leavitt. Potwierdziła, że doniesienia o 15-punktowej propozycji USA są tylko częściowo prawdziwe.

Warszawa przegrała konkurs na siedzibę Urzędu Celnego UE z ostatniej chwili
Warszawa przegrała konkurs na siedzibę Urzędu Celnego UE

W środę Parlament Europejski i Rada UE podjęły decyzję o utworzeniu przyszłego Urzędu Celnego UE w Lille we Francji. O lokalizację unijnej instytucji ubiegała się Warszawa.

Nawrocki odpowiedział Tuskowi zdjęciem. W sieci zawrzało z ostatniej chwili
Nawrocki odpowiedział Tuskowi zdjęciem. W sieci zawrzało

Węgry zapowiadają zakręcanie kurka z gazem dla Ukrainy. Donald Tusk postanowił powiązać tę decyzję z niedawną wizytą Karola Nawrockiego na Węgrzech. Polski prezydent odpowiedział mu zdjęciem.

Sławomir Nowak złożył zawiadomienie na prokuratora, który wcześniej stawiał mu zarzuty z ostatniej chwili
Sławomir Nowak złożył zawiadomienie na prokuratora, który wcześniej stawiał mu zarzuty

Jak poinformował TVN24, Sławomir Nowak złożył zawiadomienie o możliwości popełnienia serii przestępstw przez prokuratora Jana Drelewskiego, który prowadził śledztwa przeciwko niemu.

ZUS wydał pilny komunikat z ostatniej chwili
ZUS wydał pilny komunikat

ZUS zapowiada poradnik dla kobiet w ciąży i uruchamia specjalny adres mailowy dla przyszłych mam. Instytucja podkreśla też, że nadal prowadzi kontrole zgodnie z obowiązującymi przepisami.

ONZ: Konflikt USA i Izraela z Iranem wymyka się spod kontroli z ostatniej chwili
ONZ: Konflikt USA i Izraela z Iranem wymyka się spod kontroli

Sekretarz generalny ONZ Antonio Guterres oświadczył w środę, że konflikt na Bliskim Wschodzie wymyka się spod kontroli i może się rozwinąć w jeszcze większą wojnę. Wezwał też USA i Izrael do zakończenia tego konfliktu zbrojnego, a Iran - do zaprzestania ataków na inne kraje.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane