Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Przyczyny katastrofy F-16. Rzecznik Dowództwa Generalnego RSZ zabiera głos z ostatniej chwili
Przyczyny katastrofy F-16. Rzecznik Dowództwa Generalnego RSZ zabiera głos

Na wyjaśnienie katastrofy F-16, w której zginął pilot mjr Maciej „Slab” Krakowian, będziemy musieli na pewno poczekać miesiące - powiedział w piątek PAP rzecznik Dowództwa Generalnego RSZ płk Marek Pawlak. Dodał, że wyjaśnieniem katastrofy zajmie się Komisja Badania Wypadków Lotniczych LP.

Zgwałcił dziecko i oskarżył je o transfobię tylko u nas
Zgwałcił dziecko i oskarżył je o "transfobię"

W ostatnich dniach Wielka Brytania została wstrząśnięta zbrodniami Jamesa Bubba, byłego policjanta z Metropolitan Police, który po dokonaniu serii brutalnych przestępstw ogłosił się “osobą transseksualną”.

Poseł Dariusz Matecki odpowiada Małgorzacie Chmielewskiej z ostatniej chwili
Poseł Dariusz Matecki odpowiada Małgorzacie Chmielewskiej

''W związku z listem otwartym Małgorzaty Chmielewskiej, kierowanym do Prezydenta RP, Marszałka Sejmu oraz posłów – w tym także do mnie – przedstawiam swoją publiczną odpowiedź. Uważam za konieczne sprostowanie manipulacji, jakimi posługują się media określając Panią Chmielewską mianem «siostry zakonne», choć nią nie jest'' – pisze poseł Dariusz Matecki.

Katastrofa lotnicza w Radomiu. Rozbił się polski F-16 z ostatniej chwili
Katastrofa lotnicza w Radomiu. Rozbił się polski F-16

Dramatyczne wydarzenia w Radomiu. Podczas czwartkowych prób do Międzynarodowych Pokazów Lotniczych Air Show 2025 rozbił się polski samolot F-16. Wiadomo już oficjalnie, że pilotowi nie udało się katapultować; zginął na miejscu.

Wyłączenia prądu. Ważny komunikat dla mieszkańców woj. wielkopolskiego z ostatniej chwili
Wyłączenia prądu. Ważny komunikat dla mieszkańców woj. wielkopolskiego

Mieszkańcy województwa wielkopolskiego muszą przygotować się na planowane wyłączenia prądu. Enea Operator poinformowała, że prace modernizacyjne sieci obejmą wiele miejscowości; publikujemy harmonogram wyłączeń od piątku 29 sierpnia do niedzieli 31 sierpnia.

Belweder: Trwa spotkanie prezydenta Karola Nawrockiego z przywódcami państw regionu z ostatniej chwili
Belweder: Trwa spotkanie prezydenta Karola Nawrockiego z przywódcami państw regionu

W Belwederze w czwartek po południu rozpoczęło się spotkanie prezydenta Karola Nawrockiego z przywódcami Litwy, Łotwy, Estonii i Danii. W drugiej części narady dołączy, w formie wideorozmowy, prezydent Ukrainy Wołodymyr Zełenski. Ma to być wstęp do konsultacji przed wizytą Nawrockiego w Waszyngtonie.

Jarosław Kaczyński uderza w Sławomira Mentzena. „To niegodne” z ostatniej chwili
Jarosław Kaczyński uderza w Sławomira Mentzena. „To niegodne”

– Niegodnym moralnie jest, gdy powstaje grupa o gigantycznych dochodach, a inni żyją w biedzie; my takiej Polski nie chcemy, to Sławomir Mentzen takiej Polski chce – powiedział w czwartek w Białymstoku prezes PiS Jarosław Kaczyński.

Skandaliczne oświadczenie wiceszefa ukraińskiego MSZ. Będzie reakcja Sikorskiego? z ostatniej chwili
Skandaliczne oświadczenie wiceszefa ukraińskiego MSZ. Będzie reakcja Sikorskiego?

Zastępca Ministra Spraw Zagranicznych Ukrainy Oleksandr Miszczenko najwyraźniej ma problemy z wdzięcznością za polską pomoc udzieloną walczącej z Rosją Ukrainie. Wydał oświadczenie, w którym zarzuca polskim siłom politycznym podsycanie antyukraińskich nastrojów. Jednocześnie fałszuje historię mówiąc o rzekomym „polsko-ukraińskim konflikcie” i deprecjonując Genocidum Atrox, jakim była Rzeź Wołyńska.

Starosta gliwicki z Koalicji Obywatelskiej odwołany z ostatniej chwili
Starosta gliwicki z Koalicji Obywatelskiej odwołany

W powiecie gliwickim doszło do potężnego politycznego tąpnięcia. Radni zdecydowali o odwołaniu starosty i całego zarządu powiatu, którym kierowała Koalicja Obywatelska wraz z lokalnym klubem SGL. Oznacza to, że KO straciła władzę w powiecie.

Ważny komunikat dla mieszkańców Warszawy z ostatniej chwili
Ważny komunikat dla mieszkańców Warszawy

W najbliższych dniach warszawscy kierowcy i pasażerowie komunikacji miejskiej muszą liczyć się z utrudnieniami. Wszystko przez ostatnie prace związane z budową trasy tramwajowej do Wilanowa i wymianą nawierzchni na kilku stołecznych ulicach.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe