Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
„ONZ i Zachód promują w Afryce permisywną edukację seksualną jako prawa człowieka” gorące
„ONZ i Zachód promują w Afryce permisywną edukację seksualną jako prawa człowieka”

Jak poinformował portal Hungarian Conservative, ONZ przy wsparciu krajów Zachodu usiłuje wymuszać na Afryce wprowadzanie permisywnej, agresywnej edukacji seksualnej. Dzieje się to pod pozorem praw człowieka.

Obywatele państw UE coraz bardziej zaniepokojeni. Jest najnowszy sondaż Eurobarometru z ostatniej chwili
Obywatele państw UE coraz bardziej zaniepokojeni. Jest najnowszy sondaż Eurobarometru

W czasach wzmożonych napięć geopolitycznych obywatele są coraz bardziej zaniepokojeni swoją przyszłością – wynika z ostatniego badania Eurobarometru, wnioski z którego zostały opublikowane w środę.

Analiza prawna: SAFE - narzędzie wywierania wpływu na państwa członkowskie? gorące
Analiza prawna: SAFE - narzędzie wywierania wpływu na państwa członkowskie?

Rada Unii Europejskiej wydała Rozporządzenie 2025/1106 z dnia 27 maja 2025 r. ustanawiające Instrument na rzecz Zwiększenia Bezpieczeństwa Europy („instrument SAFE”) poprzez Wzmocnienie Europejskiego Przemysłu Obronnego. Celem tego aktu prawnego jest zapewnienie Unii Europejskiej oraz państwom członkowskim większej samodzielności strategicznej i obronności poprzez finansowanie uzupełniania luk i budowy własnych zdolności w zakresie europejskiego przemysłu obronnego. Instytut Ordo Iuris przygotował analizę rozporządzenia dotyczącą ryzyka polityczno-prawnego, związanego z możliwością zastosowania tzw. mechanizmu warunkowości, w odniesieniu do Instrumentu SAFE, czyli powiązania przyznawania środków z przestrzeganiem przez państwa członkowskie zasady praworządności.

Państwo prawa nie potrzebuje „ustawionych” sędziów tylko u nas
Państwo prawa nie potrzebuje „ustawionych” sędziów

Władza, która rzeczywiście dysponuje mocnymi podstawami do rozliczania swoich oponentów, nie musi sięgać po metody budzące podejrzenia o manipulację wymiarem sprawiedliwości. Jeśli dowody są oczywiste, jeśli zarzuty są solidne, a proces uczciwy — wystarczy pozwolić działać instytucjom państwa w sposób przejrzysty i zgodny z prawem.

Zmiana układu sił w SKW? „Jarosław Stróżyk mocno się rozpycha” z ostatniej chwili
Zmiana układu sił w SKW? „Jarosław Stróżyk mocno się rozpycha”

„Mocno rozpycha się Szef SKW, Jarosław Stróżyk, który - jak mówią 'na korytarzach' - miał otrzymać zgodę na większą kontrolę systemu dot. obrony informacyjnej oraz cyberbezpieczeństwa RP” - napisał na platformie X były rzecznik ministra koordynatora służb specjalnych Stanisław Żaryn.

Dr Jacek Saryusz-Wolski o programie SAFE: Podwójny nelson dla Polski gorące
Dr Jacek Saryusz-Wolski o programie SAFE: Podwójny nelson dla Polski

„Podwójny nelson dla Polski zawarty w unijnym programie SAFE narzuca Polsce model uzbrojenia i stwarza niebezpieczne ryzyko politycznie motywowanego wstrzymania wypłaty środków” - alarmuje na platformie X doradca prezydenta ds. europejskich dr Jacek Saryusz-Wolski.

Niemiecki wywiad: Rosja wydaje na wojsko nawet o dwie trzecie więcej, niż zakładano z ostatniej chwili
Niemiecki wywiad: Rosja wydaje na wojsko nawet o dwie trzecie więcej, niż zakładano

Rzeczywiste wydatki wojskowe Rosji były w ostatnich latach nawet o 66 proc. wyższe niż oficjalnie podawane – poinformowała w środę niemiecka Federalna Służba Wywiadowcza (BND). Według jej ustaleń część kosztów armii rząd rosyjski wykazywał w innych pozycjach budżetu.

Sędzia ujawnia praktyki sądów i prokuratury Żurka. „W cywilizowanych państwach to jest nie do pomyślenia” wideo
Sędzia ujawnia praktyki sądów i prokuratury Żurka. „W cywilizowanych państwach to jest nie do pomyślenia”

Sędzia Dariusz Łubowski podczas przesłuchania przed Krajową Radą Sądownictwa mówił na temat praktyk, jakie są podejmowane przez prokuraturę nadzorowaną przez ministra sprawiedliwości Waldemara Żurka.

Groźby śmierci wobec Piotra Nisztora. Stowarzyszenie Dziennikarzy Polskich żąda stanowczej reakcji władz z ostatniej chwili
Groźby śmierci wobec Piotra Nisztora. Stowarzyszenie Dziennikarzy Polskich żąda stanowczej reakcji władz

Stowarzyszenie Dziennikarzy Polskich zabrało stanowczy głos po ujawnieniu gróźb wobec dziennikarza śledczego Piotra Nisztora. – Dziś mamy prawo nie tylko apelować, ale wręcz żądać od rządzących stanowczej reakcji – mówi prezes SDP dr Jolanta Hajdasz. 

Ekspert: „Prawdziwe zagrożenie dla demokracji pochodzi z Europy” z ostatniej chwili
Ekspert: „Prawdziwe zagrożenie dla demokracji pochodzi z Europy”

Analityczny ośrodek MCC Brussels opublikował i przedstawił raport, który krytycznie ocenia podejmowane przez Komisję Europejską działania w obszarze wewnętrznym wspólnoty.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane