Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
FT: Ukraina zgodziła się na ograniczenie liczebności armii Wiadomości
"FT": Ukraina zgodziła się na ograniczenie liczebności armii

Ukraina zgodziła się na zmniejszenie liczebności swoich sił zbrojnych do 800 tys. żołnierzy — poinformował we wtorek korespondent „Financial Times” Christopher Miller, powołując się na wysokich rangą urzędników z otoczenia prezydenta Wołodymyra Zełenskiego.

Niebieski paszport z unijnymi gwiazdami już wkrótce? KE zarejestrowała nową Europejską Inicjatywę Obywatelską z ostatniej chwili
Niebieski paszport z unijnymi gwiazdami już wkrótce? KE zarejestrowała nową Europejską Inicjatywę Obywatelską

Komisja Europejska zarejestrowała Europejską Inicjatywę Obywatelską (EIO) zatytułowaną ‘EU Stars On My Passport (STAR-PASS)".

Wyłączenia prądu. Ważny komunikat dla mieszkańców Pomorza z ostatniej chwili
Wyłączenia prądu. Ważny komunikat dla mieszkańców Pomorza

Mieszkańcy województwa pomorskiego muszą przygotować się na kolejne przerwy w dostawie energii elektrycznej. Energa opublikowała harmonogram wyłączeń, które obejmą m.in. Gdańsk, Kartuzy, Kościerzynę, Starogard Gdański, Tczew, Wejherowo oraz wiele okolicznych gmin. Poniżej przedstawiamy listę lokalizacji i dat, w których wystąpią przerwy.

Radosław Sikorski nie znalazł czasu na rozmowę z ambasadorem Izraela, bo... promuje swoją książkę? gorące
Radosław Sikorski nie znalazł czasu na rozmowę z ambasadorem Izraela, bo... promuje swoją książkę?

„Minister Radosław Sikorski nie znalazł dziś czasu na spotkanie z ambasadorem Izraela. Mamy przełom ws. Ukrainy, jego rzecznik sugeruje, że właśnie tym zajmuje się jego przełożony. Tymczasem… Sikorski reklamuje swoje książki i ma dzisiaj spotkanie autorskie w Krakowie” - napisała na X eurodeputowana Anna Bryłka (Konfederacja).

W Niemczech rozpoczął się proces członków Antify.  Atakowali ludzi młotkami Wiadomości
W Niemczech rozpoczął się proces członków Antify. Atakowali ludzi młotkami

Siedem osób stanęło przed sądem w Dreźnie pod zarzutami udziału w brutalnej działalności skrajnie lewicowej grupy Antifa Ost. Niedawno Stany Zjednoczone uznały tę organizację za terrorystyczną.

Macron: Jest szansa na postęp ku dobremu pokojowi z ostatniej chwili
Macron: Jest szansa na postęp ku dobremu pokojowi

Prezydent Francji Emmanuel Macron powiedział we wtorek, na początku wideokonferencji państw należących do tzw. koalicji chętnych, że „nareszcie jest szansa na realny postęp ku dobremu pokojowi” między Ukrainą i Rosją, ale jego warunkiem są gwarancje bezpieczeństwa dla Kijowa - relacjonuje AFP.

PE dał zielone światło pierwszemu w historii europejskiemu programowi przemysłu obronnego z ostatniej chwili
PE dał zielone światło pierwszemu w historii europejskiemu programowi przemysłu obronnego

Przyjęte we wtorek przez PE rozporządzenie oficjalnie ma na celu wzmocnienie unijnego przemysłu obronnego, wspieranie wspólnych europejskich zamówień w dziedzinie obronności, zwiększenie produkcji obronnej i zwiększenie wsparcia dla Ukrainy.

Ważny komunikat. Alert RCB wysłany do kilku województw z ostatniej chwili
Ważny komunikat. Alert RCB wysłany do kilku województw

We wtorek Rządowe Centrum Bezpieczeństwa ostrzega przed gwałtownym pogorszeniem pogody. W nocy z 26 na 27 listopada spodziewane są intensywne opady śniegu, które mogą znacznie utrudnić warunki na drogach i chodnikach. Alert RCB trafił do mieszkańców aż dziewięciu województw.

Zaskakujące zmiana w sondażach Politico na Węgrzech. Oskarżenia o rażącą manipulację z ostatniej chwili
Zaskakujące zmiana w sondażach Politico na Węgrzech. Oskarżenia o "rażącą manipulację"

Portal Politico został skrytykowany przez polityków węgierskiego Fideszu. Chodzi o zaskakującą zmianę wyników „sondażu sondaży” dla Węgier. Korekta ta odwróciła wcześniejsze wskazanie prowadzenia koalicji Fidesz–KDNP i wywołała zarzuty o manipulację danymi.

Komisje PE wzywają do stworzenia „wojskowej strefy Schengen” gorące
Komisje PE wzywają do stworzenia „wojskowej strefy Schengen”

Posłowie do Parlamentu Europejskiego ds. transportu i obrony pilnie wzywają do łatwiejszego przemieszczania wojsk i sprzętu wojskowego przez UE poprzez usunięcie granic wewnętrznych i modernizację infrastruktury.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe