Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).

 

POLECANE
Koniec ery w „Jeden z dziesięciu”. Niespodziewane pożegnanie z kultową postacią programu z ostatniej chwili
Koniec ery w „Jeden z dziesięciu”. Niespodziewane pożegnanie z kultową postacią programu

To wiadomość, która poruszyła widzów w całej Polsce. Po 14 latach współpracy z kultowym teleturniejem „Jeden z dziesięciu” żegna się pani Sylwia – jedna z najbardziej rozpoznawalnych postaci programu, kojarzona przez widzów z elegancją i profesjonalizmem.

Tusk znów sprzeda PKL? Niepokojące wieści z Zakopanego pilne
Tusk znów sprzeda PKL? Niepokojące wieści z Zakopanego

Media informują o planach wejścia na giełdę Polskich Kolei Linowych. Mieszkańcy Zakopanego i lokalne władze obawiają się, że może to oznaczać utratę kontroli nad spółką, którą rząd Donalda Tuska już raz sprzedał zagranicznemu funduszowi.

Karol Nawrocki: Nikt z nas nie zapisywał się do parapaństwa, któremu na imię Unia Europejska z ostatniej chwili
Karol Nawrocki: Nikt z nas nie zapisywał się do parapaństwa, któremu na imię Unia Europejska

Nikt z nas nie zapisywał się do parapaństwa, któremu na imię Unia Europejska; chcemy, żeby Polska była Polską w ramach UE - powiedział prezydent Karol Nawrocki w środę podczas uroczystości wręczenia nagrody Człowieka Wolności tygodnika „Sieci”, której został laureatem.

Kosiniak-Kamysz o wojskach USA w Polsce. „Uzyskaliśmy potwierdzenie” z ostatniej chwili
Kosiniak-Kamysz o wojskach USA w Polsce. „Uzyskaliśmy potwierdzenie”

Szef MON Władysław Kosiniak-Kamysz potwierdził, że Stany Zjednoczone nie planują redukcji obecności swoich wojsk w Polsce. Zapewnienia o dalszej współpracy padły po rozmowach z amerykańskimi partnerami, mimo że Pentagon ogłosił zmniejszenie kontyngentu w Rumunii.

Wyłączenia prądu na Pomorzu. Ważny komunikat z ostatniej chwili
Wyłączenia prądu na Pomorzu. Ważny komunikat

Energa Operator ogłosiła szczegółowy plan przerw w dostawie prądu dla województwa pomorskiego. Wyłączenia obejmą m.in. Gdańsk, Gdynię, Rumię, Sopot, Kartuzy, Kościerzynę, Starogard Gdański i Tczew. Prace potrwają od końca października aż do połowy listopada.

Złodzieje klejnotów z Luwru zatrzymani. Przeanalizowano 150 próbek DNA Wiadomości
Złodzieje klejnotów z Luwru zatrzymani. Przeanalizowano 150 próbek DNA

Dwóch mężczyzn zatrzymanych w związku z kradzieżą królewskich klejnotów z paryskiego Luwru przyznało się częściowo do winy. Francuska prokuratura ujawnia kolejne szczegóły spektakularnego włamania, a zrabowane przedmioty warte miliony euro wciąż pozostają nieodnalezione.

Polsce grozi utrata suwerenności. Jarosław Kaczyński wskazał dwa kluczowe zagrożenia z ostatniej chwili
Polsce grozi utrata suwerenności. Jarosław Kaczyński wskazał dwa kluczowe zagrożenia

– W perspektywie kilku lat suwerenność Polski może być zagrożona – ocenił prezes PiS Jarosław Kaczyński podczas Forum Ekonomicznego w Krynicy w środę. Wskazał dwa możliwe scenariusze: przyjęcie nowego „układu europejskiego” oraz ryzyko wojny z Rosją.

Unia Europejska udzieli Ukrainie kredytu zabezpieczonego aktywami Rosji? tylko u nas
Unia Europejska udzieli Ukrainie kredytu zabezpieczonego aktywami Rosji?

Unia Europejska rozważa kontrowersyjny krok, którym jest wykorzystanie zamrożonych rosyjskich aktywów do finansowania zakupu broni dla Kijowa. Plan, dyskutowany od lat w brukselskich kuluarach, nabiera kształtów na tle wyczerpujących się źródeł pomocy

KRRiT reaguje po skandalu w TVP z Dorotą Wysocką-Schnepf pilne
KRRiT reaguje po skandalu w TVP z Dorotą Wysocką-Schnepf

Krajowa Rada Radiofonii i Telewizji wszczęła postępowanie wyjaśniające wobec Doroty Wysockiej-Schnepf po jej skandalicznej wypowiedzi w programie „Niebezpieczne związki” w TVP Info. Dziennikarka w rozmowie z posłem PiS Mariuszem Goskiem powiedziała: „Macie ofiar na swoim koncie niestety bardzo dużo”.

USA wycofują wojska z Rumunii. Ostra reakcja Republikanów z ostatniej chwili
USA wycofują wojska z Rumunii. Ostra reakcja Republikanów

Republikańscy szefowie komisji ds. sił zbrojnych obydwu izb Kongresu wyrazili stanowczy sprzeciw wobec decyzji Pentagonu, by wycofać amerykańską brygadę piechoty z Rumunii. Jak stwierdzili, decyzja wysyła „zły sygnał” Rosji i jest sprzeczna ze strategią prezydenta Donalda Trumpa.

REKLAMA

Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).


 

Polecane
Emerytury
Stażowe