Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT
Co musisz wiedzieć?
- 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
- To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
- OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
- ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
- W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.
Dane OpenAI: objawy manii, psychozy i myśli samobójczych
O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.
Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.
- Komunikat dla mieszkańców województwa lubuskiego ws. schronów
- Komunikat dla mieszkańców woj. wielkopolskiego
- Wyłączenia prądu na Śląsku. Ważny komunikat
- IMGW wydał nowy komunikat. Prognoza pogody na najbliższe dni
- Komunikat dla mieszkańców Podkarpacia
- Komunikat dla mieszkańców woj. podlaskiego
- NSZZ "Solidarność" powołuje sztab protestacyjny
„Nawet mały procent to ogromna liczba ludzi”
Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.
– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia
– dodał badacz.
Sieć ekspertów i nowe procedury bezpieczeństwa
OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.
Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.
Sprawy sądowe i kontrowersje wokół odpowiedzialności AI
Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.
Eksperci ostrzegają przed „psychozą AI”
Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.
– Chatboty potrafią tworzyć potężną iluzję rzeczywistości
– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.
Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.
Co musisz zrobić?
- Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
- Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
- Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
- W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123 – Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).




