Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.


 

POLECANE
Niemcy i Włosi ze wsparciem UE dla powodzian. Polska nawet nie złożyła wniosku z ostatniej chwili
Niemcy i Włosi ze wsparciem UE dla powodzian. Polska nawet nie złożyła wniosku

Jak czytamy w komunikacie prasowym na stronie Parlamentu Europejskiego, wczoraj europosłowie zatwierdzili ponad 116 mln euro pomocy w ramach Funduszu Solidarności UE na wsparcie działań naprawczych w dwóch krajach UE związanych z powodziami w 2024 r. Wśród nich nie ma Polski.

Koniec programu Czyste powietrze? Ministerstwo zawiesza przyjmowanie wniosków polityka
Koniec programu "Czyste powietrze"? Ministerstwo zawiesza przyjmowanie wniosków

Narodowy Fundusz Ochrony Środowiska i Gospodarki Wodnej (NFOŚiGW) zawiesza w czwartek przyjmowanie nowych wniosków w programie "Czyste Powietrze" - poinformowała w czwartek prezes Funduszu Dorota Zawadzka-Stępniak. Przerwa ma potrwać do wiosny 2025 r.

Świątek spożyła podejrzany lek. Oficjalny komunikat WTA pilne
Świątek spożyła podejrzany lek. Oficjalny komunikat WTA

Międzynarodowe Stowarzyszenie Integralności Tenisa podjęło decyzję o zawieszeniu Igi Świątek. W przeprowadzonym 12 sierpnia badaniu antydopingowym w organizmie tenisistki wykryto śladowe ilości zakazanego środka, trimetazydyny.

Gruzja zrywa rozmowy o członkostwie w UE z ostatniej chwili
Gruzja zrywa rozmowy o członkostwie w UE

Gruziński premier Irakli Kobachidze przekazał w czwartek po południu, że Gruzja na ten moment rezygnuje z dalszych negocjacji dotyczących przystąpienia do Unii Europejskiej. Wskazał, że rozmowy mogą zostać wznowione w 2028 roku.

Afera wokół Hołowni. Jest oświadczenie Kosiniaka-Kamysza z ostatniej chwili
Afera wokół Hołowni. Jest oświadczenie Kosiniaka-Kamysza

Władysław Kosiniak-Kamysz zabrał głos ws. afery wokół Szymona Hołowni. Marszałek Sejmu i kandydat na prezydenta zdaniem "Newsweeka" studiował na Collegium Humanum.

Meghan i Harry podzielili się radosnymi informacjami. W sieci lawina gratulacji z ostatniej chwili
Meghan i Harry podzielili się radosnymi informacjami. W sieci lawina gratulacji

W mediach po raz kolejny głośno o księciu Harrym i Meghan Markle. Gratulacje płyną z całego świata.

Manipulacja TVP ws. Karola Nawrockiego. Dziennikarka prowadząca audycję zabiera głos z ostatniej chwili
Manipulacja TVP ws. Karola Nawrockiego. Dziennikarka prowadząca audycję zabiera głos

"Dziś na antenie @tvp.info zdarzyło mi się coś, co absolutnie wydarzyć się nie powinno. Przepraszam, że wprowadziłam Państwa w błąd. Nie zrobiłam tego celowo" – pisze w mediach społecznościowych red. Wioleta Wramba, prezenterka TVP, o której było dziś głośno w związku z manipulacją dot. Karola Nawrockiego.

Broszury edukacyjne na wypadek wojny. Kosiniak-Kamysz: My to też zrobimy polityka
Broszury edukacyjne na wypadek wojny. Kosiniak-Kamysz: My to też zrobimy

W środę podczas I Ogólnopolskiego Kongresu "System Obrony Rzeczypospolitej. Bezpieczna Polska i Obywatele" w Krakowie minister obrony narodowej Władysław Kosiniak-Kamysz wygłosił przemówienie na temat armii, sojuszów i obywateli. 

Nie żyje policjant. Tak funkcjonariusze oddadzą hołd koledze Wiadomości
Nie żyje policjant. Tak funkcjonariusze oddadzą hołd koledze

W najbliższy piątek 29 listopada o godzinie 12:00 w kościele pw. św. Michała Archanioła w Białej Podlaskiej odbędzie się pogrzeb zmarłego policjanta Mateusza Biernackiego. Policja poinformowała, że w tym dniu na terenie całego kraju wybrzmią syreny policyjne.

Kosiniak-Kamysz: Podjąłem decyzję o utworzeniu wojsk dronowych pilne
Kosiniak-Kamysz: Podjąłem decyzję o utworzeniu wojsk dronowych

Szef MON, wicepremier Władysław Kosiniak-Kamysz poinformował w czwartek w Gdyni, że podjął decyzję o utworzeniu wojsk dronowych na początku 2025 r.

REKLAMA

Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?

W warszawskiej Szkole Wyższej Psychologii Społecznej na kierunku „psychologia i informatyka” można zrobić specjalność ze sztucznej inteligencji. Do uczestnictwa w niej zachęca dr Michał Boni, pisząc: „psycholog korzystający z systemów sztucznej inteligencji czy narzędzi algorytmicznych będzie w swojej pracy osiągał to, co jeszcze niedawno było nie do wyobrażenia”.
robot - zdjęcie poglądowe Czy zawód psychoterapeuty zostanie wkrótce przejęty przez roboty?
robot - zdjęcie poglądowe / fot. pixabay.com

I rzeczywiście, możliwości sztucznej inteligencji wydają się nieograniczone. Czy zawód psychoterapeuty stanie się kolejnym rynkiem pracy powoli przejmowanym przez roboty?

„Rozumiem / opowiedz mi więcej”

Anna Jarosz-Bilińska na portalu psychologiawpraktyce.pl przypomina początki wykorzystywania sztucznej inteligencji w psychoterapii. „Chatboty są często używane na stronach internetowych jako interaktywne, wirtualne postacie zastępujące żywych konsultantów, odpowiadające na pytania z zakresu usług i działalności danej firmy. Ich historia sięga lat 60. XX wieku. To właśnie wtedy Joseph Weizenbaum z Massachusetts Institute of Technology (MIT) opracował Elizę, znaną także jako «the Doctor». Jest to pierwszy program symulujący rozmowę terapeutyczną człowieka z maszyną. Chatbot, choć prosty w swojej konstrukcji, był zdolny przeprowadzić nieskomplikowany dialog z pacjentem. Iluzję prawdziwej rozmowy można było uzyskać za pomocą przestawiania fraz i słów kluczowych, które następnie były używane w wypowiedziach Elizy. Podczas rozmowy często pojawiają się uniwersalne zwroty, takie jak: «rozumiem» lub «opowiedz mi więcej o X», co pozwalało utrzymywać iluzję rozmowy z terapeutą i tym samym zwodzić przez dłuższy czas osoby badane”.

Jarosz-Bilińska przytacza transkrypcję jednej z konwersacji pacjenta z robotem terapeutą:
„Eliza: Powiedz mi, co Cię martwi? Pacjent: Wszystko. Eliza: Powiedz mi więcej o tym. Pacjent: Ostatnio wszystko mi przeszkadza. Eliza: Mówienie o tym Ci przeszkadza? Pacjent: Co dziwne, nie. Eliza: Dlaczego nie? Pacjent: Po prostu, nie. Eliza: Nie jestem pewna, czy rozumiem Cię w pełni. Pacjent: Rozmawianie o tym mi nie przeszkadza. Eliza: Jesteś zdecydowany, żeby o tym porozmawiać? Pacjent: Nie wiem, a powinienem? Eliza: Naprawdę nie wiesz? Pacjent: Naprawdę nie wiem. Eliza: Dlaczego? Pacjent: Pomożesz mi czy nie? Eliza: Dlaczego jesteś zainteresowany tym, czy jestem tu po to, żeby Ci pomóc?”.

Jak wskazuje autorka opracowania, mimo iż pacjenci wiedzieli, że nawiązują dialog z robotem, a nie z realnym człowiekiem, i tak traktowali te sesje poważnie i przywiązywali się do nich. „Jedna z anegdot dotyczy sekretarki samego Weizenbauma. Pewnego dnia kobieta poprosiła go o opuszczenie pokoju, aby mogła odbyć rozmowę z Elizą. Twórca programu był tym zaskoczony, pisząc później: «Nie zdawałem sobie sprawy, że bardzo krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne myślenie urojeniowe u całkiem normalnych ludzi»” – pisze Jarosz-Bilińska.

„Dziś Eliza ma skuteczniejszych i niezwykle wiarygodnych następców, takich jak Tess firmy X2AI. Można z nią porozmawiać poprzez SMS-y, komunikator Facebook Messenger i kilka innych platform. Nie wymaga dodatkowych aplikacji – z punktu widzenia użytkownika jest numerem telefonu komórkowego” – wskazuje na portalu Focus.pl psycholog dr Tomasz Witkowski. Za sprawą sztucznej inteligencji Tess pacjenci mogą korzystać z terapii i psychoedukacji. I chwalą to sobie. „Byłam wstrząśnięta tym, jak naturalnie czułam się podczas tej rozmowy. W ciągu kilku minut zapomniałam, że moim rozmówcą w rzeczywistości jest komputer” – opowiada cytowana przez dr. Witkowskiego Alison Berman z Singularity University. Autor artykułu podkreśla, że aplikacje cyfrowe oparte na metodach stosowanych w terapii poznawczo-behawioralnej w Wielkiej Brytanii są już standardem w zaleceniach psychoterapeutycznych dotyczących pracy z lękiem i depresją. „Także i w Polsce trwają prace nad podobnymi rozwiązaniami – zaangażowane są w to Uniwersytet SWPS i firma Norbsoft” – pisze Witkowski. I dodaje: „Nadal w procesie leczenia bierze udział psycholog potrzebny np. do postawienia diagnozy. Jednak wkrótce i to może się zmienić”.

Zamykamy za wygląd?

Dalsza część artykułu wskazuje już na mocno kontrowersyjne zagadnienia. Nie sposób uniknąć tu skojarzeń ze słynnymi teoriami włoskiego psychiatry i kryminologa Cesarego Lombrosa, który skłonności przestępczych upatrywał w określonych cechach fizycznych, takich jak np. mocno wysunięta dolna szczęka, nadmierne owłosienie, ciemny odcień skóry, nieprawidłowości w kształcie czaszki, zez, cofnięte czoło, duże uszy, mięsiste usta czy… leworęczność. Czy pomysły „zamykania za wygląd” mają szansę powrócić w XXI wieku? „Xiaolin Wu i Xi Zhang z Shanghai Jiao Tong University stworzyli sieć neuronową – program, który uczy się na podstawie dostarczonych mu danych. Po «nakarmieniu» go zdjęciami różnych obywateli Chin uzyskali algorytm rozpoznający przestępców z dokładnością bliską 90 proc. Okazało się, że znaczenie ma tylko kilka cech. Naukowcy nadal nie wiedzą, dlaczego akurat taka budowa twarzy ma związek ze skłonnościami przestępczymi, ani czy fenomen nie dotyczy wyłącznie osób pochodzenia azjatyckiego. Jedno jest już jednak pewne – w tym względzie sztuczna inteligencja może co najmniej dorównać ludzkiej intuicji” – pisze dr Witkowski.
W tym miejscu nie sposób się nie zatrzymać i nie zastanowić nad tym, jak niebezpiecznym narzędziem może okazać się pozbawiona ludzkiej kontroli sztuczna inteligencja. Czy trudno bowiem wyobrazić sobie sytuację, w której algorytm rozpoznaje na podstawie wyglądu potencjalnego przestępcę i następnie dąży do jego wyeliminowania ze społeczeństwa, aby ochronić w ten sposób resztę ludzi? Dajmy na to, że z początku będzie to „jedynie” wykluczenie cyfrowe lub np. niemożność skorzystania ze środków zbiorowego transportu. Brzmi jak science fiction? Niestety niekoniecznie.

„Hodujemy sobie gatunek, który stanie się – efektywniejszy od nas – naszym naturalnym wrogiem. Będzie dysponował tym, co zawsze było naszym atutem – intelektem. Jesteśmy słabi fizycznie, wolni, nie radzimy sobie w środowisku, padlibyśmy, gdyby nie to, że mamy lepszy mózg. Jeśli wyhodujemy sobie konkurencję, będzie po nas” – wskazuje w programie „Didaskalia” profesor fizyki Andrzej Dragan. „Narzędzie zostało stworzone w taki sposób, by nam służyć. Człowiek zawsze mógł decydować, jaki zrobi użytek z wynalazku. Tymczasem nóż nie zdecyduje, że nam zaszkodzi, a to urządzenie może to zrobić. To dość niepokojące. Nie rozumiemy, jak to wszystko działa, bo wymyśliliśmy tylko sposób pisania algorytmów uczenia maszynowego. Teraz nie wiemy, co może się wydarzyć. Nie mamy pojęcia, czy będziemy umieli kontrolować ten proces. Nie potrafię sobie wyobrazić takiego wariantu, żeby to się dla nas źle nie skończyło” – ostrzega naukowiec.

Na niebezpieczeństwa nieograniczonego stosowania sztucznej inteligencji wskazuje także psycholog María Alejandra Castro Arbeláez. „Kiedy instalujemy program na naszym komputerze lub aplikację na telefonie komórkowym, zgadzamy się na warunki, które rzadko czytamy. Uważamy, że jeśli większość je akceptuje, my też możemy je przyjąć. Tym sposobem wielokrotnie udzielamy przywilejów, z których nie do końca zdajemy sobie sprawę. Z drugiej strony, każdy psycholog w swoim zawodzie rządzi się kodeksem etycznym. Zdaje sobie sprawę, że istnieją zasady i jeśli je naruszy, będzie musiał odpowiedzieć przed właściwym organem. Mówimy o poziomie świadomości, do którego z trudnością może dotrzeć maszyna” – pisze psycholog na portalu pieknoumyslu.com. „Sztuczna inteligencja i psychologia pozostają w relacji, która być może kryje dwa wielkie niebezpieczeństwa. Pierwsze to dzielenie się zbyt wrażliwymi danymi z maszyną zaprogramowaną w języku, którego użytkownik nie zna. A drugie to brak świadomości pewnych standardów – kodu deontologicznego – które powinny regulować określone usługi, korzyści lub działania czy zajęcia” – dodaje Arbeláez.

Zespół stresu elektronicznego

Kolejnym niebezpieczeństwem związanym ze sztuczną inteligencją jest sama kwestia konsekwencji nadmiernego stosowania urządzeń elektronicznych skutkującego nie tylko uzależnieniami, problemami ze skupieniem uwagi, przebodźcowaniem, ale nawet zmianami w mózgu. Dotyczy to szczególnie dzieci i młodzieży. „Szkoła jest miejscem zdobywania wiedzy i rozwijania talentów, dlatego powinna zapewniać uczniom warunki do należytego skupienia uwagi. Nie jest to możliwe, gdy silne bodźce generowane przez smartfony lub smartwatche odciągają uwagę uczniów od przedmiotu zajęć. Pogłębia to trudności związane z przyswajaniem wiedzy i nabywanych umiejętności. Ponadto, nie można bagatelizować szkodliwego wpływu technologii na zdrowie fizyczne i psychiczne dzieci i młodzieży. Badania wskazują na coraz więcej jednostek chorobowych, spowodowanych nadmiernym korzystaniem z urządzeń elektronicznych. Problem zbyt dużej obecności ekranów w życiu dzieci prowadzi m.in. do: zaburzeń koncentracji uwagi, nadpobudliwości ruchowej i rozdrażnienia, stanów lękowych i depresyjnych, obniżenia zdolności interpersonalnych i zmniejszenia umiejętności językowych, popadania w nałogi, na czele z uzależnieniem od pornografii, mediów społecznościowych i gier. Badania pokazują, że w Polsce zjawisko problematycznego użytkowania internetu dotyczy już co trzeciego nastolatka, a trzech na stu wymaga specjalistycznej pomocy. 28 proc. deklaruje, że z powodu nadużywania internetu miało zawroty głowy bądź pogorszył im się wzrok. 35 proc. przyznaje, że z tego samego powodu odczuwa przemęczenie i niedostatek snu. Aż 40 proc. nastolatek podpisało się pod twierdzeniem, że «Moje życie byłoby puste bez mojego telefonu/smartfona»” – piszą w liście otwartym do ministra edukacji i nauki Przemysława Czarnka organizatorzy akcji „Szkoła bez smartfonów” zorganizowanej przez Centrum Życia i Rodziny. „Dlatego tak ważne jest podjęcie wszelkich możliwych działań, aby ryzyko szkodliwego wpływu użytkowania tych urządzeń na zdrowie dzieci i młodzieży zredukować do minimum. Przykład innych państw pokazuje, że wprowadzenie takich rozwiązań jest możliwe i przynosi pożądane rezultaty. Wystarczy wspomnieć Francję, Australię, Włochy i kanadyjską prowincję Ontario” – dodają.

„Dziecko, które wiele godzin przesiaduje przed ekranem, może trwale uszkodzić sobie mózg” – ostrzega w rozmowie z Polskim Radiem psycholog Bogna Białecka. Postuluje ona stopniową zmianę kultury cyfrowej w Polsce. „Chodzi o to, aby normą było nieposiadanie smartfona przez dziecko i aby jego brak nie powodował wykluczenia z grupy” – tłumaczy, dodając, że dziecko nie musi być uzależnione, aby pojawiły się u niego problemy rozwojowe. „Naukowcy mówią m.in. o zespole stresu elektronicznego, który wiążą ze zwiększoną liczbą diagnoz ADHD i innych zaburzeń rozwojowych. Oglądanie krótkich filmików powoduje m.in. problemy ze skupieniem uwagi” – podkreśla Białecka.

Nie należy, rzecz jasna, wylewać dziecka z kąpielą i w związku z zagrożeniami cyfrowymi palić komputerów i przechodzić na drewniane liczydła. O ile sztuczna inteligencja z pewnością może znaleźć zastosowanie w analizie danych w kryminologii (choćby do porównywania śladów DNA znalezionych na miejscu zbrodni z tymi zgromadzonymi w policyjnych bazach danych), to jednak jej wykorzystywanie w procesie terapeutycznym wymaga już głębszego zastanowienia, także nad kwestią tego, jakie czynniki decydują o powodzeniu terapii. Tym, co leczy, jest przecież nie tylko możliwość wyrzucenia z siebie nagromadzonych emocji, nazwania ich i „przepracowania” w toku stopniowej zmiany destrukcyjnych przekonań, ale przede wszystkim – nawiązanie opartej na zaufaniu więzi terapeutycznej. Robot może wypełnić tę funkcję jedynie w pewnym ograniczonym stopniu. Jego „przewagą” nad terapeutą-człowiekiem może być fakt stałej dostępności sztucznej inteligencji, która – w przeciwieństwie do realnego terapeuty – nie będzie miała gorszego dnia, nie popełni błędu ani nie zachoruje. Czy jednak tego rodzaju terapia przybliży pacjenta do lepszego kontaktowania się z – niedoskonałymi przecież – realnymi ludźmi, w tym niedoskonałym samym sobą? Czy pacjent nie uzależni się od tego – niemal doskonałego przecież – terapeuty? Czy się w nim nie zakocha? I wreszcie – last but not least – co, jeśli w którymś momencie wyłączy mu się prąd?

Tekst pochodzi z 20 (1790) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe