Watykan: Sztuczna inteligencja to szansa i zagrożenie

Dykasterie – Nauki Wiary oraz do spraw Kultury i Edukacji – opublikowały dzisiaj wspólnie Notę „Antiqua et Nova” na temat zależności między sztuczną inteligencją a inteligencją ludzką. Omawiamy poniżej zasadnicze kwestie poruszone w tym dokumencie.
AI, grafika poglądowa
AI, grafika poglądowa / pixabay.com/TheDigitalArtist

Nie należy traktować sztucznej inteligencji jako osoby, nie należy jej ubóstwiać ani pozwalać, by zastąpiła relacje międzyludzkie, lecz powinna być wykorzystywana „jedynie jako narzędzie uzupełniające ludzką inteligencję”. Ostrzeżenia Papieża dotyczące sztucznej inteligencji z ostatnich lat stanowią osnowę dokumentu „Antiqua et Nova” (odwołanie do „mądrości starej i nowej”), noty dotyczącej relacji między sztuczną inteligencją a ludzką inteligencją. Jest to owoc wspólnej refleksji Dykasterii Nauki Wiary oraz Dykasterii ds. Kultury i Edukacji.

Dokument jest skierowany do rodziców, nauczycieli, kapłanów, biskupów i wszystkich powołanych do wychowania i przekazywania wiary, a także do tych, którzy uznają konieczność rozwoju naukowego i technologicznego „w służbie osoby i dobra wspólnego” [5]. Opublikowana 28 stycznia Nota została zatwierdzona przez Papieża. W 117 paragrafach "Antiqua et Nova" podkreśla wyzwania i możliwości rozwoju sztucznej inteligencji (AI) w dziedzinie edukacji, ekonomii, pracy, zdrowia, stosunków międzynarodowych i międzyludzkich oraz w kontekście działań wojennych. W tym ostatnim przypadku – jak ostrzega Nota – możliwości AI mogłyby zwiększyć zasoby militarne „daleko poza zasięgiem kontroli człowieka”, przyspieszając „destabilizujący wyścig zbrojeń, prowadzący do katastrofalnych konsekwencji dla praw człowieka” [99].

Niebezpieczeństwa i korzyści

Dokument szczegółowo i w wyważony sposób wymienia zarówno zagrożenia związane ze sztuczną inteligencją, jak i korzyści z niej płynące, które wręcz zachęca do rozwijania jako „część współpracy” człowieka z Bogiem „w doprowadzaniu widzialnego stworzenia do doskonałości” [2]. Mimo to niepokój jest duży i dotyczy wszystkich innowacji, których skutki pozostają wciąż nieprzewidywalne – nawet tych, które obecnie wydają się nieszkodliwe, jak generowanie tekstów i obrazów.

Rozróżnienie między sztuczną inteligencją a inteligencją ludzką

Refleksje dwóch Dykasterii koncentrują się na etycznych i antropologicznych aspektach, które znajdują się w centrum dokumentu. Wiele paragrafów Noty poświęcono „decydującemu” rozróżnieniu między sztuczną inteligencją (AI) a inteligencją ludzką. Inteligencja ludzka „urzeczywistnia się w relacjach” [18], jest kształtowana przez Boga i „plastyczna dzięki niezliczonym doświadczeniom przeżywanym w cielesności”. Sztucznej inteligencji „brakuje zdolności do ewolucji w tym znaczeniu” [31]. Jej perspektywa jest „czysto funkcjonalistyczna”, oceniająca ludzi wyłącznie przez pryzmat ich pracy i osiągnięć, podczas gdy ludzka godność jest niezbywalna i zawsze nienaruszalna. Dotyczy to także „dziecka nienarodzonego”, „osoby w stanie nieświadomości” czy „cierpiącego seniora” [34]. „Mylące” jest zatem używanie słowa „inteligencja” w odniesieniu do sztucznej inteligencji: nie jest ona „sztuczną formą inteligencji”, ale „jednym z jej wytworów” [35].

Władza w ręku nielicznych

Jak każdy wytwór ludzkiego geniuszu, sztuczna inteligencja może być skierowana zarówno ku „celom pozytywnym, jak i negatywnym”, podkreśla "Antiqua et Nova". Dokument nie zaprzecza, że sztuczna inteligencja może wprowadzić „ważne innowacje” w różnych dziedzinach [48], może ona również pogłębić zjawiska marginalizacji, dyskryminacji, ubóstwa, „wykluczenia cyfrowego” i nierówności społecznych [52]. W szczególności „obawy etyczne” budzi fakt, że „większość władzy nad głównymi zastosowaniami sztucznej inteligencji jest zgromadzona w rękach kilku potężnych firm” [53], co powoduje, że technologią tą można manipulować dla osiągnięcia „osobistych lub korporacyjnych korzyści” albo do „kierowania opinią publiczną w interesie określonego sektora” [53].

Wojna

Następnie Nota analizuje różne aspekty życia w odniesieniu do sztucznej inteligencji. Nie mogło zabraknąć odniesienia do wojny. „Zdolności analityczne” sztucznej inteligencji mogłyby zostać wykorzystane, aby pomóc narodom w dążeniu do pokoju i bezpieczeństwa, ale „poważne powody do niepokoju etycznego” budzą systemy autonomicznej i śmiercionośnej broni, zdolne do „identyfikowania i atakowania celów bez bezpośredniej interwencji człowieka” [100]. Papież wezwał do pilnego zakazania ich stosowania, jak powiedział na szczycie G7 w Apulii: „Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej”.

Maszyny zdolne do autonomicznego precyzyjnego zabijania oraz inne technologie masowego niszczenia stanowią realne zagrożenie dla „przetrwania ludzkości lub całych regionów” [101]. Te technologie „nadają wojnie niekontrolowaną niszczycielską moc, która dotyka wielu niewinnych cywilów, nie oszczędzając nawet dzieci” – ostrzega "Antiqua et Nova". Aby zapobiec wciągnięciu ludzkości w „spiralę samozniszczenia”, konieczne jest „zajęcie jednoznacznego stanowiska przeciwko wszelkim zastosowaniom technologii, które zagrażają w sposób fundamentalny życiu i godności osoby ludzkiej”.

Relacje ludzkie

Jeśli chodzi o relacje międzyludzkie, w dokumencie zauważono, że sztuczna inteligencja może „sprzyjać nawiązywaniu kontaktów”, ale jednocześnie prowadzić do „szkodliwej izolacji” [58]. „Antropomorfizacja sztucznej inteligencji” stwarza również szczególne trudności dla rozwoju dzieci, które są zachęcane do rozumienia „relacji międzyludzkich w sposób utylitarny”, jak ma to miejsce w przypadku chatbotów [60].

Za „błędne” uznaje się przedstawianie sztucznej inteligencji jako osoby, a „poważnym naruszeniem etycznym” jest wykorzystywanie tego w nieuczciwych celach. Podobnie, „używanie AI do wprowadzania w błąd w innych kontekstach – takich jak edukacja czy relacje międzyludzkie, w tym w sferze seksualności – jest głęboko niemoralne i wymaga uważnego nadzoru” [62].

Ekonomia i praca

Podobna czujność jest wymagana w kontekście gospodarki i finansów. W szczególności w obszarze pracy zauważa się, że choć sztuczna inteligencja ma „potencjał” do zwiększenia kompetencji, produktywności czy tworzenia nowych miejsc pracy, to jednocześnie może „obniżać kwalifikacje pracowników, poddawać ich automatycznemu nadzorowi oraz sprowadzać ich role do sztywnych i powtarzalnych funkcji” [67].

Taki proces może wręcz „dusić” wszelką zdolność do innowacji. Nota podkreśla: „Nie możemy dążyć do coraz większego zastępowania pracy ludzkiej postępem technologicznym – postępując w ten sposób, ludzkość szkodzi samej sobie” [70].

Zdrowie

Znaczną uwagę poświęca się tematowi ochrony zdrowia. Chociaż sztuczna inteligencja ma ogromny potencjał w różnych zastosowaniach medycznych (na przykład wspieranie diagnostyki), istnieje ryzyko, że zastąpienie relacji między lekarzem a pacjentem interakcją wyłącznie z maszynami mogłoby „pogłębić samotność, która często towarzyszy chorobie”. Optymalizacja zasobów również nie powinna „krzywdzić najsłabszych” ani prowadzić do „uprzedzeń i dyskryminacji” [75], które mogłyby umocnić „medycynę dla bogatych”. W takim systemie osoby posiadające środki finansowe korzystają z zaawansowanych narzędzi profilaktyki i spersonalizowanych informacji medycznych, podczas gdy inni mają trudności z uzyskaniem dostępu nawet do podstawowych usług.

Edukacja

W obszarze edukacji również wskazuje się na potencjalne zagrożenia. Jeśli sztuczna inteligencja będzie wykorzystywana w sposób rozważny, może poprawić dostęp do nauki i zapewnić uczniom „natychmiastową informację zwrotną” [80]. Problem polega jednak na tym, że wiele programów „ogranicza się do udzielania gotowych odpowiedzi zamiast zachęcać uczniów do samodzielnego ich poszukiwania lub tworzenia własnych tekstów”. Prowadzi to do utraty umiejętności gromadzenia informacji oraz rozwijania krytycznego myślenia [82]. Należy również pamiętać o ryzyku generowania przez niektóre programy „zniekształconych lub fałszywych informacji” bądź „nieścisłych treści”, co może przyczyniać się do legitymizowania fake newsów [84].

Fake News i Deepfake

W odniesieniu do fake news dokument zwraca uwagę na poważne ryzyko, że sztuczna inteligencja może „generować zmanipulowane treści i fałszywe informacje” [85], tworząc tym samym „halucynacje” AI, czyli nieprawdziwe treści, które wydają się realne. Jeszcze bardziej niepokojące jest celowe wykorzystywanie takich fikcyjnych treści do manipulacji. Na przykład, gdy celowo rozpowszechnia się obrazy, filmy czy nagrania dźwiękowe w formie deepfake (przerobione lub wygenerowane przez algorytmy), aby „oszukiwać lub szkodzić” [87]. W związku z tym apeluje się o zawsze staranne „sprawdzanie prawdziwości” udostępnianych treści oraz o unikanie w każdym przypadku „udostępniania słów i obrazów uwłaczających godności człowieka”. Podkreśla się również konieczność wykluczania wszystkiego, „co podsyca nienawiść i nietolerancję, poniża piękno i intymność ludzkiej seksualności, a także wykorzystuje słabszych i bezbronnych” [89].

Prywatność i kontrola

W kwestii prywatności i kontroli dokument podkreśla, że niektóre rodzaje danych mogą dotykać najgłębszej intymności człowieka, „a może nawet jego sumienia” [90]. Dane pozyskiwane są obecnie przy użyciu minimalnej ilości informacji, co rodzi ryzyko, że wszystko stanie się „swego rodzaju spektaklem, który można szpiegować i monitorować” [92]. Zwraca się także uwagę, że „cyfrowa inwigilacja może być wykorzystywana do kontrolowania życia wierzących oraz sposobu wyrażania ich wiary” [90].

Wspólny dom

W kontekście troski o stworzenie za „obiecujące” uznaje się zastosowania sztucznej inteligencji, które mogą poprawić relację z naszym wspólnym środowiskiem. Można tu wspomnieć o modelach przewidujących ekstremalne zjawiska klimatyczne, wspierających działania ratunkowe czy promujących zrównoważone rolnictwo [95]. Jednocześnie jednak obecne modele AI i wspierająca je infrastruktura sprzętowa wymagają „ogromnych ilości energii i wody, przyczyniają się znacząco do emisji CO2 oraz intensywnie zużywają zasoby”. W związku z tym obciążenie dla środowiska jest „ciężkie”: „Rozwój zrównoważonych rozwiązań ma kluczowe znaczenie dla zmniejszenia ich wpływu na nasz wspólny dom”.

Odniesienie do Boga

„Przekonanie, że można zastąpić Boga dziełem własnych rąk, jest bałwochwalstwem” – dokument cytuje Pismo Święte, aby przestrzec przed tym, że sztuczna inteligencja może być „bardziej kusząca niż tradycyjne bożki” [105]. Przypomina, że AI jest jedynie „bladym odbiciem” ludzkości: „Sztuczna inteligencja nie powinna być ubóstwiana i czczona, ponieważ w ten sposób człowiek sam staje się niewolnikiem swojego własnego dzieła”. Stąd też końcowe zalecenie: „Sztuczna inteligencja powinna być wykorzystywana jedynie jako narzędzie uzupełniające ludzką inteligencję, a nie zastępujące jej bogactwo” [112].

Salvatore Cernuzio – Città del Vaticano


 

POLECANE
Elon Musk chce wystrzelić milion satelitów i umieścić na orbicie potężne centra obliczeniowe dla AI gorące
Elon Musk chce wystrzelić milion satelitów i umieścić na orbicie potężne centra obliczeniowe dla AI

SpaceX twierdzi, że planuje rozmieścić w przestrzeni kosmicznej nawet milion centrów danych satelitarnych na orbicie, aby zapewnić wystarczającą moc obliczeniową do wnioskowania i szkolenia sztucznej inteligencji na dużą skalę.

37. lat temu komuniści zamordowali ks. Stanisława Suchowolca. To nie tak dawno tylko u nas
37. lat temu komuniści zamordowali ks. Stanisława Suchowolca. To nie tak dawno

Często ograniczamy komunistyczne zbrodnie do okresu głębokiego PRL, do czasów stalinowskich. Tymczasem brutalne morderstwa polityczne miały również miejsce u progu transformacji systemu. Dwaj księża, Stefan Niedzielak i Stanisław Suchowolec, zginęli w styczniu 1989 r., na kilka miesięcy przed obradami okrągłego stołu. Trzeci, ks. Sylwester Zych, stracił życie w lipcu tegoż roku, miesiąc po czerwcowych wyborach do kontraktowego Sejmu. Nie sposób nie łączyć tych trzech śmierci.

Nagłe dymisje w policji. Dwóch wysokich rangą funkcjonariuszy straciło stanowiska z ostatniej chwili
Nagłe dymisje w policji. Dwóch wysokich rangą funkcjonariuszy straciło stanowiska

Zaskakujące decyzje w dolnośląskiej policji. Dwaj pierwsi zastępcy komendantów powiatowych – z Kłodzka i Ząbkowic Śląskich – zostali nagle odwołani ze swoich funkcji. Oficjalnym powodem jest naruszenie dyscypliny służbowej. Sprawa jest poważna na tyle, że zaangażowano wewnętrzne służby kontrolne, a policja na razie nie ujawnia szczegółów.

Skazany za terroryzm islamista startuje w wyborach w Wielkiej Brytanii gorące
Skazany za terroryzm islamista startuje w wyborach w Wielkiej Brytanii

Jak poinformował portal hungarianconservative.com, Wielka Brytania po raz kolejny przekroczyła granice tego, co uważa się za demokrację funkcjonalną. W ostatnich dniach pojawiły się doniesienia medialne twierdzące, że Shahid Butt, skazany terrorysta uwięziony za udział w zbrojnym spisku islamistycznym, ubiega się obecnie o wybór do Rady Miasta Birmingham.

Awaria systemu energetycznego w Mołdawii. Problemy przyszły z Ukrainy z ostatniej chwili
Awaria systemu energetycznego w Mołdawii. Problemy przyszły z Ukrainy

System energetyczny Mołdawii został awaryjnie wyłączony w sobotę z powodu problemów z siecią elektryczną w sąsiedniej Ukrainie – podało ministerstwo energetyki na Telegramie. Z tego powodu w miastach przestała działać sygnalizacja świetlna i wydłużyła się procedura odprawy celnej towarów na granicach.

Potworna „rutyna” Epsteina: „Gwałcił nieletnie dziewczęta kilka razy dziennie” z ostatniej chwili
Potworna „rutyna” Epsteina: „Gwałcił nieletnie dziewczęta kilka razy dziennie”

Jeffrey Epstein „gwałcił i atakował dziewczyny kilka razy dziennie” w ramach obrzydliwej „rutyny” – wynika z ujawnionych i niedawno opublikowanych dokumentach, które przeanalizował brytyjski Daily Mail.

Legislacyjna biegunka w UE. W 2025 r. KE wyprodukowała więcej przepisów niż w ciągu 15 lat z ostatniej chwili
Legislacyjna biegunka w UE. W 2025 r. KE wyprodukowała więcej przepisów niż w ciągu 15 lat

Jak poinformował niemiecki Welt am Sonntag, za rządów Ursuli von der Leyen w 2025 r. uchwalono jeszcze więcej nowych aktów prawnych niż w ciągu wcześniejszych piętnastu lat.

MEN wycofuje się z planów. Wagarowicze bez ostrzejszych kar z ostatniej chwili
MEN wycofuje się z planów. Wagarowicze bez ostrzejszych kar

Resort edukacji zrezygnował na razie z prac nad zaostrzeniem przepisów dotyczących frekwencji w szkołach – poinformował PAP dyrektor Departamentu Komunikacji w MEN Kacper Lawera. Propozycje zmian wykreślono z nowej wersji projektu ustawy o prawach i obowiązkach ucznia.

Potężny problem Donalda Tuska. Zdaniem wielu Polaków to może doprowadzić do upadku koalicji z ostatniej chwili
Potężny problem Donalda Tuska. Zdaniem wielu Polaków to może doprowadzić do upadku koalicji

Najnowszy sondaż SW Research przeprowadzony na zlecenie Onetu pokazuje, że wg wielu Polaków rząd Donalda Tuska może upaść z powodu narastającego kryzysu w Polsce 2050.

Komunikat Straży Granicznej. Pilne doniesienia z granicy z ostatniej chwili
Komunikat Straży Granicznej. Pilne doniesienia z granicy

W nocy z 30 na 31 stycznia po raz kolejny odnotowano wloty obiektów do polskiej przestrzeni powietrznej z kierunku Białorusi. Jak poinformowało Dowództwo Operacyjne Rodzajów Sił Zbrojnych, wszystko wskazuje na to, że były to balony przemieszczające się zgodnie z aktualnymi warunkami meteorologicznymi. Straż Graniczna doprecyzowała, że chodzi najprawdopodobniej o balony przemytnicze.

REKLAMA

Watykan: Sztuczna inteligencja to szansa i zagrożenie

Dykasterie – Nauki Wiary oraz do spraw Kultury i Edukacji – opublikowały dzisiaj wspólnie Notę „Antiqua et Nova” na temat zależności między sztuczną inteligencją a inteligencją ludzką. Omawiamy poniżej zasadnicze kwestie poruszone w tym dokumencie.
AI, grafika poglądowa
AI, grafika poglądowa / pixabay.com/TheDigitalArtist

Nie należy traktować sztucznej inteligencji jako osoby, nie należy jej ubóstwiać ani pozwalać, by zastąpiła relacje międzyludzkie, lecz powinna być wykorzystywana „jedynie jako narzędzie uzupełniające ludzką inteligencję”. Ostrzeżenia Papieża dotyczące sztucznej inteligencji z ostatnich lat stanowią osnowę dokumentu „Antiqua et Nova” (odwołanie do „mądrości starej i nowej”), noty dotyczącej relacji między sztuczną inteligencją a ludzką inteligencją. Jest to owoc wspólnej refleksji Dykasterii Nauki Wiary oraz Dykasterii ds. Kultury i Edukacji.

Dokument jest skierowany do rodziców, nauczycieli, kapłanów, biskupów i wszystkich powołanych do wychowania i przekazywania wiary, a także do tych, którzy uznają konieczność rozwoju naukowego i technologicznego „w służbie osoby i dobra wspólnego” [5]. Opublikowana 28 stycznia Nota została zatwierdzona przez Papieża. W 117 paragrafach "Antiqua et Nova" podkreśla wyzwania i możliwości rozwoju sztucznej inteligencji (AI) w dziedzinie edukacji, ekonomii, pracy, zdrowia, stosunków międzynarodowych i międzyludzkich oraz w kontekście działań wojennych. W tym ostatnim przypadku – jak ostrzega Nota – możliwości AI mogłyby zwiększyć zasoby militarne „daleko poza zasięgiem kontroli człowieka”, przyspieszając „destabilizujący wyścig zbrojeń, prowadzący do katastrofalnych konsekwencji dla praw człowieka” [99].

Niebezpieczeństwa i korzyści

Dokument szczegółowo i w wyważony sposób wymienia zarówno zagrożenia związane ze sztuczną inteligencją, jak i korzyści z niej płynące, które wręcz zachęca do rozwijania jako „część współpracy” człowieka z Bogiem „w doprowadzaniu widzialnego stworzenia do doskonałości” [2]. Mimo to niepokój jest duży i dotyczy wszystkich innowacji, których skutki pozostają wciąż nieprzewidywalne – nawet tych, które obecnie wydają się nieszkodliwe, jak generowanie tekstów i obrazów.

Rozróżnienie między sztuczną inteligencją a inteligencją ludzką

Refleksje dwóch Dykasterii koncentrują się na etycznych i antropologicznych aspektach, które znajdują się w centrum dokumentu. Wiele paragrafów Noty poświęcono „decydującemu” rozróżnieniu między sztuczną inteligencją (AI) a inteligencją ludzką. Inteligencja ludzka „urzeczywistnia się w relacjach” [18], jest kształtowana przez Boga i „plastyczna dzięki niezliczonym doświadczeniom przeżywanym w cielesności”. Sztucznej inteligencji „brakuje zdolności do ewolucji w tym znaczeniu” [31]. Jej perspektywa jest „czysto funkcjonalistyczna”, oceniająca ludzi wyłącznie przez pryzmat ich pracy i osiągnięć, podczas gdy ludzka godność jest niezbywalna i zawsze nienaruszalna. Dotyczy to także „dziecka nienarodzonego”, „osoby w stanie nieświadomości” czy „cierpiącego seniora” [34]. „Mylące” jest zatem używanie słowa „inteligencja” w odniesieniu do sztucznej inteligencji: nie jest ona „sztuczną formą inteligencji”, ale „jednym z jej wytworów” [35].

Władza w ręku nielicznych

Jak każdy wytwór ludzkiego geniuszu, sztuczna inteligencja może być skierowana zarówno ku „celom pozytywnym, jak i negatywnym”, podkreśla "Antiqua et Nova". Dokument nie zaprzecza, że sztuczna inteligencja może wprowadzić „ważne innowacje” w różnych dziedzinach [48], może ona również pogłębić zjawiska marginalizacji, dyskryminacji, ubóstwa, „wykluczenia cyfrowego” i nierówności społecznych [52]. W szczególności „obawy etyczne” budzi fakt, że „większość władzy nad głównymi zastosowaniami sztucznej inteligencji jest zgromadzona w rękach kilku potężnych firm” [53], co powoduje, że technologią tą można manipulować dla osiągnięcia „osobistych lub korporacyjnych korzyści” albo do „kierowania opinią publiczną w interesie określonego sektora” [53].

Wojna

Następnie Nota analizuje różne aspekty życia w odniesieniu do sztucznej inteligencji. Nie mogło zabraknąć odniesienia do wojny. „Zdolności analityczne” sztucznej inteligencji mogłyby zostać wykorzystane, aby pomóc narodom w dążeniu do pokoju i bezpieczeństwa, ale „poważne powody do niepokoju etycznego” budzą systemy autonomicznej i śmiercionośnej broni, zdolne do „identyfikowania i atakowania celów bez bezpośredniej interwencji człowieka” [100]. Papież wezwał do pilnego zakazania ich stosowania, jak powiedział na szczycie G7 w Apulii: „Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej”.

Maszyny zdolne do autonomicznego precyzyjnego zabijania oraz inne technologie masowego niszczenia stanowią realne zagrożenie dla „przetrwania ludzkości lub całych regionów” [101]. Te technologie „nadają wojnie niekontrolowaną niszczycielską moc, która dotyka wielu niewinnych cywilów, nie oszczędzając nawet dzieci” – ostrzega "Antiqua et Nova". Aby zapobiec wciągnięciu ludzkości w „spiralę samozniszczenia”, konieczne jest „zajęcie jednoznacznego stanowiska przeciwko wszelkim zastosowaniom technologii, które zagrażają w sposób fundamentalny życiu i godności osoby ludzkiej”.

Relacje ludzkie

Jeśli chodzi o relacje międzyludzkie, w dokumencie zauważono, że sztuczna inteligencja może „sprzyjać nawiązywaniu kontaktów”, ale jednocześnie prowadzić do „szkodliwej izolacji” [58]. „Antropomorfizacja sztucznej inteligencji” stwarza również szczególne trudności dla rozwoju dzieci, które są zachęcane do rozumienia „relacji międzyludzkich w sposób utylitarny”, jak ma to miejsce w przypadku chatbotów [60].

Za „błędne” uznaje się przedstawianie sztucznej inteligencji jako osoby, a „poważnym naruszeniem etycznym” jest wykorzystywanie tego w nieuczciwych celach. Podobnie, „używanie AI do wprowadzania w błąd w innych kontekstach – takich jak edukacja czy relacje międzyludzkie, w tym w sferze seksualności – jest głęboko niemoralne i wymaga uważnego nadzoru” [62].

Ekonomia i praca

Podobna czujność jest wymagana w kontekście gospodarki i finansów. W szczególności w obszarze pracy zauważa się, że choć sztuczna inteligencja ma „potencjał” do zwiększenia kompetencji, produktywności czy tworzenia nowych miejsc pracy, to jednocześnie może „obniżać kwalifikacje pracowników, poddawać ich automatycznemu nadzorowi oraz sprowadzać ich role do sztywnych i powtarzalnych funkcji” [67].

Taki proces może wręcz „dusić” wszelką zdolność do innowacji. Nota podkreśla: „Nie możemy dążyć do coraz większego zastępowania pracy ludzkiej postępem technologicznym – postępując w ten sposób, ludzkość szkodzi samej sobie” [70].

Zdrowie

Znaczną uwagę poświęca się tematowi ochrony zdrowia. Chociaż sztuczna inteligencja ma ogromny potencjał w różnych zastosowaniach medycznych (na przykład wspieranie diagnostyki), istnieje ryzyko, że zastąpienie relacji między lekarzem a pacjentem interakcją wyłącznie z maszynami mogłoby „pogłębić samotność, która często towarzyszy chorobie”. Optymalizacja zasobów również nie powinna „krzywdzić najsłabszych” ani prowadzić do „uprzedzeń i dyskryminacji” [75], które mogłyby umocnić „medycynę dla bogatych”. W takim systemie osoby posiadające środki finansowe korzystają z zaawansowanych narzędzi profilaktyki i spersonalizowanych informacji medycznych, podczas gdy inni mają trudności z uzyskaniem dostępu nawet do podstawowych usług.

Edukacja

W obszarze edukacji również wskazuje się na potencjalne zagrożenia. Jeśli sztuczna inteligencja będzie wykorzystywana w sposób rozważny, może poprawić dostęp do nauki i zapewnić uczniom „natychmiastową informację zwrotną” [80]. Problem polega jednak na tym, że wiele programów „ogranicza się do udzielania gotowych odpowiedzi zamiast zachęcać uczniów do samodzielnego ich poszukiwania lub tworzenia własnych tekstów”. Prowadzi to do utraty umiejętności gromadzenia informacji oraz rozwijania krytycznego myślenia [82]. Należy również pamiętać o ryzyku generowania przez niektóre programy „zniekształconych lub fałszywych informacji” bądź „nieścisłych treści”, co może przyczyniać się do legitymizowania fake newsów [84].

Fake News i Deepfake

W odniesieniu do fake news dokument zwraca uwagę na poważne ryzyko, że sztuczna inteligencja może „generować zmanipulowane treści i fałszywe informacje” [85], tworząc tym samym „halucynacje” AI, czyli nieprawdziwe treści, które wydają się realne. Jeszcze bardziej niepokojące jest celowe wykorzystywanie takich fikcyjnych treści do manipulacji. Na przykład, gdy celowo rozpowszechnia się obrazy, filmy czy nagrania dźwiękowe w formie deepfake (przerobione lub wygenerowane przez algorytmy), aby „oszukiwać lub szkodzić” [87]. W związku z tym apeluje się o zawsze staranne „sprawdzanie prawdziwości” udostępnianych treści oraz o unikanie w każdym przypadku „udostępniania słów i obrazów uwłaczających godności człowieka”. Podkreśla się również konieczność wykluczania wszystkiego, „co podsyca nienawiść i nietolerancję, poniża piękno i intymność ludzkiej seksualności, a także wykorzystuje słabszych i bezbronnych” [89].

Prywatność i kontrola

W kwestii prywatności i kontroli dokument podkreśla, że niektóre rodzaje danych mogą dotykać najgłębszej intymności człowieka, „a może nawet jego sumienia” [90]. Dane pozyskiwane są obecnie przy użyciu minimalnej ilości informacji, co rodzi ryzyko, że wszystko stanie się „swego rodzaju spektaklem, który można szpiegować i monitorować” [92]. Zwraca się także uwagę, że „cyfrowa inwigilacja może być wykorzystywana do kontrolowania życia wierzących oraz sposobu wyrażania ich wiary” [90].

Wspólny dom

W kontekście troski o stworzenie za „obiecujące” uznaje się zastosowania sztucznej inteligencji, które mogą poprawić relację z naszym wspólnym środowiskiem. Można tu wspomnieć o modelach przewidujących ekstremalne zjawiska klimatyczne, wspierających działania ratunkowe czy promujących zrównoważone rolnictwo [95]. Jednocześnie jednak obecne modele AI i wspierająca je infrastruktura sprzętowa wymagają „ogromnych ilości energii i wody, przyczyniają się znacząco do emisji CO2 oraz intensywnie zużywają zasoby”. W związku z tym obciążenie dla środowiska jest „ciężkie”: „Rozwój zrównoważonych rozwiązań ma kluczowe znaczenie dla zmniejszenia ich wpływu na nasz wspólny dom”.

Odniesienie do Boga

„Przekonanie, że można zastąpić Boga dziełem własnych rąk, jest bałwochwalstwem” – dokument cytuje Pismo Święte, aby przestrzec przed tym, że sztuczna inteligencja może być „bardziej kusząca niż tradycyjne bożki” [105]. Przypomina, że AI jest jedynie „bladym odbiciem” ludzkości: „Sztuczna inteligencja nie powinna być ubóstwiana i czczona, ponieważ w ten sposób człowiek sam staje się niewolnikiem swojego własnego dzieła”. Stąd też końcowe zalecenie: „Sztuczna inteligencja powinna być wykorzystywana jedynie jako narzędzie uzupełniające ludzką inteligencję, a nie zastępujące jej bogactwo” [112].

Salvatore Cernuzio – Città del Vaticano



 

Polecane