Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?

Jeden z ojców sztucznej inteligencji i szef firmy OpenAI, która stworzyła program ChatGPT, pod koniec listopada nieoczekiwanie i w trybie natychmiastowym zostaje zwolniony z pracy. Kilkanaście godzin później już wie, że znajdzie pracę w Microsofcie, kolejnym gigancie który od lat skupia się na rozwoju sztucznej inteligencji. Kiedy w OpenAI rozpoczyna się dochodzenie w sprawie nagłego zwolnienia byłego prezesa, rada dyrektorów spółki robi krok do tyłu i… przywraca go do pracy. W branżowych mediach wciąż wybrzmiewa pytanie: Jakie zagrożenia dla ludzkości ze strony SI ukrył Altman i o czym nie chcą mówić twórcy bota ChatGPT?
Sztuczna inteligencja - zdjęcie poglądowe
Sztuczna inteligencja - zdjęcie poglądowe / fot. pixabay.com

Przez te kilka dni, kiedy ważą się nie tylko losy założyciela OpenAI, ale również całej branży sztucznej inteligencji i przyszłość miliardów dolarów zainwestowanych przez fundusze inwestycyjne w spółki nowych technologii, gazety biznesowe prześcigają się w spekulacjach, co takiego ukrywa przed światem i radą dyrektorów Sam Altman. Już kilka godzin po zwolnieniu proszący o anonimowość członek zarządu firmy zdradza, że przy zwolnieniu w grę wchodziła nie tylko przyszłość pierwszej światowej firmy, lecz także całej ludzkości.

Altman wiedział, nie powiedział

Założona przez Altmana firma OpenAI już wiele miesięcy wcześniej stała się światowym pionierem w zarządzaniu działem badań naukowych – powołała do życia sztuczną inteligencję, która już po kilku pierwszych tygodniach nie tylko zabawiała rozmowami zafascynowanych nową zabawką amerykańskich i japońskich emerytów, ale jak świat szeroki pisała prace zaliczeniowe dla studentów we wszystkich językach świata, a nawet prace doktorskie z prawa międzynarodowego, czy – na czym dość szybko dała się złapać – także projekty ustaw w wielu krajach, które bezrefleksyjnie trafiały pod obrady parlamentów. Przede wszystkim jednak jako pierwsza korporacja w świecie nowych technologii zaczęła zatrudniać filozofów i etyków, których głównym zadaniem było określenie, na ile niebezpieczne i antyludzkie jest narzędzie zdobywające popularność w bezprecedensowym tempie, bijąc na głowę ilością logowań i odsłon nie tylko rekordy serwisów społecznościowych, ale także… bezkonkurencyjnej w skali planety przeglądarki Google.

„Za zwolnieniem Sama Altmana stoją obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo nie tylko firmy i jej produktu, ale przede wszystkim całej ludzkości” – donoszą dobę po zwolnieniu Altmana „New York Times” i agencja Bloomberg. Nowy zarząd OpenAI nie komentuje tych doniesień, ale – co symptomatyczne – nie zaprzecza im. Zamiast tego tymczasowy dyrektor wykonawczy OpenAI Emmett Shear zapowiada przeprowadzenie dochodzenia w sprawie nagłego i nieoczekiwanego zwolnienia z pracy założyciela firmy.

W ciągu kilku godzin od tego zdarzenia w amerykańskich i zachodnioeuropejskich mediach pojawiły się głosy naukowców potwierdzające ten zarzut.

– Wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że „nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków”, oznacza, że biznesmen zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AI – deklaruje Toby Ord, filozof i jeden z liderów ruchu efektywnego altruizmu, który zakładał razem z Altmanem pod koniec drugiej dekady obecnego wieku. Ruch od lat przestrzega przed oddawaniem zbyt dużej władzy sztucznej inteligencji, która już dzisiaj wymyka się spod kontroli. ChatGPT – wciąż przez wielu użytkowników uważany za zabawkę – pokazał już, że potrafi nie tylko świetnie pisać i udawać człowieka w rozmowach, ale przede wszystkim potrafi doskonale kłamać. Dopóki chodzi o zjawisko „halucynowania SI” – czyli wymyślania na poczekaniu historii, które się nie wydarzyły – jest to dość zabawne, jednak ChatGPT (i podobne boty stworzone przez konkurencyjne firmy – m.in. Google i Microsoft) potrafi również podrabiać styl, głos a nawet tworzyć materiały video z wypowiedziami żyjących i nieżyjących polityków, które nigdy nie padły.

SI w służbie dezinformacji

Trzeba pamiętać, że podobne sztuczne inteligencje powstały i są wykorzystywane także w krajach, które z demokracją mają niewiele wspólnego – Chiny z powodzeniem zatrudniły SI do stworzenia nieprawdziwych prezenterów telewizyjnych, którzy bez mrugnięcia okiem czytają wiadomości, mówiąc nierzadko o zachwycie całego świata nad pokojowym i stabilnym rozwojem Chin stających się nowym światowym liderem gotowym do zastąpienia, a nawet wyeliminowania Stanów Zjednoczonych. W tym samym czasie podobne algorytmy tworzone przez Rosję przekazują Rosjanom informacje o sukcesach rosyjskiej operacji specjalnej na Ukrainie, a nawet o przyjaznym witaniu przez pragnących spokoju i stabilności Ukraińców rosyjskich sił na wschodzie zaatakowanego kraju, jednocześnie pokazując w ukraińskich serwisach społecznościowych nieistniejące kłótnie w ukraińskim sztabie generalnym.

Do pierwszej ligi w rozwoju sztucznej inteligencji wchodzą również Arabowie. Oto Arabska Rada ds. Badań nad Zaawansowanymi Technologiami z siedzibą w Abu Zabi dokonuje na przełomie listopada i grudnia śmiałego kroku, tworząc nową, w zapowiedziach największą firmę z branży sztucznej inteligencji – AI71. Podmiot powstaje w oparciu o stworzone przez arabski Technology Innovation Institute modele generatywnej sztucznej inteligencji Falcon i skupi się na wielodomenowych specjalizacjach, oferując zarazem niedostępne wcześniej opcje sterowania danymi AI dla firm i krajów, które zamierzają podjąć się self-hostingu dla ochrony prywatności i tajemnic państwowych.

Kto wyłączy SI?

Przeciwnicy niekontrolowanego rozwoju sztucznej inteligencji podkreślają, że żadna z tych firm i organizacji nie potrafi odpowiedzieć na pytanie od lat stawiane przez ruch efektywnego altruizmu: Czy ponad wszelką wątpliwość firmy zajmujące się rozwojem SI mają pewność, że istniejące na świecie sztuczne inteligencje nie połączyły się i nie współpracują ze sobą, kształtując świat nie według oczekiwań ich twórców, lecz według projektu, o którym ludzie nie mają pojęcia. – A to właśnie największe niebezpieczeństwo, skoro SI zarządzają już największymi elektrowniami atomowymi, kolejami, gigantycznymi bazami danych, a nawet autonomicznymi samochodami – przestrzega Toby Ord. – Nie mamy nawet pewności, czy te wszystkie algorytmy dadzą się dzisiaj wyłączyć – mówi filozof.

Tekst pochodzi z 50 (1820) numeru „Tygodnika Solidarność”.


 

POLECANE
Michał Kobosko odchodzi z Polski 2050 z ostatniej chwili
Michał Kobosko odchodzi z Polski 2050

Europoseł Michał Kobosko podjął w poniedziałek decyzję o rezygnacji z członkostwa w Polsce 2050 – poinformował Onet. Kobosko był jednym z najbliższych współpracowników Szymona Hołowni.

Pożar bloku mieszkalnego w Ząbkach. Są ranni z ostatniej chwili
Pożar bloku mieszkalnego w Ząbkach. Są ranni

W podwarszawskich Ząbkach doszło do pożaru mieszkania w bloku mieszkalnym. Cztery osoby zostały poszkodowane.

Jarosław Kaczyński wyklucza sojusz z partią Grzegorza Brauna. Padły ostre słowa z ostatniej chwili
Jarosław Kaczyński wyklucza sojusz z partią Grzegorza Brauna. Padły ostre słowa

– Nie ma mowy o żadnych sojuszach z Konfederacją Korony Polskiej, partią europosła Grzegorza Brauna – podkreślił w poniedziałek prezes PiS Jarosław Kaczyński. W jego ocenie jest to ugrupowanie „niepoważne”, tworzone przez ludzi, których – jak stwierdził – nie powinno być w życiu publicznym.

Strategiczna umowa USA–Węgry. Chodzi o energetykę jądrową z ostatniej chwili
Strategiczna umowa USA–Węgry. Chodzi o energetykę jądrową

Sekretarz stanu USA Marco Rubio i minister spraw zagranicznych Węgier Peter Szijjarto podpisali w poniedziałek w Budapeszcie umowę ws. cywilnej energetyki jądrowej – ogłosił w komunikacie Departament Stanu USA.

ZUS wydał pilny komunikat z ostatniej chwili
ZUS wydał pilny komunikat

ZUS zapowiada ograniczenia w dostępie do portalu eZUS 16 lutego 2026 r. W tym czasie część usług będzie niedostępna – informuje w poniedziałek w komunikacie ZUS.

Wielka awaria X z ostatniej chwili
Wielka awaria X

Internauci alarmują, że tuż przed godziną 15:00 nastąpiła wielka awaria platformy społecznościowej X.com.

Komisarz UE będzie uczestniczyła na posiedzeniu Rady Pokoju, mimo że nie została zaproszona z ostatniej chwili
Komisarz UE będzie uczestniczyła na posiedzeniu Rady Pokoju, mimo że nie została zaproszona

Komisarz UE ds. Regionu Śródziemnomorskiego Dubravka Szuica weźmie w czwartek udział w Waszyngtonie w pierwszym posiedzeniu Rady Pokoju, powołanej przez prezydenta USA Donalda Trumpa; Szuica będzie uczestniczyła w tym wydarzeniu w charakterze obserwatorki – poinformowała w poniedziałek Komisja Europejska.

Burza w Polsce 2050. Katarzyna Pełczyńska-Nałęcz zabiera głos z ostatniej chwili
Burza w Polsce 2050. Katarzyna Pełczyńska-Nałęcz zabiera głos

Przewodnicząca Polski 2050 Katarzyna Pełczyńskia-Nałęcz uważa, że do deklaracji o odejściach z klubu należy podchodzić niezwykle ostrożnie. – To groźby werbalnie deklarowane przez nieliczne osoby – oceniła w TOK FM.

Dr Jacek Saryusz-Wolski: SAFE to gwarancja rządów Tuska i potencjalne narzędzie zniewolenia gorące
Dr Jacek Saryusz-Wolski: SAFE to gwarancja rządów Tuska i potencjalne narzędzie zniewolenia

„SAFE to program wyborczy, polisa ubezpieczeniowa i gwarancja dalszych rządów Tuska i koalicji 13 grudnia” – napisał na platformie X dr Jacek Saryusz-Wolski, doradca prezydenta ds. europejskich.

„Perspektywa gender” w szkoleniach dla Wojska Polskiego? Szokujące doniesienia z ostatniej chwili
„Perspektywa gender” w szkoleniach dla Wojska Polskiego? Szokujące doniesienia

Serwisk BlaskOnline.pl informuje, że w programie szkoleń dla polskich żołnierzy na 2026 rok znalazł się temat dotyczący „perspektywy gender w operacjach wojskowych”. Informacja wywołała konsternację w środowisku wojskowym. Część żołnierzy mówi o zaskoczeniu, a resort obrony zapytany o komentarz zapowiada weryfikację sprawy.

REKLAMA

Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?

Jeden z ojców sztucznej inteligencji i szef firmy OpenAI, która stworzyła program ChatGPT, pod koniec listopada nieoczekiwanie i w trybie natychmiastowym zostaje zwolniony z pracy. Kilkanaście godzin później już wie, że znajdzie pracę w Microsofcie, kolejnym gigancie który od lat skupia się na rozwoju sztucznej inteligencji. Kiedy w OpenAI rozpoczyna się dochodzenie w sprawie nagłego zwolnienia byłego prezesa, rada dyrektorów spółki robi krok do tyłu i… przywraca go do pracy. W branżowych mediach wciąż wybrzmiewa pytanie: Jakie zagrożenia dla ludzkości ze strony SI ukrył Altman i o czym nie chcą mówić twórcy bota ChatGPT?
Sztuczna inteligencja - zdjęcie poglądowe
Sztuczna inteligencja - zdjęcie poglądowe / fot. pixabay.com

Przez te kilka dni, kiedy ważą się nie tylko losy założyciela OpenAI, ale również całej branży sztucznej inteligencji i przyszłość miliardów dolarów zainwestowanych przez fundusze inwestycyjne w spółki nowych technologii, gazety biznesowe prześcigają się w spekulacjach, co takiego ukrywa przed światem i radą dyrektorów Sam Altman. Już kilka godzin po zwolnieniu proszący o anonimowość członek zarządu firmy zdradza, że przy zwolnieniu w grę wchodziła nie tylko przyszłość pierwszej światowej firmy, lecz także całej ludzkości.

Altman wiedział, nie powiedział

Założona przez Altmana firma OpenAI już wiele miesięcy wcześniej stała się światowym pionierem w zarządzaniu działem badań naukowych – powołała do życia sztuczną inteligencję, która już po kilku pierwszych tygodniach nie tylko zabawiała rozmowami zafascynowanych nową zabawką amerykańskich i japońskich emerytów, ale jak świat szeroki pisała prace zaliczeniowe dla studentów we wszystkich językach świata, a nawet prace doktorskie z prawa międzynarodowego, czy – na czym dość szybko dała się złapać – także projekty ustaw w wielu krajach, które bezrefleksyjnie trafiały pod obrady parlamentów. Przede wszystkim jednak jako pierwsza korporacja w świecie nowych technologii zaczęła zatrudniać filozofów i etyków, których głównym zadaniem było określenie, na ile niebezpieczne i antyludzkie jest narzędzie zdobywające popularność w bezprecedensowym tempie, bijąc na głowę ilością logowań i odsłon nie tylko rekordy serwisów społecznościowych, ale także… bezkonkurencyjnej w skali planety przeglądarki Google.

„Za zwolnieniem Sama Altmana stoją obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo nie tylko firmy i jej produktu, ale przede wszystkim całej ludzkości” – donoszą dobę po zwolnieniu Altmana „New York Times” i agencja Bloomberg. Nowy zarząd OpenAI nie komentuje tych doniesień, ale – co symptomatyczne – nie zaprzecza im. Zamiast tego tymczasowy dyrektor wykonawczy OpenAI Emmett Shear zapowiada przeprowadzenie dochodzenia w sprawie nagłego i nieoczekiwanego zwolnienia z pracy założyciela firmy.

W ciągu kilku godzin od tego zdarzenia w amerykańskich i zachodnioeuropejskich mediach pojawiły się głosy naukowców potwierdzające ten zarzut.

– Wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że „nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków”, oznacza, że biznesmen zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AI – deklaruje Toby Ord, filozof i jeden z liderów ruchu efektywnego altruizmu, który zakładał razem z Altmanem pod koniec drugiej dekady obecnego wieku. Ruch od lat przestrzega przed oddawaniem zbyt dużej władzy sztucznej inteligencji, która już dzisiaj wymyka się spod kontroli. ChatGPT – wciąż przez wielu użytkowników uważany za zabawkę – pokazał już, że potrafi nie tylko świetnie pisać i udawać człowieka w rozmowach, ale przede wszystkim potrafi doskonale kłamać. Dopóki chodzi o zjawisko „halucynowania SI” – czyli wymyślania na poczekaniu historii, które się nie wydarzyły – jest to dość zabawne, jednak ChatGPT (i podobne boty stworzone przez konkurencyjne firmy – m.in. Google i Microsoft) potrafi również podrabiać styl, głos a nawet tworzyć materiały video z wypowiedziami żyjących i nieżyjących polityków, które nigdy nie padły.

SI w służbie dezinformacji

Trzeba pamiętać, że podobne sztuczne inteligencje powstały i są wykorzystywane także w krajach, które z demokracją mają niewiele wspólnego – Chiny z powodzeniem zatrudniły SI do stworzenia nieprawdziwych prezenterów telewizyjnych, którzy bez mrugnięcia okiem czytają wiadomości, mówiąc nierzadko o zachwycie całego świata nad pokojowym i stabilnym rozwojem Chin stających się nowym światowym liderem gotowym do zastąpienia, a nawet wyeliminowania Stanów Zjednoczonych. W tym samym czasie podobne algorytmy tworzone przez Rosję przekazują Rosjanom informacje o sukcesach rosyjskiej operacji specjalnej na Ukrainie, a nawet o przyjaznym witaniu przez pragnących spokoju i stabilności Ukraińców rosyjskich sił na wschodzie zaatakowanego kraju, jednocześnie pokazując w ukraińskich serwisach społecznościowych nieistniejące kłótnie w ukraińskim sztabie generalnym.

Do pierwszej ligi w rozwoju sztucznej inteligencji wchodzą również Arabowie. Oto Arabska Rada ds. Badań nad Zaawansowanymi Technologiami z siedzibą w Abu Zabi dokonuje na przełomie listopada i grudnia śmiałego kroku, tworząc nową, w zapowiedziach największą firmę z branży sztucznej inteligencji – AI71. Podmiot powstaje w oparciu o stworzone przez arabski Technology Innovation Institute modele generatywnej sztucznej inteligencji Falcon i skupi się na wielodomenowych specjalizacjach, oferując zarazem niedostępne wcześniej opcje sterowania danymi AI dla firm i krajów, które zamierzają podjąć się self-hostingu dla ochrony prywatności i tajemnic państwowych.

Kto wyłączy SI?

Przeciwnicy niekontrolowanego rozwoju sztucznej inteligencji podkreślają, że żadna z tych firm i organizacji nie potrafi odpowiedzieć na pytanie od lat stawiane przez ruch efektywnego altruizmu: Czy ponad wszelką wątpliwość firmy zajmujące się rozwojem SI mają pewność, że istniejące na świecie sztuczne inteligencje nie połączyły się i nie współpracują ze sobą, kształtując świat nie według oczekiwań ich twórców, lecz według projektu, o którym ludzie nie mają pojęcia. – A to właśnie największe niebezpieczeństwo, skoro SI zarządzają już największymi elektrowniami atomowymi, kolejami, gigantycznymi bazami danych, a nawet autonomicznymi samochodami – przestrzega Toby Ord. – Nie mamy nawet pewności, czy te wszystkie algorytmy dadzą się dzisiaj wyłączyć – mówi filozof.

Tekst pochodzi z 50 (1820) numeru „Tygodnika Solidarność”.



 

Polecane