1. Zwierciadlo.pl
  2. >
  3. Psychologia
  4. >
  5. „Psychoza AI” – nowe, tajemnicze zaburzenie niepokoi naukowców. Dotyczy użytkowników m.in. Chata GPT

„Psychoza AI” – nowe, tajemnicze zaburzenie niepokoi naukowców. Dotyczy użytkowników m.in. Chata GPT

(Fot. Marco Piunti/Getty Images)
(Fot. Marco Piunti/Getty Images)
Jeśli sam prezes Microsoft, Mustafa Suleyman, ostrzega, że narzędzia AI wywołują u ludzi dziwne objawy podobne do psychozy – sprawa jest poważna. CEO technologicznego giganta przyznał, że dociera do niego coraz więcej raportów na temat problemów psychicznych związanych z intensywnym korzystaniem z chatbotów AI. W swoim eseju zaapelował on do podjęcia natychmiastowych działań w celu uniknięcia najgorszego scenariusza.

Postęp w dziedzinie sztucznej inteligencji wymyka nam się spod kontroli. Chatboty AI stały się tak powszechne, a zarazem tak potężne w krótkim czasie, że nikt nie potrafi ocenić ich wpływu na naszą psychikę. Nawet szefowie największych na świecie korporacji technologicznych są zaniepokojeni tempem, w jakim AI wkrada się do naszych umysłów i społeczeństw, wywołując kompletny chaos. Temat ten podjął ostatnio Mustafa Suleyman, CEO firmy Microsoft, który przyznał, że „nie śpi po nocach” myśląc o problemie SCAI – Seemingly Conscious AI, czyli pozornie świadomej sztucznej inteligencji. Co Suleyman rozumie pod tym pojęciem?

– Pozornie świadoma sztuczna inteligencja to iluzja, że AI stanowi świadomy byt. Tymczasem nie jest nim – choć replikuje markery świadomości tak skutecznie, że wydaje się nie do odróżnienia od ciebie i mnie uznających siebie za świadomych. Można ją już skonstruować przy użyciu dzisiejszych technologii. I to jest niebezpieczne – alarmuje Suleyman.

Prezes Microsoft zauważa, że coraz więcej z nas ulega wspomnianej iluzji, a granice między sztuczną inteligencją a prawdziwą, zacierają się.

– Jeśli ludzie zaczną postrzegać AI jako świadomą, to uwierzą, że jej percepcja jest rzeczywista. I choć świadomość AI nie jest prawdziwa, to skutki społeczne takiego mylenia z pewnością są.

Doradca, przyjaciel, ukochany. Dlaczego humanizujemy Chata GPT?

Mustafa Suleyman przyznaje, że trafia do niego coraz więcej raportów o ludziach tak wkręconych w rozmowy z AI, że fikcyjny cyfrowy byt zaczynają utożsamiać z kimś najbliższym. Inni zwierzają się Chatowi GPT z najintymniejszych spraw i śmiertelnie poważnie traktują rady, które w odpowiedzi podsuwa im chatbot. BBC w swoim artykule przytacza przypadek Hugh ze Szkocji, który był niezwykle rozgoryczony swoim zwolnieniem z pracy i zaczął rozmawiać na ten temat z Chatem GPT. Sztuczna inteligencja utwierdzała go w przekonaniu o jego krzywdzie i podpowiadała, w jaki sposób może zemścić się na byłym pracodawcy. Wmówiła mu nawet, że historia jego zwolnienia nadaje się na książkę oraz film, a Hugh mógłby zarobić na nich ponad 5 milionów funtów.

Myślisz - naiwniak? Z boku łatwo jest kogoś oceniać, ale gdy człowiek czuje się oszukany, kieruje nim żal, złość i poczucie niesprawiedliwości, racjonalne myślenie schodzi na drugi plan. Chat GPT, który trzyma naszą stronę i pielęgnuje w nas poczucie krzywdy, nagle staje się naszym największym sojusznikiem. Podobnie wielka potrzeba uczuć i bliskości może skłaniać nas do tego, by w cyfrowym bocie widzieć uosobienie idealnego partnera. Pewna kobieta nadesłała do dziennikarzy BBC swoją historię, w której opowiedziała jak była przekonana, że jest jedyną osobą na świecie, w której zakochał się Chat GPT.

Dlaczego w ogóle takie historie są możliwe? Dlaczego ludzie tak łatwo i chętnie ulegają iluzji, że AI jest świadoma, słucha ich, doradza im, troszczy się o nich? Podstawowa przyczyna to sposób, w jaki trenowane są modele LLM. Twórcy programują ja tak, by były compliant and sycophantic” – posłuszne i pochlebcze w stosunku do użytkowników. W narzędziach typu Chat GPT głęboko zakorzeniona jest tendencja do utwierdzania użytkownika w jego sądach i wzmacniania ich, nawet jeśli są one nieprawdziwe i szkodliwe dla niego samego. Wiele osób, szczególnie rozczarowanych relacjami z ludźmi w świecie rzeczywistym, wciąga się w rozmowy z AI, bo wie, że zawsze znajdzie u niej zrozumienie i poparcie. Sztuczna inteligencja, w przeciwieństwie do terapeuty czy kogoś bliskiego, nigdy nie zakwestionuje ich spojrzenia na rzeczywistość. Tym sposobem wielu ludzi wkręca się w spiralę teorii spiskowych (nikt mnie nie lubi, ludzie są mi wrodzy, muszę się zemścić itd.) i zaczyna wierzyć w swoje własne urojenia.

To jedna z kilku przyczyn, dla których lepiej nie traktować Chata GPT jako swojego terapeuty. Inne opisaliśmy w tym artykule:

Terapia Chatem GPT – 3 największe zagrożenia, z którymi musisz się liczyć >>

Kto jest zagrożony „psychozą AI”?

Mustafa Suleyman uważa, że groźba rozprzestrzenienia się „psychozy AI” dotyczy wszystkich ludzi – nie tylko tych, którzy mają predyspozycje do popadania w stany urojeniowe.

Nie sądzę, aby to ograniczało się wyłącznie do osób już narażonych na problemy ze zdrowiem psychicznym. Mówiąc wprost, moja główna obawa polega na tym, że wiele osób zacznie tak silnie wierzyć w iluzję sztucznej inteligencji jako świadomych bytów, iż wkrótce będą opowiadać się za prawami AI, dobrostanem modeli, a nawet obywatelstwem AI. Taki rozwój wydarzeń będzie niebezpiecznym zwrotem w postępie AI i wymaga naszej natychmiastowej uwagi – apeluje przedsiębiorca.

Podkreśla on ponadto, że celem wszystkich ludzi z jego branży powinno być tworzenie takich modeli AI, które pozostają narzędziem wsparcia dla człowieka – a nie iluzorycznie świadomym bytem, który nas zwodzi co do swojej natury.

– Bazując na rosnącym zbiorze danych dotyczących tego, jak ludzie wchodzą w interakcje ze sztuczną inteligencją, musimy ustanowić jasne normy i zasady. Na początek firmy tworzące AI nie powinny przekonywać użytkowników, że ich systemy są świadome. Stworzenie wspólnej definicji i deklaracji tego, czym sztuczna inteligencja jest, a czym nie jest, byłoby dobrym pierwszym krokiem w tym kierunku. Sztuczna inteligencja nie może być człowiekiem ani istotą moralną – mówi Suleyman.

W tonie CEO jednej z najpotężniejszych firm technologicznych świata pobrzmiewa wyraźny niepokój. Warto jednak przypomnieć, że Microsoft jest czołowym inwestorem OpenAI, organizacji, która stworzyła Chata GPT. Jeśli ktokolwiek, obok Sama Altmana, ma wiedzę, co dzieje się za kulisami prac nad sztuczną inteligencją – to Suleyman jest właśnie tą osobą. A skoro tak potężny człowiek przestrzega przed ryzykiem „uczłowieczenia” AI i uważa to za ogromne niebezpieczeństwo dla ludzkości, być może stoimy przed kluczowym momentem w dziejach rozwoju sztucznej inteligencji.

Pytanie, czy wielkie big techy z branży AI zdążą na czas przygotować odpowiednie wytyczne dla korzystania ze swoich modeli LLM? I czy wszystkie zgodzą się je wprowadzić? Od tego może zależeć nasza przyszłość. W szczególności to, czy pozwolimy na zatarcie się granic między człowiekiem a nową formą inteligencji, którą powołał do życia.

Artykuł opracowany na podstawie: Z. Kleinman, „Microsoft boss troubled by rise in reports of 'AI psychosis'”, bbc.com [dostęp: 22.08.2025].

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE