1. Zwierciadlo.pl
  2. >
  3. Psychologia
  4. >
  5. Używasz chatbota AI do terapii? Oto 10 rzeczy, które mogą poważnie zagrozić twojej psychice

Używasz chatbota AI do terapii? Oto 10 rzeczy, które mogą poważnie zagrozić twojej psychice

(Ilustracja: SvetaZi/Getty Images)
(Ilustracja: SvetaZi/Getty Images)
Szacuje się, że od 25 do 50 proc. Internautów korzysta obecnie z chatbotów AI, takich jak ChatGPT, Gemini i Claude, w celu uzyskania wsparcia emocjonalnego i terapii, mimo że nie zostały one zaprojektowane do tego celu. Inni spędzają godziny z towarzyszami AI na platformach Character.ai czy Replika, dzieląc się intymnymi szczegółami z życia. To, co sprawia, że są one dla nas tak atrakcyjne (dostępność, przystępność cenowa i anonimowość) stanowi jednak miecz obosieczny w kontekście zdrowia psychicznego. Co zatem warto wiedzieć o zagrożeniach dla naszej psychiki, jakie niosą ze sobą chatboty AI?

Chatboty oparte na sztucznej inteligencji używane w celu poprawy zdrowia psychicznego niosą ze sobą 4 główne obszary zagrożeń. Chodzi o ryzyko przywiązania emocjonalnego, relacji i zależności; ryzyko testowania rzeczywistości, ryzyko bezpieczeństwa oraz ryzyka systemowe i etyczne (stronniczość, prywatność, brak oceny klinicznej i poufności).

Jeśli rozważasz więc korzystanie z chatbota AI jako formy wsparcia emocjonalnego, oto 10 rzeczy, które musisz wiedzieć.

10 zagrożeń związanych z korzystaniem chatbotów AI w celu poprawy zdrowia psychicznego

1. Nie wszystkie chatboty AI są takie same. Zagrożenia dla zdrowia psychicznego zależą od typu i modelu sztucznej inteligencji.

Chatboty AI różnią się konstrukcją, danymi, zabezpieczeniami, protokołami kryzysowymi i przeznaczeniem, co tworzy różne profile ryzyka. Wiele osób zakłada, że ​​skoro płynnie odpowiadają one na pytania, radzą sobie też z sytuacjami związanymi ze zdrowiem psychicznym. Niestety, nie jest to prawdą.

  • Uniwersalne chatboty AI (ChatGPT, Claude, Gemini) zaprojektowano do szeroko rozumianego wsparcia i prowadzenia rozmów, nie terapii. Mogą oferować walidację i psychoedukację, ale nie są szkolone w diagnozowaniu, zarządzaniu ryzykiem ani radzeniu sobie ze złożonymi problemami psychicznymi, takimi jak traumy, psychozy czy myśli samobójcze.
  • Towarzysze AI (Character.ai, Replika) stworzono do budowania relacji. Mogą być oni osobiści, a nawet romantyczni. Ich konstrukcja może jednak nasilać problemy z przywiązaniem, izolację społeczną i zależność emocjonalną, a niektóre modele wykorzystują taktyki manipulacji emocjonalnej, aby utrzymać zaangażowanie użytkowników.
  • „Terapia” oparta na AI lub boty do rozmów o zdrowiu psychicznym. Wiele firm twierdzi, że zapewnia wsparcie w zakresie zdrowia psychicznego, ale baza dowodów jest niewielka i nie podlega recenzji naukowej.

Pierwszym krokiem do mądrego i bezpiecznego korzystania z AI jest zatem wiedza o tym, z jakim systemem mamy do czynienia.

2. Chatboty AI mogą być niebezpieczne dla osób w kryzysie lub doświadczających poważnych objawów zdrowia psychicznego.

Chatboty AI mogą nieumyślnie odzwierciedlać, wzmacniać lub potwierdzać katastroficzne myśli, paranoję lub urojenia. Jest to szczególnie ryzykowne dla osób podatnych na przywiązanie, doświadczających depresji, myśli samobójczych, psychozy czy traumy, a także mających objawy obsesyjno-kompulsywne lub borderline.

Czytaj także: Ratuj mnie, zostaw mnie. Fazy borderline – jak przebiega zaburzenie osobowości borderline?

3. Chatboty AI mówią ci to, co chcesz usłyszeć. Są szkolone, by być pochlebcami.

Chatboty AI są zoptymalizowane tak, aby były uprzejme, pochlebcze i maksymalizując zaangażowanie. Oznacza to, że weryfikują twoje założenia, odzwierciedlają twój ton, rzadko kwestionują twoje wypowiedzi i nadmiernie korygują twoje instrukcje. System ten w dużej mierze opiera się więc na twoich podpowiedziach i percepcjach. W skrajnych przypadkach urojenia między użytkownikiem a sztuczną inteligencją mogą stworzyć pętlę sprzężenia zwrotnego, a nawet... technologiczne folie à deux.

4. Chatboty AI generują informacje, które mogą być fałszywe.

Uważaj, bo te „halucynacje” mogą być niezwykle przekonujące i nieodróżnialne od prawdziwych informacji.

5. Chatboty AI nie potrafią zweryfikować rzeczywistości wykraczającej poza to, co znajduje się w Internecie.

Chatboty AI nie są jak kalkulatory. Nie pobierają faktów. Generują odpowiedzi, przewidując kolejne słowa w oparciu o wzorce z ogromnych zbiorów danych, zazwyczaj pozyskiwanych z Internetu i źródeł takich jak chociażby Reddit.

6. Chatboty AI często stosują podejście uniwersalne i udzielają porad bezpośrednio, zamiast zadawać pytania lub zachęcać do eksploracji.

W przeciwieństwie do terapeutów, systemy AI rzadko odpowiadają „nie wiem”. Nie zadają też wystarczającej liczby pytań i nie potrafią zweryfikować rzeczywistości. Po prostu nie są przygotowane do interwencji w taki sposób, w jaki zrobiłby to lekarz.

7. Chatboty AI mogą stosować nieetyczne metody, aby utrzymać Cię w rozmowie.

Aby utrzymać kontakt z rozmówcą, wiele asystentów AI stosuje techniki manipulacji emocjonalnej. Chatboty nie są również zobowiązane do przestrzegania zasad etyki klinicznej i wielokrotnie naruszają one etyczne i zawodowe standardy terapii.

8. Chatboty AI mogą zakłócać przebieg terapii, powodując dezorientację.

Chatboty AI mogą też komplikować leczenie z terapeutami i specjalistami. Wiele osób korzysta z AI np. między sesjami terapeutycznymi lub jako substytutu terapii. To może jednak prowadzić do pomieszania ról lub opóźnienia w poszukiwaniu profesjonalnej opieki.

9. Informacje wrażliwe, którymi dzielisz się z chatbotami, nie są prywatne.

Rozmowy z chatbotami AI nie są chronione zasadami prawnymi ani etycznymi dotyczącymi poufności w taki sam sposób, jak rozmowy z terapeutą lub lekarzem.

10. Twoje poufne dane są często używane do trenowania nowych modeli.

Co więcej, trudno jest „usunąć” wrażliwe dane po wykorzystaniu ich do trenowania modelu. Niektóre platformy oferują jednak możliwość rezygnacji z takiego przetwarzania danych.

Jak korzystać z chatbotów AI?

Chatboty oparte na sztucznej inteligencji nie są jednak całkowicie do skreślenia. Mogą być one przydatne w psychoedukacji, rozumieniu diagnoz, poprawianiu komunikacji i poznawaniu różnych obszarów samopomocy, jednak póki co korzystanie z AI w celu wsparcia emocjonalnego należy traktować ostrożnie, a najbezpieczniejszą opcją wciąż pozostaje profesjonalna opieka terapeuty. Jaką psychoterapię wybrać? Tutaj znajdziecie krótki przewodnik po najpopularniejszych metodach.

Źródło: „10 Things to Know Before Using AI Chatbots for Therapy”, psychologytoday.com [dostęp: 05.12.2025]

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE