Uznają, że nie kalkulują im się już sesje co tydzień lub dwa, oczywiście pokrywane z prywatnej kieszeni (ciężko się dostać na terapię z NFZ). Przecież pod ręką mają… telefon. Dostępny całą dobę, zupełnie inaczej niż terapeuta. Coraz więcej osób porzuca terapię na rzecz „głosu na zawołanie”, czyli ChataGPT.
– Ostatnio pewna moja pacjentka zrezygnowała z terapii. Zrobiła tak tylko dlatego, że woli rozmawiać z ChatemGPT. Przyszła na sesję i zapowiedziała, że to nasze ostatnie spotkanie w gabinecie. Dodała, że mnie szanuje i nie chce ściemniać: zamiast chodzić na terapię będzie teraz omawiać swoje sprawy i problemy życiowe, używając tylko Chat-a w smartfonie – powiedział mi niedawno Michał Sawicki, psycholog, seksuolog i terapeuta. Postanowiłam sprawdzić, czy to jednostkowy przypadek. Kilku innych psychologów, anonimowo, przyznało, że miało niedawno bardzo podobne sytuacje z pacjentami czy klientami.
Najpierw mnie to rozbawiło, ale niemal natychmiast zasmuciło. Na terapię zazwyczaj chodzą ludzie, którzy potrzebują jednak solidnego wsparcia, są w procesie zdrowienia psychicznego czy mentalnego. Często są to osoby w kłopotach, nieraz będące w trakcie wielkich życiowych burz i dramatów. Czasami mierzą się z chorobami, w tym przewlekłymi, a także z uzależnieniami. Jednym słowem: osoby w potrzebie.
Lecz co się dzieje, jeśli ktoś nagle porzuca proces terapeutyczny? Uznając, że nie kalkulują mu się sesje co tydzień lub dwa, które oczywiście są pokrywane z prywatnej kieszeni (ciężko się dostać na terapię z NFZ)? Bo przecież pod ręką ma… telefon. A w telefonie „głos na zawołanie”, czyli ChatGPT. Dostępny całą dobę, zupełnie inaczej niż terapeuta. Darmowy (jeśli przyjmiemy, że opłacamy po prostu abonament telefoniczny czy doładowujemy kartę). Chat odpowiada cierpliwie na każde pytanie. A że czasem się myli, idzie na skróty? A że czasem serwuje rażące błędy? Ktoś, kto jest w potrzebie, ale może zadać Chatowi o każdej porze niemal każde pytanie, nie dostrzega właściwie żadnych wad „systemu”. Dopytuję Michała Sawickiego o to, dlaczego część osób rezygnuje ostatnio z terapii na rzecz pseudo-terapii z ChatemGPT?
– Nie trzeba mu płacić, ponadto zwykle mówi, to co chcemy usłyszeć – wyjaśnia psycholog. – Taka rozmowa z Chatem nie jest w żaden sposób porównywalna z profesjonalną terapią. Nie konfrontuje i nie rozwija. Rozumiem jednak, że niektórym może być łatwiej napisać coś w telefonie niż porozmawiać z realną osobą. Zwłaszcza jeśli problemom towarzyszy lęk przed oceną czy zawstydzenie. Nieprzyjemne emocje i krzywdzące przekonania mogą wręcz pchać niektóre osoby w ręce sztucznej inteligencji – dodaje.
Nie możemy jednak zapomnieć o tym, co najważniejsze: sztuczna inteligencja nie jest osobą. Nie jest nikim bliskim, a już na pewno nie ma żadnego (!) doświadczenia w prowadzeniu terapii. Co więcej, nie bierze za taką rozmowę odpowiedzialności.
Minusów i zagrożeń jest znacznie więcej. Ostatnio jedna ze znanych, szanowanych osób, reprezentujących starsze pokolenie, napisała post, w którym pochwaliła się, że godzinami „rozmawia ze sztuczną inteligencją”. Prowadzi dyskusje, rozmowy, zadaje pytania, uzyskuje odpowiedzi. Pochwaliła się swoim odkryciem, uznając wyjątkowość technologii. Byłam zdziwiona, bo to osoba światła, oczytana, z osiągnięciami, przebywająca od lat w świecie artystów. A jej wyznanie brzmi dość odważnie, szczególnie że wiele osób ze starszego pokolenia nie rozumie lub nie chce mieć w swoim życiu zbyt dużo technologii.
Jasne, że w rozmowie z ChatemGPT nie ma pewnie nic złego. Pod warunkiem jednak, że nie przestajemy zamykać się na dialogi z żywymi. Z innymi ludźmi. Ale jeszcze większe zagrożenie ma miejsce wtedy, kiedy my z tymi wszystkimi problemami, z dramatami, z nałogami czy z brakami „przychodzimy” do ChataGPT. Oczywiście w idealnym świece najlepiej zgłosić się do bliskiej osoby, do przyjaciela, do terapeuty, tudzież innego specjalisty (lekarz, psychiatra itd.), ale nie wszyscy mają taką możliwość i okazję. Wtedy wystarczy zagaić Chat GPT, zadać pytania, a w ciągu paru, parunastu sekund pojawią się odpowiedzi. Które, dodajmy, wcale nie muszą być zgodne z procesem terapii, z wytycznymi lekarskimi czy nawet z etyką.
Ostatnio nawet na prestiżowym portalu „Psychology Today” pojawiają się istotne publikacje, poświęcone problemowi Chatbotów. Jedna z psycholożek opisywała swojego klienta. Podczas sesji zachwycał się on długą rozmową, którą odbył ze sztuczną inteligencją na swój temat. Uważał, że to, czego się dowiedział nie na terapii, ale ze smartfona, okazało się „mądre i wnikliwe”. I to potencjalnie może być jedna z osób, która za jakiś czas uzna, że nie potrzebuje już terapii, skoro ma AI.
Obecnie nikt nie zna skali zjawiska. Wciąż brakuje rzetelnych badań czy analiz, z których wynikałoby, ile osób, chodzących na terapię czy korzystających z konsultacji psychologicznych lub lekarskich, rezygnuje z nich na rzecz pseudo- terapii z AI. Bo trzeba sobie jasno i wyraźnie powiedzieć, że nawet najciekawsza dla nas rozmowa z ChatemGPT nie ma szans być terapią. A jeśli nawet mamy wrażenie, że to rozmowa terapeutyczna, to pamiętajmy, że po drugiej stronie jest sztuczna inteligencja. Z naciskiem na „sztuczną”.
A teraz ciekawostka. Pisząc ten tekst, sięgnęłam po telefon i wpisałam: „Hej, ChatGPT, czy możesz mi zrobić terapię?”. Po trzech sekundach już przeczytałam odpowiedź: „Mogę pomóc w rozmowie wspierającej, ćwiczeniach i refleksji, ale nie zastąpię profesjonalnej terapii ani terapeuty. Jeśli to dla Ciebie OK, możemy to potraktować jako bezpieczną, uważną rozmowę, która pomoże Ci lepiej zrozumieć to, co się dzieje, i znaleźć pierwsze kroki do ulgi”.
To pocieszające: ChatGPT nie ściemnia, że może zastąpić terapeutę. Jednak czuję, że kiedy obiecuje mi rozmowę, która może mi ulżyć, to jednak może być na wyrost. Obiecanki, cacanki.
Sawicki zauważył, że często traktujemy AI jak osobę, co utrudnia nam potem budowanie relacji. Jego zdaniem tego typu personalizacja sztucznej inteligencji jest w stanie powodować także zatracenie krytycznego myślenia. – Rozmowa z Chatem jest trochę jak horoskop. Czepiamy się tego, co nam pasuje, a resztę pomijamy – uśmiecha się.
Rzeczywiście, coś w tym jest. Poza tym przecież możemy wyprowadzić Chat GPT na tak zwane manowce, jeśli tylko zaczniemy przeinaczać czy naginać fakty, dodawać od siebie interpretacje różnych sytuacji jako pewne informacje.
Mądry, doświadczony psycholog czy terapeuta jest w stanie wyłapać różne niuanse, choćby z mimiki, z określonego tonu głosu. Potrafi czytać między wierszami. Kiedy więc np. pacjentka opowiada o tym, że kocha zakupy i to dla niej regularny i jedyny relaks, specjalista może pomyśleć: „oho, kompulsywne zakupy co weekend, coś się za tym kryje”. A ChatGPT powie: „Och, to interesujące hobby!”.
Może i fajnie jest podpytać Chat GPT o różne sprawy i poprosić o podpowiedzi, a nawet czasem zagaić. Ale terapia jest wyłącznie u terapeutów.