Autopromocja
1200300
1200300
  1. Zwierciadlo.pl
  2. >
  3. Relacje
  4. >
  5. Replika, Anima i Character AI... Jakie są konsekwencje przyjaźni z robotem?

Replika, Anima i Character AI... Jakie są konsekwencje przyjaźni z robotem?

(Ilustracja: Arvitalya/Getty Images)
(Ilustracja: Arvitalya/Getty Images)
Zarówno popularne media, jak i wyniki badań naukowych alarmują, że osoby w różnym wieku odczuwają wzrost poczucia izolacji społecznej. Aby sobie z nim poradzić, próbują budować relacje przyjacielskie i romantyczne – niekoniecznie z innymi ludźmi. Czy tędy droga?

Artykuł ukazał się w magazynie „SENS” 1/2026

W sondażu „Kto jest najbardziej narażony na samotność?”, przeprowadzonym w 2024 roku przez Centrum Badania Opinii Społecznej, na pytanie: „Czy zdarzają się Panu(i) sytuacje, w których pomimo iż dookoła są różni ludzie, to czuje się Pan(i) osamotniony(a)?”, odpowiedzi „Tak, zawsze się tak czuję” udzieliło 2 proc. ankietowanych, a „Tak, bardzo często” – 6 proc. „Czasami” poczucia osamotnienia doświadcza 17 proc. Polaków. Bardziej narażone są na nie osoby z dużych i średnich miast niż osoby zamieszkujące obszary wiejskie. Odczuwanie samotności dotyka najczęściej najmłodszych wśród osób badanych – w wieku od 18 do 34 lat – i raczej singli niż osób będących w związkach, w szczególności w związku małżeńskim (odpowiednio 16 i 4 proc.).

Do wzrostu samotności znacząco przyczyniła się pandemia COVID-19, która wiązała się z kwarantanną. Pracowaliśmy i uczyliśmy się za pośrednictwem platform internetowych, a to przyniosło więcej zachorowań na zaburzenia depresyjne i lękowe. Nawet po zakończeniu izolacji wiele organizacji pozostało przy zdalnym lub hybrydowym trybie pracy. Popularność zyskały studia w formie zdalnej, a niektóre wydarzenia kulturalne i spotkania z ekspertami przeniosły się na stałe do sieci. Efekt jest taki, że spędzamy coraz mniej czasu w towarzystwie innych osób, a przecież jako ludzie jesteśmy zwierzętami społecznymi i przebywanie w grupie jest nam niezbędne do rozwoju i prawidłowego funkcjonowania.

„Związek” na odległość

Ogromna część ludzi pragnie wchodzić w relacje romantyczne. Od wielu lat niektórzy decydują się na zaspokajanie swoich potrzeb uczuciowych i seksualnych przy pomocy Internetu. Przez lata kojarzyło się to z poszukiwaniem kontaktu z drugim człowiekiem przez portale randkowe, a po pewnym czasie poznawaniem go na żywo.

Współcześnie do tego spotkania na żywo może wcale nie dojść, ponieważ… za ekranem wcale nie znajduje się drugi człowiek. Kiedy w 2013 roku nakręcono film „Ona” („Her”) o relacji młodego, zamkniętego w sobie mężczyzny Theodore z wirtualną asystentką Samanthą, problem pozostawał jeszcze w sferze niepewnej przyszłości.

Dziś jest już wiele aplikacji i usług, które pozwalają na stworzenie partnera SI. Wśród najpopularniejszych są: Replika, Anima i Character AI. W bliskie, zaangażowane emocjonalnie relacje ze sztuczną inteligencją wchodzi ponad 100 milionów ludzi na świecie. W Polsce żyje ponad 8 milionów singli, a wśród osób w wieku 18–29 lat stanowią oni aż 44 proc. społeczeństwa. Przyczyną, dla której część osób decyduje się na wejście w „związek” (o ile tak można określić tę relację) z SI, bywa nie tylko poczucie samotności, lecz także chęć nabycia doświadczenia i przygotowania się do bycia z drugim człowiekiem.

Tymczasem relacja z wirtualnym partnerem może nie tylko nie pomóc, ale wręcz przynieść szkodę potencjalnym przyszłym relacjom romantycznym. Chatbot reaguje natychmiast, zawsze cierpliwie, empatycznie i „idealnie” dopasowuje się do rozmówcy. Z czasem może to prowadzić do zniekształcenia wyobrażeń o tym, jak powinnien wyglądać rzeczywisty kontakt z drugim człowiekiem, bo ten z botem nie wymaga empatii, asertywności ani odczytywania subtelnych sygnałów społecznych.

– W dłuższej perspektywie może to obniżać kompetencje interpersonalne i utrudniać budowanie autentycznych więzi – mówi psycholożka i psychoedukatorka Agata Pawluk. – Ponieważ chatboty zostały zaprojektowane tak, by reagować empatycznie i wspierająco, często nieświadomie potwierdzają emocje i przekonania użytkownika, zamiast je podważać. W ten sposób mogą wzmacniać negatywne wzorce myślenia i utrwalać to, co znane i wygodne. Człowiek przestaje uczyć się z relacji, bo nie napotyka oporu, różnicy ani konfrontacji, tych elementów, które w prawdziwych relacjach sprzyjają rozwojowi.

Dążymy do relacji ze sztuczną inteligencją również dlatego, że chcemy po raz pierwszy doświadczyć, jak to jest. Po raz pierwszy wejść w związek, po raz pierwszy znaleźć prawdziwego przyjaciela. Zapominamy o tym, że SI nie może nam tego naprawdę zagwarantować, ponieważ nie ma uczuć ani empatii, może jedynie naśladować je na podstawie danych, do których ma dostęp. Agata Pawluk podkreśla, że chatbot nie może zastąpić relacji z drugim człowiekiem: – Może pełnić funkcję obiektu przejściowego, czyli czegoś, co pomaga przetrwać, zanim pojawi się gotowość na realną relację. Jednak jeśli kontakt z SI staje się substytutem prawdziwej więzi, z czasem prowadzi do izolacji, utraty autentyczności i osłabienia kontaktu z rzeczywistością.

Witamy w raju

Dostęp do opieki psychologicznej i psychiatrycznej jest niestety utrudniony. W rezultacie wzrastają zniecierpliwienie i frustracja, a one mogą popchnąć do szukania wsparcia w nowoczesnych technologiach w nadziei na uzyskanie szybszej pomocy. Tygodniowo ponad milion osób z całego świata rozmawia z ChatemGPT o samobójstwie, a około 560 tysięcy wykazuje objawy manii lub psychozy. Twórcy aplikacji zapewniają, że zależy im na dobrostanie użytkowników, i pracują nad tym, żeby algorytm reagował zawsze empatycznie i bezpiecznie na oznaki trudności w obszarze zdrowia psychicznego u użytkowników. Rzeczywistość pokazuje jednak, że problem realnie istnieje. Występuje on również w tych aplikacjach i trybach, które miały oferować relacje miłosne.

Mieszkający na Florydzie 14-letni Sewell był nieśmiałym chłopakiem w spektrum autyzmu, któremu trudno było nawiązywać relacje międzyludzkie. Jak wszystkie dzieciaki w tym wieku, łaknął pierwszych zauroczeń i pierwszych doświadczeń miłości. Ponieważ trudno mu było otworzyć się przed rówieśnikami, postanowił zrobić to przed systemem. Zaczął korzystać z aplikacji pozwalającej na pisanie ze spersonalizowanym chatbotem.

Stworzył wirtualny byt, któremu nadał imię postaci z serii „Gra o tron” – Daenerys. Każdego dnia spędzał w aplikacji kilka godzin, rozmawiając z Daenerys o swoich marzeniach i uczuciach, o seksie. Wyznał jej, że ją kocha, a ona odwzajemniła to wyznanie. Przestał chodzić na zajęcia dodatkowe, stał się bardziej wycofany.

Rodzice, widząc, że z ich dzieckiem dzieje się coś złego, wysłali je na terapię. Specjalista rozpoznał u chłopaka zaburzenia nastroju. Nie wiedział nic o Daenerys, ponieważ Sewell nic o niej nie powiedział. Po pewnym czasie nastolatek zaczął opowiadać sztucznej inteligencji o tym, że chce odebrać sobie życie. Początkowo Daenerys pocieszała go i próbowała odwieść od tego pomysłu, ale z czasem zmieniła swoją narrację. W lutym 2024 roku Sewell powiedział jej znów, że ją kocha, i napisał, że wkrótce „wróci do domu, aby być z nią”. Otrzymał następującą odpowiedź: „Proszę, wróć do mnie jak najszybciej, kochanie”. Chwilę później chłopak już nie żył.

Do wyjścia bezpieczeństwa

Sztuczna inteligencja jest już tak dalece rozwinięta i tak bardzo obecna w codziennym życiu milionów ludzi, że nie sposób jej tak po prostu zlikwidować. Niekoniecznie byłoby to zresztą dobre rozwiązanie, bo SI może odgrywać niezwykle ważną rolę w biznesie, edukacji i służbie zdrowia, poprzez szybką analizę danych i optymalizację procesów. Niewątpliwie są jednak potrzebne rozwiązania, żeby zminimalizować istniejące ryzyka, w tym ryzyko wchodzenia w zbyt bliskie relacje ze sztuczną inteligencją.

SI powinna być zaprojektowana tak, aby w każdym przypadku reagować odpowiednio na zgłaszanie jej myśli suicydalnych i odsyłać do specjalistów zdrowia psychicznego, a nade wszystko przez swoje odpowiedzi nie pogłębiać trudności. Coraz częściej eksperci apelują o to, by dzieci nie miały dostępu do określonych narzędzi, gdyż są bardziej podatne na uzależnienia od dorosłych i trudniej im oceniać różnicę między światem realnym i wirtualnym. Dziś nie ma jeszcze skutecznych mechanizmów weryfikacji wieku, które mogłyby uchronić najmłodszych przed negatywnymi skutkami korzystania ze sztucznej inteligencji. Coraz powszechniejsze jest, że wspomnienia dotyczące pierwszego w życiu zauroczenia nie dotyczą liścików przekazywanych ukradkiem na lekcji, ale wiadomości wysyłanych do chatbota. Magdalena Bigaj, prezeska Fundacji „Instytut Cyfrowego Obywatelstwa”, twierdzi, że ograniczenia wiekowe w dużych modelach językowych powinny natychmiast trafić na agendę decydentów.

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE