Coraz więcej internautów traktuje chatboty AI jak zaufanego doradcę finansowego, serdecznego przyjaciela czy nawet lekarza i terapeutę. Niestety powierzanie danych wrażliwych generatywnej sztucznej inteligencji może odbić się czkawką, co przyznają nawet twórcy najpopularniejszych modeli językowych.
Potrzebujesz się wygadać? Nie musisz czekać na wyznaczony termin wizyt u specjalisty ani sięgać głęboko do kieszeni. Chatbot AI o każdej porze dnia i nocy jest gotowy przemielić twoje rozterki, lęki i niepewności, a następnie wypluć empatyczną i fachowo brzmiącą odpowiedź. Coraz więcej osób korzysta z takiej opcji i… deklaruje korzystny wpływ na zdrowie psychiczne. Badania opublikowane w czasopiśmie „NEJM AI” wykazały, że dzięki specjalnie wytrenowanemu modelowi Therabot u uczestników z rozpoznaną depresją odnotowano średni spadek nasilenia objawów o 51%, a u osób zmagających z zaburzeniami lękowymi – o 31%. I choć dane wyglądają nader obiecująco, to zanim wklepiesz w okno czatu swoje największe traumy i sekrety, lepiej zastanów się trzy razy.
Wokół wykorzystania sztucznej inteligencji w roli terapeuty narosło wiele wątpliwości. Specjaliści zwracają uwagę m.in. na brak obiektywności, możliwe manipulacje, przypadki pogłębiania szkodliwych schematów myślowych czy nietrafione diagnozy. Jest jednak jeszcze jeden istotny aspekt, który wciąż uchodzi uwadze większości indywidualnych użytkowników: kwestia prywatności i ochrony danych.
Duże firmy zdają już sobie sprawę, że udostępnianie tajnych raportów i notatek z obrad zarządu podmiotom trzecim nie jest najlepszym pomysłem. Co prawda chatbot w mgnieniu oka przygotuje nam zgrabne podsumowanie spotkania i pozwoli zaoszczędzić czas, ale zapłacimy za to wysoką cenę – informacje, które nie powinny wyjść poza firmę, będą przechowywane na zewnętrznych serwerach i wykorzystywane do dalszego trenowania algorytmów. Tymczasem szerokie grono internautów nadal machnięciem ręki zbywa bezpieczeństwo swoich danych wrażliwych. Przed takim lekkomyślnym podejściem przestrzega dyrektor generalny OpenAI, Sam Altman.
Czytaj także: Te 2 zdania obudzą w twoim dziecku nawyk krytycznego myślenia. W czasach AI to kompetencja na wagę złota
ChatGPT to nie terapeuta. Nie obowiązuje go tajemnica zawodowa
Choć nie ulega wątpliwości, że nadrzędnym celem Altmana nie jest troska o dobro użytkowników, to nawet on otwarcie mówi o konsekwencjach takiego nierozważnego zachowania. – Ludzie opowiadają ChatowiGPT o najbardziej osobistych sprawach. Traktują go – mowa zwłaszcza o młodych ludziach – jak terapeutę czy życiowego coacha. Mają problemy w związkach i pytają: „Co mam zrobić”. Jeśli rozmawiasz na takie tematy z terapeutą, prawnikiem czy lekarzem, to obowiązuje ich tajemnica zawodowa: lekarska, adwokacka, i tak dalej. A my wciąż nie ustaliliśmy, jak to powinno wyglądać w przypadku rozmów z ChatemGPT – przyznał przedsiębiorca w podcaście „This Past Weekend w/ Theo Von”.
Żeby była jasność, znanemu programiście i inwestorowi oczywiście nie przeszkadza fakt, że internauci zasilają sztuczną inteligencję swoimi prywatnymi danymi. Altman odnosi się raczej do sytuacji, w której wglądu do rozmów z chatbotem zażądałyby przykładowo organy ścigania. CEO chciałby, aby prawo gwarantowało w tej kwestii większą poufność.
– To budzi obawy o prywatność użytkowników. Na przykład w razie pozwu sądowego OpenAI byłoby dziś prawnie zobowiązane do udostępniania zapisu takich rozmów. Uważam, że to bardzo niedobrze. Powinniśmy mieć takie samo podejście do prywatności rozmów z AI, jak do rozmów z terapeutą czy kimkolwiek innym – a jeszcze rok temu nikt nawet nie myślał, że trzeba się nad tym zastanowić – wyjaśnia Altman.
Dane nie bez powodu nazywane są nową walutą XXI wieku. Na ostrzeżenia nie warto reagować więc lekceważącym: „A co złego może się stać?” lub „A na co komu informacje o mnie?”. Chociaż sztuczna inteligencja może przynieść nam wiele dobrego, to – jeśli nie będziemy używać jej z głową – niewykluczone, że ściągnie też na nas kłopoty. Są po prostu takie rzeczy, o które lepiej nie pytać ChataGPT, nawet jeśli jest to kuszące rozwiązanie.
Źródło: Sarah Perez, „Sam Altman warns there’s no legal confidentiality when using ChatGPT as a therapist”, techcrunch.com [dostęp: 27.07.2025]