Generatywna sztuczna inteligencja jest już elementem codzienności większości z nas - porządkuje wiedzę, tłumaczy pojęcia i przyspiesza żmudne zadania. To wielkie życiowe ułatwienie. Są jednak przypadki, w których potrafi nam nieźle namieszać - co zmyślić lub skłamać, brzmiąc przy tym bardzo wiarygodnie. O co nie należy pytać ChataGPT bez uważnej weryfikacji jego wiedzy, by poważnie sobie nie zaszkodzić?
Zacznijmy od podstaw - jak w ogóle działa generatywna sztuczna inteligencja i jak odróżnia prawdę od fikcji? Tłumacząc w dużym skrócie, ChatGPT to model językowy, wytrenowany na miliardach słów, który przewiduje, jakie słowa powinny pojawić się jako kolejne w danym kontekście. Nie „wie” rzeczy tak jak człowiek. Nie rozumie faktów - odtwarza wzorce językowe.
Jeśli zapytamy go więc, co jest stolicą Polski, odpowie, że Warszawa: nie dlatego, że zna geografię, ale dlatego, że widział wiele podobnych zdań podczas treningu.
Wszystko byłoby w porządku, gdyby ChatGPT wiedział wszystko - a to jest po prostu niemożliwe. Tak jak wszyscy ludzie nie potrafią się zgodzić w pewnych kwestiach oraz tak, jak nasza wiedza ciągle się zmienia - tak model językowy zawsze będzie korzystać ze źródeł, które nie są do końca pewne. Gdy ChatGPT nie posiada danych z pewnej dziedziny lub dane, które otrzymał przy szkoleniu, są sprzeczne - zaczyna „zmyślać”, czyli generować odpowiedź, która brzmi wiarygodnie, ale wcale nie musi być prawdziwa. To zjawisko nazywa się „halucynowaniem”.
Przykładowo: jeśli w danych treningowych programu pojawiłoby się tyle samo informacji, że stolicą Polski jest Kraków i Warszawa, to ChatGPT nie miałby podstawy uznać, że jedna z tych odpowiedzi jest bardziej prawdziwa. Wygenerowałby więc odpowiedź bardziej zgodną z kontekstem, nie rzeczywistością. ChatGPT nie szuka prawdy - układa słowa tak, by udzielić spójnej odpowiedzi. Dlatego potrafi przekonująco opowiadać o nieistniejących rzeczach.
Czytaj także: Ten jeden element zdradza, że tekst został napisany przez ChatGPT. Zdemaskowały go dziennikarki z pokolenia Z
Warto zacząć od oczywistego apelu - żeby bezgranicznie nie ufać mu w niczym. Jest to - mimo jego niewątpliwych, błyskawicznie następujących postępów - wciąż tylko narzędzie, które nie weźmie odpowiedzialności za skutki swoich odpowiedzi. Każdą jego radę, którą chcemy wdrożyć w życie lub przekazać dalej należy zweryfikować. Są jednak dziedziny i sytuacje, w których trzeba zachować wzmożoną czujność, bo poza pomyłką może to wygenerować poważne straty lub komuś zaszkodzić. Jakie to rzeczy?
Stan zdrowia
Wiele osób natrafiło w internecie na sensacyjne nagłówki, głoszące, że „AI wykryło chorobę, której nie zauważyli lekarze”. Ba - sami na sobie potrafimy to dostrzec: po wprowadzeniu konkretnych objawów otrzymujemy sugestię diagnozy, którą potwierdza wizyta w gabinecie. I to właśnie jest zdanie-klucz: od diagnoz są lekarze.
Jeśli korzystasz z ChatuGPT w celach medycznych, koniecznie potwierdź swoje wnioski z odpowiednim lekarzem. Nawet jeśli on ostatecznie zgodzi się z sugestiami cyfrowej inteligencji, to jednocześnie spojrzy na ciebie holistycznie i weźmie odpowiedzialność za leczenie. Do tego ChatGPT nie może się zobowiązać. Nie ma on dostępu do twoich badań ani wiedzy medycznej w czasie rzeczywistym - stosując bez weryfikacji jego rady możesz poważnie sobie zaszkodzić. Pamiętaj o tym nawet, jeśli wygenerowane odpowiedzi brzmią spójnie i przekonująco.
Słuchając o optymistycznych doniesieniach warto pamiętać, że „sztuczna inteligencja” to nie tylko ChatGPT, ale także specjalistyczne modele medyczne szkolone na klinicznych danych. Ostateczne potwierdzenie „diagnozy AI” także ogłasza zespół złożony z ludzi - same modele to wciąż tylko narzędzie w rękach wysoko wykwalifikowanych osób.
Czytaj także: Sztuczna inteligencja – umysł psychopaty czy urządzenie elektryczne? Rozmowa z prof. Jarosławem Gryzem
Weryfikacja faktów
To bardzo istotna kwestia w dobie dezinformacji: ChatGPT nie jest narzędziem do werfikacji informacji. Skoro sam potrafi zmyślać, to tym bardziej nie może nam zagwarantować, że dana wiadomość jest prawdą.
Nie oznacza to oczywiście, że nie jest pomocny: sprawnie dokona porównania czy streszczenia artykułów źródłowych, przedstawi też wiadomości w wygodnej formie. Nie rozpozna jednak, co z nich jest prawdą. Jeśli zależy nam na wiarygoności, to konieczne jest samodzielne zweryfikowanie wniosków. Tu nie ma drogi na skróty.
Inwestycje finansowe
Pieniądze to wrażliwy temat - i kwestia, którą zawsze warto sprawdzić dwa razy. Wielu z nas natknęło się na opowieści o „magicznym” przepisie na inwestycję, którą wygenerował ChatGPT. Problem w tym, że te opowieści, podobnie jak i odpowiedzi cyfrowej inteligencji, są niemożliwe do zweryfikowania.
ChatGPT nie jest doradcą finansowym. Nie ma dostępu do aktualnych danych rynkowych, nie zna twojej sytuacji finansowej ani poziomu ryzyka, który jesteś w stanie zaakceptować. Model może wygenerować listę „popularnych pomysłów”, ale nie oceni ich sensowności ani nie dostosuje do rynkowych realiów. Inwestowanie wymaga najświeższej wiedzy, analizy trendów i regulacji - a w tych kwestiach ChatGPT może bazować na niepełnych lub nieaktualnych źródłach.
Otrzymane odpowiedzi należy skonsultować z doświadczonym inwestorem lub ekspertem. Nie dajmy się zwieść i nie ufajmy bajkom z internetowych forów, bo ewentualne straty możemy odczuć bardzo boleśnie.
Chociaż te trzy kwestie wydają się najistotniejsze, w każdej rozmowie z ChatemGPT pamiętajmy o zdrowym rozsądku i ograniczonym zaufaniu. Nie ma magicznych recept ani bajecznie prostych rozwiązań, a na końcu każdej decyzji powinien stać odpowiedzialny ludzki umysł.