1. Zwierciadlo.pl
  2. >
  3. Styl Życia
  4. >
  5. 11 rzeczy, o które lepiej nie pytać ChataGPT. Możesz stracić więcej, niż myślisz

11 rzeczy, o które lepiej nie pytać ChataGPT. Możesz stracić więcej, niż myślisz

ChatGPT bywa zawodny, szczególnie w kwestii zadań wymagających wrażliwych informacji lub specjalistycznej wiedzy. (Fot. Maria Korneeva/Getty Images)
ChatGPT bywa zawodny, szczególnie w kwestii zadań wymagających wrażliwych informacji lub specjalistycznej wiedzy. (Fot. Maria Korneeva/Getty Images)
Chat GPT świetnie sprawdza się jako pomoc w codziennych zadaniach. Są jednak sytuacje, w których lepiej nie ryzykować. Zostań z nami, aby dowiedzieć się więcej.

ChatGPT i inne chatboty AI to potężne narzędzia, zwłaszcza jeśli wiesz, jak formułować zapytania. Możesz używać ich do oszczędzania na podróżach, planowania tygodniowego menu czy nawet do zmiany kariery. Mają one jednak swoje ograniczenia, o których powinniśmy wiedzieć bez względu na to, czy jesteśmy nowicjuszami, czy doświadczonymi użytkownikami. Chat chętnie pomoże przy nowych przepisach kulinarnych, nauce języka czy planowaniu wakacji, ale nie warto dawać mu pełnej swobody, bo nie jest dobry we wszystkim – a w niektórych sprawach jest wręcz niebezpieczny. Przykład?

ChatGPT czasem „halucynuje”, czyli wymyśla informacje i podaje je jako fakty, a także nie zawsze dysponuje aktualnymi danymi. Jest przy tym bardzo pewny siebie, nawet gdy się całkowicie myli (dotyczy to także innych narzędzi generatywnej AI). Gdy stawka rośnie – jak w przypadku podatków, rachunków medycznych, spraw sądowych czy salda konta – ma to ogromne znaczenie. Jeśli nie wiesz, kiedy użycie ChatGPT może być ryzykowne, oto 11 sytuacji, w których warto odłożyć AI na bok i sięgnąć po inne rozwiązanie.

Nie używaj ChatGPT w poniższych przypadkach:

1. Diagnozowanie problemów zdrowotnych

Jeśli wpiszemy swoje objawy do ChatGPT, odpowiedzi będą jak z horroru: od odwodnienia i grypy po raka. Jeśli wpiszemy informację o guzku na klatce piersiowej – dowiemy się, że możemy mieć raka. Super! A to może być tylko niezłośliwy tłuszczak. Pamiętaj, że ChatGPT nie ma żadnego zastosowania w zdrowiu: może pomóc przygotować pytania na wizytę, przetłumaczyć terminologię medyczną czy uporządkować objawy, ale na pewno nie zleci badań, nie zbada cię fizycznie i nie ubezpieczy od błędów w sztuce lekarskiej.

2. Wsparcie psychiczne i zdrowie psychiczne

ChatGPT proponuje techniki uspokajające, ale nie odbierze telefonu, gdy naprawdę potrzebujesz pomocy. Nie jest substytutem terapeuty, bo nie ma doświadczeń życiowych, nie odczytuje mowy ciała ani tonu głosu i nie potrafi okazać prawdziwej empatii – jedynie ją symuluje. Terapeuta działa zgodnie z przepisami i etyką zawodową, chroniąc cię przed szkodą. AI tego nie zrobi. Jego porady mogą być więc nietrafione, mogą też pomijać niepokojące sygnały lub utrwalać uprzedzenia. Ludzką pracę zostaw więc człowiekowi, a w razie kryzysu zadzwoń pod numer 116 123 lub inny lokalny telefon wsparcia.

3. Podejmowanie decyzji w sytuacjach zagrożenia

Gdy włączy się alarm pożarowy, nie pytaj AI, czy to niebezpieczne – po prostu wyjdź z domu. Modele językowe nie czują gazu, nie widzą dymu i nie wezwą pomocy. Każda sekunda wpisywania to sekunda mniej na reakcję. ChatGPT może wyjaśnić sytuację po fakcie, ale nie zastąpi służb ratunkowych. Pamiętaj o tym, bo może uratować ci to życie.

4. Indywidualne porady finansowe lub podatkowe

ChatGPT nie zna twoich dochodów, sytuacji podatkowej czy celów emerytalnych, więc jego rady finansowe mogą być nieprzydatne. Nie wpisuj też do sztucznej inteligencji danych z PIT-11. Nie licz, że zastąpi ci ona księgowego, który znajdzie ulgi czy błędy. Gdy w grę wchodzą pieniądze, terminy i kary skarbowe – korzystaj z pomocy profesjonalistów. Wszystko, co wpiszesz do AI, może bowiem zostać wykorzystane do trenowania kolejnych modeli – w tym twoje dochody, PESEL czy numer konta.

5. Praca z danymi poufnymi lub regulowanymi

Nigdy nie wklejaj poufnych dokumentów do ChatGPT. Gdyby to zrobić, dane trafiłyby na serwer zewnętrzny, poza ochroną NDA. To samo dotyczy umów, dokumentacji medycznej czy informacji chronionych przepisami RODO. Nie wklejaj też danych podatkowych, dowodu osobistego czy paszportu. Sztuczna inteligencja nie jest odporna na ataki.

6. Działania niezgodne z prawem

Tego chyba nikomu nie trzeba tłumaczyć.

7. Oszukiwanie w szkole

Kto z nas nie ściągał w szkole? Pamiętacie wzory z matmy zapisywane na miniaturowych karteczkach? W porównaniu z dzisiejszymi oszustwami z AI to nic. Są systemy, które coraz lepiej wykrywają teksty generowane przez sztuczną inteligencję, a nauczyciele już umieją rozpoznawać pracę pisaną z ChatGPT, i to już po pierwszym zdaniu. Zawieszenie, skreślenie z listy studentów, utrata licencji – to realne ryzyko. Lepiej traktować ChatGPT jako pomoc naukową, nie autora. Poza tym – oszukując system edukacji, oszukujesz sam siebie.

8. Śledzenie aktualnych informacji i wiadomości

Od czasu uruchomienia funkcji ChatGPT Search pod koniec 2024 roku, bot może pobierać świeże strony, notowania, ceny paliw i wyniki meczów z linkami do źródeł, ale sam nie aktualizuje niczego automatycznie – każda nowa informacja wymaga nowego zapytania. Gdy liczy się czas, lepiej korzystać z serwisów informacyjnych czy oficjalnych komunikatów.

9. Hazard

Z pomocą ChatGPT da się wygrać zakład, ale nie polecamy tego nikomu. ChatGPT potrafi podać nieprawdziwe dane – myli statystyki i bilanse. Wygraną da ci tylko sprawdzenie wszystkiego ręcznie i odrobina szczęścia. Nie licz też na to, że ChatGPT zna przyszłe wyniki.

10. Sporządzanie testamentu lub innej umowy prawnej

ChatGPT dobrze tłumaczy podstawy, ale jeśli chcesz żeby przygotował za ciebie dokument prawny – wiele ryzykujesz. Przepisy różnią się w zależności od kraju, a nawet województwa w którym żyjemy. Dodatkowo brak podpisu lub klauzuli może unieważnić całość. Lepiej przygotować z pomocą AI listę pytań do prawnika – i zlecić to jemu.

11. Tworzenie sztuki

AI nie powinno tworzyć sztuki. Koniec, kropka. Warto korzystać z ChatGPT przy burzy mózgów czy tytułach, ale jako wspomaganie, nie zastępstwo. Korzystaj ze sztucznej inteligencji, ale z głową i na pewno nie twórz z nią „sztuki”, pod którą się podpisujesz.

Źródło: „Stop Using ChatGPT for These 11 Things Right Now”, cnet.com [dostęp: 09.07.2025]

Share on Facebook Send on Messenger Share by email
Autopromocja
Autopromocja

ZAMÓW

WYDANIE DRUKOWANE E-WYDANIE
  • Polecane
  • Popularne
  • Najnowsze