Lepiej patrzeć w gwiazdy niż w ekran telefonu, przy łóżku mieć książki, a nie laptopa, i zwierzać się przyjacielowi zamiast asystentowi SI. Niby wszystko to wiemy, ale nasze życie coraz bardziej toczy się w przestrzeni sterowanej algorytmami. Dlaczego tak się dzieje i co z tym robić – wyjaśnia Wojtek Kardyś, autor książki „Homo digitalis. Jak internet pożera nasze życie?”.
Artykuł ukazał się w magazynie „Sens” 11/2025.
Kto to jest homo digitalis?
To człowiek cyfrowy – zanurzony w mediach społecznościowych, niepotrafiący być offline. Ja też tam byłem i wpadłem w pętlę dopaminową. Tak go nazwałem, bo potrzebowałem motywu przewodniego książki. Podobnie jak on poświęcałem czas na to, żeby udostępniać swoje dane, poświęcać swoją energię i uwagę dla Big Tech, czyli dla dużych korporacji, które tworzą aplikacje i portale społecznościowe.
My też w tej rozmowie właśnie karmimy Big Tech, zamiast spotkać się na kawę w miłym miejscu.
Tak jest, przekazujemy za darmo swoje dane i płacimy, oddając swój czas komunikatorowi. To się nazywa ekonomia uwagi. Portale społecznościowe, takie jak Facebook, Instagram, TikTok, nie są darmowe; bezpłatna rejestracja w serwisie społecznościowym jest ściemą. Płacimy, między innymi przekazując swoje zdjęcia, przemyślenia, intymne informacje – i najczęściej robimy to nieświadomie.
Z badań wynika, że Facebook lepiej zna naszą orientację seksualną czy przekonania religijne niż nasi bliscy.
A po co mu są te dane? Po to, żeby dopasować reklamy. Na szczęście żyjemy w Unii Europejskiej, gdzie w 2024 roku został wdrożony akt o usługach cyfrowych, który wprowadza pewne zasady funkcjonowania Big Tech. Przede wszystkim dotyczą one informacji o tym, co się dzieje z naszymi danymi. Akt DSA (Digital Service Act) obarczył platformy społecznościowe odpowiedzialnością za treści, które są na nich publikowane. Każdy z nas, użytkowników, ma prawo zgłosić te, które na przykład nawołują do nienawiści czy do hejtu.
Ale hejt nie jest w naszym kraju w żaden sposób regulowany. Przede wszystkim nie ma prawnie zalegalizowanej definicji, co jest hejtem, a co na przykład jedynie krytyką czy wyrażaniem własnego zdania.
DSA nakłada na media społecznościowe pewne obowiązki – chociażby raportowanie, jak działają algorytmy rekomendacji, informowanie, dlaczego widzimy daną reklamę, ograniczanie reklam dla małoletnich odbiorców, przejrzystość moderacji treści. Za nieprzestrzeganie tych regulacji nakładane są pokaźne kary.
Jednak nie przekłada mi się to na konkretne przypadki hejtu, którego doświadczają moi pacjenci czy znajomi. Porozmawiajmy o tym, dlaczego, jako użytkownicy mediów społecznościowych, tak łatwo dajemy się manipulować.
Jaka jest waluta w mediach społecznościowych? Czas oraz zasięg. Im więcej reakcji i komentarzy napędzanych emocjami – tym większy zasięg. Im większy zasięg – tym więcej czasu ludzie spędzają na platformach. Jak sprawić, żeby był duży zasięg? W tym celu musiały powstać algorytmy, czyli pewne kody napędzane sztuczną inteligencją, które porządkują tak zwany feed, czyli strumień treści i tablicę aktualności. Na Facebooku statystycznie mamy 400–500 znajomych. Jeżeli co drugi z nich wrzuciłby post, to każdego dnia bylibyśmy nimi zalani. Dlatego portale społecznościowe stworzyły algorytm, który będzie się uczył tego, jak dany użytkownik korzysta z mediów społecznościowych. Jeśli, przykładowo, lajkuję stronę z drożdżówkami, to algorytm rekomendacji będzie wyświetlał mi jeszcze więcej postów z drożdżówkami. Algorytmy sprawiły, że zamykamy się w bańkach informacyjnych.
I pana internetowy świat ogranicza się do drożdżówek?
Dokładnie. A jeśli zamienimy drożdżówki na politykę, to nietrudno wyobrazić sobie, co się będzie działo. Zamykamy się w bańkach i już nie widzimy żadnych innych treści, co powoduje efekt potwierdzenia: „Jeśli wszyscy piszą to samo, to znaczy, że wszyscy myślą tak jak ja”.
To dlatego każdy, kto wchodzi na Facebooka, widzi inną pierwszą stronę, inny post?
Tak jest. Treści są dopasowane do naszych kont, a więc do naszych osobowości.
Osobowości? W jaki sposób?
Do algorytmu wprowadzona jest – trenowana na naszych danych – sztuczna inteligencja, która ma za zadanie go usprawniać. Dowiaduje się jak najwięcej o naszych zainteresowaniach, poglądach, emocjach – więc jest coraz doskonalsza. Dzięki temu, że algorytmy wiedzą o nas wszystko, Big Tech mogą w nas dokładniej i precyzyjniej „uderzać” reklamami.
To dlatego media społecznościowe nas uzależniają, bo są dopasowane do nas jak najbardziej wygodne buty.
Między innymi. Big Tech nie tylko ubierają nas w wygodne buty, ale jeszcze nas głaszczą, szepczą do ucha: „Scrolluj dalej, może będzie jeszcze coś fajniejszego”. Interfejs portali społecznościowych nie powstał wyłącznie przy pomocy informatyków, ale też psychologów behawioralnych, którzy wiedzą, jak uzależnić człowieka.
Dlaczego portale scrolluje się od góry do dołu? To dość prosty trik, dzięki któremu nigdy nie wiemy, co będzie pod spodem, a te treści nigdy się nie kończą. Nasza pętla dopaminowa zawsze wychwyci coś ciekawego, nowego. I nagle orientujemy się, że spędziliśmy tak kilka godzin.
W książce napisał pan, że media społecznościowe bazują na negatywnych emocjach, wśród których dominuje przede wszystkim gniew. Dlaczego one tak nas pociągają? Dlaczego nie szukamy tego, co przyjemne, radosne?
Emocje są badane, eksplorowane i wykorzystywane przeciwko nam przez Big Tech od wielu lat. Radość również, przecież jest wiele zabawnych memów i filmików. Pod radosnym postem też dajemy lajka, możemy wysłać go w wiadomości dalej – trochę to zwiększy zasięg, ale nie będzie zaciekłej dyskusji. Natomiast czując taką emocję, jak gniew czy strach, mamy jednocześnie potrzebę działania. Jest bardziej prawdopodobne, że udostępnimy taki post ze swoim komentarzem. Lęk czy złość polaryzują ludzi – w komentarzach pojawiają się oskarżenia, niewybredna krytyka, wyzwiska. To jest jak podlewanie ognia benzyną. Nie ma znaczenia, że płonie cały las – Big Tech zarabiają na ogniu.
W internecie czujemy się bezkarni, to jest trochę jak igrzyska.
Można zaobserwować tu efekt kabiny pilota – podejmuje jakieś decyzje, nie widząc, co się dzieje z pasażerami w samolocie. W Polsce zgłaszanie hejtera jest dosyć skomplikowane, podczas gdy na przykład we Francji po takim zgłoszeniu platforma ma tylko 48 godzin na skasowanie go, bo jeśli tego nie zrobi, płaci ogromną karę.
Hejt stał się intratnym biznesem, przykładem są tu chociażby walki freakfightowe, w których patoinfluencerzy wyzywają się, klną, biją się, nagrywają z tych walk filmiki i wrzucają je na YouTube. I takie przedstawienia oglądane są na live’ach przez 300-400 tysięcy osób. Agresja doskonale się sprzedaje.
Poziom filmików pokazywanych przez influencerów i to, ile mają odsłon, jest czymś, czego nie potrafię zrozumieć. Porozmawiajmy o ChatGPT – to z jednej strony „samo zło”, a z drugiej – wiele osób z niego korzysta.
Jestem entuzjastą sztucznej inteligencji, ChatGPT ma mnóstwo zastosowań. Dzięki niemu nie musimy sami wyszukiwać informacji, możemy skorzystać na tym, że sztuczna inteligencja potrafi zautomatyzować różne procesy, tylko nie wiemy, jak z tego korzystać. Dodatkowo, niestety, jak to z każdą technologią, jeżeli jest popularna i sprytna – SI jest wykorzystywana również do niecnych celów. Wiem też, że ona potrafi halucynować – ChatGPT odpowiada na moje pyta nie tak, jakby to była prawda, ale tak nie jest, to są błędne informacje.
Dlaczego?
Ponieważ ChatGPT nie potrafi powiedzieć: „nie wiem”. Ta technologia nie jest doskonała, została stworzona po to, żeby za każdym razem odpowiedzieć na nasze pytanie.
Kolejna rzecz, która mnie niepokoi, to moda na wykorzystywanie modeli językowych, takich jak ChatGPT, jako wirtualnych terapeutów. Można sobie już ściągnąć aplikację za abonament tygodniowy w wysokości kilkudziesięciu złotych i ma pan nieograniczoną liczbę sesji.
Zapominamy o tym, że w sieci nic nie ginie, wszystkie informacje, które podajemy na swój temat, czy opis naszych problemów, które ujawniamy na przykład podczas takiej sesji, zostają zapamiętane i mogą być wykorzystane przeciwko nam. Kolejne niebezpieczeństwo to efekt potwierdzenia. Dajmy na to, że moja dziewczyna wydaje się toksyczna i nie wiem, czy z nią zerwać. Jeśli zechcę porozmawiać o tym z czatem, on będzie potwierdzał moje myśli, bo ma za zadanie zgadzać się ze mną. Niebezpieczne jest to, że zawierzamy technologii i odwracamy się od drugiego człowieka.
Model językowy w roli terapeuty nie stawia żadnych granic, łatwo się można od niego uzależnić. My, terapeuci, obserwujemy, że pacjenci rezygnują z profesjonalnych terapii albo zmniejszają częstotliwość sesji, bo korzystają z ChataGPT. Można z nim oczywiście porozmawiać choćby po to, żeby lepiej określić swój problem czy zebrać myśli, ale bezgraniczne zaufanie i powierzanie odpowiedzialności za swoje decyzje maszynie może być naprawdę niebezpieczne.
To prawda, ze wszystkiego można korzystać, byle z głową. Przychodzi mi do głowy pewien przykład – w Internecie funkcjonują chat boty, które mają imitować ludzkie zachowania. Istnieje nawet platforma do rozmów z wirtualnymi postaciami. Pewien 14-latek w spektrum autyzmu zaczął rozmawiać z takim chat botem. Do tego celu stworzył swojego wirtualnego awatara – jedną z bohaterek „Gry o tron”. Tak głęboko wszedł w relację z robotem, że historia ta zakończyła się tragicznie.
Po czym poznał pan u siebie uzależnienie od mediów społecznościowych?
Nie nazwałbym tego uzależnieniem, ale na pewno zatraciłem granicę – potrafiłem siedzieć w nich od rana do nocy, nie wychodziłem z mieszkania. Na szczęście zacząłem się łapać na tym, że nie tak miało wyglądać moje życie. Doświadczałem tak zwanych fantomowych wibracji – miałem telefon w kieszeni i ciągle wydawało mi się, że wibruje, a to mój mózg żądał dopaminy. To zaczynało przypominać nomofobię. Z badań wynika, że statystycznie dotykamy telefonu ponad 2 tysiące razy dziennie.
A siebie ani siebie nawzajem nie dotykamy prawie w ogóle.
No właśnie. Żeby z tego wyjść, wprowadziłem kilka środków zaradczych. Przede wszystkim odkryłem sport, który odciągnął mnie od świata cyfrowego. Do dziś ćwiczę kilka razy w tygodniu, mam swoje grupy, swoich przyjaciół. W moim mieszkaniu są strefy non-phone zone, to między innymi sypialnia. Kiedyś zasypiałem i budziłem się z telefonem, dzisiaj przy łóżku mam analogowy budzik i książki. Jestem w stanie obejrzeć film bez telefonu w dłoni. Pomogły mi też oczywiście spotkania z terapeutką. Ponieważ pracuję w mediach społecznościowych, ustawiłem sobie godziny, w których jestem online i w których jestem offline. Nigdy nie patrzę w telefon podczas spotkania towarzyskiego. Prowadzę samochód w ciszy.
Są świetne aplikacje, które ustalają czas przebywania w mediach społecznościowych. Na przykład na Instagramie mogę być 45 minut dziennie, potem mnie z niego wyrzuca, żeby wrócić, muszę podać hasło. Robię sobie cyfrowe detoksy. Wreszcie mogę mieć dużo wolnego czasu – spędzam go z dziewczyną, czytam książki, relaksuję się, odpoczywam i nie mam lęków, że coś mnie omija.
WOJTEK KARDYŚ ekspert w dziedzinie komunikacji internetowej, mediów społecznościowych, marketingu cyfrowego. W 2022 roku Komisja Europejska mianowała go Ambasadorem Cyfrowym UE w Polsce.