Nie daj się fejkom! Jak sprawdzać informacje w internecie?
Skąd mieć pewność, że to, co znajdujemy w internecie, jest prawdziwe? Jak nie dać się nabrać na dezinformację? Dlaczego warto „patrzeć na ręce” politykom – przynajmniej tym na zdjęciach? Jak nie dać sobie wcisnąć cyfrowych „pomyj”? Odpowiedź na te i inne pytania znajdą Państwo w niniejszym artykule.
Przestrzeń medialna, a szczególnie internetowa, zaśmiecona jest bezwartościowymi treściami, często przekłamanymi i wręcz szkodliwymi. W związku z trwającą wojną hybrydową Rosji przeciwko Polsce i Zachodowi kremlowskie trolle[1] i boty[2] zatruwają sieć swoją dezinformacją, a to i tak tylko działanie służb jednego z wielu państw prowadzących tego rodzaju nieczystą rozgrywkę. Do tego potencjał generatywnej sztucznej inteligencji [3] jest wykorzystywany na masową skalę, by sztucznie generować internetowy ruch, a tym samym zyski dla niewiadomych podmiotów. Nie zapominajmy też o trwającej w Polsce kampanii wyborczej, która jeszcze bardziej zaogniła bezpardonową polityczną walkę. Jak odnaleźć się w tym zamieszaniu i nie dać się fałszywym informacjom?
Czym jest prawda?
Dociekania prawdy o prawdzie zrodziły szereg błędnych przekonań i porzekadeł, takie jak te, że „każdy ma własną prawdę” czy „prawda leży zawsze pośrodku”. Tymczasem już od ponad 2300 lat znamy prostą, ale w istocie genialną definicję. Słynny grecki filozof Arystoteles nauczał, że prawda to zgodność sądów z rzeczywistością. W filozofii ta definicja nazywana jest klasyczną. Uzmysławia ona, że prawda wcale nie musi „leżeć pośrodku”, lecz raczej „leży tam, gdzie leży” oraz że nie jest tak, iż „każdy ma własną prawdę”, a jedynie przekonania na jakiś temat, o których prawdziwości decyduje ich zgodność ze stanem faktycznym.
Sensacja i emocjonalność – czerwona lampka ostrzegawcza
Z definicji prawdy zaproponowanej przez Arystotelesa można wyciągnąć słuszną obserwację, iż „faktów nie obchodzą nasze uczucia”, które to hasło swego czasu było popularne wśród konserwatywnych komentatorów społeczno-politycznych, zwłaszcza w Stanach Zjednoczonych. Niestety kryterium emocjonalne dla dużej części odbiorców różnorakich mediów jest ważnym – o ile nie najważniejszym – jeśli chodzi o przyjmowanie informacji jakie do nich trafiają za prawdziwe lub fałszywe.
Jak wskazuje Naukowa i Akademicka Sieć Komputerowa na swojej [stronie internetowej] poświęconej zagadnieniu dezinformacji, proponując metodę rozpoznawania prawdziwości informacji pod akronimem SPRAWDZAM, pierwszą rzeczą, na jaką należy zwrócić uwagę jest sensacja.
„Dezinformacja często bazuje na lęku, gniewie czy oburzeniu. Sprawdź, czy emocje, które budzi dany komunikat, są uzasadnione” – czytamy w poradniku NASK.
W innym miejscu instytut zwraca uwagę, że w dezinformacji często wykorzystywany jest język emocjonalny – „sformułowania, które wywołują strach, oburzenie, gniew czy złość”.
Kiedy zatem trafimy na treści, które wywołują w nas silne emocje – głównie oburzenie – powinniśmy sprawdzić, czy rzeczywiście są one prawdziwe, zanim przekażemy je dalej – czy to w mediach społecznościowych, czy w rozmowie z rodziną lub znajomymi. Być może za informacją tą stoi ktoś, kto specjalnie spreparował ją, by w jakimś konkretnym celu budziła nasze skrajne emocje.
Kiedy Mentzen idzie na piwo z Biedroniem
W ostatnich latach zaobserwować mogliśmy gwałtowny rozwój sztucznej inteligencji (AI, ang. artificial intelligence) – zwłaszcza generatywnej. Szczególnie imponujący postęp zauważyć można w przypadku materiałów wizualnych tworzonych za pomocą AI, gdzie w ciągu kilku lat przeszliśmy od abstrakcyjnych obrazów przypominających senne (a niekiedy wprost koszmarne) wizje do takich, które są prawie nie do odróżnienia od zdjęć czy rysunków wykonanych przez człowieka. Jak każda technologia, również obrazy generowane przez AI bywają wykorzystywane do niecnych lub przynajmniej moralnie niejasnych celów.
Warto zwrócić uwagę, że dzięki powszechnemu dostępowi do możliwości generowania obrazów za pomocą AI w zasięgu niemal każdego użytkownika sieci znalazły się możliwości łatwego tworzenia tzw. deep fake’ów[4]. Dostęp do odpowiedniego generatora (z czego wiele jest darmowych) i umiejętność wydawania oprogramowaniu odpowiednich komend wystarczą, by np. spreparować „zdjęcie” przedstawiające polityków dwóch skrajnie różnych stronnictw (jak Sławomir Mentzen i Robert Biedroń), siedzących razem przy piwie i wyraźnie zadowolonych ze swojego towarzystwa. Gdy do tego doda się odpowiedni opis – w powyższym przypadku mówiący np. o zmowie polityków ponad głowami narodu – można liczyć na to, że część nieświadomych użytkowników internetu powieli nieprawdziwą narrację, dolewając oliwy do ognia w trwającym nieprzerwanie agresywnym sporze politycznym.
W momencie gdy generatory obrazów AI nie osiągnęły jeszcze pełni swoich możliwości, warto wskazać, na co należy zwrócić uwagę, by sprawdzić, czy znalezione w sieci zdjęcie nie jest czasami grafiką wytworzoną za pomocą sztucznej inteligencji.
Pierwszą i najistotniejszą rzeczą, jaka może nam zdradzić, czy obraz został wygenerowany przez AI, jest anatomia osób, jakie przedstawia. Szczególnie warto przyjrzeć się dłoniom i palcom. Jeśli są zdeformowane, jest ich więcej lub mniej niż powinno być albo łączą się i zlewają w jedną bezkształtną masę, to z pewnością mamy do czynienia z „dziełem” sztucznej inteligencji. Innymi częściami ciała, z jakimi zdarza się nie radzić AI, są uszy, oczy i zęby. Sztuczna inteligencja „lubi” też nadmiernie eksponować zmarszczki czy muskulaturę. Jeśli na zdjęciu widnieje tłum, można powiększyć obraz, by przyjrzeć się tym ludziom. Kiedy brakuje im kończyn, ich ciała się zlewają, a twarze wyglądają niczym z horroru, to są oni wygenerowani przez AI.
Dobrym wyznacznikiem tego, czy mamy do czynienia z obrazem wytworzonym przez sztuczną inteligencję, jest pojawiający się na zdjęciu tekst (np. w postaci szyldów, banerów w tle). Jeśli urywa się nienaturalnie, występują w nim nieistniejące w rzeczywistości litery, a słowa nie mają sensu, oznacza to, że obraz został wygenerowany przez AI.
Inne charakterystyczne cechy obrazów wygenerowanych przez sztuczną inteligencję to m.in. nasycone barwy, sterylność, nienaturalne oświetlenie, przesadnie ekspresyjna mimika oraz zaburzona perspektywa.
W rozeznaniu, czy mamy do czynienia z autentycznym zdjęciem, czy z wygenerowaną fałszywką, posłużyć może nam sama sztuczna inteligencja w postaci specjalnie do tego przeznaczonych stron internetowych lub popularnych asystentów AI, jak ChatGPT i Grok. Warto przy tym wspomnieć, że te algorytmy nie są nieomylne, dlatego nie należy traktować ich jak wyroczni.
Jednocześnie warto mieć na uwadze, że AI jest rozwijana w zawrotnym tempie, w związku z czym wymienione powyżej niedoskonałości generowanych przez sztuczną inteligencję grafik mogą być coraz trudniejsze do wychwycenia.
Internet zalany „pomyjami” na „amen”?
Generatory AI pozwalają również na tworzenie dziwnych i absurdalnych treści, które udostępniane masowo w mediach społecznościowych są nazywane przez internautów z angielska „AI generated slop”, co oznacza „pomyje wygenerowane przez AI”.
Szczególnie na Facebooku aktywne są profile, które publikują spreparowane przez sztuczną inteligencję obrazy mające żerować na empatii, niezgodzie na niesprawiedliwość społeczną, a czasem także na uczuciach religijnych.
Bardzo często owe „pomyje” wytworzone są według określonych powtarzalnych kryteriów, jak to, gdzie zobaczyć możemy ubogie dziecko z kraju trzeciego świata prezentujące swoje „dzieło sztuki”, którym może być np. pojazd wykonany z pustych butelek czy puszek po napojach lub rzeźba przedstawiająca jakąś znaną postać (często Jezusa) wykonana z niekonwencjonalnych materiałów, takich jak kolby kukurydzy. Tego rodzaju grafikom towarzyszy z reguły opis skonstruowany według następującego wzorca: „[Osoba widoczna na grafice] zrobił/a […] z […], ale nikt mu/jej nie pogratulował, bo jest […]”.
Specyficznym wariantem takich „pomyj” jest ten, gdzie osoba starsza (czasami aż groteskowo, gdzie postać przypomina bardziej zasuszone zwłoki, a nie żywego człowieka), niepełnosprawna (często weteran wojenny) lub młoda i atrakcyjna siedzi samotnie przy stoliku z urodzinowym tortem, a w opisie obrazu przeczytać możemy: „Mam dziś urodziny, ale nikt nie złożył mi życzeń”.
W sekcji komentarzy tego rodzaju wpisów bardzo często przewija się słowo „amen” i emotikony złożonych rąk oraz serca. Nie można wykluczyć, że konta wielu komentatorów to boty.
Warto zauważyć, że profile zamieszczające w sieci tego rodzaju treści adresowane do polskich odbiorców niejednokrotnie wykorzystują poczucie niesprawiedliwości związane z traktowaniem rolników i ludzi mieszkających na wsi.
Domyślnym odbiorcą tego rodzaju treści są przede wszystkim osoby starsze, często niezaznajomione z niuansami technologii. Twórcy profili o charakterze „pomyjowym” żerują na ich empatii, by generować ruch w postaci komentarzy i polubień. Nie jest jasne, co jest ich ostatecznym celem. Jedna z teorii mówi, że później sprzedają oni takie profile – cieszące się dużymi zasięgami – za pokaźną sumę pieniędzy.
„Pomyje” AI budujące zasięgi na ludzkich emocjach i naiwności zostały szybko zauważone przez młodszą i bardziej świadomą część internautów i przekształcone w memy. Zaczęli oni sami tworzyć coraz to bardziej absurdalne obrazki oparte na schemacie niedocenionego dziecka-artysty lub samotnego solenizanta, którym towarzyszą prześmiewcze opisy, a najczęstszą reakcją innych internautów jest komentarz o treści „amen”.
Dzieci karmione cyfrowymi „pomyjami”
„Pomyje” przybierają też inne formy, m.in. krótkich materiałów wideo (tzw. rolek lub shortów – w zależności od platformy, na jakiej są publikowane). Wśród nich popularnością cieszą się te, które wpasowują się w trend „satysfakcjonujących” filmików przedstawiających np. oczyszczenie skóry i skorup żółwi morskich z pąkli. Warto nadmienić, że w czasach sprzed gwałtownego rozwoju AI ten trend był również wykorzystywany, ale w dużo bardziej bulwersujący sposób, gdzie autorzy nagrań sami wcześniej przyklejali do morskich zwierząt muszle skorupiaków, by potem usuwać je dla wyświetleń.
Niektóre treści wideo wygenerowane przez sztuczną inteligencję są zaś niepokojące. M.in. w serwisie YouTube zamieszczono swego czasu wiele drastycznych i obrzydliwych filmów AI z udziałem antropomorficznych kociąt. Tego typu materiały wideo można uznać za kontynuację tzw. afery Elsagate [5].
Należy przy tym podkreślić, że krótkie internetowe filmiki to forma bardzo atrakcyjna dla młodego odbiorcy. Warto zadać sobie pytanie, czy dzieci powinny oglądać bezsensowne, a niekiedy drastyczne wideo i karmić swoje umysły „pomyjami”. Pamiętajmy, że danie dziecku telefonu czy tableta, by oglądało „bajki” nie jest rozsądne. Treści oznaczone jako „dla dzieci” mogą omijać restrykcje i filtry serwisów internetowych i zawierać rzeczy, z którymi młodzi odbiorcy z pewnością nie powinni mieć styczności.
Świadectwo wiary czy łatwowierności?
Dużo starszym zjawiskiem od „pomyj”, ale służącym podobnym celom, czyli generowaniu zasięgów, są „inspirujące” i „wzruszające” historie, świadectwa i cytaty. Jako chrześcijanie, katolicy, powinniśmy być na nie szczególnie wyczuleni, gdyż wiele z nich dotyczy kwestii wiary.
Bywa, że ktoś z naszych znajomych lub członków rodziny udostępni na portalu społecznościowym jakieś „świadectwo” opowiadające o działaniu Boga w naszym życiu. Problem polega na tym, że najczęściej jest to automatycznie tłumaczona, niezgrabnie napisana historia z banalnym przekazem, a do tego prawdopodobnie zmyślona. Owszem, w takim przypadku można traktować taki tekst jako swoistą „przypowieść”, ale należy zadać sobie pytanie, czy rzeczywiście służy ona pogłębieniu naszej religijności i czy udostępnianie tego typu treści tak naprawdę nie szkodzi obrazowi katolików w internecie. Pamiętajmy, że skoro „świadectwo” wygląda jak automatycznie tłumaczone z języka angielskiego, to z dużą dozą prawdopodobieństwa może ono pochodzić z protestanckiej części internetu. To zaś niesie za sobą ryzyko przekazywania przez nie błędów teologicznych. Zauważyć też można podobieństwo tego rodzaju treści do tzw. łańcuszków szczęścia, stanowiących niegdyś popularną formę internetowego spamu.
Na wspomniane „świadectwa” natrafić możemy m.in na niby-chrześcijańskich grupach na serwisie Facebook. Choć z pozoru wydają się one dobrą inicjatywą, gdyż zrzeszają ludzi wierzących, to niejednokrotnie panuje w nich chaos. W takich przypadkach pojawiają się tam „świadectwa” niewiadomego pochodzenia, łańcuszki szczęścia, kiepskiej jakości obrazy wygenerowane przez AI (w tym „pomyje”), a czasem nawet wpisy propagujące magiczne myślenie. Warto sprawdzić, czy w administracji danej grupy znajdują się osoby duchowne. Jeśli nie, powinno stanowić to dla nas mocny sygnał alarmowy, gdyż jakakolwiek wspólnota o charakterze religijnym pozbawiona opieki duszpasterza może rodzić herezje, zabobony i inne wypaczenia chrześcijańskiej duchowości.
Sprawdzaj we własnym zakresie, reaguj, ostrzegaj
Aby nie dać się fałszywym informacjom, zwanym potocznie „fejkami” (ang. fake – fałszywy), warto sprawdzać wszystkie informacje, jakie docierają do nas z niepewnych, często anonimowych źródeł. Nie trzeba przy tym przeczesywać internetu, tracąc cenny czas. Obecnie istnieją portale zajmujące się sprawdzaniem prawdziwości informacji (choć należy zaznaczyć, że nie muszą one być w pełni wolne od politycznej agendy), a także dostępna dla każdego narzędzia AI, jak ChatGPT i Grok, które pomogą nam rozsądzić, czy dane treści są zgodne z rzeczywistością.
Kiedy już sprawdzimy daną informację i okaże się ona fałszywa, warto powiadomić o tym innych internautów – czy to za pomocą komentarza, czy też specjalnych funkcji, takich jak „notatka społeczności” na portalu X. Warto też przestrzegać naszych bliskich.
Szymon Górko/radiomaryja.pl
[1] Użytkownicy, którzy zamieszczają w sieci prowokujące treści. Niektóre państwa czy środowiska polityczne posiadają swoje „farmy trolli”, jakie mają określoną linię programową, a ich działania w sieci są obliczone na konkretny cel.
[2] Profile obsługiwane przez algorytmy lub sztuczną inteligencję, działające na zasadzie „sztucznego tłumu” i generujące w ten sposób ruch w sieci. Często służą celom marketingowym lub propagandowym.
[3] Potoczne określenie oznaczające oprogramowanie pozwalające generować treści oparte na mechanizmie uczenia maszynowego. Na podstawie tekstowych komend (tzw. promtów) lub próbek materiału (obraz, dźwięk), generować grafiki oraz materiały audiowizualne.
[4] Fałszywe materiały wideo czy audio, najczęściej przedstawiające osoby pełniące funkcje publiczne lub celebrytów, przypisujące im nieprawdziwe słowa lub czyny. Często służą do naciągania internautów lub do szerzenia propagandy.
[5] Swego czasu w serwisie YouTube trendowały dziwne, niepokojące, obrzydliwe, a czasem też nasycone erotycznymi podtekstami filmiki (najczęściej animacje, choć zdarzały się również produkcje aktorskie) oznaczone jako materiały przeznaczone dla dzieci. Swoją nazwę zjawisko to zawdzięcza nagminnemu wykorzystaniu postaci Elsy, głównej bohaterki animacji Disneya „Kraina lodu”. Często używano również wizerunku Spider-Mana, superbohatera z komiksów i filmów Marvela.