fot. WSKSiM

Wirtualni ludzie – realne problemy

Jeśli do tej pory największym problemem w cyfrowym świecie medialnym były kłamstwa zawierające treści tekstowe, to obecnie wchodzimy już w nową erę oszustw, gdzie podstawowym nośnikiem fałszywych treści będą przede wszystkim filmy i obrazy, często o bardzo wysokiej jakości, umieszczane na najpopularniejszych serwisach medialnych, takich jak np. YouTube. Pamiętajmy, że ten serwis co miesiąc odwiedza ponad 2 miliardy użytkowników, zatem oddziaływanie na nastroje społeczne potężnego portalu jest ogromne – pisze dr Grzegorz Osiński, wykładowca Akademii Kultury Społecznej i Medialnej w Toruniu, na łamach „Naszego Dziennika”.

Rok temu, w maju 2021 r., ukazał się artykuł naukowy w prestiżowym czasopiśmie „Frontiers in Communication”, którego autorami są wybitni specjaliści mediów cyfrowych pracujący w zespole kierowanym przez Johanessa Langgutha z Uniwersytetu w Bergen oraz z Laboratorium Badawczego Simula w Oslo, pod tytułem „Nie ufaj swoim oczom. Manipulacja obrazem w erze głębokich fałszerstw” (ang.: „Don’t Trust Your Eyes: Image Manipulation in the Age of DeepFakes”), gdzie opisano możliwości współczesnych algorytmów sztucznej inteligencji w tworzeniu fałszywych filmów wideo o wysokiej jakości.

Angielska nazwa deepfake odnosi się bezpośrednio do specjalistycznych algorytmów sztucznej inteligencji, nazywanych w fachowej literaturze informatycznej deep learning. Jest to zaawansowany algorytm realizujący zadania uczenia maszynowego z wykorzystaniem sztucznych sieci neuronowych. Praktyczna implementacja algorytmu pozwala m.in. na zaawansowane przetwarzanie obrazu oraz analizę języka naturalnego. Ta technologia jest obecnie najczęściej używana w celu identyfikacji i przetwarzania obrazów ludzkich twarzy i umieszczania ich w sztucznie wykreowanych środowiskach wirtualnych. Słowo „fake” oznacza w tym kontekście po prostu kłamstwo i zostało dodane, aby pokazać ścisły związek tej technologii z klasycznymi już dzisiaj kłamstwami internetowymi nazywanymi fake newsami.

Niezależnie od nazw stosowanych zarówno w świecie medialnym, jak i w profesjonalnych publikacjach informatycznych, musimy pamiętać, że chodzi tutaj o kłamstwo i oszustwo, ale spreparowane w taki sposób, aby wyglądało jak prawdziwa informacja, którą bardzo trudno zweryfikować bez użycia zaawansowanych metod komputerowych.

Autorzy publikacji dokładnie analizują możliwości algorytmów deep learning, które obecnie są dostępne za niewielką opłatą nawet dla użytkowników nieposiadających specjalnych zdolności informatycznych w tworzeniu treści medialnych rozpowszechnianych w sieci internetowej. Przestrzegają jednocześnie przed wykorzystaniem tego typu kłamstw cyfrowych w kampaniach wyborczych i manipulowaniu nastrojami społecznymi. Analizując problem z punktu widzenia dostępności najnowszych technologii informatycznych, eksperci przewidują znaczny wzrost liczby filmów stworzonych za pomocą tej technologii, które będą udostępniane masowo, szczególnie poprzez portale społecznościowe i komunikatory internetowe powielające fałszywe treści.

Cyfrowe kłamstwa

Jeśli do tej pory największym problemem w cyfrowym świecie medialnym były kłamstwa zawierające treści tekstowe, to obecnie wchodzimy już w nową erę oszustw, gdzie podstawowym nośnikiem fałszywych treści będą przede wszystkim filmy i obrazy, często o bardzo wysokiej jakości, umieszczane na najpopularniejszych serwisach medialnych, takich jak np. YouTube. Pamiętajmy, że ten serwis co miesiąc odwiedza ponad 2 miliardy użytkowników, zatem oddziaływanie na nastroje społeczne potężnego portalu, będącego razem z wyszukiwarką Google własnością ponadnarodowej korporacji Alphabet, jest ogromne.

Technologie deepfake umożliwiają uzyskiwanie realistycznych filmów, w których oryginalni aktorzy zostali „cyfrowo zamienieni” na inne osoby, w zależności od potrzeb. W światowych mediach największym zainteresowaniem cieszył się fałszywy film z przemówieniem koreańskiego przywódcy Kim Dzong Una dotyczącym demokracji, który pojawił się w sieci w 2020 roku, oraz przemówienie królowej brytyjskiej Elżbiety II nadane w grudniu 2020 roku przez stację telewizyjną Channel 4. Filmy te, traktowane jako technologiczna ciekawostka, nie spowodowały właściwego zainteresowania organizacji odpowiedzialnych za bezpieczeństwo sieciowe.

Innym rodzajem deepfake jest cyfrowe kreowanie wizerunków ludzkich twarzy umożliwiające tworzenie wirtualnych osób, które mogą wypowiadać różne treści i głosić nawet bardzo kontrowersyjne opinie, chociaż tacy ludzie naprawdę nie istnieją. Problem ten szczegółowo opisywałem już na łamach „Naszego Dziennika” w artykule „Wirtualne kłamstwa” (15 stycznia 2019, nr 6368), ale muszę przyznać, że nie sądziłem wtedy, że kłamstwo wizualne stanie się tak poważnym zagrożeniem, które szybko zdominuje przekazy medialne, szczególnie na największych portalach społecznościowych.

Według raportu mediolańskiej firmy technologicznej Deeptrace, która zajmuje się technologią sztucznej inteligencji, w styczniu 2019 roku, kiedy pisałem swój artykuł, w internecie zidentyfikowano 7964 fałszywych filmów, ale już w październiku 2019 roku było ich 14 tys. 678. Jednak największy wzrost nastąpił w czasie pandemii COVID-19. Szacunki wskazują, że ich liczba obecnie podwaja się średnio co sześć miesięcy. Nie ma jeszcze dokładnych raportów dotyczących roku 2022, ale możemy szacować, że dzisiaj na portalach społecznościowych znajduje się około 320 tysięcy filmów, które zostały w całości lub w znacznej części stworzone po to, aby okłamywać i manipulować odbiorcą. Nie prezentują one prawdziwych treści, pomimo że możemy w nich oglądać znanych ludzi – polityków, aktorów, pisarzy, czy też tzw. celebrytów, którzy prezentują treści, których w rzeczywistości nigdy nie wypowiedzieli.

Bezradni odbiorcy

Dzisiaj, kiedy liczba fałszywych filmów rozpowszechnianych w sieci internetowej sięga już setek tysięcy, problem staje się niezmiernie poważny. Te materiały stanowią zagrożenie na wielu płaszczyznach i dlatego podejmowane są, niestety na razie zupełnie nieskuteczne, próby rozwiązania kwestii zmanipulowanego przekazu.

W sierpniu 2019 roku powołano specjalną międzynarodową organizację Deepfake Detection Challenge (DFDC), w której pracują zarówno specjaliści reprezentujący branżę Big Tech (takie firmy jak Facebook, Microsoft i Amazon), jak i naukowcy z MIT (Massachusetts Institute of Technology) oraz z uniwersytetów w Oxford, Berkeley i Maryland. Organizacja próbuje stworzyć narzędzie umożliwiające automatyczną identyfikację fałszywych filmów, przeznaczając na ten cel dziesiątki milionów dolarów. Niestety, analizy DFDC potwierdziły olbrzymie trudności z wykrywaniem materiałów deepfake i na razie wyznaczyły jedynie cele pośrednie dotyczące np. zwiększenia świadomości użytkowników serwisów medialnych związanych z tym zjawiskiem.

Specjalistyczne laboratoria DFDC, pomimo zainwestowania ogromnych środków finansowych, wykorzystania największych i najszybszych superkomputerów udostępnionych przez Big Tech, osiągają skuteczność niewiele większą niż 50 proc. w identyfikacji fałszywych filmów. Proces sprawdzania trwa niekiedy wiele tygodni i wymaga zatrudnienia całych zespołów najlepszych informatyków. Pokazuje to zupełną bezradność zwykłych użytkowników wobec tego rodzaju manipulacji.

Ponieważ wiele fałszywych filmów łamie prawo, co jest traktowane jako przestępstwo, problem wymaga pilnego rozwiązania. Jeśli nawet największe korporacje technologiczne, które połączyły siły z naukowcami z najbardziej prestiżowych uniwersytetów, nie są w stanie poradzić sobie z tym procederem, to zarówno policja, jak i służby specjalne również nie mają takich możliwości. Możemy się niestety spodziewać, że wraz z dalszym rozwojem technologii materiały typu deepfake staną się praktycznie niemożliwe do wykrycia i odróżnienia od prawdziwych, co niesie ze sobą bardzo wiele zagrożeń.

Problemem zajmuje się również wojsko. Powołana przez NATO specjalna sekcja Strategic Communication Center od trzech lat bada deepfake szczególnie w zakresie prowadzenia wojen informacyjnych i hybrydowych. Pod koniec 2019 roku centrum opublikowało specjalny raport, w którym sugerowana jest szeroka strategia informacyjna, uwrażliwiająca społeczeństwa na zagrożenia bezpieczeństwa spowodowane rozpowszechnianiem fałszywych filmów w sieci internetowej. Niestety wojskowi również nie znaleźli jeszcze skutecznej metody, która eliminowałaby zagrożenie związane z wpływem tej technologii na społeczeństwo.

Pożegnanie z siecią

Jedyną skuteczną strategią, jaką dysponujemy obecnie w walce z deepfake, są działania edukacyjne mające uwrażliwić użytkowników internetu na tę niezwykle groźną technologię. Najlepszym rozwiązaniem jest wytłumaczenie miliardom użytkowników, że należy korzystać z portali społecznościowych w sposób zgodny z ich pierwotnym przeznaczeniem. Nie mogą one być w żadnym przypadku źródłem informacji. W tym celu należy korzystać z profesjonalnych serwisów informacyjnych i firm medialnych: prasowych, radiowych i telewizyjnych, które mają ugruntowaną pozycję na rynku. Zatrudniają one profesjonalnych dziennikarzy, którzy ponoszą odpowiedzialność za przekazywane treści. Portale społecznościowe powinny służyć do kontaktu z rodziną lub znajomymi, z którymi bezpośrednie relacje są utrudnione lub niemożliwe.

Najlepiej w ogóle zrezygnować z systematycznego używania portali społecznościowych, ponieważ coraz więcej dostępnych na nich informacji jest albo fałszywych, albo zmanipulowanych w taki sposób, aby wywołać zaprogramowane wcześniej zachowania i odczucia użytkowników. Jednak ten skuteczny sposób nie może być zastosowany przez osoby, które wykorzystują technologie informatyczno-komunikacyjne w swojej pracy zawodowej. Dlatego Agencja Reutera już w 2019 roku podpisała umowę z Metaverse (dawniej Facebook) w celu stworzenia kursów edukacyjnych dla dziennikarzy, podczas których zapoznają się oni z technologią ułatwiającą identyfikację fałszywych treści. Projekt ma zapobiegać manipulowaniem dziennikarzami, aby nie powielali treści pochodzących z fikcyjnych lub niepewnych źródeł. W czasie kursu dziennikarze uczą się, w jaki sposób przeciwdziałać wprowadzaniu w błąd odbiorców i ograniczać działania powodujące osłabienie zaufania opinii publicznej do mediów.

Mistyfikacja zdemaskowana

Problemy z deepfake nie omijają oczywiście Polski. Mogliśmy się o tym przekonać w czerwcu, kiedy środowiska opozycyjne postanowiły zorganizować pod stacjami koncernu PKN Orlen protesty przeciwko wysokim cenom paliw. Abstrahując od zupełnie nielogicznych przesłanek takiego protestu – przecież wysokie ceny paliw spowodowane są bezpośrednio inwazją wojsk rosyjskich na Ukrainę i błędną polityką Unii Europejskiej, która w ostatnich latach uzależniła gospodarki europejskie od dostaw surowców z Rosji – powinniśmy zwrócić uwagę na inny aspekt dotyczący tego wydarzenia.

Agencje prasowe dużego koncernu z obcym kapitałem opublikowały relacje opatrzone zdjęciami z owych protestów, jakie rzekomo miały miejsce na wielu stacjach Orlenu. Na ujęciach widoczne są twarze organizatorów pikiet, a relacje prasowe nadają im konkretne nazwiska i pełnione funkcje. Dzięki czujności dziennikarzy dość szybko rozpracowano mistyfikację. Okazało się, że zdjęcia twarzy organizatorów protestu zostały wygenerowane za pomocą prostych algorytmów deep learning dostępnych w sieci. Ci ludzie po prostu nie istnieją, są to jedynie wirtualne byty, którym dopisano odpowiednio spreparowane scenariusze. Nie przeszkadzało to niektórym agencjom prasowym w przeprowadzeniu wywiadów z „wirtualnym człowiekiem” Dariuszem Białasem dotyczących protestu. Jednak w rzeczywistości Dariusz Białas, podobnie jak inni organizatorzy protestu, nie istnieje.

To wydarzenie w jednoznaczny sposób pokazuje, jak niebezpieczne mogą być informacje typu deepfake, i które koncerny medialne wykorzystują je w codziennej pracy, przez co powinny stracić jakąkolwiek wiarygodność w świecie medialnym.

Wirtualny Zełenski

Ukraińcy zetknęli się z technologią deepfake już w pierwszych dniach wojny z Rosją. Specjaliści do spraw wojny hybrydowej z rosyjskich wojsk informacyjnych stworzyli film, w którym Wołodymyr Zełenski ogłaszał kapitulację wojsk ukraińskich. Na filmie wirtualny prezydent Ukrainy mówi, że Rosji „należy zwrócić Donbas”, oraz stwierdza jednoznacznie, że „nie warto umierać w tej wojnie. Moja rada dla was jest taka – przeżyjcie. Ja wybieram to samo”.

Ten deepfake został szybko rozpoznany przez służby ukraińskie, które wystosowały stosowne komunikaty we wszystkich mediach internetowych. Jego rozpowszechnianie nie przyniosło zakładanych celów, Ukraińcy zjednoczyli się przy swoim prezydencie i do dzisiaj bohatersko odpierają kolejne brutalne ataki rosyjskiego wojska. Nie wiemy jednak, ile podobnych fałszywych filmów na temat rosyjskiej agresji krąży dzisiaj w sieci. Wiemy jedynie, że ich liczba dramatycznie wzrasta każdego dnia i mogą one dotyczyć bardzo ważnych zagadnień politycznych i ekonomicznych.

Nie zapominajmy również, że w Polsce wchodzimy już w okres kampanii przedwyborczej. Z pewnością w czasie jej trwania pojawią się różnego rodzaju zmanipulowane i kłamliwe informacje, również typu deepfake. Dlatego bądźmy czujni, korzystajmy jedynie ze sprawdzonych serwisów informacyjnych, do których mamy od lat zaufanie, a portale społecznościowe najlepiej opuśćmy. Jeśli nie możemy z różnych przyczyn tego zrobić, to wykorzystujmy je jedynie w kontaktach z prawdziwymi znajomymi, których dobrze znamy z realnego świata.

dr Grzegorz Osiński/Nasz Dziennik

drukuj
Tagi: , ,

Drogi Czytelniku naszego portalu,
każdego dnia – specjalnie dla Ciebie – publikujemy najważniejsze informacje z życia Kościoła i naszej Ojczyzny. Odważnie stajemy w obronie naszej wiary i nauki Kościoła. Jednak bez Twojej pomocy kontynuacja naszej misji będzie coraz trudniejsza. Dlatego prosimy Cię o pomoc.
Od pewnego czasu istnieje możliwość przekazywania online darów serca na Radio Maryja i Tv Trwam – za pomocą kart kredytowych, debetowych i innych elektronicznych form płatniczych. Prosimy o Twoje wsparcie
Redakcja portalu radiomaryja.pl