Dr G. Osiński w „Naszym Dzienniku”: Algorytmy w służbie władzy

Niedawno korporacja Google w swojej popularnej aplikacji Google Maps wprowadziła zakładkę nazwaną „dla ciebie”, która umożliwia np. odnalezienie w mieście, w którym aktualnie przebywasz, obiektu na podstawie wizualnego obrazu z wykorzystaniem kamery zamontowanej w telefonie komórkowym. Wystarczy tylko włączyć kamerę i sfilmować najbliższą okolicę, a Google sam rozpozna, czy w otoczeniu znajduje się restauracja, hotel, muzeum czy też inny poszukiwany obiekt.

System lokalizacji

Poza tym aplikacja jest w stanie, na podstawie danych zebranych na profilu użytkownika, zaproponować udział w wydarzeniu, które odbywa się w okolicy, wskazać najnowsze promocje w pobliskim sklepie czy też odpowiednio dostosowany posiłek w najbliższej restauracji. Te funkcje umożliwia specjalny system komputerowy, który wykorzystuje technologie uczenia maszynowego, sprzężony z systemem identyfikacji wizualnej. Taki program uczy się na bieżąco preferencji użytkownika i podpowiada mu tylko takie wydarzenia, które mogą go personalnie zainteresować.

System lokalizacyjny wspierający wirtualną nawigację w rzeczywistym świecie nazywany jest VPS (Visual Positioning System). Pozwala on dotrzeć do konkretnego miejsca, korzystając z podglądu aktualnego otoczenia dzięki włączonej kamerze telefonu. Niejako przy okazji zbiera on również i aktualizuje dane o miejscu, w którym znajduje się użytkownik, a także lepiej poznaje jego nawyki. Nawet sposób użycia kamery w telefonie pozwala uzupełnić profil użytkownika, drgający i niestabilny obraz może świadczyć zarówno o zmęczeniu, zdenerwowaniu, jak i o chorobie neurologicznej.

Zatrzymanie obiektywu na dłużej na jakichkolwiek obiektach świadczy o osobistych, nawet nieświadomych intencjach i zainteresowaniach. Wszystkie te dane są później skrupulatnie analizowane przez specjalistyczne algorytmy. To tylko jeden ze sposobów, w jaki każdy z nas dostarcza istotnych danych ISI (inteligentnym systemom informatycznym). Takie działanie z jednej strony możemy traktować jako pewną ingerencję w naszą prywatność, ale z drugiej strony są to również działania na rzecz dobra wspólnego, pozwalają tworzyć dokładniejsze mapy cyfrowe, monitorować zmiany, jakie zachodzą np. w centrach dużych miast, sprawdzać stan zasobów przyrodniczych itd. Takie dokładne mapy mogą być niezwykle pomocne w sytuacjach kryzysowych, w czasie klęsk żywiołowych, ale pod warunkiem, że nasze dane zostaną wykorzystane w etyczny sposób, a społeczeństwo będzie miało kontrolę nad korporacjami zajmującymi się analizą dużych zbiorów danych zebranych i analizowanych w takich procesach.

Kapitał Big Data

Dane pozornie nieistotne i dotyczące bardzo szczegółowych sytuacji wydają się nieprzydatne do wykorzystania w poważnych opracowaniach i wydarzeniach. Nic bardziej mylnego, to właśnie z pozoru szczątkowe i nieistotne zbiory danych pozwalają tworzyć olbrzymie wolumeny, z których można wyciągać bardzo istotne wnioski. Specjaliści nazywają takie wolumeny Big Data. Dzisiaj możemy już stwierdzić, że były prezydent Stanów Zjednoczonych Barack Obama wygrał wybory prezydenckie w 2012 roku dzięki nowatorskiemu zastosowaniu analizy Big Data.

Podobno każdej nocy w siedzibie sztabu wyborczego specjalny zespół analityków i informatyków testował setki symulacji numerycznych odpowiadających różnym scenariuszom kampanii wyborczej. W sumie dokonano prawie 70 tysięcy zaawansowanych symulacji komputerowych z użyciem różnorodnych algorytmów bazujących głównie na zastosowaniu sztucznej inteligencji i metod uczenia maszynowego. Analitycy używali w tym celu tak różnorodnych danych, jak np. zmienna wartości sprzedaży różnych produktów w sklepach, informacji o ilości samochodów zaparkowanych przed ważnymi budynkami czy też danych dotyczących aktualnych warunków pogodowych w różnych miejscach.

Codziennie rano na biurko szefa sztabu wyborczego Jima Messimy trafiał tylko najbardziej prawdopodobny scenariusz z odpowiednimi wytycznymi i wskazówkami kolejnych decyzji. To właśnie Messima rok przed rozpoczęciem kampanii wyborczej praktycznie opuścił Biały Dom i zajął się jedynie dokładnym poszukiwaniem partnerów technologicznych, którzy są w stanie wesprzeć Demokratów. Odbył on liczne spotkania z kierownictwami firm, które dzisiaj określane są kryptonimem FAANG (Facebook, Amazon, Apple, Netflix, Google), z tą tylko różnicą, że w 2012 roku Netflix nie miał jeszcze dominującej pozycji na rynku dystrybucji filmów i dlatego „zastąpiła” go wtedy wytwórnia DreamWorks.

To potężne wsparcie dla Partii Demokratycznej, której nie był w stanie przeciwstawić się obóz Republikanów. Przestały się liczyć merytoryczne argumenty kandydatów, a rozpoczęła się epoka wirtualnej strefy wpływów, określana dzisiaj jako „prescriptive analytics”. Amerykański dziennikarz śledczy Sasha Issenberg podsumował tę metodę, stwierdzając, że hasło wyborcze Baracka Obamy „Yes, we can” powinno raczej brzmieć „Yes, we scan”.

Internetowi trolle

Rzeczywiście, dzięki wsparciu globalnych koncernów zespół analityków sztabu wyborczego Baracka Obamy „przeskanował” udostępnione im bazy danych, przekierowując odpowiednie wpisy na stronach Facebooka (32 miliony polubień) oraz kanały YouTube (240 tysięcy aktywnych subskrybentów), generując astronomiczną liczbę 246 milionów odsłon. Zastosowano również odpowiednie personalizowanie treści na serwerach Amazona.

Taka praca byłaby niemożliwa bez olbrzymiego wsparcia wolontariuszy, których dzisiaj nazywa się po prostu „internetowymi trollami”. W sztabie wyborczym pracowało ich prawie 700 tysięcy. Oczywiście pracowali oni zdalnie, wykonując skoordynowaną pracę przy odpowiednim wsparciu technologicznym zaprzyjaźnionych firm. Szacuje się, że sztab Demokratów zebrał 10 razy więcej danych niż zespół pracujący dla Republikanów, którzy nie mieli odpowiedniego wsparcia technologicznego. Podobną taktykę Demokraci zastosowali w wyborach prezydenckich w 2016 roku, ale tym razem natrafili na bardzo dobrze przygotowanego przeciwnika. Wsparcie technologiczne sztabowi Republikanów zapewnił Peter Thiel i jego firma analityczna Palantir. Firma ta została założona, opierając się na zupełnie innym paradygmacie biznesowym niż inne korporacje rynku cyfrowego. Nie stosowała totalnego tayloryzmu, który jest klasycznym fundamentem m.in. firmy Google, ale postanowiła wykorzystać uczenie maszynowe w analizie Big Data do walki z oszustwami i nieetycznymi działaniami w internecie.

Sam Theil po wprowadzeniu ograniczeń związanych z atakiem terrorystycznym z 11 września 2001 roku na World Trade Center zadał bardzo ważne pytanie: „czy będziemy mieli większe bezpieczeństwo przy mniejszej prywatności czy też mniejsze bezpieczeństwo przy zachowaniu dotychczasowej prywatności?”. Jako odpowiedź zaproponował agencjom rządowym nowy, oparty na algorytmach uczenia maszynowego sposób analizy Big Data, który będzie minimalnie ingerował w prywatność obywateli, ale jednocześnie pozwalał skutecznie wykrywać zagrożenia. Czy jego propozycja okazała się skuteczna?

Szczegółów zapewne się nie dowiemy, ale w wyniku współpracy z amerykańskim inwestorem zajmującym się strategiami bezpieczeństwa Stanów Zjednoczonych In-Q-Tel wartość spółki Palantir została wyceniona na 20 miliardów dolarów, a jej głównymi klientami są dzisiaj organy administracji publicznej w Stanach Zjednoczonych. Wartość Palantiru to oczywiście dużo mniej niż Google, ale niewątpliwie jest to kwota wystarczająca do planowania szerokich inwestycji na różnych polach technologii informatycznych. Poza tym rola firmy Palantir w kampanii Donalda Trumpa długo pozostawała praktycznie nieznana, a zaraz po wyborach głębokim echem w świecie odbiła się raczej afera Cambridge Analitics, która według niektórych analityków została specjalnie wyolbrzymiona, aby skutecznie przykryć rzeczywiste działania zespołów analizujących Big Data.

Możemy więc podsumować, że nieważne, jakie są rzeczywiste powiązania pomiędzy firmami dokonującymi odpowiednich analiz politycznych, bo dzisiaj zwycięstwo w dowolnych demokratycznych wyborach musi być wspierane przez jakąś formę technologii cyfrowej. I raczej wszystko wskazuje na to, że metody tradycyjnej statystyki liniowej odchodzą na tym polu do lamusa, a wypierają je metody analizy Big Data wykorzystujące algorytmy uczenia maszynowego.

Spersonalizowana presja na wyborcę

Wpływanie na wyborcę za pomocą informacji spersonalizowanej stało się już standardem. Zatem wykorzystanie inteligentnych systemów informatycznych dostarcza politykom informacji, które powinny stać się ich głównym celem w kampanii wyborczej. Marketing wyborczy przestaje działać, opierając się jedynie na subiektywnej intuicji i osobistym doświadczeniu, ale musi być on odpowiednio zaprojektowany pod konkretnego wyborcę, aby wpłynąć na jego zachowanie w momencie oddawania głosu do urny wyborczej.

Jednak samo zastosowanie metod spersonalizowanej analizy Big Data nie gwarantuje sukcesu. Przykładem są ostatnie wybory prezydenckie w Stanach Zjednoczonych. Przecież Hillary Clinton miała do dyspozycji sprawdzoną metodę analityczną i zapewnione wsparcie technologiczne gigantów internetowych, a jednak przegrała. Analitycy twierdzą, że za bardzo zaufała ona algorytmom i skupiła się wyłącznie na kampanii wirtualnej, zapominając o bezpośrednim kontakcie z wyborcami.

Donald Trump wykorzystał nowoczesne technologie, ale prowadził też bardzo liczne spotkania bezpośrednie. Według komentatorów, mówił w taki sposób, że docierało to w sposób emocjonalny do każdego Amerykanina. Otwarte pozostaje pytanie, czy również tutaj korzystał np. z wyników analizy behawioralnej stosowanej w metodach uczenia maszynowego. Obecnie najnowsze metody sztucznej inteligencji pozwalają również na takie analizy, dlatego coraz częściej w literaturze fachowej zamiast sformułowania „technologie sztucznej inteligencji” używa się nazwy „technologie kognitywne”. Jednak to zagadnienia daleko wykraczające poza temat niniejszego artykułu.

Metody uczenia maszynowego opracowane i wdrożone podczas kampanii prezydenckich znajdują obecnie komercyjne zastosowanie rynkowe. Klasyczny marketing wchłania coraz więcej rozwiązań opartych na algorytmach sztucznej inteligencji zarówno na polu aplikacji kognitywnych, jak i metod nadzorowanej analizy wieloczynnikowej. Obecne badania na rynku amerykańskim wskazują, że już 44 proc. konsumentów woli korzystać z telefonicznych i sieciowych centrów obsługi klienta, gdzie zamiast ludzi konwersują oni z algorytmami.

Człowiek interweniuje tylko w wyjątkowych sytuacjach, kiedy algorytm nie potrafi rozwiązać problemu klienta, ale również wtedy „przysłuchuje” się i uczy, jak w podobnej sytuacji postąpić następnym razem. Podobne metody są bardzo skuteczne w strategiach firm, które chcą zatrzymać starego klienta i wyprzedzić konkurencje, składając mu odpowiednio spersonalizowaną ofertę. To, co w marketingu nazywa się fachowo „poprawą lojalności i poziomu retencji klientów”, realizują już dzisiaj algorytmy, uczące się na bieżąco zachowań konsumenckich klienta.

Algorytmy w rekrutacji

Podobne metody stosowane są w procesach rekrutacji nowych pracowników. Kiedy o nowe miejsce pracy w korporacji stara się jednorazowo np. 100 osób, to odpowiedni algorytm dokonuje wstępnej selekcji podań i wyłania tylko kilku kandydatów. To zresztą główna przyczyna braku informacji po złożeniu aplikacji, po prostu osoby z działu zatrudnienia nie wiedzą nawet o wszystkich podaniach, a program nie ma zaimplementowanej opcji o wysyłaniu e-maila wszystkim odrzuconym na wstępnym etapie. Takich przykładów funkcjonujących dzisiaj algorytmów uczenia maszynowego na rynku pracy jest bardzo wiele.

Niewątpliwie rynek zastosowań inteligentnych systemów informatycznych wart jest obecnie miliardy dolarów. Dzisiaj specjalista uczenia maszynowego może przebierać w ofertach pracy nie tylko na rynku europejskim, ale również amerykańskim i azjatyckim. Praca zazwyczaj jest zdalna i nie wymaga częstego wychodzenia z domu i konsultacji osobistych w siedzibie firmy. Pracownik może mieszkać np. pod Krakowem i raz w miesiącu stawiać się na odprawę w londyńskiej siedzibie firmy, gdzie ważne i często poufne informacje są mu przekazane osobiście w bezpiecznym miejscu.

Jak zdobyć takie kwalifikacje? Różnorodność etapów kształcenia i konieczność interdyscyplinarnego podejścia wymaga odpowiedniej bazy dydaktycznej i specjalistycznej kadry. W Wyższej Szkole Kultury Społecznej i Medialnej znajdują się odpowiednie warunki, zarówno dotyczące studiowania profesjonalnych rozwiązań technologicznych, jak i zdobywania kwalifikacji w dziedzinach niezbędnych do prawidłowego tworzenia i stosowania inteligentnych systemów informatycznych. W tym roku po raz pierwszy uruchomiliśmy specjalizację inteligentne systemy informatyczne na kierunku informatyka. Żeby się o tym przekonać, wystarczy złożyć dokumenty rekrutacyjne na studia inżynierskie informatyki, do czego gorąco namawiam.

Dr Grzegorz Osiński/”Nasz Dziennik”

drukuj