Kamil Kulesza – po powrocie z Uniwersytetu Cambridge założył Centrum Zastosowań Matematyki i Inżynierii Systemów działające w ramach Polskiej Akademii Nauk. Łączy naukę z biznesem, na działalność badawczą zarabia, rozwiązując problemy firm i instytucji przy użyciu matematycznego sposobu myślenia.

Orwell czy Huxley?

Stwierdzenie, że wraz z rozwojem technologii coraz łatwiej zbierać szczegółowe i zindywidualizowane dane o praktycznie każdym z nas, staje się już truizmem. Podobnie jak odkrycie, że w efekcie coś takiego jak prywatność już nie istnieje. Natomiast wciąż różnimy się w opisie tej nowej rzeczywistości.

Jedni odwołują się choćby do „Raportu mniejszości” Philipa K. Dicka, u którego techniki analizy danych połączone z możliwościami predykcyjnymi – czyli wyrafinowanego prognozowania – skutkują systemem, w którym przestępstwa są karane prewencyjnie, jeszcze przed ich popełnieniem.

Kamil KuleszaKamil Kulesza Adam Jagielak / East News

Inni z kolei pytają, która z dwóch utopijnych wizji przyszłości – ta z „Roku 1984” czy ta z „Nowego wspaniałego świata” – lepiej opisuje zjawisko. George Orwell obawiał się zniewolenia narzuconego przez zewnętrzną siłę oraz zakłamania wszelkich dostępnych informacji, Aldous Huxley przedstawiał wizję powodzi zbanalizowanej informacji i zatracenia się społeczeństwa w pustej rozrywce. Różnice między obydwoma podejściami dobrze podsumował w „Zabawić się na śmierć” Neil Postman: „Orwell obawiał się, że zniszczy nas to, czego nienawidzimy, Huxley zaś – że to, co uwielbiamy”.

Kolejna odsłona debaty, do którego scenariusza zmierzamy, miała miejsce po zwycięstwie Trumpa i po tym, jak w ostatnich latach fake newsy pokazały swoją siłę rażenia w świecie cyfrowym.

Dyktatura big data

Coraz głośniej mówi się też o dyktaturze big data.

Bezsprzecznie Chiny są jednym z głównych graczy na rynku nowych technologii, a obecna ekipa pod wodzą Xi Jinpinga ma oryginalne i dalekosiężne plany, jak tę pozycję wykorzystać i umocnić.

W dotychczasowej „fabryce świata” motorem gospodarki w coraz większym stopniu ma być konsumpcja rosnącej i bogacącej się klasy średniej. Jej istnienie to skutek przemian społeczno-gospodarczych zainicjowanych przez Deng Xiaopinga, który ponad 30 lat temu przestawił zwrotnicę maoizmu na kapitalistyczny model gospodarczy, zachowując pełnię władzy partii oraz pozory socjalistycznego społeczeństwa.

W rezultacie dziś chiński PKB ustępuje tylko amerykańskiemu. I choć wielu prognozowało, że monopol partii komunistycznej jest jedynie etapem przejściowym do pełnej demokracji, ten scenariusz niekoniecznie musi się ziścić. Surowy, autorytarny Xi Jinping skutecznie łączy rozwój gospodarki high-tech ze wzmocnieniem kontroli nad nią partyjno-państwowych struktur – i może się okazać, że Chińczycy poradzą sobie z nieefektywnością nadzorowanej produkcji i transportu oraz innymi niedoskonałościami socjalistycznego planowania. Być może wykorzystanie big data do wspomagania procesów analitycznych i decyzyjnych sprawi, że gospodarka planowa zacznie być efektywna. Wielu ekspertów uważa, że wystarczy tylko na skalę całego kraju robić to, z czym już całkiem dobrze radzą sobie duże korporacje.

Zliczone będą czyny i rozmowy

Pekin coraz mocniej kontroluje obywateli, zbierając o nich coraz więcej danych, a istotnym elementem jest tu ścisła współpraca z państwem dużych firm technologicznych. Również problemy z licznymi opornymi mniejszościami w rodzaju Tybetańczyków czy Ujgurów partia rozwiązuje, rozwijając na niespotykaną skalę technologie związane z inwigilacją jednostek i całych grup społecznych – znów z pomocą prywatnych firm.

Granice pomiędzy zbieraniem i analizowaniem danych do celów komercyjnych oraz na użytek państwa są coraz bardziej nieostre. Dobrym przykładem jest – znów chiński – eksperyment polegający na stworzeniu tzw. scoringu obywatelskiego (social credit system). Z jednej strony ma on służyć licznym celom biznesowym, choćby ocenie wiarygodności kredytowej (zresztą sam termin „scoring”, weryfikacja wiarygodności, pochodzi z bankowości), podobnie jak różne systemy scoringowe w gospodarce rynkowej. Z drugiej strony ma zapewniać kompleksową ocenę obywatela na potrzeby państwa, stając się podstawą do podejmowania różnych decyzji, na przykład dotyczących wydania paszportu czy udzielenia prawa przebywania w określonych miejscach.

Nie dziwota, że niektórzy mówią o „cyfrowym leninizmie”. I to takim, który tym razem może zadziałać. A że kosztem praw jednostki? Cóż, w wielu krajach te wolności, choć ważne w kulturze zachodniej, nie są aż tak istotne.

Towar masowy, ale wyjątkowy

Big data i automatyzacja mają też drugie, mniej ponure oblicze (które rzecz jasna też odziera z prywatności, ale nie w paskudnych intencjach) – dzięki nim można na masową skalę indywidualnie dopasowywać usługi i produkty do potrzeb oraz wymagań klientów. Dobrym przykładem jest przemysł odzieżowy – kiedyś uszycie T-shirtu z wybranym własnym wzorem albo zamówienie konkretnej, wyjątkowej kombinacji tapicerki i koloru karoserii w samochodzie było dużo droższe niż skorzystanie z gotowej konfekcji czy fabrycznego wariantu. Wymagało specjalnego zamówienia i dłuższego oczekiwania.

Kolejnym krokiem jest pełne dostosowanie produktów i usług do klienta, często automatycznie – tylko na podstawie już posiadanych danych. Tak robi Google, indywidualizując wyniki wyszukiwań, albo Facebook, podsuwając treści stron i reklam. To efekt analizy wcześniejszych zachowań konkretnej osoby.

Dzięki łatwości zbierania i przetwarzania informacji możemy bez trudu współdzielić zasoby – przykładem miejskie sieci rowerów czy samochodów na godziny, które nie mogłyby istnieć choćby bez geolokalizacji.

Coraz częstsze jest też podejście „jak używasz, tak płacisz”, czyli dostosowywanie ceny usług i produktów do sposobu oraz zakresu ich używania. Przykładem – spersonalizowane ubezpieczenia komunikacyjne.

Do niedawna cenę polisy określano na podstawie niewielkiej ilości informacji podawanych przez klienta w chwili zawarcia umowy. Wynikało to z ograniczonych możliwości zbierania i analizowania dużych ilości danych. Pomagała statystyka matematyczna, dzięki której narodził się aktuariat – obliczając składkę, brano pod uwagę oprócz deklaracji klienta dane statystyczne zebrane w długich okresach i dotyczących dużych grup ubezpieczonych.

Dziś firmy personalizują polisy, wykorzystując dane dotyczące np. stylu jazdy. Jeśli kierowca się zgodzi, za pomocą specjalnych urządzeń albo zwykłego smartfona śledzą, czy przestrzega ograniczeń prędkości, liczą częstotliwość gwałtownych przyspieszeń i hamowań, sprawdzają, jaki odstęp od innych aut utrzymuje prowadzący. To pozwala nieźle wnioskować, czy kierowca przestrzega reguł, jak często bierze udział w niebezpiecznych sytuacjach, po jakich drogach się porusza, w jakich godzinach najczęściej prowadzi. Te tzw. dane behawioralne pozwalają precyzyjniej skalkulować stawkę i premiować niższą ceną tych, którzy jeżdżą bezpiecznie.

Jednym ze światowych liderów w tej dziedzinie są USA, a w Europie – Wielka Brytania i Włochy. Takie ubezpieczenia zaczynają się też pojawiać na polskim rynku.

Wielki finał Jutronautów 2017. Poznaj architektów naszej przyszłości

Szklany sufit profilowania

Jest i druga strona medalu. Od pewnego czasu coraz głośniej mówi się o problemie tzw. baniek społecznych: indywidualizacja treści dostarczanych przez Google’a czy Facebooka jest użyteczna w poszukiwaniu ciekawej powieści kryminalnej, wyborze butów, wakacji czy telewizora, ale może być niebezpieczna w wymiarze społecznym, a nawet politycznym – dobór podsuwanych treści na podstawie naszych wcześniejszych wyszukiwań i kliknięć sprawia, że różni ludzie mają zupełnie inny obraz świata.

Problemy mogą wystąpić praktycznie zawsze, gdy personalizacja usługi lub produktu dokonuje się na podstawie dodatkowych, nieuwzględnianych dotychczas danych. Zwłaszcza kiedy są zbierane i przetwarzane automatycznie, do końcowego wnioskowania włącznie.

Wiele przykładów można znaleźć w (właśnie wydanej w Polsce) książce matematyczki Cathy O’Neil pt. „Broń matematycznej zagłady”. Amerykanka nie bez powodu dedykuje ją „wszystkim przegranym”. Pokazuje bowiem, jak wskutek złego projektowania algorytmów i niewłaściwego wykorzystania modeli matematycznych dochodzi do dyskryminacji i utrwalania negatywnych tendencji społecznych.

Modele te działają z wykorzystaniem danych historycznych. Już to może skutkować błędami poznawczymi. Gdyby je zastosować do Tomasza Mackiewicza w czasach, kiedy leczył się z ciężkiego uzależnienia od heroiny, trudno byłoby przewidzieć jego karierę himalaisty. W końcu jak dużemu odsetkowi podopiecznych Monaru zdarzyło się potem zdobywać ośmiotysięczniki?

Stosowane są też często niesprawdzone założenia dotyczące zjawisk społecznych – a przyjmuje się je na podstawie korelacji w danych, a nie rezultatów badania przyczyn i skutków. Ponieważ zaś całość wnioskowania przebiega automatycznie, nie ma sensownej możliwości korekty wyników.

Co gorsza, ponieważ dane i wyniki obliczeń mogą być sprzedawane, powstałe błędy wchodzą do kolejnych modeli wykorzystywanych do innych celów. Powstaje coś, co Cathy O’Neil nazywa śmiertelną spiralą modelowania opartą na wzajemnie wzmacniających się mechanizmach.

W dodatku bardzo trudno jest kwestionować wyniki takich obliczeń, jako że firmy nie upubliczniają algorytmów. A nawet gdyby to robiły, większość ludzi nie ma zasobów – czyli czasu i kompetencji – do ich analizy. W ostateczności obrońcy algorytmów wyciągają argument, że „matematyka jest obiektywna i dlatego ten scoring jest fair”. Tak dochodzi do pogłębienia podziałów społecznych, spada społeczna mobilność, a modele matematyczne działają jak samospełniająca się przepowiednia.

W efekcie przestajemy mieć do czynienia z demokracją i równością szans, a zaczynamy żyć w czymś, co przypomina system kastowy lub klasowy. I to coraz bardziej zbliżony do „cyfrowego leninizmu”.

Jednocześnie mówi się o innych aspektach wykorzystywania danych behawioralnych – na przykład do takiej organizacji pracy ludzi, aby rosła ich satysfakcja i spadała frustracja. Tradycyjnie rozumiana praca zostaje zastąpiona przez grę motywacyjną, w ramach której realizowane są zadania. Pierwsze systemy wspierania produktywności oparte na big data i sztucznej inteligencji są już na rynku, również w Polsce, i cieszą się popularnością.

Polak przewidzi nieprzewidywalne

Ameryka jest jednym z najbardziej zaawansowanych rynków, jeśli chodzi o masowe wykorzystanie danych, ale problemy opisywane przez Cathy O’Neil wystąpią i u nas, w Polsce, i w Europie – zwłaszcza że przynajmniej część z nich ma charakter uniwersalny.

Unia Europejska, która coraz uważniej przygląda się nowym technologiom i ich wpływowi nie tylko na rynek, sytuację konsumentów, wolną konkurencje, ale również na politykę czy funkcjonowanie społeczeństw, jest świadoma tych wyzwań. Jednym ze sposobów na poradzenie sobie z nimi jest uchwalone przez Parlament Europejski rozporządzenie ogólne o ochronie danych osobowych, które wchodzi w życie już w maju. RODO nakazuje firmom – wielkim korporacjom, ale też małym rodzinnym przedsiębiorstwom, włącznie np. z warsztatami czy zakładami fryzjerskimi, o ile tylko cyfrowo zbierają dane klientów, również proste, w rodzaju numerów telefonów czy adresów mailowych – skutecznie zabezpieczyć zgromadzoną wiedzę przed wyciekiem, ułatwić obywatelom (najogólniej mówiąc, na zasadzie mechanizmów ochrony prywatności w Google’u) kontrolę nad tym, co i jak jest gromadzone, i umożliwić im „zapominanie” informacji. Krytycy podnoszą, że rozporządzenie jest niejasne, bo nie precyzuje zakresu obowiązków, ale to celowy zamysł – chodzi o to, by nie narzucać jednego kosztownego modelu wszystkim, wielkim i małym firmom, by kraje mogły wprowadzać szczegółowe reguły w zależności od specyfiki swoich rynków, a odgórne, drobiazgowe regulacje nie okazywały się martwe po kilku latach postępu technologicznego.

Polska też nie zasypia gruszek w popiele. Projekt wpisujący się w założenia rozporządzenia realizują wspólnie Generalny Inspektor Ochrony Danych Osobowych i Centrum Zastosowań Matematyki przy Instytucie Matematycznym PAN. Wspólnie przyglądają się m.in. spersonalizowanym ubezpieczeniom komunikacyjnym. Takie oferty są coraz popularniejsze wśród kierowców, a jednocześnie media często straszą, że np. „10 tys. osób daje się śledzić w zamian za tańsze OC”. Matematycy zbadają, czy aby na pewno prawdziwe jest przekonanie, że to nic innego jak uzyskiwanie zniżek kosztem własnej prywatności.

Ale cel projektu – którego pierwsze wyniki ujrzą światło dzienne już za kilka miesięcy – jest bardziej dalekosiężny niż zapewnienie zgodności aktualnie dostępnych usług z RODO.

To znalezienie odpowiedzi na pytanie, jak w ogóle konstruować nowe produkty i usługi wykorzystujące big data tak, by wszyscy byli zadowoleni – i przedsiębiorca, producent, usługodawca, i konsument. Owo nowe, coraz popularniejsze na świecie podejście do zarządzania i projektowania biznesu nazywa się „privacy by design”. Chodzi o to, by zagadnienia ochrony prywatności od samego początku do końca uwzględniane były w procesie budowy systemu.

Dlatego do projektu włącza się również świat biznesu, od firm ubezpieczeniowych po przedsiębiorstwa zajmujące się bezpieczeństwem i analizą danych. Są wśród nich interesujące start-upy z dynamicznej branży fintech – nowych technologii finansowych. Ich doświadczenia, pomysły i praktyczna wiedza rynkowa w połączeniu z umiejętnościami prognostycznymi i doświadczeniem w budowie oraz weryfikacji teoretycznych modeli, którymi dysponują matematycy, pozwolą nie tylko analizować najróżniejsze możliwe scenariusze rozwoju istniejących czy już sygnalizowanych produktów, ale też choć w części przewidzieć kierunki, w których rozwiną się usługi finansowe. Na dwóch poziomach – czysto praktycznym, przekładalnym później na nowe rozwiązania, i naukowym, opisującym teoretyczne konsekwencje czy możliwości.

W tym miejscu uważny czytelnik może się zdziwić: jak to, szeroka, wręcz fundamentalna debata o Orwellu kontra Huxleyu, „cyfrowym leninizmie” i starciu personalizacji z prywatnością kończy się czymś tak wąskim i trywialnym jak ubezpieczenia komunikacyjne?

Ktoś mógłby też mieć pretensje, że nie znalazł niczego o zagrożeniach wynikających z rozwoju sztucznej inteligencji. A przecież nieważne, czy górę weźmie Orwell, Huxley czy cyfrowy Lenin, bo każdy z nich będzie jeszcze groźniejszy, jeśli wesprze go lub nim pokieruje AI. To zaś oznacza, że rozwijając technologie analizy danych, sami zakładamy sobie sznur na szyję – AI wcześniej czy później powstanie, a dysponując tak ogromną bazą informacji o każdym z nas, może zrobić z ludzkością, cokolwiek uzna za optymalne. Niekoniecznie dla ludzkości.

Autor mógłby w tym miejscu wykręcić się wygodnym: „To temat na zupełnie inny, dwakroć obszerniejszy artykuł”. I nie skłamałby. Ale są też inne powody.

Na tych stronach nie chodzi tylko o bicie na alarm, co czyni wielu specjalistów i dziennikarzy od wielu lat. Teraz wypada pokazać, co konkretnego instytucje i my, naukowcy, robimy, żeby im zapobiec. Roztrząsanie niebezpieczeństw byłoby bezprzedmiotowe, skoro w tym momencie praktycznie żadne formalne ciało czy rząd nie jest w stanie choćby zarysować ram prawnych ani bezpieczników dla np. sztucznej inteligencji, bo nie wie, podobnie jak twórcy z laboratoriów technokorporacji, jaką ostatecznie przybierze formę.

Natomiast możemy – jako państwa, organizacje ponadnarodowe, instytucje badawcze – przygotować się na niebezpieczeństwa namacalne, konkretne i bardziej od naszej woli zależne. Bardziej sterowalne.

A tak wąskie kwestie jak profilowanie ryzyka w OC, jeśli matematycy dołożą do nich swoją cegiełkę, pomogą Wspólnocie rozważyć różne scenariusze i wypracować zabezpieczenia takie właśnie jak RODO, mogą nie tylko uchronić nas przed mimowolną utratą prywatności albo złą wolą korporacji czy poszczególnych rządów. Dobre wdrożenie takich regulacji może – uwaga, uwaga – dać Europie istotną długofalową przewagę nad USA czy Chinami.