Za każdym razem, gdy wyszukujesz w Google'u zdjęcia zebr, sztuczna inteligencja (SI) z milionów obrazków wybiera te, na których znajdują się zwierzęta w czarno-białe paski. Po krawędziach obiektów rozpoznaje, że na zdjęciu jest czworonogie zwierzę, a po rozpoznaniu kolorów ostatecznie stwierdza, że mamy do czynienia z zebrą, a nie koniem. 

SI może się uczyć, wyciągać wnioski z danych historycznych i np. przewidywać, kto jest wartościowym klientem dla firmy, wykrywać potencjalne usterki w samochodzie albo zagrożenia w korporacji. Jednak SI pozostaje dla nas czarną skrzynką - podejmowane przez nią decyzje często są niezrozumiałe nawet dla jej twórców. Nie wiadomo do końca, jak algorytmy przetwarzają informacje, skąd biorą konkretne rozwiązania i jak je nadzorować. A brak nadzoru może prowadzić do sytuacji, opisanych przez Cathy O’Neil w książce “Broń matematycznej zagłady” - systemy mogą nas dyskryminować i niesprawiedliwie oceniać nasze decyzje. Tak jak np. amerykański COMPAS, który miał wspierać sędziów w podejmowaniu decyzji i przewidywaniu, którzy przestępcy mają większe skłonności do recydywy. Po śledztwie portalu ProPublica okazało się, że program zawyżał ryzyko popełnienia kolejnych przestępstw dla czarnoskórych więźniów i zaniżał je w przypadkach białych recydywistów. Algorytmy są tworzone przez ludzi i tym samym - na podstawie historycznych danych - powielają ludzkie uprzedzenia. Także rasowe.

Piotr Szostak: Sztuczna inteligencja jest dziś stosowana w coraz bardziej nieoczywistych miejscach - wy wykorzystujecie ją w kopalniach.

Dr hab. Dominik Ślęzak*: Nasz zespół stworzył m.in. system monitorujący bezpieczeństwo w kopalniach na Śląsku. We współczesnej kopalni znajduje się nawet kilkanaście tysięcy czujników, które rejestrują dużą liczbę sygnałów, takich jak poziom metanu, dane sejsmiczne, wiatr itd. To potężne zbiory danych. To fizycznie niemożliwe, żeby człowiek to wszystko analizował na bieżąco. Opracowaliśmy algorytmy, które pozwalają przewidzieć, czy w kolejnych kilkunastu minutach stężenie metanu za bardzo nie wzrośnie. Dzięki temu możemy przewidywać, kiedy ewakuować kopalnię, a kiedy wystarczy tylko spowolnić pracę maszyn górniczych.

Przestępcy będą wykorzystywać sztuczną inteligencję w atakach?

- To już się dzieje. Oni zawsze są o jeden krok do przodu i opracowują nowe rodzaje ataków. Systemy cyberbezpieczeństwa opierają się na wzorach ataków znanych z przeszłości. Atakujący starają się zamaskować swoje działania, aby ślady, które pozostawiają, nie przypominały ataku. To nieustająca ewolucja i jednych, i drugich. Atakujący zwykle nie wie dokładnie, co się dzieje w systemie broniącym. Ale może go obserwować, sondować, wykonywać swoimi botami akcje rozpoznawcze. Badać, jak broniący system reaguje, i w ten sposób nauczyć się, jak go oszukać. Takie działania to przykład tzw. adversarial machine learning - jedno z nowych gorących zagadnień w branży sztucznej inteligencji.

Dr hab. Dominik ŚlęzakDr hab. Dominik Ślęzak fot. Agnieszka Sochal

Pracujecie nad sztuczną inteligencją w grach. Jak ona ma działać?

- Pierwszy projekt to system eSensei, który analizuje, jak dana osoba gra, i równocześnie uczy się, od czego zależy zwycięstwo w danej grze. Następnie wspomaga rozwój umiejętności gracza, mówiąc np.: "Drogi graczu, w ostatnich 20 rozgrywkach w tym miejscu popełniasz ten sam błąd".

Drugi projekt to oprogramowanie Grail, w którym wykorzystujemy sztuczną inteligencję klasycznie, czyli jako przeciwnika w grze. Chcemy, żeby grał bardziej inteligentnie, realistycznie i dawał graczom więcej satysfakcji.

Żeby komputer nie grał według prostego schematu?

- Chodzi o to, żeby ten bot był inteligentny, ale też o to, żeby nie był zbyt silny. Powstały fantastyczne programy komputerowe, które pokonały mistrzów gry w szachy czy w Go. Tylko co z tego? Gra ma ludziom sprawiać przyjemność. Cała sztuka polega na tym, żeby grać z kimś na swoim poziomie, kto od czasu do czasu popełni błąd - będzie bardziej ludzki. Nasze rozwiązanie to zestaw narzędzi dla twórców gier. Chcemy, aby stał się dla nich takim samym standardowym narzędziem jak Photoshop dla osób zajmujących się grafiką. 

Tak jak w słynnym pojedynku w Go z 2016 r., kiedy sztuczna inteligencja Google'a zastosowała niestandardową taktykę i wygrała? Przegrany Fan Hui tłumaczył później, że nie widział wcześniej, żeby ktokolwiek tak grał.

- W takim wypadku nie można mówić o przyjemności z rozgrywki. Ciekawe, że najlepszą sztuczną inteligencję w grach tworzą firmy, które w swoim modelu biznesowym nie mają zarabiania na grach. Przykładem może być DeepMind wykupiony przez Google'a, który rozpracował "StarCrafta". A to jedna z trudniejszych gier dla rozgryzienia przez sztuczną inteligencję.

W grach, w których gracz ściera się z botem i widzi, że jego przeciwnik gra zbyt dobrze, może się też pojawić podejrzenie, że komputer oszukuje. Dlatego wkrótce rozpoczynamy prace nad nowym zestawem metod, które będą nie tylko napędzały sztuczną inteligencję, ale będą też w stanie odtworzyć daną grę i wyjaśnić graczowi rozumowanie bota, żeby udowodnić, że nie oszukiwał - że miał prawo podjąć określone decyzje, bazując na ograniczonych informacjach. Na tej podstawie też gracz będzie mógł doskonalić swoje umiejętności. 

Ale nie tylko gracze nie rozumieją dziś sztucznej inteligencji - często podejmowane przez nią decyzje są niezrozumiałe nawet dla jej twórców. Nie wiadomo do końca, jak algorytmy przetwarzają informacje, skąd biorą konkretne rozwiązania, jak je nadzorować. Dlaczego potrzebujemy zajrzeć do środka tej czarnej skrzynki?

- Algorytmy są dzisiaj bardzo efektywne, potrafią analizować, przewidywać i rozpoznawać mnóstwo rzeczy. Tylko że w dziedzinach takich jak np. medycyna czy bezpieczeństwo podejmowanie decyzji wiąże się z ogromnym ryzykiem - skutki zdrowotne czy strategiczne mogą być katastrofalne. W momencie gdy ostateczna decyzja zależy od człowieka, poleganie na sugestiach algorytmu bez zrozumienia, jak sztuczna inteligencja doszła do danego rozwiązania, jest co najmniej ryzykowne. Człowiek takiej rekomendacji nie zaufa. Nie wytłumaczy się przecież szefowi: “Bo sztuczna inteligencja tak mi podpowiedziała”.

Ani sądowi.

- Ani ubezpieczycielowi czy klientowi banku. Żeby podjąć w pełni odpowiedzialną decyzję, powinniśmy wiedzieć, na jakiej bazie danych wytrenowano algorytmy albo czego się one uczyły. Zrozumienie ich działania jest niezbędne dla zbudowania zaufania. A zaufanie jest niezbędne, aby ludzie akceptowali automatyzację w kolejnych sferach życia.

Nasza zdolność do rozumienia decyzji systemów jest również kluczowa ze względu na ochronę praw i wolności obywatelskich. Gdy operatorzy systemu i obywatele wiedzą, jak działa algorytm, zmniejsza się szansa, że będzie on odtwarzał stereotypy, uprzedzenia i błędy poznawcze.

Mamy dzisiaj np. bardzo dobre metody rozpoznawania obrazu za pomocą sieci neuronowych. Żeby nauczyć taką sieć rozpoznawać jakiś obiekt na zdjęciach, np. psa czy kota, trzeba jej podać dużo obrazów kotów czy psów. Pytanie, czy sieć nauczy się na zdjęciach naprawdę tego, czego powinna. Był przypadek, kiedy taka sztuczna inteligencja nauczyła się rozpoznawać na zdjęciach rasy psów. Tylko pośród nich były zdjęcia wilków, które zawsze były wykonywane na tle śniegu. Sztuczna inteligencja nauczyła się, że jeśli jest śnieg, to na zdjęciu na pewno jest wilk, nie trzeba wnikać głębiej. Pozornie działała dobrze, ale tylko z danymi, które miała na początku w procesie uczenia.

Ale rozpoznawanie obrazu staje się coraz bardziej popularne. Także ze wspomnianych zdjęć satelitarnych. 

- Choćby w transporcie morskim - na podstawie trajektorii ruchu statków można nauczyć system, czy załoga popełnia jakieś wykroczenia. Wyobraźmy sobie, że na Oceanie Atlantyckim statek ma koncesję na połów konkretnego gatunku ryb, ale łowi inne ryby, których w danym okresie nie wolno łowić albo które są pod ochroną - a ich połów jest dużo bardziej opłacalny. Na podstawie sekwencji zdjęć można określić trajektorię ruchu statku, ona wskazuje metodę połowu, a to z kolei pokazuje, jakie ryby łowi.

Z drugiej strony zdarzają się problemy z jakością danych dostarczanych przez ludzi, np. z etykietowaniem. Wyobraźmy sobie firmę, która na podstawie zdjęć satelitarnych chce rozpoznawać choroby zboża. Po pierwsze, musi ona zebrać dużo pól, na których rośnie zboże. Następnie trzeba je poetykietować, czyli opisać: tu widać tę chorobę, a tu jej nie widać. Jeśli chcielibyśmy rozpoznać, np. gdzie na zdjęciach widać las, a gdzie rzekę, to można to zlecić każdemu. Ale choroby zbóż może rozpoznać tylko wąska grupa ekspertów - i jest duże ryzyko, że się pomylą. I tego później nauczy się sieć neuronowa.

Jakie metody mogą zapewnić transparentność sztucznej inteligencji?

- Są dwie możliwości. Można już na etapie tworzenia sztucznej inteligencji korzystać z metod, które raportują stany pośrednie i umożliwiają odtwarzanie przesłanek do podejmowanych decyzji. Ale można też pracować nad metodami, które badają, co się w takiej czarnej skrzynce dzieje. W takiej sytuacji algorytmy działają dwutorowo - algorytmy pierwszego poziom rozpoznają, czy na zdjęciu jest czołg, czy nie, a algorytmy drugiego poziomu uczą się procesu podejmowania decyzji tych pierwszych i tłumaczą człowiekowi, że to działa tak i tak.

A gdzie są granice sztucznej inteligencji? Przed pojedynkiem w Go sztuczna inteligencja przeprowadziła tysiące partii i nauczyła się, jak najlepiej zwyciężać. Czy nie wystarczy zmienić jednej reguły w Go, żeby ten program nie był już w stanie się do tego dostosować? 

- To pytanie, jak ją zdefiniujemy. Co to znaczy, że algorytm jest inteligentny? Jeżeli ma ręcznie ustanowione reguły działania, to nie jest sztuczna inteligencja, choćby nie wiem, jak mądrze wyglądała. Algorytm musi być w stanie zareagować na zmianę w otoczeniu, właśnie gdy trochę zmienimy reguły gry - ten system musi nadążać i adaptować się. Można powiedzieć, że system ma pewną autonomiczną inteligencję, kiedy nie potrzebuje za każdym razem pomocy człowieka. To droga do eksploracji Marsa czy głębin oceanów, gdzie człowiek nie będzie mógł szybko zareagować w trudnej sytuacji.

Pojedynek Garriego Kasparowa z komputerem Deep Blue był w 1997 r. niemniej słynny niż niedawny pojedynek Lee Sedola z AlphaGo. DeepBlue działał na podstawie wiedzy eksperckiej w postaci wielu heurystyk i brutalnej siły obliczeń. Potrafił grać wyłącznie w szachy. AlphaGo jest inne. Opiera się na dwóch filarach – uniwersalnym algorytmie przeszukiwania oraz uczeniu. AlphaGo, a szczególnie jego następca AlphaZero, potrafi się uczyć bez wiedzy ekspertów, grając sam ze sobą. Jest to zupełnie nowa jakość w podejściu do tworzenia sztucznej inteligencji.

W sztucznej inteligencji dominują dzisiaj ci, którzy mają więcej danych i mocy obliczeniowej - czy polska firma może tu konkurować z gigantami? Czy polski start-up może rywalizować z Google’em?

- Może, jeśli ma pomysły i widzi zapotrzebowanie na rynku. Przykładowo: Google promuje ostatnio platformę pozwalającą na interaktywne etykietowanie danych, ale jest to rozwiązanie wymagające od klienta dostosowania swoich rozwiązań do Google'a. Co więcej, nie nadaje się dla przypadków, gdzie potrzeba wąskiej, specjalistycznej wiedzy do etykietowania danych. My natomiast rozwijamy oprogramowanie wspomagające etykietowanie przez wysokiej klasy specjalistów, które dodatkowo można łatwo wszczepić w systemy już istniejące u naszych klientów.

A na specjalistów od sztucznej inteligencji jest zapotrzebowanie. Czy to jest nie jest problem biznesowy, że ludzie wam zawsze mogą odejść do większego gracza?

- To jest poważny problem. Jakiś czas temu Uber podpisał umowę z Carnegie Mellon - jednym z najlepszych amerykańskich uniwersytetów. Współpraca była tak owocna, że pewnego dnia prawie wszyscy badacze instytutu robotyki (NREC) złożyli wymówienie i przeszli do tej firmy. W konsekwencji robotyka na CMU omal nie została zamknięta. Skoro tak szacowny uniwersytet w USA nie był w stanie sobie z tym poradzić, to tym bardziej żadna polska uczelnia ani firma się przed tym nie obronią. Często zwracamy na to uwagę naszym klientom - dużym firmom, które mają potencjał, aby tworzyć własne działy sztucznej inteligencji czy data science - co jeśli ci ludzie odejdą?

Mamy już za sobą zimę w sztucznej inteligencji czy kolejną falę nieproporcjonalnych oczekiwań?

- Kiedy ponad pół wieku temu ukuto termin “sztuczna inteligencja”, ludzie spodziewali się, że w ciągu 10-20 lat po ulicach zaczną chodzić roboty - świadome istoty, które będą potrafiły zrobić wszystko. Oczekiwania te zostały zrewidowane. Okazało się, że z przemysłowego punktu widzenia bardziej niż nad szeroko rozumianą sztuczną inteligencją trzeba pracować nad zastosowaniami, które przynoszą mierzalne efekty. Zaczęto rozwijać analizę danych, systemy sterowania, programy, które w sposób automatyczny mogą kierować ruchem ulicznym, pociągami metra czy wyręczać ludzi w fabrykach. Fascynujące jest, że dzisiaj oczekiwania wobec sztucznej inteligencji mogą znowu zostać zrewidowane, np. przez autonomiczne samochody. Ludzie niczego się nie nauczyli. 

To, nad czym możemy teraz pracować, to systemy doradcze i eksperckie, które nie będą masowo zastępować ludzi, lecz raczej ich wspierać. Jasne, mamy duży skok technologiczny w ostatnich latach, algorytmy wykrywają więcej, są coraz bardziej skuteczne, ale ostateczna decyzja na końcu nadal należy do człowieka. W newralgicznych zastosowaniach czy najbardziej problematycznych przypadkach sztuczna inteligencja jeszcze długo będzie w stanie tylko wspierać ludzi. I może tak powinno zostać?

*Dr hab. Dominik Ślęzak – informatyk, profesor nadzwyczajny Instytutu Informatyki Wydziału Matematyki, Informatyki i Mechaniki Uniwersytetu Warszawskiego. Specjalizuje się w sztucznej inteligencji i bazach danych. Dyrektor zarządzający firmy QED Software, którą współzakładał w 1999 roku. Współautor ponad 200 artykułów naukowych i sześciu patentów. Pełni również funkcję głównego naukowca w firmie Security On-Demand oraz eksperta w kilku projektach finansowanych przez UE w obszarach takich jak analityka gier online i spersonalizowane systemy doradcze