Ten artykuł czytasz w ramach bezpłatnego limitu

Rozmowa z dr. Filipem Piękniewskim, specjalistą ds. sztucznej inteligencji, który od dekady pracuje w różnych firmach w San Diego w Kalifornii

Maciej Czarnecki: Zabawnie układa się życie. Ostatnio widzieliśmy się 30 lat temu w szkole podstawowej, siedziałeś w ławce przede mną. Nie mieliśmy telefonów komórkowych, internetu, w telewizji były tylko dwa kanały...

– (śmiech) To prawda, dużo rzeczy się zmieniło. Ale i dużo nie.

W kolejnych 30 latach świat jeszcze bardziej przyspieszy?

– Zwykle ludzie tak myślą. Może pod pewnymi względami tak będzie...

Sztuczna inteligencja!

– Wśród praktyków opowiada się żart, że ona jest zawsze 10 lat od nas. To taki uciekający pociąg. Odkąd w latach 50. pojawiły się komputery i okazało się, że mogą robić różne rzeczy, które potrafią ludzie, np. wykonywać obliczenia, towarzyszy nam ta idea: „a może dałoby się zrobić tak, żeby myślały jak my?”. Pod koniec lat 50. John McCarthy (profesor na uniwersytecie Stanforda) wprowadził termin „sztuczna inteligencja” i zaprezentował go na konferencji w Dartmouth. Od początku wzbudziło to kontrowersje, bo ludzie nie wiedzieli, co to znaczy. Sam McCarthy przyznał, że tak nazwał tę dziedzinę, bo brzmi zachęcająco i pozwoli łatwiej zdobyć pieniądze na badania.

Jutronauci
CZYTAJ WIĘCEJ

To prawda?

– Owszem. Tyle że od tego czasu było kilka fal badań w tej dziedzinie, które zazwyczaj kończyły się rozczarowaniem. Może problem tkwi w samej nazwie. Bo nie wiemy nawet, czym jest inteligencja. Nie potrafimy jej dobrze mierzyć u ludzi. A u maszyn?

Definicja Turinga zakłada taki test: stawiamy przed maszyną kilka osób, które prowadzą z nią przez dłuższy czas konwersację przez terminal i oceniają, czy rozmówca jest człowiekiem, czy maszyną. Jeśli maszyna da radę przekonać sędziów, że jest człowiekiem, znaczy, że jest inteligentna.

Ale ta definicja jest niedobra z wielu powodów, przede wszystkim dlatego, że stawia ludzi w roli jurorów, a jak się okazuje, strasznie łatwo nas oszukać. Poza tym zwierzęta na tej planecie, które uznajemy za inteligentne, od razu obleją ten test, bo nie potrafią się komunikować za pomocą języka. Są inne formy inteligencji niż werbalna, być może nawet zdecydowana większość inteligencji, także naszej, jest niewerbalna.

Ludzie mają tendencję do projekcji. Jak stawia się przed nimi maszynę, która coś potrafi – szczególnie coś, co wydaje im się intelektualnie trudne – zakładają od razu, że potrafi też zdecydowanie więcej rzeczy, szczególnie tych, które uznajemy za trywialne. To trochę tak jak z dziećmi: daje im się chodzącego pieska zabawkę i ulegają złudzeniu, że to żywa istota. Wystarczy robotowi dorobić oczy, brwi – i już odpowiadamy emocjonalnie.

Ewolucyjnie ma to sens, założenie, że inni widzą i rozumieją świat tak samo jak my, pomagało nam wiązać się w grupy i odgadywać intencje innych.

Ale w robotyce sprawia, że wierzymy w coś, co nie jest prawdą. A potem jesteśmy rozczarowani, kiedy okazuje się, że maszyny są dużo głupsze, niż się wydawało.

Ludzie, którzy sparzyli się na inwestycjach w sztuczną inteligencję, przez następne kilka lat nie chcą o niczym podobnym słyszeć. Nazywamy to tutaj „AI winter”, czyli „zimą sztucznej inteligencji”. Potem następuje kolejny mały przełom, który znowu rozpala nadzieje, przychodzi następne pokolenie inwestorów, którzy znowu ulegają iluzji, i cykl się powtarza.

Czyli jednak idziemy do przodu. Przecież już mamy namiastki AI w różnych dziedzinach. Myślisz, że za 30 lat doczekamy się robotów ze świadomością, uczuciami, własnymi celami?

– Ale co to znaczy? Że zbudujemy maszynę, która będzie w stanie nas oszukać, że podejmuje decyzje? Że jest świadoma? Na pewno. To się dzieje już teraz. Dlatego po latach pracy z robotami skłaniam się ku tezie, że to nie my powinniśmy być sędziami tego, że coś jest inteligentne, tylko fizyczne środowisko, w którym robot się znajduje.

To znaczy?

– Jak wypuszczę robota w miasto i powiem: „spotykamy się za 2 dni, ale masz energii tylko na dwie godziny – idź i coś wymyśl”, to czy sobie poradzi? Jeśli będzie w stanie przetrwać w obcym środowisku, którego nigdy wcześniej nie widział, będzie to przełomowe.

Jest taki badacz, Hans Moravec na uniwersytecie Carnegie Mellon. Zajmuje się sztuczną inteligencją i psychologią. W swojej książce z 1987 r. na temat rozwoju kognitywnego dzieci napisał zdanie, które jest cytowane do dziś jako paradoks Moraveca: relatywnie łatwo nauczyć komputery rzeczy, które wydają nam się trudne, jak gra w szachy czy warcaby, natomiast na razie wydaje się niemożliwe nauczenie ich mobilności i zdolności percepcyjnych rocznego dziecka.

Dziecko nie jest nawet w stanie nazwać różnych przedmiotów, ale doskonale wie, jak przestawić jakąś rzecz, ominąć przeszkodę, wydostać się skądś. Zdolności manualne wydają się nam trywialne, ale dla robotyków są wciąż zagwozdką.

Znany przykład: psy są wciąż lepsze w łapaniu frisbee niż roboty.

– Zdecydowanie. Nie mamy robota, który będzie tak skuteczny jak one, nawet w przypadku tak prostej gry. Psy mają dość duże i skomplikowane mózgi. To kolejna rzecz, której się nauczyłem: tak naprawdę nie wiemy, jak działa mózg. Tzn. wiemy, że neurony emitują impulsy nerwowe, ale nie wiemy, jak te impulsy kodują informacje, jaka jest rola rozmaitych typów neuronów itd. Wszelkie analogie nawiązujące do biologii, jak sztuczne sieci neuronowe, są ogromnymi uproszczeniami, być może nawet zupełnie nietrafne.

Paradoks Moraveca pozostaje w mocy, choć od 1987 moc obliczeniowa komputerów wzrosła jakieś 100 tys. razy. Zaczynaliśmy wtedy zerówkę, zegarek elektroniczny to było coś.

Albo te przenośne gierki elektroniczne, pamiętasz?

– Z łapaniem jajek do koszyka, tak! Od tego czasu co 18 miesięcy podwajała się moc obliczeniowa zgodnie z prawem Moora. Więc dziś w zegarku mamy moc obliczeniową, która wtedy była dostępna dla średniej wielkości państwa. Nie jest tak, że nie mamy postępu w robotyce. Ale wciąż jesteśmy bardzo daleko od zbudowania czegoś, co wejdzie w strefę katastrofy naturalnej czy do gruzów zawalonego budynku i samodzielnie wyciągnie ofiarę.

Przecież są roboty, które rozbrajają bomby.

– Zdalnie sterowane. Nawet bardziej banalnych rzeczy nie jesteśmy w stanie zrobić. Kolejny żart praktyków: jeśli boisz się apokalipsy, w której roboty cię dopadną, po prostu zamknij drzwi. Większość obecnych robotów nie jest w stanie ich samodzielnie otworzyć. Nie potrafią nacisnąć klamki.

Mam jeszcze jedną praktyczną definicję inteligencji, która wynika z moich podróży po USA: jeśli zobaczę robota, który będzie w stanie wejść do dowolnego amerykańskiego hotelu i bez niczyjej pomocy uruchomić prysznic, to powiem, że mamy przełom.

Uu, z tym ludzie też miewają problem.

– Właśnie. Ale zazwyczaj radzą sobie po kilku próbach. Nie mam nic przeciwko, by robot też popróbował.

Widzę, że jesteś sceptykiem.

– Niekoniecznie. Nazwałbym się raczej praktykiem.

Przejście z uczelni do przemysłu otworzyło mi oczy. Uniwersytety uwielbiają nas uczyć, co wiemy i co jest możliwe, natomiast nie pokazują, ile jeszcze nie wiemy. Wielu ludzi po skończeniu uczelni ma przekonanie, że właściwie to wszystko już wiemy i jedyne, co pozostaje, to zaaplikować tą wiedzę.

W praktyce okazuje się, że często nawet proste zadania są nadal całkowicie poza zasięgiem obecnych komputerów i robotów.

Chwila, doczekaliśmy się autonomicznych samochodów.

– Prototypy autonomicznych samochodów były testowane od późnych lat 80. Od tego czasu zdecydowanie nastąpił postęp, ale raczej nie powiedziałbym, że już się ich doczekaliśmy.

Potrafią rozwiązywać proste problemy ruchu drogowego. Jak jadę po autostradzie, to 95 proc. zadań komputer jest w stanie rozwiązać bez problemu. Głównie mieścić się na pasie ruchu i zwalniać, gdy zwalnia ktoś przed nami. To zostało rozwiązane już 20 lat temu. Potem pojawiają się trudniejsze zadania: miasto, piesi, ktoś wybiega przed samochód, ktoś się cofa. Dzisiaj są auta, które sobie z tym radzą, choć muszą przeznaczyć na to sporo mocy obliczeniowej.

Mamy jednak także sytuacje nietypowe: wypadek, dzieci na drodze, demonstracja, przedstawienie artystyczne itp. Nawet ludzie nie zawsze od razu wiedzą, co jest grane, choć zwykle zatrzymają się, pomyślą i znajdą łatwo rozwiązanie. Dla komputerów takie dynamiczne rozumowanie i rozwiązywanie napotkanej sytuacji jest jeszcze poza zasięgiem.

W końcu mamy także sytuacje bardzo dziwne, ale niewykluczone. Jedziesz i widzisz zbliżające się tornado. Powódź zalała drogę i trzeba ocenić, czy można wjechać w tę kałużę, czy też za chwilę wezbrana woda zniesie nas z drogi.

Takich dylematów nie można ignorować, bo choć rzadkie, czasem jednak się zdarzają, a błędna ocena sytuacji może kosztować życie pasażerów. To cena nie do przyjęcia.

Takie sytuacje, czasem także niebezpieczne dla ludzi, wymagają sporo rozumienia tego, jak działa świat. Co to jest tornado, co to jest powódź i jak te rzeczy mogą nam zagrażać. Do tej pory nie mamy żadnego systemu sztucznej inteligencji, który miałby tak szeroką wiedzę o świecie.

A trwające testy aut?

– Dolina Krzemowa mówi: co roku na amerykańskich drogach ginie 30 tys. osób, więc ludzie są strasznymi kierowcami. Można na te statystyki spojrzeć inaczej: człowiek przejedzie przeciętnie 100 mln mil, zanim zginie za kółkiem – co w praktyce oznacza, że większość z nas będzie jeździć całe życie bez poważnego wypadku. Dla robotyka taki poziom bezpieczeństwa to niesamowicie wysoka poprzeczka. Najlepsze systemy autonomiczne testowane dzisiaj wymagają ludzkiej interwencji, aby uniknąć niebezpieczeństwa co kilka tysięcy mil. Z tej perspektywy okazuje się, że ludzie nie są tacy źli.

Będę się upierał: jesteś sceptykiem.

– Nie! Są zastosowania, w których nie trzeba mieć aż takiej wysokiej skuteczności. A jak coś zawalisz, to nic wielkiego się nie stanie. Pracuję teraz nad sklepami automatycznymi. W tej dziedzinie jestem wręcz entuzjastą. Różnica w stosunku do autonomicznych samochodów jest taka, że jak tu coś nie wypali, to najwyżej dostaniesz za darmo Snickersa albo zapłacisz za coś, a tego nie dostaniesz, co da się zweryfikować i w razie czego anulować.

Jeśli autonomiczny samochód popełni błąd, ktoś może stracić życie, konsekwencje są nieodwracalne.

Właśnie, opowiedz trochę o tym, co robisz.

– Obecnie pracuję w start-upie Accel Robotics. Założyło go parę lat temu paru moich kolegów, z którymi pracowałem wcześniej w Brain Corporation. Nauczyliśmy się tam sporo rzeczy, szczególnie na początku, gdy prowadziliśmy dużo badań naukowych i próbowaliśmy wykombinować, co jest możliwe do zrobienia przy obecnej technologii.

Ci moi koledzy, którzy założyli Accel, przez pewien czas chcieli budować robota, który jeździłby na przyjęcia i robił ludziom zdjęcia. Szło dobrze (robot istnieje do dziś), ale nikt nie chciał tego kupić, więc przestawili się na sklepy. W tej sferze zainteresowanie okazało się ogromne i tak już zostało.

Są już takie technologie.

– Zgadza się, ale jak to często bywa – diabeł tkwi w szczegółach. Czy to naprawdę sklep autonomiczny, czy też gdzieś na Filipinach siedzi człowiek, który klika i wszystko zdalnie kontroluje. Łatwo jest zamontować parę kamer w sklepie i patrzeć, co ludzie biorą. Dwa – kwestia tego, czy system jest niezawodny. Maszyny sprzedające batoniki non stop się psują ze względu na dużą liczbę ruchomych części. To zwiększa koszty utrzymania. Nasze rozwiązanie stara się eliminować ruchome części i skupia na pasywnych sensorach, takich jak kamery, aby zrozumieć, co się dzieje w sklepie. Trzy – dużo rzeczy da się zrobić, kiedy nie zwraca się uwagi na koszty mocy obliczeniowej.

Przynajmniej kilka konkurencyjnych start-upów w Dolinie Krzemowej stosuje takie podejście, mając nadzieję, że w przyszłości moc obliczeniowa stanie się tańsza, jak miało to miejsce przez ostatnie 30 lat. Tak więc na dzień dzisiejszy ich rozwiązania działają, ale wymagają takich zasobów, że nawet sam rachunek za prąd powoduje, że będzie to nieopłacalne. My staramy się minimalizować zużycie energii i koszty sprzętu już teraz, aby nasze rozwiązanie było praktyczne już od dzisiaj. Nie mówię, że dochodowe sklepy autonomiczne nie istnieją, ale niekoniecznie każdy, kto chwali się takim biznesem, faktycznie go ma. Poza tym rynek jest ogromny. Znajdzie się miejsce dla wielu firm. Uważam, że idzie nam naprawdę dobrze, zresztą niedawno udało nam się zdobyć 30 mln dolarów na dalszy rozwój tej technologii.

A czym zajmowałeś się w Brain Corporation?

– Firmę założył światowej sławy neuronaukowiec Eugene Izhikevich. Pewien duży lokalny koncern zainteresował się jego badaniami i zainwestował w nie. Przynajmniej na początku był to eksperyment. Ja chciałem przyjechać tu na staż postdoktorski, by nauczyć się, co wiemy na temat działania mózgu. Nawiązałem kontakt z Eugene'em w 2008 roku i zaczęliśmy wymieniać korespondencję na temat rozmaitych symulacji, które opisałem wtedy do pracy doktorskiej. Eugene pracował wtedy w lokalnym instytucie badawczym. Potem okazało się, że z niego rezygnuje, ale zaoferował mi stanowisko w swojej nowo powstałej firmie. Spakowaliśmy z żoną walizki, wsiedliśmy w samolot i tak się zaczęło.

Przez pierwsze trzy lata głównie czytałem literaturę neuronaukową i próbowałem modelować to na komputerze – w praktyce był to dokładnie staż postdoktorski, o którym marzyłem, tyle że zdecydowanie lepiej płatny.

Generalny wniosek był taki, że więcej na temat działania mózgu nie wiemy, niż wiemy, ale parę ciekawych rzeczy opatentowaliśmy.

Niektóre patenty później sprzedaliśmy. Zrobiliśmy np. bardzo efektywny system śledzenia wizyjnego, który opierał się na pewnym zjawisku w korze wzrokowej. Otóż jak masz stabilne tło i jakiś przedmiot, który się od niego odróżnia, autonomicznie zaczynasz śledzić ten różniący się obiekt. Okazało się, że łatwo to zaimplementować na komputerze, i działa to całkiem nieźle i superszybko. Zbudowaliśmy na przykład robota, który mógł np. ganiać za piłką na korcie tenisowym.

Udało nam się również zdobyć 1 mln dolarów od organizacji rządowej DARPA, znanej z tego, że sponsorowała badania nad internetem. Grant, którego zostałem kierownikiem, skupiał się na modelowaniu systemu wizyjnego, którego podstawową zasadą działania była próba przewidzenia, co stanie się w najbliższej przyszłości.

Istnieje sporo poszlak sugerujących, że biologiczne mózgi robią coś podobnego, że widzenie to ciągła próba przewidywania, co też się wydarzy przed oczami. Zbudowaliśmy całkiem duży system śledzenia wizyjnego, który opierał się na tych zasadach i działał naprawdę nieźle.

Mam nadzieję, że będę jeszcze kiedyś miał w życiu czas i pieniądze, aby do tego wrócić, bo pozostało tam jeszcze sporo pomysłów, z których moim zdaniem będzie można zbudować coś praktycznego.

Później firma zaczęła się skupiać na konkretnym zastosowaniu i ja oraz kilku moich kolegów rozpierzchliśmy się po rozmaitych firmach w San Diego, a w końcu kilkoro z nas spotkało się w Accel Robotics. Tutaj zdecydowanie jesteśmy bardziej skupieni na praktyce niż na badaniach podstawowych, ale jest to też bardzo ciekawe. Szczególnie kiedy okazuje się, że jest tak wielkie zainteresowanie na rynku.

To co, następne piwo za kolejne 30 lat?

– Deal. Może uda się szybciej, ale za 30 lat to już chyba faktycznie piwo poda nam robot.

***

Jutronauci 2020: świat po pandemii. Edycja specjalna

Nowa rzeczywistość nie musi być koszmarem, może być pełna szans. Nad tym będziemy zastanawiać się w tym wyjątkowym roku i zaczynamy nasz program wyjątkowo wcześnie. Do współpracy zapraszamy Jutronautów z poprzednich trzech edycji – wyjątkowe osoby z pozornie odległych od siebie światów – którzy tłumaczą przyszłość czytelnikom „Wyborczej”. Zapraszamy też innych ekspertów, którzy chcą się dzielić z nami swoimi prognozami.

To już czwarta edycja programu „Jutronauci”, którego partnerem strategicznym jest Sebastian Kulczyk.

Więcej o przyszłości: Wyborcza.pl/jutronauci

Artykuł otwarty w ramach bezpłatnego limitu

Wypróbuj prenumeratę cyfrową Wyborczej

Nieograniczony dostęp do serwisów informacyjnych, biznesowych,
lokalnych i wszystkich magazynów Wyborczej.