Jeszcze pięć lat temu samochód autonomiczny był powszechnie traktowany jako możliwa, ale odległa w czasie technologia. Dzisiaj samochody kierowane przez algorytmy są testowane na ulicach San Francisco, Paryża, Londynu, Singapuru czy Pekinu. Inwestują w nie największe firmy technologiczne: Google, Uber czy Amazon. W wyścigu bierze udział cała branża motoryzacyjna: od Tesli przez General Motors po Toyotę.

Niemcy regulują samochody autonomiczne

Stopniowo problem samochodów autonomicznych rozpoznają regulatorzy. W Niemczech uchwalono prawo, zgodnie z którym w samochodzie autonomicznym zawsze musi pozostawać kierowca w gotowości, żeby w razie potrzeby przejąć nad nim kontrolę. Regulacja otworzyła drogę do testów samochodów autonomicznych narodowym firmom motoryzacyjnym takim jak Volkswagen, Daimler i BMW.

Pojawienie się samochodów autonomicznych na drogach rodzi szereg etycznych problemów. Jak zaprogramować decyzje podejmowane przez system w sytuacji zagrożenia kolizją? Czy samochód autonomiczny może złamać zasady ruchu drogowego, np. przejeżdżając podwójną linię ciągłą, żeby nie zniszczyć czyjegoś mienia? Czy w skrajnych przypadkach może uratować jedno życie kosztem drugiego?

Także temu zagadnieniu wyszedł naprzeciw niemiecki legislator. Tamtejsze ministerstwo transportu i infrastruktury cyfrowej powołało też komisję ekspertów z zakresu prawa, etyki i technologii do opracowania reguł etycznych, które mają być zaprogramowane w samochodach autonomicznych. Podstawowa zasada to: algorytm musi zawsze, priorytetowo, na pierwszym miejscu chronić ludzkie życie. Żeby je ratować, może poświęcić własność prywatną, zniszczyć czyjeś mienie czy nawet zabić zwierzę. Samochód autonomiczny ma uratować jak największą liczbę istnień ludzkich, niezależnie od ich wieku, płci, czy rasy. Może też w określonych sytuacjach łamać prawo, np. przekroczyć dozwoloną prędkość i uniknąć uderzenia w rowerzystę. Kolejna zasada stanowi, że w samochodzie powinien być zamontowany system monitoringu - na zasadzie czarnej skrzynki w samolocie - żeby zawsze można było ocenić przyczynę wypadku. Kierowca powinien zawsze wiedzieć, jakie informacje o nim są zbierane przez samochód.

Dylemat wagonika

W 1967 r. brytyjska filozofka Philippa Foot zaprezentowała tzw. “trolley problem”, czyli dylemat wagonika polegający na wybraniu mniejszego zła. Stoisz koło zwrotnicy i widzisz nadjeżdżający tramwaj. Na torach przed nim leży przywiązanych pięć osób. Możesz je uratować, poświęcając “tylko” jedną - przywiązaną na bocznym torze. Czy przestawisz zwrotnicę?

Zaprogramować etykę

Naukowcy z MIT postanowili skomplikować ten scenariusz w grze “Moral Machine”. Użytkownik musi w niej rozstrzygnąć 13 sytuacji drogowych, w których samochód autonomiczny ma popsute hamulce. Kogo poświęcisz? Czy przejedziesz lekarkę przechodzącą na czerwonym świetle czy bezdomnego? Starszą panią czy dziecko? Faceta z wielkim brzuchem czy wysportowaną kobietę? Czy lepiej przejechać prawidłowo przechodzącego na pasach przechodnia, czy wjechać w betonową zaporę i zabić kilku pasażerów? Złodzieja czy dwa psy i trzy koty? Na koniec quizu użytkownik dostaje wyniki porównujące jego decyzje z przeciętnymi odpowiedziami innych: czy stara się uratować większą liczbę osób, czy chroni bardziej pasażerów, czy przestrzega prawa, czy preferuje którąś płeć, czy ma dla niego znaczenie wiek lub status społeczny potencjalnych ofiar.

"Moral Machine” nie jest jednak tylko łamigłówką, która ma uświadomić nam, jak skomplikowane moralnie mogą być niektóre sytuacje - gra ma dostarczyć naukowcom stojącym za tym projektem dane statystyczne o ludzkich decyzjach etycznych. Później będzie można ich użyć do programowania autonomicznych samochodów. Na podobnej zasadzie trenuje się algorytmy, które później analizują obraz z kamer zamontowanych na autonomicznych samochodach i rozróżniają jedne obiekty od drugich. Za każdym razem, gdy musisz udowodnić, że nie jesteś botem i np. wskazać na zdjęciu stację benzynową czy znak drogowy, pomagasz uczyć się algorytmom. A to tylko jeden sposób nauki, bo maszyny uczą się nawet, grając w Grand Theft Auto. Analogicznie informacje zebrane przez “Moral Machine” mogłyby nauczyć autonomiczne samochody odróżniać dobro, zło i… mniejsze zło.

Pierwsza ofiara na drodze

W marcu tego roku eksperymentalny samochód autonomiczny Ubera - nadzorowany przez kierowcę w środku - śmiertelnie potrącił 49-letnią Elaine Herzberg w Tempe w stanie Arizona. Kobieta prowadziła rower i przechodziła nocą przez jezdnię w nieoznaczonym miejscu. System wykrył ją na 6 sekund przed uderzeniem, najpierw klasyfikując jako “nieznany obiekt”, później jako pojazd, wreszcie jako rower. 1,3 sekundy przed uderzeniem obliczył - lub “zrozumiał” - że konieczne jest hamowanie awaryjne, ale możliwość automatycznego zatrzymania pojazdu została wyłączona - tylko ludzki operator mógł wcisnąć hamulec. W tym czasie jednak, zamiast na drogę, operator patrzył na ekran komputera pokładowego. Był to pierwszy przypadek, kiedy autonomiczny samochód zabił pieszego.

Na wypadek złożył się szereg czynników: błąd systemu, nieuwaga człowieka i nieprzestrzeganie przepisów przez ofiarę. Według dokumentów, do których dotarł dziennik “The New York Times”, w tym czasie operatorzy samochodów Ubera w Arizonie musieli interweniować średnio po 20 km przejechanych w trybie autonomicznym, żeby uniknąć wypadku. Dla porównania operatorzy samochodów autonomicznych Waymo, spółki siostry Google, interweniowali średnio dopiero po ponad 9 tys. przejechanych kilometrów. Jak pisze “The New York Times”, w Uberze była wtedy presja, żeby do końca roku zacząć oferować usługi z samochodami autonomicznymi. Chciano zaimponować kierownictwu i inwestorom - coraz bardziej zniecierpliwionym stratami finansowymi, które przynosi firma. Wypadek zdarzył się w najgorszym momencie dla firmy: amerykańscy regulatorzy przygotowywali się wtedy do zliberalizowania przepisów ruchu pojazdów autonomicznych. Uber zawiesił wtedy tymczasowo swój program testów samochodów bezzałogowych.

Zamknąć samochód autonomiczny

Testowane samochody autonomiczne na razie powodują stłuczki czy przejeżdżają na czerwonych światłach. Nie dlatego, że nauczyły się tego, grając w GTA, ale są jeszcze niedoskonałe. Granice ich “autonomii”, jak twierdził prof. Jean-Gabriel Ganascia, przemawiając niedawno podczas warszawskiego Festiwalu Przemiany, są ograniczone. Kiedy wprowadzimy cel podróży, np. basen, samochód autonomiczny - poza scenariuszami z powieści sci-fi - raczej nie powie, że nie pojedzie, bo nie odpowiada mu parking przed basenem. Albo, że zamiast na basen, zawiezie nas do fryzjera, bo jego zdaniem przydałoby się nam odświeżenie wizerunku. To raczej automaty, które mają nas tylko przewieźć bezpiecznie z punktu A do B. Na razie różnie z tym bywa. Muszą też nauczyć się czasem trochę oszukiwać, bo można je łatwo złapać w pułapkę. Tak jak artysta James Bridle, który pokazał, jak uwięzić samochód autonomiczny, obrysowując go podwójną linią ciągłą z… mąki.