Joanna Sosnowska: Prawo nie nadążą za technologiami. Powinno nas to przerażać?

Kamil Mamak*: Owszem. Przeraża mnie też to, że pisaniem i interpretowaniem prawa zajmują się osoby starsze. W USA sędziowie Sądu Najwyższego w ogóle nie mieli e-maila. Jak więc mogą rozumieć, co dzieje się w społeczeństwie? W Polsce z Facebooka korzysta kilku sędziów Sądu Najwyższego. Jeden z nich musiał innym opowiadać, jak reaguje społeczeństwo w sieci na zamieszanie związane z Sądem Najwyższym. Oni sobie z tego w ogóle nie zdawali sprawy! Są poza światem technologii. Prawo karne jest po to, żeby porządkować sferę wzajemnych interakcji. Jeśli np. duża część aktywności dzieje się na Facebooku, YouTubie, Twitterze, a sędziowie nawet nie wiedzą, jak tam jest, to trudno mi sobie wyobrazić, jak mają sprawiedliwie stosować prawo.

A gdzie prawo jest bardziej dostosowane do rzeczywistości?

W systemie amerykańskim jest możliwość stosowania kar, które na bieżąco wymyśla sędzia, bo ich kodeks karny nie jest w całości spisany. Dlatego w mojej książce napisałem, że Google Glass może być wykorzystywane do wymierzania kary. W USA można sobie wyobrazić takie zastosowanie. Dozór elektroniczny, dziś popularny w Polsce i na świecie, powstał w latach 60., bo sędzia przekonał się do tego pomysłu, najpierw kazał sobie założyć nadajnik na nodze i z nim chodził. Dopiero potem zastosował go w praktyce. To pokazuje, że ich system dobrze dostosowuje się do zmieniającej się rzeczywistości, ale z drugiej strony amerykańskie prawo karne jest jednym z najsurowszych na świecie, więc niekoniecznie warto brać przykład z Amerykanów. Rozwiązanie mogłoby polegać na tym, że prawnicy stale współpracują z osobami zajmującymi się technologiami i obie strony mogą na bieżąco tłumaczyć sobie, co się dzieje. Na studiach prawniczych nie ma zajęć z nowych technologii, więc tylko pasjonaci mogą sobie zdawać sprawę z istnienia takich tematów.

Dlatego zastanawia się pan, czy robot może popełnić przestępstwo?

O popełnieniu przestępstwa można mówić, gdy podmiot może mieć świadomość, że robi coś złego. Roboty, samochody nie zdają sobie z tego sprawy. Przynajmniej na razie. Musimy znaleźć osobę, która popełniła jakiś błąd - w nadzorze czy programowaniu, więc to wciąż człowiek jest odpowiedzialny. Jeśli ktoś programuje samochód, to daje mu zestaw zasad, według których ten samochód musi się zachowywać, ale zasady te zostaną zastosowane dopiero podczas jazdy. Wszystko zmienia uczenie maszynowe, które polega na tym, że program reprogramuje się sam i po jakimś czasie kod źródłowy jest inny od tego, który napisał człowiek. W takiej sytuacji trudno rozstrzygnąć, kto jest winny. W moim doktoracie sugerowałem, że mamy do czynienia z luką w prawie karnym i że nikt nie będzie odpowiadał za decyzje podejmowane przez roboty działające na zasadzie uczenia maszynowego.

Czyli robot na razie nie może popełnić przestępstwa, ale człowiek tak. Załóżmy, że mamy już technologię pozwalającą umieścić świadomość przestępcy w ciele istoty, która nie jest człowiekiem. Czy byłaby to bardziej adekwatna kara niż pozbawienie wolności?

Trzeba byłoby się zastanowić, czy to jest humanitarne, bo nasze prawo karne tego wymaga i obowiązują nas konwencje, w tym zakaz tortur, co zawęża pole do wymyślania nowych kar. Musielibyśmy poznać ten mechanizm i wiedzieć, jak to wpływa na psychikę. W serialu “Black Mirror”, w odcinku “Czarne muzeum”, w muzeum przechowywany jest złamany, spaczony umysł. Widzimy, jak torturowanie tego umysłu tysiące razy może spowodować nieodwracalne zmiany.

Niechcący wymyśliłam torturę?

Tak. To samo może dotyczyć tabletki, która ma spowodować subiektywne odczucie odbywania tysiącletniej kary w osiem i pół godziny. Trudno to sobie wyobrazić, bo nikt z nas tego nie przeżył, ale to też mogłoby być uznane za tortury.

Taka kara byłaby straszliwa dla skazanego, ale niezauważalna dla społeczeństwa.

I właśnie dlatego nie spełnia swoich celów. Może byłaby odstraszająca, gdyby wiele osób ją przeżyło i zaczęłoby się dzielić wrażeniami. A jeśli sądzimy, że kara więzienia jest po to, żeby odseparować ludzi niebezpiecznych od reszty społeczeństwa, to taka kara nie spełniałaby także tego celu.

Max Tegmark w książce “Life 3.0” opisuje pięć różnych podejść do tworzenia sztucznej inteligencji (AI) i wskazuje, że jednym z nich jest “zniewolone bóstwo”. Ludzkość tworzy byt większy od niej samej i nie pozwala mu się rozwinąć. Czy to nie jest przypadkiem znęcanie się?

Żeby odpowiedzieć na to pytanie, trzeba rozstrzygnąć, czy podmiot potrafi cierpieć, bo dopiero wtedy możemy wyrządzić mu krzywdę. Gdybyśmy byli pewni, że sztuczna inteligencja potrafi cierpieć, to będziemy musieli zapewnić jej poczucie bezpieczeństwa i chronić ją przed krzywdą czynioną przez ludzi lub przez inną sztuczną inteligencję.

AI to problem jutra, a dziś borykamy się z plagą fałszywych informacji na Facebooku. Jak długo to pozostanie bezkarne?

Dezinformacja może stworzyć negatywne konsekwencje dla pojedynczych osób czy całych społeczeństw. Jednak państwa, które już wprowadziły kary za rozpowszechnianie fałszywych informacji, są przykładem odstraszającym. Powiedzenie, że “kto tworzy fałszywe informacje, podlega karze”, mogłoby wprowadzić więcej złego niż dobrego. Zwłaszcza w krajach, w których mamy do czynienia z autorytaryzmem, bo to wyłączyłoby to możliwość krytyki.

Malezja ma taki przepis, były już na jego mocy nawet skazania. Pierwsze z nich było uzasadnione i nie było ściśle polityczne: w wideo na YouTubie mężczyzna twierdził, że na wezwanie dotyczące strzelaniny policja zareagowała dopiero po 50 minutach, a w rzeczywistości zajęło im to 8 minut. W tym przypadku to państwo poczuło się pokrzywdzone, wytoczyło postępowanie karne i skazało mężczyznę, bo to bez wątpienia była fałszywa informacja. Pytanie brzmi, czy tak to powinno działać w kontaktach państwa z obywatelami, czy nie powinno chronić innych wartości. Przecież wszystko może być uznane za dezinformację - gdy ktoś mówi, że jakaś instytucja działa normalnie, a my wiemy, że nie działa, to jest to dezinformacja.

Musimy chyba zaakceptować, że technologia stworzyła pewne niebezpieczeństwo, którego nie da się za pomocą instrumentów prawnych całkowicie wyplenić, bo spowodowałoby to zbyt duże szkody, np. drastyczne ograniczenia wolności słowa.

Są też doniesienia, które łatwiej jest kwalifikować jako fałszywe albo prawdziwe, np. “premier nie żyje”.

Można rozważyć możliwość karania informacji wpływających na stan zdrowia obywateli. Wydawałoby się, że wymierzanie kar antyszczepionkowcom albo osobom podważającym podstawową wiedzę naukową byłoby uzasadnione, bo chroniłoby zdrowie społeczeństwa i poszczególnych osób. Gdybyśmy nie rozprzestrzeniali danych łączących autyzm ze szczepionkami, poziom szczepień by nie spadał, nie zbliżalibyśmy się do granicy wyszczepialności zabezpieczającej przed pojawieniem się epidemii. To może doprowadzić do rzeczywistych tragedii, nie tylko wśród nieszczepionych dzieci.

Jest szansa na to, że Polska wprowadzi prawny zakaz rozprzestrzeniania fałszywych informacji?

Tak naprawdę nikt nie wie. Gdyby taka ustawa miała wchodzić, nasze środowisko ma przygotowane argumenty, bo próbujemy przewidzieć, jakie tematy mogą stanowić element potencjalnych zmian.

Dopuszcza pan scenariusz, w którym prawo karne przyszłości zrównuje ludzi i roboty, białko i krzem?

Nick Bostrom, wykładowca na Oksfordzie i autor książki  “Superinteligencja”, twierdzi, że sztuczna inteligencja będzie rosła i w pewnym momencie osiągnie poziom inteligencji człowieka. Jeśli będziemy w stanie uchwycić ten moment, to na poziomie odpowiedzialności karnej sytuacja człowieka i sztucznej inteligencji może być podobna. Nie do końca, oczywiście, bo część naszych zachowań i reakcji wynika z biologii, która nie dotyczy sztucznej inteligencji. Nasze reakcje wynikają ze zmęczenia czy emocji, które nie do końca są świadome. Gdy będziemy na podobnym poziomie jak maszyny, wyobrażam sobie, że będziemy mogli sądzić na jednej sali człowieka, a na innej - robota. Jednak maszyny bardzo szybko mogą się stać dużo bardziej inteligentne od nas, a więc w momencie, którym się zorientujemy, że osiągnęły ludzki poziom, mogą one być już dużo dalej w rozwoju. Wtedy może być za późno, żeby kontrolować je za pomocą ludzkich praw.

*Kamil Mamak - absolwent prawa i filozofii. Doktorat z prawa obronił w Katedrze Prawa Karnego Uniwersytetu Jagiellońskiego, jest również doktorantem z filozofii w Katedrze Historii i Filozofii Nauki Uniwersytetu Papieskiego Jana Pawła II w Krakowie. Członek zarządu w Krakowskim Instytucie Prawa Karnego. Członek grupy badawczej "Filozofia w informatyce" Centrum Kopernika Badań Interdyscyplinarnych. Autor bloga o prawie karnym, filozofii i technologiach: criminalfuture.com i autor książki "Prawo karne przyszłości".