Trzeba utrzymać sztuczną inteligencję pod kontrolą. List w tej sprawie podpisały wielkie nazwiska nauki i biznesu, m.in. Elon Musk, Stephen Hawking i Max Tegmark. Radzą w nim, jakie kroki należy podjąć, żeby uniknąć świata, w którym człowiekiem zawładną maszyny. Czy rzeczywiście ludzkość może stanąć przed takim problemem?

To pytanie padło ze strony jednego z dziennikarzy podczas konferencji prasowej zorganizowanej w Warszawie pół roku temu. Miała ona promować największe na świecie targi elektroniczne w Las Vegas.

- Chodzi o to, czy roboty się zbuntują i zrobią nam złe rzeczy - dopytywał Gary Shapiro, szef stowarzyszenia amerykańskich producentów elektroniki. Odpowiedź była krótka: "Nie".

Nie wszyscy jednak są tego tacy pewni. Do czołówki wątpiących należą m.in. Max Tegmark, profesor MIT i ikona kosmologii, oraz Jaan Tallinn, współzałożyciel Skype'a. Obaj w zeszłym roku założyli Future of Life Institute, organizację badawczą zajmującą się największymi wyzwaniami stojącymi przed ludzkością.

***

Ze sztuczną inteligencją jest jednak problem, bo warunki, w których przyjdzie tej inteligencji pracować, nie są w pełni wiadome ludziom, którzy tę inteligencję tworzą. Szczególnie gdy chodzi o roboty poruszające się w rzeczywistym świecie, takie jak zyskujące coraz większą popularność autonomiczne samochody. Najczęściej w tego typu maszynach wykorzystywane są tzw. uczące się algorytmy. Jak przewidzieć, czego one się w przyszłości nauczą?

A jak zabezpieczyć sztuczną inteligencję przed przejęciem jej przez osoby niepożądane?

***

Najważniejszym zabezpieczeniem pozostanie jednak możliwość przejęcia kontroli przez człowieka nad pracą sztucznej inteligencji.

 

Więcej czytaj jutro w "Wyborczej"