To pytanie padło ze strony jednego z dziennikarzy podczas konferencji prasowej zorganizowanej w Warszawie pół roku temu. Miała ona promować największe na świecie targi elektroniczne w Las Vegas.
- Chodzi o to, czy roboty się zbuntują i zrobią nam złe rzeczy - dopytywał Gary Shapiro, szef stowarzyszenia amerykańskich producentów elektroniki. Odpowiedź była krótka: "Nie".
Nie wszyscy jednak są tego tacy pewni. Do czołówki wątpiących należą m.in. Max Tegmark, profesor MIT i ikona kosmologii, oraz Jaan Tallinn, współzałożyciel Skype'a. Obaj w zeszłym roku założyli Future of Life Institute, organizację badawczą zajmującą się największymi wyzwaniami stojącymi przed ludzkością.
***
Ze sztuczną inteligencją jest jednak problem, bo warunki, w których przyjdzie tej inteligencji pracować, nie są w pełni wiadome ludziom, którzy tę inteligencję tworzą. Szczególnie gdy chodzi o roboty poruszające się w rzeczywistym świecie, takie jak zyskujące coraz większą popularność autonomiczne samochody. Najczęściej w tego typu maszynach wykorzystywane są tzw. uczące się algorytmy. Jak przewidzieć, czego one się w przyszłości nauczą?
A jak zabezpieczyć sztuczną inteligencję przed przejęciem jej przez osoby niepożądane?
***
Najważniejszym zabezpieczeniem pozostanie jednak możliwość przejęcia kontroli przez człowieka nad pracą sztucznej inteligencji.
Więcej czytaj jutro w "Wyborczej"
Materiał promocyjny
Materiał promocyjny