Aleksandra Przegalińska-Skierkowska – filozofka, badaczka rozwoju nowych technologii, sztucznej inteligencji, robotów społecznych i technologii ubieralnych. Doktoryzowała się w Instytucie Filozofii Uniwersytetu Warszawskiego. Jest adiunktem w Center for Research on Organizations and Workplaces w Akademii Leona Koźmińskiego w Warszawie. Przeprowadza też eksperymenty z trackerami mózgu w Massachusetts Institute of Technology

Mariusz Kania: Jak będzie wyglądał świat za sto lat?

Aleksandra Przegalińska-Skierkowska: Prawdopodobnie będzie więcej tego samego. Tak naprawdę trudno mi sobie ten świat wyobrazić. Podejrzewam, że płeć stanie się bardzo niejasną kwestią rozpiętą na szerokim wachlarzu różnych preferencji. Reprodukcja będzie inaczej zorganizowana, pojawi się też profesja, która niezbyt mi się podoba – projektant dzieci.

Wiele aktywności, które są dla nas dzisiaj kluczowe, zapewne zorganizujemy w inny sposób. Możliwe, że będziemy pochłaniać pokarmy pod postacią pigułek i przestaniemy celebrować jedzenie jak teraz.

Wyobrażam sobie też, że zniknie praca i stanie się przywilejem nielicznych. Cała reszta będzie oglądać reklamy wideo bądź hologramy.

Z pewnością nastąpi przyspieszenie w obszarach technologicznych. Będą nas otaczać komputery kwantowe i dużo bardziej precyzyjne interfejsy. Mówi się teraz o inteligentnym pyle...

Co masz na myśli?

– Mikrocząsteczki, które będą wszędzie, stale przesyłając między sobą dane. Albo pojawi się druk 4D czy dynamiczne skanowanie mózgu. Te wynalazki, pod które teraz kładzione są podwaliny, za sto lat będą powszechnie stosowane.

Ale równie dobrze jestem w stanie wyobrazić sobie przyszłość, w której to wszystko zostaje zaprzepaszczone. Wycofujemy się z koncepcji bardzo zaawansowanego technologicznie świata, bo nas to przytłacza i przeraża.

Mam wrażenie, że wszyscy oczekujemy dużego przyspieszenia technologicznego, które nie nastąpi. Wystarczy obejrzeć starsze filmy science fiction pokazujące naszą teraźniejszość jako zupełnie inny świat o zdumiewającym postępie.

Jest taki inwestor w Dolinie Krzemowej, za którym nie przepadam, ale ma ciekawe poglądy. Nazywa się Peter Thiel. Napisał książkę „Zero to One” o start-upach i rozwoju technologicznym. Zaczyna ją od stwierdzenia, które sprowadza nas na ziemię: że ludzkość po ponad stu latach od wynalezienia samochodów nadal się nimi porusza. W gruncie rzeczy nasz świat wcale tak bardzo się nie zmienił: wciąż istnieją fabryki, żyjemy w mieszkaniach, jemy tak, jak robili to nasi przodkowie. Rewolucje są pozorne, a z traktatów pisanych sto lat temu niewiele się ziściło.

Jutronauci w Warszawie. Poznaj niezwykłych ludzi, którzy kreują wizję naszej przyszłości

Czyli radykalnej zmiany nie będzie?

– Dlatego właśnie zaczęłam moją wypowiedź od stwierdzenia „więcej tego samego”. To jest ostrożne i racjonalne podejście do przyszłości. Radykalna zmiana przeraża mnie, tak jak większość ludzi.

Sympatyzujesz z transhumanizmem. Co to jest?

– Nurt myśli istniejący od kilku dekad, w którym technologia jest przestrzenią przemiany i postępu człowieka w stronę lepszej formy. Zakłada, że to nie człowiek i jego zdolności empatyczne, społeczne czy też biologiczna ewolucja czynią nas lepszymi, ale zjednoczenie się z technologią. Właśnie dzięki temu możemy zbudować lepsze społeczeństwo.

Jest to pewna forma przekroczenia humanizmu, wiary w rozum ludzki. Technologia ma sprawić, że człowiek będzie hiperempatyczny, hiperracjonalny, hiperszybki, hipersprawny, a nawet nieśmiertelny.

Z częścią postulatów transhumanistycznych się zgadzam, są interesujące i warte rozważań.

Które to?

– Jestem przekonana, że technologia może być narzędziem pozytywnej zmiany społecznej. Na przykład blockchain [zdecentralizowana platforma transakcyjna w sieci, jednym z jej zastosowań są bitcoiny] może zrewolucjonizować m.in. to, jak głosujemy, jak są zorganizowane systemy polityczne, ale też sposoby funkcjonowania gospodarki. Dzięki niemu mogą się pojawić całkowicie transparentne kontrakty.

Kolejny ciekawy obszar pozytywnego wpływu technologii na życie człowieka to bionika, która jest nadzieją dla ludzi przykutych do wózka.

Stephen Hawking często straszy opinię publiczną sztuczną inteligencją, ale dzięki syntezie mowy i interfejsom sam jest w stanie komunikować swoje idee światu. W technologii wykorzystywanej etycznie widzę narzędzie wprowadzenia pozytywnej zmiany społecznej.

Poza tym dzięki nowym narzędziom możemy się przecież dowiedzieć czegoś nowego o świecie i o sobie samym.

Aleksandra Przegalińska-SkierkowskaAleksandra Przegalińska-Skierkowska Fot. Dawid Żuchowicz / Agencja Gazeta

A co ci nie odpowiada w transhumanizmie?

– Zagadnienie nieśmiertelności. Mnie interesują narzędzia, które mogą otworzyć nasze horyzonty mentalne. Mój ulubiony przykład to AlphaGo, maszyna, która nie tylko lepiej od człowieka gra w tradycyjną chińską grę go, ale też wymyśla nowe strategie gier, o których istota ludzka nie pomyślała.

Jeśli technologia służy ulepszaniu naszych zdolności poznawczych, to ja jestem jak najbardziej za jej rozwijaniem. Jeśli jednak ma radykalnie przedłużać ludzkie życie, do 400-500 lat, to jest to najmniej istotna dla mnie sprawa. Chociaż właśnie ona najgłośniej wybrzmiewa w amerykańskiej Dolinie Krzemowej. Zuckerberg i inni tamtejsi herosi oraz heroski są przekonani, że są światu bardzo potrzebni i powinni żyć wiecznie. Możliwe, że będą to chcieli umożliwić również innym, ale ich posunięcia inwestycyjne, jak spółka Calypso Zuckerberga, sugerują, że to są elitarne projekty.

Nikt z nas nie chce umrzeć, jeśli potrafimy czerpać z życia i ma ono nam dużo do zaoferowania, ale intuicja mi podpowiada, że nie o to w tym wszystkim chodzi.

Według Freuda popęd śmierci jest jednym z najważniejszych dla naszego istnienia.

– Pozbawienie nas możliwości umierania byłoby radykalną zmianą. Chociaż zwolennicy nieśmiertelności chcieliby nas wyposażyć w pewnego rodzaju bezpiecznik, moglibyśmy się zdecydować na śmierć w dogodnym momencie.

Rozważając problem racjonalnie, powstanie takiej technologii przed możliwością eksploracji kosmicznej wiązałoby się z niesamowitym przeludnieniem. To pachnie katastrofą społeczną. Zajmijmy się może lepiej tymi problemami, które mamy: diagnozowaniem chorób, rozwojem medycyny. A do problemu wydłużania życia, zamiast optymalizacji jego jakości, przejdźmy później, jeśli w ogóle. Oczyma wyobraźni widzę smutne elfy z powieści fantasy błąkające się po ziemi przez 500 lat.

PRZECZYTAJ TAKŻE: Transhumanizm. Po co nam mowa i pismo jak zostaniemy cyborgami

Podpisałabyś się pod deklaracją, którą wystosowali kilka miesięcy temu przedsiębiorcy i badacze rozwijający sztuczną inteligencję w USA, m.in. Elon Musk, by zakazać technologii prowadzącej do powstania broni autonomicznej? Roboty decydowałyby wówczas o życiu i śmierci.

– Podpisałam się pod tą deklaracją. Nasze projekty powinny ratować życie, a nie pomagać w zabijaniu. Sztuczna inteligencja ma optymalizować rozmaite procesy, służyć rozwojowi medycyny, edukacji, ułatwiać nam życie. Nie mam wątpliwości w tej kwestii – rozwijanie broni autonomicznej powinno być zakazane. To narzędzie masowej zagłady.

Doceniam wkład wojska w rozwój technologii – internet, systemy decyzyjne, drony. Te wynalazki świetnie zaadaptowały się w społeczeństwie i skomercjalizowały. Drony nie są już przede wszystkim narzędziem siania śmierci – będą przenosić ciężkie paczki, wspomagać ratownictwo medyczne.

W przypadku broni autonomicznej pojawia się jednak ważny problem.

Odkrywając głębokie uczenie maszynowe, doszliśmy do wniosku, że nie wiemy, jak ten system przetwarza informacje.

Przy kilku, kilkunastu sieciach neuronowych nie rozumiemy procesów, które w nich zachodzą.

Dlatego istnieje obawa, że ten proces wymknie się spod kontroli. A decyzja o przeprowadzeniu ataku w przypadku broni autonomicznej nie może być obarczona ryzykiem błędu.

Może warto teraz się zatrzymać i poświęcić czas na zrozumienie procesu uczenia maszynowego – istnieje szansa, że w ten sposób znajdziemy też wreszcie odpowiedź na to, jak pracuje nasz mózg.

PRZECZYTAJ TAKŻE: Biohakerzy. Trudno być bogiem

Czy nie jest tak, że przekonanie o tym, że sztuczna inteligencja umożliwi nam zrozumienie mózgu, bardzo ogranicza nasz sposób myślenia i poznania? Skupiamy się tylko na racjonalności...

– To dylemat obecny od początku badań nad sztuczną inteligencją. Mamy zdolność odtworzenia złożonych składników naszej inteligencji, czyli myślenia logicznego, podejmowania decyzji, przetwarzania symboli, ale jest też wiele jej części, które nam umykają. Jak porównasz umiejętność odczuwania ludzkiego ciała do sensorów robotów, to w ogóle nie ma o czym mówić.

Mamy też problem ze zrozumieniem i odtworzeniem inteligencji cielesnej, tak bardzo rozbudowanej u człowieka. Człowiek adaptuje się dzięki temu, że jego ciało przebywa w określonej przestrzeni – tak się uczymy i rozwijamy nasze zdolności mentalne.

Sztuczna inteligencja nie ma tego ani innych komponentów. Jest uwikłana w wysoką racjonalność.

Być może trzeba zejść kilka poziomów niżej, jeżeli oczywiście będziemy chcieli.

Owszem, ludzkość może uznać, że wystarczy nam taka wąsko wyspecjalizowana sztuczna inteligencja, ekstrakalkulator. Ale jeżeli naszą ambicją jest odtworzenie ludzkiej inteligencji, to trzeba pomyśleć nad przeniesieniem się na inny nośnik. Może czas porzucić krzem? Może urządzenia nie powinny być po prostu pudełkami, które czasem są mobilne i poruszają się w kwadratowy sposób? Może należy je stworzyć od najprostszego elementu i rozwijać na coraz bardziej skomplikowanych poziomach?

Są już takie projekty. Na MIT [Massachusetts Institute of Technology] prowadzi się badania nad mechanizmami adaptacyjnymi insekta. To wyzwanie nawet na tym poziomie. Problemem jest nie moc obliczeniowa, ale zdolności adaptowania się do otoczenia, umiejętność dokonywania zmiany w sobie. Głębokie uczenie maszynowe pozwala na to do pewnego poziomu, ale potrzebny jest jeszcze tzw. mokry nośnik, jak nasze ciało.

PRZECZYTAJ TAKŻE: Google uczy maszyny myśleć. Czym jest machine learning?

Aleksandra PrzegalińskaAleksandra Przegalińska Fot. Dawid Żuchowicz / Agencja Gazeta

Nie masz wrażenia, że zainteresowanie sztuczną inteligencją wynika trochę z chęci posiadania w sobie pierwiastka boskości, mocy stwórcy?

– Ludzkość ma ogromny problem z odpowiedzią na pytanie o sens życia. Mam wrażenie, że badania nad sztuczną inteligencją to projekt, który nie jest aż tak potrzebny komercyjnie ani wcale nie usprawni naszego życia. W rzeczywistości ma nam pomóc zadać wielkie pytania po raz kolejny i umożliwić spojrzenie na nie z innej perspektywy. Jeżeli stworzymy istotę funkcjonującą tak jak my, to powie nam to sporo o człowieku. Nie wiem, czy odpowie na wszystkie najważniejsze pytania, ale na pewno na część z nich.

Nie wydaje ci się, że upodabniamy się coraz bardziej do działania sieci komputerowej? Nie da się nie zauważyć wpływu social mediów na życie społeczne.

– Nie upodabniamy się do niej, tylko ułatwiamy jej życie. Człowiek tak łatwo się nie zmienia. Ale na pewno tworzymy systemy, które pozwalają maszynom lepiej zrozumieć, co robimy. Rozmaite narzędzia, jak geolokacja, gromadzą informacje na nasz temat. Oczywiście ma to duże znaczenie, ale nie zmienia nas na głębokim poziomie.

Ponad miliard ludzi na ziemi nie ma dostępu do prądu, ponad 600 mln – do bieżącej wody, jeszcze więcej jest wykluczonych sieciowo. W jaki sposób to, o czym rozmawiamy, może ich dotyczyć?

– Spójrzmy na Demokratyczną Republikę Konga. Rewolucja technologiczna i zapotrzebowanie na rzadkie metale rujnują i degradują ten kraj.

Technologia multiplikuje stan zastany. Jak jesteś dobrym graczem w go i będziesz trenować sztuczną inteligencję, to ona zwiększy twoje zdolności, pokaże coś nowego.

Ale technologia pomnaża również to, co straszne. Może doprowadzić do olbrzymiego rozwarstwienia społecznego, jeśli ono już istnieje. Efektem będzie krańcowa polaryzacja.

Potrzebny jest zrównoważony rozwój, dlatego często apeluję, by zrobić krok wstecz, zastanowić się, wmonotować w system awaryjne wyłączniki. Bardzo się cieszę, że zostaną wprowadzone regulacje RODO [unijne rozporządzenie dotyczące ochrony danych osobowych], każdy będzie miał prawo do bycia zapomnianym w sieci. Nie wiem, jak zostanie to wyegzekwowane, ale ważna jest refleksja, że nie wszyscy mają potrzebę bycia w sieci, i trzeba to uszanować.

PRZECZYTAJ TAKŻE: UE chce lepiej chronić nasze dane w sieci i wymusza na firmach dodatkowe zabezpieczenia. Ile to kosztuje?

Na co dzień zapominamy, że udostępnianie naszych danych ma tak duże konsekwencje społeczne i polityczne.

– A te konsekwencje są olbrzymie. Mam wrażenie, że jesteśmy na ciekawym etapie rozwoju technologii: budzimy się z ultratechnooptymizmu, który był potrzebny, i teraz trochę ograniczamy tę fascynację. Powstaje wiele organizacji, które zajmują się etyką maszyn. Wszystko po to, by zrobić ten krok wstecz. Nie chodzi o to, by zatrzymać rozwój sztucznej inteligencji lub wrócić do przeszłości, bo to jest niemożliwe. Biznes zawsze wybiera przyspieszenie, ale państwa i społeczeństwa powinny proponować drogę środka, rozważne podejście do rozwoju sztucznej inteligencji poprzez tworzenie osłon, wspomnianych awaryjnych wyłączników. Dobrym przykładem takiego podejścia są autonomiczne auta, w przypadku których zastanawiamy się, jaki system etyczny będzie im niezbędny w dramatycznych sytuacjach na drodze.

Nie przeraża cię, że wielu użytkowników sieci udostępnia dane wrażliwe i nie zdaje sobie z tego sprawy?

– Może to jest dobry pretekst, żeby nadgonić rozwój w innych obszarach. Chciałabym zmian w systemie edukacji, dzięki którym dzieci będą wiedziały, jak radzić sobie z trollingiem czy mową nienawiści w sieci. Nauka samego programowania nie ma sensu, zresztą już niedługo maszyny same będą siebie programować.

Młody człowiek musi się czuć pewnie w sieci, musi mieć narzędzia do samoobrony.

Znać systemowe uwarunkowania wolności i bezpieczeństwa w sieci, ale też mieć odpowiednie kompetencje społeczne umożliwiające właściwe korzystanie z niej.

Co ciekawe, im lepiej ktoś porusza się w obszarze technologii, tym mniej widoczny jest w sieci. Możliwości, by chronić swoją prywatność, są spore, ale wiedza na ich temat nie jest zbyt powszechna.

Czym się teraz zajmujesz?

– Jestem na ścieżce eksperymentalnej, interesują mnie relacje na linii człowiek – maszyna i testy technologii ubieralnych. Mówiąc o tym pierwszym, mam na myśli współpracę człowieka z botami, rozmaitymi interfejsami i ich reakcje. Ciekawi mnie, skąd się bierze niechęć do humanoidalnych robotów.

Pewnie chcemy, by maszyna pozostała maszyną?

– Tak nam się wydaje, chociaż bardziej chodzi tu o sposób komunikacji. Ludzie nie są gotowi na humanoidalne maszyny, ale akceptują maszyny, które rozumieją kontekst i są bardzo inteligentne. Okazało się, że bardzo dużo zależy od designu, a nie od poziomu inteligencji maszyny.

Ta obawa wynika z tego, że widzimy w maszynach nasze odbicie?

– Wydaje mi się, że to może być bardzo pierwotny lęk przed dylematami: czy to coś żyje, czy też nie, jest osobą czy nie jest osobą? Ta ambiwalencja rodzi strach. A może przeraża nas myśl o tym, że robot może coś odczuwać.

Jak wyglądają interakcje z technologią ubieralną?

– Mamy opaski z elektroencefalografem na głowę, których działanie jest sprzężone z botem podpowiadającym, jak być bardziej skoncentrowanym. Sugestie bota tworzone są na podstawie sczytywanych i interpretowanych fal mózgowych. W moich badaniach interesuje mnie, na ile człowiek poddaje się takiej maszynie.

Czy ludzie starali się coś ukryć przed botami? Jakąś sferę intymności?

– Do tej pory takiej nie odkryłam.

Chciałbyś zajrzeć w przyszłość?

Ciekawi cię, jak będzie wyglądała przyszłość? Przyjdź i przekonaj się podczas finałowego wydarzenia w Warszawie!
Kiedy: sobota 9 grudnia,
godz. 10.30-14.45.
Gdzie: The Heart, 38. piętro budynku Warsaw Spire, plac Europejski 1, Warszawa.
Więcej o wydarzeniu: TUTAJ
Wstęp bezpłatny, obowiązuje rejestracja. Zapisy i program na stronie: Jutronauci.evenea.pl.