Kellin Pellerin z USA, dość przeciętny gracz w go, z łatwością ograł program sztucznej inteligencji KataGo, wcześniej seryjnie detronizujący profesjonalnych mistrzów świata.

Najpierw przypomnijmy, że go - starożytna gra planszowa pochodząca z Dalekiego Wschodu - było jednym z największych wyzwań dla sztucznej inteligencji. W szachy czy warcaby już od dawna człowiek przegrywał, ale podczas zmagań w go ludzki umysł długo się nie poddawał.

Przegraliśmy dopiero w 2016 r. Program AlphaGo, stworzony przez naukowców z firmy Deep Mind (spółka córka Google'a), zwyciężył z legendarnym mistrzem Lee Se-dolem, koreańskim graczem uchodzącym za jednego z najlepszych na świecie.

icon/Bell Czytaj ten tekst i setki innych dzięki prenumeracie
Wybierz prenumeratę, by czytać to, co Cię ciekawi
Wyborcza.pl to zawsze sprawdzone informacje, szczere wywiady, zaskakujące reportaże i porady ekspertów w sprawach, którymi żyjemy na co dzień. Do tego magazyny o książkach, historii i teksty z mediów europejskich. 
 
Łukasz Grzymisławski poleca
Podobne artykuły
Więcej
    Komentarze
    Wow, AI wywala się na scenariuszach, których nie było w danych treningowych.
    Coś jak samojeżdżace auto Ubera, które rozjechało rowerzystę prowadzącego rower (bo w danych treningowych byli tylko rowerzyści na rowerach), telefon wyciemniający czarnoskórych na zdjęciach (bo był szkolony tylko na zdjęciach białych inżynierów) i milion podobnych przypadków....
    @m890
    Na razie
    już oceniałe(a)ś
    5
    1
    @m890
    "bo był szkolony tylko na zdjęciach białych inżynierów"
    ciężko, żeby był szkolony w USA na inżynierach, którzy plywają tylko na pontonach do Europy.
    już oceniałe(a)ś
    5
    15
    @m890
    Obawiam sie,ze czarnoskorego czlowieka ubranego na czarno na asfaltowej ulicy w nocy dostrzeze zaledwie niewielki procent nie sztucznych lecz prawdziwych inteligentow (i nie musza byc rasistami).
    już oceniałe(a)ś
    7
    2
    @m890
    AI to kolejny program, nie wiem jakie dane testowe trzeba by zapodać takiemu programowi żeby mieć tak z 70% pewności,że robi to czego oczekują od niego twórcy ;)
    już oceniałe(a)ś
    1
    2
    To jak on ograł AI?
    @turpin
    Przewrócił planszę :D
    już oceniałe(a)ś
    19
    4
    @turpin
    Jest w podlinkowanej pracy, jak wrócę do domu, to dopiszę kilka akapitów, w których to w skrócie wyjaśnię
    już oceniałe(a)ś
    20
    1
    @p.c.
    Super, czekamy
    już oceniałe(a)ś
    12
    0
    @turpin
    Wnioskuję, że wykonał kilka ruchów typowych dla człowieka, który w go nigdy nie grał, czyli aż tak złych ruchów, że algorytm nie mógł do nich odnieść się wyuczonymi strategiami. To mogło wystarczyć, żeby program nie rozpoznał improwizowanej strategii. Innymi słowy wdarł się czynnik irracjonalny, bo jaką można mieć strategię wobec kogoś, kto nie ma strategii? :-)
    już oceniałe(a)ś
    32
    0
    @inpoland.today
    haha. W tym postrzegałem szansę reprezentacji Polski kopaczy w ostatnim mudialu.
    już oceniałe(a)ś
    47
    0
    @Lobus Temporalis
    :-D
    Może jakby spróbowali stylu "pijanego mistrza", może wtedy daliby radę zaskoczyć przeciwnika...
    już oceniałe(a)ś
    10
    0
    @turpin
    grał bez sensu i bot zgłupiał od tego
    już oceniałe(a)ś
    13
    0
    @Lobus Temporalis
    dobre :)
    już oceniałe(a)ś
    2
    0
    @p.c.
    Daleko jeszcze do domu?
    już oceniałe(a)ś
    4
    1
    @inpoland.today
    Niekoniecznie. Glapiński próbował, ale się nie udało. Inflacja go pokonała.
    już oceniałe(a)ś
    5
    0
    @borabbas
    Bo inflacja nie jest sztuczna
    już oceniałe(a)ś
    3
    0
    @RyoIshizaki

    "PS.
    Jak amator może pokonać sztuczną inteligencję KataGo?

    W wielkim skrócie strategia wygrywająca polega na tym, że grający przeciwko KatoGo skupia się na walce o stosunkowo niewielki obszar w jednym z rogów planszy. Resztę planszy - znacznie większą część - pozornie pozwala przejąć sztucznej inteligencji. Ale nie do końca - bo na terytorium kontrolowanym przez KataGo pozostawia kilka łatwych do zbicia kamieni.

    To jednak dezorientuje sztuczną inteligencję, która dochodzi do wniosku, że ma już zapewnioną wygraną, bo jej terytorium jest znacznie większe niż przeciwnika. W tej sytuacji KataGo pasuje (nie wykonuje ruchu), z czego przeciwnik skwapliwie korzysta i też pasuje, co kończy grę.

    Po podliczeniu punktów okazuje się, że KataGo myliła się - przeciwnik dostaje punkty za swoje zabezpieczone terytorium, a sztuczna inteligencja nie, bo jej obszar nie jest w pełni zabezpieczony, a więc przegrywa."

    Dziękuję :-)
    już oceniałe(a)ś
    5
    0
    @turpin
    Inna AI mu podpowiedziała.
    już oceniałe(a)ś
    1
    0
    @inpoland.today

    >>wykonał kilka ruchów typowych dla człowieka, który w go nigdy nie grał, czyli aż tak złych ruchów, że algorytm nie mógł do nich odnieść się wyuczonymi strategiami.<<

    - nie przypuszczam; grywam czasem w go z maszyną, gram nieodmiennie źle i zawsze przegrywam :)
    już oceniałe(a)ś
    3
    0
    "Próbuje się je stosować m.in. w systemach (...) handlu walutami"

    Ciekawe czy ten cwaniak AI dałby się przewalić analogowemu cinkciarzowi metodą "na rulonik"?
    @PiekielnyPedro-dawniej.666
    Ciekawe czy AI podpisałby kredyt frankowy :D
    już oceniałe(a)ś
    21
    0
    @Calcaneus
    Czy wpadłby na to, żeby grać zdziwioną dzidzię, która "nie wiedziała", że kursy walut mogą się zmieniać?
    już oceniałe(a)ś
    9
    7
    @Calcaneus
    @realista_eu
    podpisałby, spoko.
    widząc tych podjaranych prowizjami pajaców z ich "CHF jest najstabilniejszą walutą Wszechświata!" i mając do wyboru darmowy kredyt wobec abuzywnych zapisów w umowie vs późniejsze jojczenie w necie "byłem rozsądny itd." to chyba tylko bardzo słaba AI by nie podpisała...
    ;)
    już oceniałe(a)ś
    3
    3
    @Calcaneus
    Ciekawe czy AI inwestowałoby w spółki giełdowe mówiące że zajmują się AI
    już oceniałe(a)ś
    4
    0
    Ale z tymi autonomicznymi samochodami co najechały na policję - to trochę dziwna sprawa. W końcu dość naturalne powinno być zakodowanie w ich algorytmach że jeśli COŚ stoi na ich drodze (zakładam że to COŚ jest wykrywane radarem, żeby nie było problemu z wykrywaniem cieni, refleksów, miraży itp.) to należy albo to ominąć albo się przed tym zatrzymać. Obojętne czy jest to samochód policyjny, latający talerz, zwalone drzewo, pomnik Jana Pawła II - cokolwiek !
    @daniel.waw.pl
    a np....Marsellus Wallace?
    już oceniałe(a)ś
    13
    0
    @ALICE_2.0
    W Marsellusa trzeba walić nie pytać.
    już oceniałe(a)ś
    5
    0
    @daniel.waw.pl
    Te samochody chyba nie korzystają z radaru tylko kamer. Są uczone wyciągać wniosku z obrazów cyfrowych?
    już oceniałe(a)ś
    2
    0
    @daniel.waw.pl
    Nie wszystkie auta używają radaru,który jest zwyczajnie drogi. Niektóre firmy doszły do wniosku, że rozpoznawanie obrazu z kamer (których auto może mieć kilkanaście, obejmując 360°) jest wystarczająco dobre. Niestety okazuje się, że nie jest...
    już oceniałe(a)ś
    6
    0
    @j2dw
    Człowiek nie ma w głowie radaru ani widzenia 360, ale widać lepiej daje radę z obróbką danych.
    już oceniałe(a)ś
    2
    0
    @daniel.waw.pl
    Uznał policję za zło, które trzeba zniszczyć.
    już oceniałe(a)ś
    5
    0
    @daniel.waw.pl
    pomnik Papaja? a płógiem go!
    już oceniałe(a)ś
    2
    0
    Ale to nie jest żadna "pięta achillesowa AI"! Lepiej wytrenowany algorytm, na innych danych, będzie się zachowywał lepiej. Czyli to błąd trenerów, a nie samego AI... Zresztą ludzie też tak mają (w większości), że działają dobrze w warunkach, które znają, a nowe warunki mogą powodować dezorientację, zagubienie, panikę itd. U ludzi często tłumaczone to jest emocjami, ale jak zwał tak zwał.
    @jasseck
    Tutaj chyba mamy do czynienia bardziej problem nie z niedotrenowaniem a przetrenowaniem modelu dla relatywnie standardowych danych. Problem istnieje od zarania machine learning'u i nie jest to takie proste jak się wydaje.
    już oceniałe(a)ś
    3
    0
    Podobna sytuacja do opisywanej w artykule miała miejsce lata temu, gdy powstawały pierwsze szachowe programy komputerowe. Wtedy także człowiek mógł wykonać jakiś "głupi ruch", na który program nie był przygotowany i w efekcie uzyskać wygrywającą przewagę. Jednak coraz lepsze algorytmy, coraz większa moc obliczeniowa komputerów sprawiły, że taka strategia w szachach już nie jest skuteczna. Przypuszczam, że za kilka lub kilkanaście lat, "zestaw nieoczekiwanych ruchów" przestanie być skuteczną metodą na pokonanie komputera z programem do gry w go. A może nastąpi to nawet szybciej?
    @Portenio

    Pozostaną inne atuty człowieka. Miliony lat ewolucji ( też poprzednich gatunków) i pierdyliony "nieoczekiwanych sytuacji" wykształciły określone zachowania, których AI nie powtórzy, ponieważ nie ma zmysłów. Zwykły ból jest poza zasięgiem AI, a dla człowieka to kluczowe info.
    już oceniałe(a)ś
    2
    0
    @Portenio

    Przy czym nie mówię tu o prostycj schematach typu dotkniecie palcem czegoś gorącego, bo to można odtworzyć. Ale o bólu, który wynika z całej złożoności ludzkiego organizmu i metabolizmu. No way, żeby AI mogła to wymodelować.
    już oceniałe(a)ś
    3
    2
    Ilość kombinacji położeń kamieni jest kolosalna, ale skończona. Ilość kombinacji wszelkich możliwych sytuacji drogowych łącznie z dodatkowymi, ale istotnymi niuansami jest nieskończona. Tak więc komputer o odpowiedniej mocy obliczeniowej będzie lepszy w go od każdego człowieka, ale w autonomicznym samochodzie wciąż będzie nie do końca pewny.
    @jac_l_w
    Nie to co Polak Kierowca :D
    już oceniałe(a)ś
    9
    0
    @RyoIshizaki
    Jeździ szybko ALE BEZPIECZNIE
    już oceniałe(a)ś
    6
    2
    @jac_l_w
    Nie wiem, za co te plusy. Wszystkie wnioski chybione;)
    już oceniałe(a)ś
    2
    1
    @nitupawruk
    Dowód na zasadzie "nie, bo nie".
    już oceniałe(a)ś
    1
    1
    @jac_l_w
    Dość konkretnie napisałem: "wszystkie wnioski chybione".
    Nie ma praktycznego znaczenia, czy możliwości jest ~10^170, czy "rzeczywiście" nieskończoność. Nie jest tak, że komputer "prędzej czy później" poradzi sobie z jakkolwiek wielkim zbiorem możliwości, byleby był skończony, a z nieskończonym człowiek pewnie poradzi sobie lepiej. Skąd w ogóle taki pomysł?
    już oceniałe(a)ś
    0
    0
    Lem, opowiadanie Ananke
    @natski
    Mi się raczej skojarzyło z 'Rozprawą' - największa przewaga człowieka nad racjonalną supermaszyną polega na tym że czasem zachowuje się nieracjonalnie.
    już oceniałe(a)ś
    5
    0
    @natski
    W "Ananke" przyczyną katastrofy był programista, czy raczej trener cierpiący na zaburzenia psychiczne - nerwicę natręctw. Komputer udławił się natłokiem niepotrzebnych informacji.
    już oceniałe(a)ś
    3
    0