Trzech młodych ludzi wykorzystało sztuczną inteligencję do rozszyfrowania tekstów liczących 2 tys. lat zwęglonych pism papirusowych, ujawniając w ten sposób rozważania na temat muzyki i... kaparów.

W 79 r. n.e. katastrofalna erupcja Wezuwiusza zniszczyła słynne Pompeje. Ale ten starożytny rzymski kurort nie był jedynym miastem, które ucierpiało. Kilka innych w okolicy, w tym zamożna enklawa Herkulanum, zostało spalonych przez chmury gorącego gazu i strumienie piroklastyczne.

Mimo ogromnych zniszczeń przetrwały tam pozostałości rzymskiego bogactwa.

W jednej z pałacowych rezydencji w Herkulanum znajdowały się setki bezcennych zwojów wykonanych z papirusu spalonego na węgiel przez gaz wulkaniczny.

icon/Bell Czytaj ten tekst i setki innych dzięki prenumeracie
Wybierz prenumeratę, by czytać to, co Cię ciekawi
Wyborcza.pl to zawsze sprawdzone informacje, szczere wywiady, zaskakujące reportaże i porady ekspertów w sprawach, którymi żyjemy na co dzień. Do tego magazyny o książkach, historii i teksty z mediów europejskich. 
 
Anna Gamdzyk-Chełmińska poleca
Podobne artykuły
Więcej
    Komentarze
    "który zaintrygował się zwojami Herkulanum."

    Którego zaintrygowały zwoje Herkulanum.
    już oceniałe(a)ś
    57
    3
    a my nie potrafimy odczytać połamanych CD - dowodów w procesach sądowych
    @manon2010
    I laptopów rozjechanych przypadkowo autem 5 razy.
    już oceniałe(a)ś
    12
    0
    @manon2010
    Jestem przekonany, że możemy odczytać połamaną płytę CD - DVD.
    Jest to jednak bardzo kosztowne, no i trzeba do tego młodych zapaleńców.
    Odczytywać zapis sprzed kilku tysięcy lat jest niezwykle frapujący. Przeciwieństwem jest odczyt zapisu drogi którą jechała jakaś, przez chwilę pani premier.
    Praca do wykonania jest zegarmistrzowska, potrzebne są specjalne urządzenia skonstruowane specjalnie do tego typu analizy fragmentu płyty. Można te rozbite fragmenty danych połączyć w całość.
    Podstawowe pytanie: czy warto poświęcać czas i środki finansowe na to żeby dowieść, że pani premier złamała prawo?. Przecież każdy człowiek z pięcioma klepkami nie potrzebuje połamanej płyty. Wyciągnie wnioski z samego faktu, że płyta wzięła i się połamała.
    już oceniałe(a)ś
    13
    0
    @ostatni_sort
    Tu nie chodzi o opinie publiczna, ale o dowód w procesie. " Czlowiek z piecioma klepkami" sie domyśli, ale sad musi mieć " twardy" dowód.
    już oceniałe(a)ś
    5
    0
    Droga redakcjo, potrzebna korekta tego ciekawego tekstu. 'amerykański przedsiębiorca i były fizyk' <- jak u licha można przestać być fizykiem? Czy Casey Handmer ma jakąs chorobę neurodegeneracyjną i jego edukacja wyparowała czy może jego dyplom unieważniono?
    @madouc8
    Ja prdle. To jest wlasnie merytoryczny komentarz do tresci artykulu? Hejt i szydera tkwi w nardodzie i dobrze sie trzyma.
    już oceniałe(a)ś
    5
    20
    @McDyver
    Trudno poważnie traktować artykuł o nauce napisany niepoprawną polszczyzną. Nauka nieuka.
    już oceniałe(a)ś
    15
    2
    @madouc8
    Chyba nie masz racji. Jeśli ktoś jest fizykiem, a po latach porzuca swój zawód i zostaje na przykład lekarzem, to JEST ON LEKARZEM, BYŁYM FIZYKIEM.
    już oceniałe(a)ś
    7
    4
    @Evergreen1234
    Tylko jeśli ograniczysz to, co rozumiemy pod slowem "fizyk" czy "językoznawca" do zarabiania na tym.
    Dla ciebie nauczyciel matematyki jest matematykiem, dopóki pracuje jako nauczyciel.
    Dla mnie on przestaje być nauczycielem, ale pozostaje matematykiem nawet na emeryturze. Wiedza się liczy, nie to, kiedy i do czego jej używasz.
    już oceniałe(a)ś
    6
    0
    @madouc8
    "korekta tego ciekawego tekstu"

    A kto ma to korygować?
    Łatwo zauwazyć, że p. MK używa od pewnego czasu do pisania artykułów chatbota, którego współczesni szamani lansują jako "sztuczna inteligencja", która sama odczytuje zwęglone papirusy, więc to ty się nie znasz.
    już oceniałe(a)ś
    0
    1
    @eskramtop
    Czyli wiedza pedagogiczna wyparowuje momentalnie ale matematyczna nigdy?
    już oceniałe(a)ś
    3
    1
    @kaskader_bob
    Nie, i oczywiście definicję "nauczyciel" można też stosować w sensie bycia kimś mającym kwalifikacje i sposobność, nie pracy w zawodzie.
    Ja zastosowałem w tym węższym, ale się nie upieram, że to ogólnie poprawna i nie budząca wątpliwości interpretacja.

    P.S.
    Przyznam, że pisząc o północy ten tekst o nauczycielu matematyki też to widziałem, ale tak zwyczajnie już nie miałem siły o tej porze szukać lepszego przykładu, może akurat tobie coś przyjdzie na myśl :).
    już oceniałe(a)ś
    2
    0
    @kaskader_bob
    Raczej praktyka pedagogiczna ustaje. Nauczyciel to ktoś, kto naucza.
    już oceniałe(a)ś
    1
    0
    Droga redakcjo, ale JAK odczytano te zwoje? Metoda powala na kolana, a tu ani słowa.

    Dla zainteresowanych:
    youtu.be/cY5BIxkf5m0?si=geOjz4r2wYMGTbKY
    już oceniałe(a)ś
    28
    0
    Coś pięknego!
    już oceniałe(a)ś
    15
    0
    Czy jest jakaś możliwość zweryfikowania tego "odczytania". Może sztuczna inteligencja tworzy nowy tekst, a nie tłumaczy ten oryginalny.
    @Jozef_K
    Nonsens. AI musiałaby być złośliwa.
    już oceniałe(a)ś
    3
    2
    @Jozef_K
    To jest bardzo dobre pytanie, chatbot jak ma wzorzec, to sobie coś do niego dopasuje, nawet, jak będzie musiał "zmyślić", patrz przykład opisany w Guardianie.
    Wcale by mnie nie zdziwiło, gdyby okazało się to takim samym humbugiem jak "prehistoryczna" czaszka "znaleziona" swego czasu w Anglii. Tam dlugo nie bylo komu powiedzieć, że król jest nagi, tutaj też tak może być.
    Co do weryfikacji, albo to się zweryfikuje inną metodą, albo innym chatbotem.
    To pierwsze jest na razie niemożliwe, to drugie jak nie da wyników, to się przyjmie, że twórca chatbota lub operator coś źle zrobił. Bajka.
    już oceniałe(a)ś
    4
    0
    @Evergreen1234
    Wystarczy, że jest głupie jak komputer, czyli robi co twórca programu nakazuje i nic mniej i nic więcej.

    Problem leży w tym, że kiedy chatboty zaczęły być lansowane jako "sztuczna inteligencja", ludzie, nawet dobrze wykształceni, uwierzyli.
    Jak to się przekłada na rzeczywistość i jej zrozumienie dobrze ilustruje długa notka w Guardianie, którą po krótce opisuję.

    Niedługo po wejściu chatbotów do użytku do redakcji naukowej Guardiana spłynęło zapytanie - o wcześniejszy artykuł w Guardianie, podany jako jedno ze źródeł w bibliografii opracowania stworzonego przez chatbota m.in. dla autora zapytania.
    Odbiorcy tego opracowania szukali wzmiankowanego artykułu i nie znaleźli, stąd skierowali pytanie do samej redakcji, rzecz w tym, że ona też takiego artykułu w swoich archiwach nie znalazła.

    Na pozór jest tylko jedno wytłumaczenie - chatbot sobie ten artykuł zmyślił. No, stworzyliśmy złośliwe i podstępne i inteligentne bydlę, mamy dowód, że "sztuczna inteligencja" istnieje.
    Ale to wytlumaczenie jest niepoprawne, bo przypisuje bez uzasadnienia ludzkie cechy maszynie tylko dlatego, że odbiorcy nie rozumieją, jak ona działa. Chatbot to zwykły program i nic nie zmyśla, ale jak walniemy ludzi po oczach "inteligencją", to oni nieinteligentnie głupieją i takie "wytłumaczenia" przyjmują.

    W rzeczywistości chatbot (program!) po prostu poprawnie się wykonał!
    Trzeba pamiętać, że chatbot to program do porównywania informacji i znajdowania powtarzających się wzorców, a następnie wykorzystujący te znalezione wzorce w interpretacji zadawanych pytań (czyli przyporządkowywania ich do wzorców) i wyszukiwania odpowiedzi (czyli wzorców przywiązanych do tamtych wzorców).
    Dlatego rysunki tworzone przez chatboty są tak "niepokojące", kiedy zaczynamy liczyć ilość palców - jakże często są one tworzone odrębnymi dziwnie splątanymi kawałkami, czy też jest ich więcej/mniej niż 5. Chatboty na podstawie dotychczasowych rysunków tworzą mozaiki, które oczywiście przypominają palce - ale przecież to zwykły program, który NIE ANALIZUJE, jak wyglądają palce, do czego służą, ile ich jest - cała ta wiedza człowieka jest mu niby dostępna, ale przecież nie ma jak jej skojarzyć z rysunkami, czyli układami graficznymi. Oczywiście można go tego nauczyć pisząc odpowiednie algorytmy szczegółowe, ale to przyszłość i rodzi potencjalną, err, kupę (nowych problemów).
    Wracając więc do problemu z bibliografią - we wzorcu było zawsze ileś pozycji, chatbot tylu nie znalazł, więc tak jak te palce skompilował sobie nową pozycję na wzór innych, by z kolei inny wzorzec (bibliografii) się zgadzał.
    Ale dla fanatyków "inteligencji" objawił boskie cechy.
    już oceniałe(a)ś
    0
    1
    @Jozef_K
    Tak, jak najbardziej. Weź kod z githuba, skany dostępne na stronie Vesuvius Challenge i puść go sobie sam na komputerze. Masz nawet kilka różnych opcji kilku różnych grup, które rywalizowały o nagrodę.
    już oceniałe(a)ś
    0
    0
    A jak zweryfikować AI ?
    już oceniałe(a)ś
    8
    1
    Ta technika przydałaby się do tego co pozostało z ul.Okólnik 9...
    już oceniałe(a)ś
    8
    1