Sztuczna inteligencja jest teraz na poziomie ośmiolatka, ale za 10 lat może nas przerosnąć. Jesteśmy jednym z ostatnich pokoleń, które coś wnosi do rozwoju i logicznego myślenia - uważa prof. Andrzej Dragan, fizyk teoretyk, artysta, popularyzator nauki.
Gazeta Wyborcza obchodzi 35-lecie. Jej pierwszy numer ukazał się 8 maja 1989 r. Z tej okazji przypominamy najważniejsze i najciekawsze teksty.
Wywiad z prof. Andrzejem Draganem ukazał się na początku 2024 roku.
Piotr Cieśliński: W 2023 r. pojawiły się modele sztucznej inteligencji, które wydają się naprawdę inteligentne, takie jak ChatGPT firmy OpenAI czy Bard Google'a. Wkrótce będziemy dzielić historię naszej cywilizacji na przed i po tym wydarzeniu...
Andrzej Dragan: Niektórzy mówią, że będzie tylko przed.
Wszystkie komentarze
a co w nim było wspaniałego? gość jest na tyle dobry w swojej działce, że nie trzeba mu jeszcze wchodzić w 4 litery jak chlapnie parę truizmów
Mądrego zawsze warto poczytać, również bardzo dziekuję.
Sfrustrowany IT na wylocie?
Szkoda, że pan profesor bądź co bądź fizyki nie wspomniał nic o koszcie energetycznym AI. To jest jedno z podstawowych ograniczeń tego, co obecnie nazywamy AI. To nie kwestia samego algorytmu, jakości danych, ich doboru. Ktoś musi te hale serwerów ochłodzić, wymienić ciepło, w końcu wyprodukować energię. Kwestie inspekcji, napraw, rozwiązania problemów - droga jest wciąż baardzo daleka.
Człowiek napędzany białkiem jest wciąż wielokrotnie tańszy. AI to świetne narzędzie. I jak każde może być różnie wykorzystane. Pan profesor zdaje się odwoływać do powieści Lema "Niezwyciężony". I tam ewolucja krzemowa wytworzyła nową formę "życia" wobec której człowiek był teoretycznie bezbronny. Ale i na to znalazł prosty sposób. Przyszłość będzie arcyciekawa.
Wywiad bardzo dobry do lektury, ale zawiera zadziwiająco łatwe do obalenia opinie. Co więcej, można mieć wrażenie, że brakuje faktycznego zrozumienia czym są sieci neuronowe jak działają, dlaczego działają i dlaczego ich użycie może dawać tak imponujące efekty.
.
Na przykład:
1. Prof. Dragana dziwi, że można samodzielnie wytrenować sieć neuronową do jakiegoś celu i użyć jej z dobrym skutkiem nawet bez zrozumienia jej działania. Rozumiem, że prof. Dragan zakłada, że każdy kierowca musi wiedzieć jak działa silnik? Wątpię.
Być może chodzi mu o to, że nikt nie rozumie/nie wie dlaczego dana sieć zachowuje się akurat w taki, a nie inny sposób, bo to jest skomplikowane. To prawda, ale nauka nie wie wielu rzeczy i jest to stan normalny, że potrafimy np. obserwować zachowania ludzkiego organizmu, ale nie rozumiemy w pełni dlaczego w danej sytuacji zachowuje się tak, a nie inaczej. Kiedyś może się tego dowiemy.
.
2. Sieci neuronowe uprawiają wyłącznie mimikrę. Czyli odwzorowują przykłady, na których zostały wytrenowane. To jest wszystko co robią. Prowadzi to często do imponujących wyników, ale wprowadza niczego nowego.
.
3. Przykład z 8-latkiem jest moim zdaniem chybiony. Sieć neuronowa może np. skomponować muzykę w stylu Beethovena. Czy umie to zrobić jakiś 8-latek? A 10-latek? A 15-latek? Myślę, że nie. Czy to znaczy, że taka sieć neuronowa jest genialna? Nie, to znaczy, że jest narzędziem, które doskonale uprawia mimikrę. Dokładnie wiemy jak to narzędzie działa i wiemy dlaczego działa. Znamy jej każdy element. Nie umiemy jednak zrozumieć dlaczego konkretna, wytrenowana sieć neuronowa ma takie, a nie inne wagi, żeby tak dobrze realizować jakieś zadanie.
.
Polecam naprawdę doskonały wywiad z prof. Marcinkowskim, który tłumaczy DLACZEGO generative AI to świetne narzędzie, ale NIGDY nie zastąpi matematyka. W odróżnieniu od powyższego wywiadu, wywiad z prof. Marcinkowskim jest nie tylko interesujący, ale również oparty na głębokim zrozumieniu istoty problemu, którego (moim zdaniem) kompletnie zabrakło powyżej.
.
ht_tps://wroclaw.wyborcza.pl/wroclaw/51,35771,29764431.html
1. Nie każdy kierowca nie musi wiedzieć jak działa silnik, ale MY doskonale znamy zasady działania silnika.
Jak działa AI nie wie NIKT i mówią o tym sami jej twórcy. Tworzą architekturę sieci neuronowej, podają dane wejściowe i otrzymują wyniki na wyjściu. CO zachodzi wewnątrz i JAK powstaje wynik NIE wiedzą.
2. Sieci neuronowe NIE uprawiają wyłącznie mimikry.
Dostałeś przykład Alphazero (dostał jedynie zasady gry w GO, trenował sam ze sobą), który rozwalił 100:0 pogromcę Lee Sedola - AlphaGo (ten był karmiony danymi) pól roku po tamtym pojedynku.
3. "Czy to znaczy, że sieć neuronowa jest genialna?" NIKT tak nie twierdził. Natomiast rozwija się w tempie wykładniczym.
"Dokładnie wiemy jak...działa i wiemy dlaczego... Znamy jej każdy element."
NIE wiemy i NIE znamy. Jak wyżej.
"Nigdy nie zastąpi matematyka." Z twierdzeniami "NIGDY" zalecałbym dużą ostrożność. Większość publiki ocenia stan obecny (który jeszcze 30 lat temu uznawano za czystą SF), co będzie za 30 lat przy rozwoju wykładniczym (jeśli się utrzyma)?
Prof. Dragan o tym mówił.
Dla mnie osobiście sposób w jaki wielu ludzi postrzega rozwój i możliwości (obecne i przyszłe) AI nosi znamiona wyparcia i racjonalizacji.
"Nie każdy kierowca musi wiedzieć..."
przepraszam, "jak sie cłowiek śpiesy to sie dioboł ciesy" mawiała moja śp. Babcia :-)
ChatGpt już teraz, w obecnej wersji, nadaje się na (tzn. zamiast) prezydenta pewnego środkowoeuropejskiego państwa.
Zapytajcie Gpt albo Barda o rozwiązanie kwestii PIS niekoniecznie ostateczne, chyba że skuteczne = ostateczne, ew. ogólnie socjopatii we wszechświecie. Istnieją algorytmy, które prawie ze 100% pewnością potrafią rozpoznać preferencje seksualne człowieka na podstawie fotografii twarzy, co stoi na przeszkodzie, aby wykorzystać je do zidentyfikowania socjopatów?
Taka to bajka, takie to czasy.
Ostatnio na konfrerencji na temat bezpieczeństwa usłyszałem fajne zdanie o różnicy między AI i ML (Machine Learning):
"Jeśli to jest napisane w PowerPoincie, to jest to AI, natomiast jesli jest to napisane w Pythonie, to jest to ML".
Dla niewtajemniczonych: Machine Learning to właściwa nazwa algorytmów określanych potocznie i nieprawidłowo jako AI. Ludzie, którzy zajmują się tymi tematami na poważnie, używają terminu ML. Terminu AI używają dziennikarze, celebryci i działy marketingu. To nowy "buzzword", w większości także "bullshit".
chatGPT zużywa dużo więcej zasobów naturalnych niż pojedynczy człowiek, wiec do rozwiązania katastrofy klimatycznej jeszcze daleko.
miałeś kiedykolwiek wątpliwości że ludzie wyginą ???
nie no błagam, bez bzdur
Algorytmy są bezlitosne.
Jest też opcja, że SI w przyszłości uzna, że można łatwo zaradzić katastrofie klimatycznej likwidując przyczynę. Co ty na to?
My też jakoś nie specjalnie przejmujemy się życiem w rzece budując zaporę
Przy komendzie: "za wszelką cenę", AI nie będzie miała chyba wyjścia jak poprzez ograniczenie, wyzerowanie, liczebności Homo sapiens. A może tylko tych z pazerną historią śladu węglowego na koncie?
AI raczej nie będzie się przejmować historią śladu węglowego, co perspektywą jego wzrostu.
Geniuszu a moze zdefiniujesz jakąś mądrą jednoznaczną definicją co to jest AI ? albo kto ?
Na dodatek prof. Dragan (najwyraźniej) nie do końca rozumie jak działa dzisiejsza AI. To zrozumiałe, bo jest fizykiem teoretycznym i ma w tej dziedzinie sporo sukcesów. Dziwne i szkodliwe, że w mediach robi karierę komentując AI zamiast fizyki. Ale dla dziennikarza profesor to profesor. Fizyk, informatyk, statystyk czy politolog? Co za różnica :)
No właśnie nie ma czegoś takiego jak AI. No chyba ze w filmach Sci-Fi. ten termin pochodzi jeszcze z lat 60-tych i nigdy nie miał wielkiego sensu. Te modne ostatnio duże modele językowe to technicznie rzecz ujmuąc algorytmy statystyczne służące do wyszukiwania. Właściwsze jest określenie "machine learning". Nie ma w tym nic "ludzkiego", jak się wielu wydaje.
Komputer z założenia jest mechanizmem deterministycznym (nawet jeśli bardzo złożonym). Wyjście jest całkowicie zdeterminowane wejściem. To samo wejście nigdy nie wygeneruje różnych wyjść brzy tym samym stanie systemu. pewnym wyjątkiem są tu komputery kwantowe, gdzie odczyt stanu q-bitu daje idealnie losową wartość. Ale my tu nie o komputerach kwantowych i generatorach liczb prawdziwie losowych, tylko o sztucznej pseudointeligencji... ;)
Wiele zależy od nas samych, nie AI. I niech będzie tak, że AI będzie nas przewyższało w szybkości i trafności podejmowania decyzji. Niech tak będzie. Scenariusze są dwa i te dwa scenariusze zależą od nas tak naprawdę. Pierwszy scenariusz: firmy zwalniają większość z nas, obniżają swoje koszty funkcjonowania, zostawiając swoje produkty dla grupki uprzywilejowanych - dystopia, ale nie ma tu winy AI, bo co ona może, że jest bystra? Drugi scenariusz, ustalamy dochód gwarantowany lub całkowicie rezygnujemy z pieniędzy i poświęcamy cały swój czas na rozwój siebie, swoich hobby. To wersja optymistyczna i również zależna od nas - ludzi. Wersja Terminator, w której AI postanawia wybić nas w pień to wersja filmowa.
"Jedno jest pewne - przyszłość jest bardzo niepewna." A czy kiedykolwiek była pewna?
Jest w tym nieco prawdy, ale tak na poważnie to AI (wąsko rozumiane, czyli "dzisiejsze") uważa się za taką ML, które operuje na danych mniej ustrukturyzowanych i jednocześniej oferuje szeroki zakres możliwości przetwarzania.
Np. duże modele języka mogą sprawdzić gramatykę, napisać coś, dopasować pytania do odpowiedzi, analizować podobieństwo semantyczne itp.
Otóż to. Ludzie notorycznie, od wieków, robią rzeczy, których nie rozumieją. Z naukowcami włącznie.
A jeśli chodzi o program do rozpoznawania pisma z 99% dokładnością - to ja poproszę szybciutko przesłać mi ten kod. Bo najlepszy dostępny na rynku soft do OCR czyli ABBY Fine Reader wykłada się na byle farfoclu, pieczątce na tekście, odrobinę bardziej skomplikowanej tabeli, itp.
Byli tacy, którym już ZX Spectrum wydawał się inteligentny, bo też grał w szachy. To może być ten przypadek.
Nawet można się zgodzić, żeby to nazywać inteligencją. Tylko ta inteligencja jest taka wyrywkowa.
Można jej zlecić napisanie programu do obsługi tankowania paliwa do samolotu? Albo sterowania obrabiarką cyfrową? Figa. Może pomóc w wygenerowaniu jakiegoś konkretnego kawałka kodu, ale 99% roboty i tak w rękach ludzi.
I tak ze wszystkim. Świetnie nadaje się tylko do generowania sprawozdawczości ESG i Compliance, bo to taki bełkot, że nikt normalny na trzeźwo tego nie da rady produkować.
Veto !!! Właśnie najczęściej robimy coś czego nie rozumiemy !
Duda codziennie robi rzeczy, których nie rozumie...
Algorytmy do rozpoznawania pisma to tez nie jest żadna AI tylko klasyfikatory. Znów statystyka zamiast magii i boskiego aktu stworzenia...
To są zwykłe algorytmy statystyczne. Pan Dragan powinien zostać przy fizyce zamiast wypowiadać się na każdy temat. Zresztą jego wykłady o fizyce na różnych konferencjach to tez epatowanie fizyką kwantową, która z natury swojej jest dość nieintuicyjna. Ale nie wychodzi w nich poza pierwszy wykład na ten temat. Można w tysiącu wersji posłuchać tego samego na YouTube od innych wykładowców, nie koniecznie wytatuowanych, ubranych w sportowe ciuchy i udających podstarzałego skate-a.
Prof. Dragan jest snowboardzistą. Ignorantia iudicis foret calamitas innocentis.
Ale ja nie piszę o Andrzeju Draganie...swoją drogą, to nasz mózg, to właściwie dokładnie to samo - algorytmy statystyczne. Plus parę "dodatków ewolucyjnych", takich jak emocje (wzmacnianie i/lub hamowanie transmisji i plastyczności synaptycznej) etc. Niekoniecznie owe dodatki poprawiają "jakość myślenia", ale znacznie upraszczają architekturę i zmniejszają ilość obliczeń. W Naturze się to sprawdza, a "dochodzeniu do prawdy" - niekoniecznie.
ha, ha , ha , uwielbiam futurologię - jedno jest pewne : będzie inaczej.
Model statystyczny - a na tym bazuje np. uznawany za "AI" Chat GPT - nie uzyska świadomości ponieważ jest tylko modelem językowym, który na podstawie swojego treningu i pewnego encyklopedycznego zakresu informacji serwuje odpowiedzi na bazie prawdopodobieństw wystąpienia sąsiedztwa określonych fraz. W tym kontekście "przerost intelektualny" będzie oznaczał szybsze maszynowe serwowanie okreslonych informacji.
Tak samo nie będzie "rewolucji maszyn". Jedyna rewolucja może zostać zapoczatkowana przez ludzi a dokładnie decydentów (CEO czy polityków), którym będzie się wydawało, że "AI" zawsze i wszędzie zastąpi ludzi. Ale hype może się wkrótce wypalić jak w przypadku kryptowalut, blockchaina czy NFT i obecne "AI" zostanie słusznie relegowane do swojej właściwej roli narzędzia wsparcia eksperckiego*.
* w powszechnym zastosowaniu zabawek w stylu Chat GPT czy Midjourney; są pewne bardzo specyficzne dziedziny w których modele statystyczne mają bardzo obiecujące perspektywy (chemia, rozpoznawanie obrazów)
Gratuluję dobrego samopoczucia i generalnego braku wyobrazni ;)
ChatGPT takim jaki jest obecnie pewnie nie uzyska. Ale owych "AI" jest całkiem sporo i wcale nie są modelami językowymi. I dlaczego całkiem bystrzy ludzie, a tacy pracują np w DeepMind, nie mieliby nie zechcieć połączyć cech ChataGPT, AlphaFold etc?
Gratuluję ignorancji i braku umiejętności rozróżnienia między fikcją a światem realnym. :-)
Właśnie AlphaFold jest jednym z obiecujących rozwiązań eksperckich, chociaż ma przed sobą jeszcze długą drogę jeśli chodzi o dokładność i skuteczność przewidywania zwijania białek.
Natomiast nie jestem pewien, czy skupione na konkretnych zadaniach algorytmy będzie można kiedykolwiek połaczyć w prawdziwą AGI.
Nasza kora większość informacji przetwarza w "procesorach" zwanych kolumnami korowymi (około 110 neuronów w sześciu warstwach, w korze wzrokowej, to "podwójna kolumna" - 6 warstw, ale 220 neuronów). One zajmują się głupimi, wyspecjalizowanymi zadaniami (np. jakie jest nachylenie kontrastu). Potem przesyłąją info dale i dalej i dalej...czemuż w AI nie moglibyśmy wykorzystać tej samej metody? Nie twierdzę, że to będzie kurat ChatGPT6, albo 7. Może coś całkiem innego. Może Microsfotowy, a może chiński...
Mów za siebie. Mnie raczej nie przerosną... Ale widziałem takich, których dawno przerosły. Część z nich stoi teraz pod TVP. :)
Nie nazywaj wyobraźnią ignorancji. @pauleycz ma rację i wie o czym pisze. Ty nie.
Oczywiście. Mamy sztuczne sieci neuronowe, algorytmy genetyczne, klasyfikatory itp. Ale to dalej nie ma nic wspólnego z samoświadomością. Czysta matma i statystyka.
I to samo Ci powie ChatGPT, że jest modelem językowym, a używanie AI to potoczne stwierdzenie i na wyrost. Jeśli trzymać się AI to wyróżnia się słabą i silną, choć i to jest na wyrost. ChatGPT to model językowy i ma swoje ograniczenia - dziś. Choć już teraz, a używam wersji z Plusem stał się znacznie bardziej rozbudowany, bo spina ze sobą kilka modeli i może tworzyć obrazy w jednej i tej samej konwersacji.
Microsoft korzysta z rozwiązań OpenAI, choć na swój sposób, imho znacznie gorszy od ChatGPT, niby ten sam model językowy, ale rozwiązania zupełnie inne. Bing/Copilot jest jakiś taki mało "ludzki".
Ale nasz mózg, to też "czysta matma"; tyle, że najeżona błędami (uroki biologii). A samoświadomość? Pewnie pojawia się spontanicznie w ramach wzrostu złożoności sieci (czy mysz posiada samoświadomość? niektóre eksperymenty sugerują, że tak, aczkolwiek znacznie różniącą się od naszej). Ciekawym jest, czy jakakolwiek forma "instynktu samozachowawczego" jest niezbędna dla pojawienia się świadomości, czy też nie.
Świat realny wielokrotnie przerastał fikcję. Nie był bym taki pewny siebie, panie Pewny :)
Raczej nie jest.
Nie chodzi o zaginanie kogokolwiek, ale o interdyscyplinarność Dragana i zasięg horyzontów. Jeśli ktoś ma stawiać dobre pytania i udzielać niesztampowych odpowiedzi w tak dziwnych czasach, to kto, jeśli nie Dragan?
Ty, Pan, Pani...a na poważnie: pewnie wielu, ale Dragan ma odwagę, będąc osobą rozpoznawalną, to mówić, I chwała mu nie na wysokościach!
Polecam wywody prof. Aleksandry Przegalińskiej.
Ona jest raczej optymistką.
Opowiada truizmy i dziwnie się ubiera. W dodatku chętnie wypowiada się na tematy, o których ma bardzo słabe pojęcie. Gdzie tu ta mądrość i bystrość? W tym, że potrafi dobrze sprzedać swoją stylówę?
Dziękujemy za opinię
Możesz wracać do kopania rowów.
Pewnie dlatego, że Przegalińska jest profesorką od filozofii i etyki, a nie od sztucznej inteligencji.
W tym, że wie gdzie stoją konfitury. Na jej filozoficzno-etyczne badania nad etyką sztucznej inteligencji i rzeczywistością wirtualną (to co, że w grze Second Life) łatwiej dostać grant. A o coż innego w nauce chodzi, tak?
Oczekujemy zatem wykładu niejakiego PolakaGD, który wypowiada się na tematy, o których ma duże pojęcie. Jest też mądry i bystry. No i nie ubiera się dziwnie.
Hej, kopanie rowów to nasza jedyna nadzieja;)
Ktoś, kto zna się na tym, o czym się wypowiada?
Gdzie się chowałeś, skoro dziwi cię jego ubiór?
Przede wszystkim Dragan jest celebrytą, dopiero później naukowcem i jak przystało na celebrytę musi wzbudzac emocje, aby utrzymać się na świeczniku sławy, stąd snucie czarnych wizji rozbudzających wyobraźnię sterującą emocjami. Słuchając wypowiedzi Dragana odnoszę wrażenie, że jego wiedza i umiejętności nie jest większa, niż nauczyciela z technikum.
Takich pytań jest całkiem dużo…
Jednym słowem, to co matematyczne da się załatwić teoretycznie, to co biologiczne potrzebuje eksperymentów. Przynajmniej na razie…
Dokładnie! Ale to nie oznacza, że biolodzy/lekarze na oślep przeprowadzają eksperymenty (no dobra, czasem tak czynią). I AI może zaproponować eksperymenty mające pokazać, że ich wyniki są w zgodzie z jakąś wymyśloną hipotezą, a mając je - rozwinąć/zmodyfikować hipotezę. Zupełnie jak ludzie. I wystarczą roboty laboratoryjne i paru techników laboratoryjnych...
O symulatorach słyszałeś? Istnieją symulatory lotu w których rozwiązuje się problemy bez odrywania się od ziemi. Z czasem zbuduje się inne. Wyobrażam sobie cyfrowy "symulator" człowieka na którym sprawdza się na przykład skuteczność leków i tworzenie nowych. O chirurgii już nie wspomnę. W tej chwili są roboty chirurgiczne które obsługuje człowiek. Jaki problem człowieka zastąpić innym rodzajem inteligencji?
>> Jaki problem człowieka zastąpić innym rodzajem inteligencji?
Dzwoniłeś ostatnio na jakąś infolinię może?
A kogo ten robot prowadzony przez AI będzie operował?
Robota?
AI?
Bzdura zupełna. Obecne sieci neuronowe (jak rozumiem to masz na myśli pisząc o "AI", jest to bardzo daleko idące zawężenie) nie odpowiadają na... ŻADNE pytania. Są wyuczone na bazie konkretnych przypadków. Nie stworzą niczego faktycznie nowego (nowej koncepcji, nowego dowodu, nie rozwiążą jako pierwsze problemu) i nie myślą logicznie. Po prostu modelują. I z modelu im wychodzi to, co im wychodzi. Jak wytrenujesz sieć neuronową na tekstach rasistowskich, to będzie generować teksty rasistowskie. A jak na tekstach o tolerancji, to będzie generować teksty cudownie tolerancyjne. ZUPEŁNIE BEZMYŚLNIE, bo to jest MODEL. Modele NIE MYŚLĄ tylko MODELUJĄ.
.
Dla Twojej wiadomości, w informatyce, która jest często (słusznie!) uważana za poddziedzinę matematyki, eksperyment jest podstawą wiedzy, ponieważ... wytworzenie dokładnych algorytmów działających w skończonym czasie przerasta nasze umiejętności. Na przykład w optymalizacji problemów NP-trudnych (to takie bardzo trudne problemy, na przykład optymalizacja planu produkcji) bazuje się niemal wyłącznie na eksperymentach. Dlaczego? Bo nawet dla niewielkich przypadków takiego problemu liczba rozwiązań takiego problemu jest monstrualna (np. 10^5000 możliwych rozwiązań), a algorytmy dokładne nie istnieją/nie są nam znane. Robi się więc optymalizatory działające częściowo losowo, których podstawę działania i każdy mechanizm z osobna rozumiemy, ale całości (choć dokładnie wiemy JAK działa) już nie.
.
AI nie odpowie na Twoje pytanie o przyczynę choroby Alzheimera. Dlaczego? Bo nigdy nie widziała takiego przypadku w swoim zbiorze uczącym. Dlaczego nie widziała? Bo CZŁOWIEK jeszcze na to pytanie nie odpowiedział. Sztuczne sieci neuronowe nie myślą. One modelują zbiór przypadków, na których zostały wytrenowane.
.
AI jest fascynująca. Zachęcam do szukania informacji w wiarygodnych źródłach. Wybitny fizyk może (z całym szacunkiem!) nie być najlepszym adresem.
Dragan mówi, że nie wiemy jak działa AI, ale okazuje się, że niektórym wydaje się, że wiedzą … Nobel w przyszłym roku ?
Być może już mamy eksperymentalne dane wystarczające do określenia pierwotnej przyczyny Alzheimera, ale dopiero AI dostrzeże w nich wzorzec i wyciągnie odpowiedni wniosek.
Ale opisanych przypadków Alzheimera mamy dużo. Wzgbogacic je o geny pacjentów i dana środowiskowe ich życia i być może już dzisiejsza AI wskaże jakie są przyczyny, albo przynajmniej z milionów kolejnych potencjalnych chorych wskaże kiedy zachorują inż jakim prawdopodobieństwem.
Z symulatorami lotu to strzeliłeś kulą w płot. Jasne, że istnieją symulatory, ale one konstruowane są w oparciu o dane empiryczne, a nie symulacje. Nasza wiedza i moc obliczeniowa nie pozwalają na pełna symulacje zachowania powietrza, dlatego nadal nie potrafimy opracować optymalnego kształtu skrzydła i modele testujemy w specjalnych komorach.
AI to algorytmy statystyczne a nie inteligencja. Tego, kto wymyślił termin AI powinni skazać...
jesteś pewien, że to co zachodzi w twojej głowie to nie są też algorytmy statystyczne?
Tak się tylko pocieszasz, że jesteś niezastąpiony. Z czasem w drodze ewolucji (oby nie rewolucji) nowa inteligencja wyprze człowieka. Jeżeli będzie miała trochę empatii to może zostawi nas w jakiś rezerwatach?
Będzie potrzebowała energii elektrycznej, bardzo dużo energii.
Prosty przykład o fotografii Lyncha z tego artykułu obnaża dobitnie jakie bzdury wypisujesz.
AI wie jak wygląda Lynch, jak wygląda postać która coś trzyma, jak wygląda kura, więc połączy te elementy i zrobi rysunek
poza tym AI nie będzie zbytnio twórcza