Transkrypcja
Wstęp i newsy
Cześć, witamy w kolejnym odcinku podcastu.
Cześć.
Dzisiaj druga część naszych rozważań o sztucznej inteligencji i rzeczach…
Było o czym innym
…z tym gdzieś tam powiązanych. Tak, no temat się tak rozwija i pojawiła się też cała masa specjalistycznych kanałów, więc nie będziemy tutaj jakoś mocno się w różne newsy, że tak powiem, zapuszczać, bo pewnie…
Tylko pobieżnie.
…bardziej zaznajomieni od nas to robią na dedykowanych kanałach.
Kimże my jesteśmy?
Dokładnie, ale zawsze chętnie skomentujemy.
Można pośmieszkować.
Tudzież pośmieszkujemy , tudzież zhejtowujemy.
A „zhejtować” to jak najbardziej.
Jak najbardziej?
Zhejtujemy drugą część tej książki.
W części kulturalnej Albo w części… książkowej.
To już hejtujemy czy najpierw newsy?
Najpierw newsy. „Hejt” będzie w przerywniku.
W stosownym momencie. Dobra.
Symulacja fizyki w treningu AI
Czyli najpierw newsy. No generalnie wiadomo, dzieje się jak zwykle dużo. Od ostatniej naszej rozmowy troszkę czasu minęło.
Znowu.
Znowu i już się wiele wydarzyło.
Zostawić ich na chwilę, co nie?
Wspominaliśmy na przykład, takie małe może przypomnienie z ostatniego odcinka, bo często poruszaliśmy tam temat nauki przez ruch jako taki nieodłączny element w ogóle.
Ruch rozumiany jako zmienność.
Jako zmienność, ale ruch rozumiany jako przemieszczanie się w przestrzeni, w odróżnieniu od LLM-ów, czyli modeli językowych, które z zasady w przestrzeni niewiele robią. Chyba że w jakiejś przestrzeni…
Zaraz do tego dojdziemy na przykładzie pewnego filmu.
Tak. Natomiast dosłownie parę dni po tamtej naszej rozmowie gdzieś tam trafiłem na Nvidia Omniverse i to jest taki symulator fizyki dla uczenia właśnie maszyn, robotów. Generalnie zamiast symulować jakieś warunki w naturalnym świecie i próbować tego robota nauczyć przekładać te piłeczki z jednego kubeczka w drugi – no bo to na razie większość tych robotów robi na różnych prezentacjach, czy to Tesla, czy jakieś inne, to przekładają tam dzielnie te piłeczki czy jakieś tam inne rzeczy w halach magazynowych – coraz lepiej im to idzie, ale ruchy wciąż są niepewne – więc zamiast robić to w świecie rzeczywistym, gdzie no mamy pewne ograniczenia w ilości prób, mamy pewne ograniczenia świata fizycznego, nie da się ukryć, nie da się tego tak zaskalować właśnie jak trenowanie dużych modeli językowych, więc tutaj Nvidia wychodzi naprzeciw tym wszystkim ograniczeniom i proponuje właśnie taką symulację tych wszystkich rzeczy, które robot miałby wykonywać w rzeczywistości, ale w symulacji takiego świata z wiernie oddaną fizyką, z wiernie oddanym zachowaniem przedmiotów, materiałów, ruchem.
O, to tu zaraz będziemy hejtować – coś tak czuję.
I tam właśnie ta maszyna, ten robot może sobie trenować wszelkie ruchy czy właśnie chociażby kombinacje – no właśnie, te układy odniesienia. Na niektórych screenach nawet tak fajnie to wygląda. Rozmawialiśmy o tym kubku czy ogólnie o przedmiotach, które my jako ludzie rozpoznajemy przez ruch i poprzez dotykanie i oglądanie. I tam faktycznie było też to podobnie pokazane. Też właśnie był na przykład jakiś kubek, który z wielu różnych stron był gdzieś tam obracany i jakieś wnioski z tego zdaje się były wysnuwane dla tych naszych robotów, więc no chyba coś w tę stronę też idzie.
Czyli przeczytali tę książkę pewnie. Wreszcie…
Może tak, może coś tutaj pan Jeff Hawkins im podpowiedział. Może wysłuchali naszego podcastu, chociaż Nvidia Omniverse to już też jest starszy projekt, ale generalnie właśnie widać, że idzie to mocno właśnie w tę stronę, czyli ta symulacja fizyki, rzeczywiście zachowania takiego wiernego światu rzeczywistemu, no jest ważna, zwłaszcza w kontekście tych robotów, no bo jednak ciężko nauczyć się poruszania po świecie fizycznym tylko i wyłącznie, scrapując dane z internetu. Takie zwykłe dane.
Tak, no bo to ciężko nawet liczbę palców dobrać, jak się okazało, nie?
Dokładnie, a co dopiero chodzić po schodach czy nosić tamtą torbę za majstrem, jak te roboty próbują robić.
Tak, tak.
Czyli są, widać tutaj, postępy nie tylko w sposobie trenowania tych dużych modeli językowych, ale także w bardziej takim fizycznym, namacalnym, w czymś, co da się zastosować bardziej w przestrzeni naszej codziennej.
No i to skutkuje czymś dobrym?
Według twórców, według Nvidii oczywiście i według producentów tych maszyn – oczywiście, że tak. No bo wtedy te roboty zyskają większy zakres możliwości ruchu, lepsze, pewne, też bezpieczniejsze operowanie jakimiś rzeczami, którymi mają operować, czy to te paczki na magazynie, czy chociażby jakieś tam rzeczy, które muszą sobie posortować czy porobić, więc no pewnie tak, w dłuższym horyzoncie. Pewnie to skutkuje jeszcze większą ilością pracy czy stanowisk, które będą zastępowane tymi właśnie maszynami, no bo coraz więcej rzeczy da się w ten sposób zrobić.
Czy to jest okej? No to zdania są podzielone.
No zdania są od tego, żeby były podzielone, ale jakby to się jednak chciało sprawdzać, to byłaby to też rzecz potwierdzająca tę teorię z żółtej książeczki.
Pewnie trochę tak. No bo jeżeli te mechanizmy się przekładają w dużo mniejszej skali – bo wciąż jestem pod wrażeniem skali zagadnienia, w sensie jak dużo informacji jest przetwarzane przez jak dużą ilość jest przetwarzana przez te nasze struktury w korze nowej w porównaniu do tego, co co tutaj się przetwarza. Pewnie tutaj też idzie to w duże wolumeny, ale mimo wszystko no chyba nasz mózg to jakoś robi sprawniej wciąż, nie? Bo potrafimy się nauczyć takich ruchów. Dobra, tutaj trochę gdybam, bo nie wiem, ile tam zajmuje na przykład wytrenowanie takiego przeciętnego robota na tle na przykład trenowania takiego naszego bobasa ludzkiego, który się uczy, jak poruszać swoją grzechotką, żeby było fajniej, nie?
To chyba ciężko jest porównać, bo tam będzie trochę postawiony nacisk na precyzję bardziej, a tutaj mamy po prostu naturalny proces. Pewnie też inne zakresy ruchu będą potrzebne. No bo pewnie taki robot nie musi uczyć się skakania na trampolinie czy wchodzenia na drzewa, jak to zwykle robią dzieci.
Czemu nie? Mógłby się nauczyć.
Więc czy grania w piłkę na poziomie zawodowym, chociaż może… to pewnie będą bardziej takie czynności przydatne do pracy. To raz. Więc tutaj pewnie będzie ten zbiór ograniczony. A dwa, że to może potwierdzać tę teorię, która jest w książce. Pytanie tylko, czy struktury, które będą przechowywać tę wiedzę, i sposób, w jaki sposób jest podobny. Powiedzmy tak, że te symulacje mają uczyć na podstawie faktycznego zachowania. Pytanie, w jaki sposób te rzeczy są przechowywane i w jaki sposób rzeczywiście z nich ten robot będzie korzystał.
No w Matlabie są w macierze.
Pewnie. No oczywiście. Tak jak u nas.
Tak jak u nas. Więc tutaj może być ten drobny szczegół, że teoretycznie proces uczenia jest bardzo podobny z wierzchu, tak? Z wierzchu, ale w środku przez te różnice reprezentacji, których pewnie nie udaje się jeszcze tak idealnie oddać, wyniki mogą być inne. Pytanie, czy lepsze, czy gorsze, to już jest inna sprawa, ale pewnie będą troszkę inne. No w każdym bądź razie jest to jakiś tam kolejny kierunek, w którym, że tak powiem, tutaj to zmierza.
Biznes i rynek sztucznej inteligencji
Ciekawostka. Ciekawa ciekawostka i też jak już jesteśmy przy okazji Nvidii, no to też pewnie warto wspomnieć, że Nvidia chyba najbardziej zyskuje na całym tym bumie na sztuczną inteligencję, bo od dawna wiadomo, że przy gorączce złota najwięcej zyskują producenci łopat tudzież producenci chipów, tak jak Nvidia. No i rzeczywiście, rzeczywiście tak naprawdę każda firma, każdy startup próbuje coś tam trenować. Do tego potrzebne są ogromne ilości mocy obliczeniowej.
No a Nvidia coraz więcej tej mocy dostarcza i mocno rośnie. I tak naprawdę w ciągu dosłownie trzech lat, bo jeszcze w 21. roku pod względem kapitalizacji nawet nie była w pierwszej dziesiątce firm świata, gdzieś tam weszła dopiero w ostatnim kwartale, a teraz już jest trzecia na świecie i goni Microsoft. Więc widać, że na tym trendzie mocno zyskują i nieważne, co się będzie działo z bieżącymi startupami, które próbują coś zrobić. Nvidia już teraz sporo zyskała i sporo wygrała. Startup-y mogą sfejlować, pomysły biznesowe mogą się nie udać, ale już Nvidię to nie interesuje. Oni swoje zarobią, więc pozycję mają dość dobrą.
Ale oczywiście swoje też coś tam próbują robić – właśnie wspomniany Omniverse – więc nie poprzestają na tych układach scalonych. No ale widać, że stają się dużą megakorporacją.
No i oczywiście, nie to, żeby jacyś mali byli przez chwilę, nie żeby byli mali oczywiście, bo już wcześniej byli duzi. Jak grzyby po deszczu wyrastają też inne firmy, które próbują właśnie w takiej sferze hardware’u gdzieś tam się wbić i produkują jakieś bardzo specyficzne chipy, które mają za zadanie właśnie wspomóc uczenie tego typu dużych modeli językowych.
Gdzieś tam, gdzieś tam pojawiają się jakieś takie firmy jak Edge, który zdaje się tworzy taki układ scalony, który jest implementacją takiego modelu transformera, ale już bardziej w krzemie.
Intel też gdzieś tam robi swoje chipy, wiadomo, Nvidia, więc wszyscy starają się coś tam też wspomóc, że tak powiem, tutaj to uczenie, no bo wiadomo, zwykłe procesory nie do końca się pod tym względem wydajności nadają.
Więc ciekawa byłaby architektura takiego procka, który by chciał udawać takie kolumny neuronalne potencjalnie.
Tak, tak, tak. Może, może ktoś też coś takiego będzie wymyślać. Chociaż tutaj wydaje mi się, że Jeff Hawkins też mocno w tę stronę będzie iść, bo jego obecna firma też właśnie mocno idzie w taki consulting i wsparcie w ramach właśnie sztucznej inteligencji i podejrzewam, że z czasem może też będą chcieli, o ile już tego nie robią, też bardziej w stronę sprzętowej implementacji tych swoich algorytmów, które wymyślili.
Jak to już zaczyna działać w wielkiej skali, to teraz trzeba wykombinować, jak to wepchnąć do pralki na przykład.
No tak, tak, bo wiadomo, każdy produkt obecnie musi mieć sztuczną inteligencję.
Dokładnie. I to się znakomicie odbija w kulturze już od długich lat.
Wątpliwości i porażki w świecie AI
To znaczy, tak, tak. Znaczy widać też, że wciąż jest pewien problem z monetyzacją tych rzeczy, które tutaj startupy nam proponują. No wiadomo, mamy coraz więcej dodatków do bieżących aplikacji czy systemów, które gdzieś tam działają na poziomie AI. Możemy sobie w Jirze czy w Confluence zredagować stronę i ładnie nam tamten Confluence podpowie content, gdzieś tam nam wygeneruje z tego AI assistanta. Mamy oczywiście Copiloty czy rozwiązanie również IntelliJ, który nam ładnie kod zaproponuje. Ostatnio Figma gdzieś tam też mocno wprowadziła AI w swoje UX-owe narzędzia, co też ma zdaje się zastąpić designerów.
Ciekawe, ile będzie textfieldów proponować, od trzech do ośmiu na formularz.
No tyle, ile będzie potrzeba. Więc widać, że narzędzia zyskują nowe funkcjonalności, bazując właśnie na dostępnych metodach sztucznej inteligencji, ale też pojawia się coraz więcej takich głosów wątpiących tutaj w cały ten trend i tak naprawdę wieszczących wielką bańkę.
Coś dla mnie.
Możesz dołączyć do tych głosów.
Nie wiem, czy już nie dołączyłem jakoś po cichu.
I tak naprawdę są już jest coraz więcej porównań właśnie z poprzednimi bańkami. No wiadomo, bańka dot-comów to już była dość dawno, ale taka bliższa nam tutaj bańka Big Data, która też – no może nie była jakąś wielką bańką, bo nie zakończyła się wielkim krachem – ale Big Data też swego czasu miała bardzo duży hype i wszystkie firmy starały się jak najwięcej tych danych, że tak powiem, zawłaszczyć i z tego wyciągnąć magicznie jakieś patterny, które zoptymalizują ich biznes.
Częściowo się to oczywiście udaje.
Może to właśnie częściowo zostało wciągnięte w te modele duże.
Częściowo pewnie tak. Pewnie teraz duże modele to są duże ilości danych.
Tak. No to znaczy, mając kulturę przetwarzania dużych ilości danych, to jednak popchnęła trochę to, przyczyniła się przynajmniej do rozwoju. Jest to pewnie powiązane, bo do tej pory podejrzewam, że te wszystkie wielkie firmy, które rzeczywiście agregowały duże ilości danych, jak Facebook czy jakieś inne social media, czy jakieś firmy usługowe, czy to dowożące jedzenie, czy tego typu, czy Uber, gdzie też jest bardzo duża ilość danych – same dane nie wystarczą, bo trzeba jednak mieć sposób, żeby z nich coś wyciągnąć. I te jakieś patterny, które te firmy miały nadzieję uzyskać, one same z siebie się nie pojawiają. Więc rzeczywiście gdzieś tam pewnie ten rozwój tych modeli trochę pomógł, ale nie ma co ukrywać, że do tej pory Big Data raczej miała więcej problemów z prywatnością tych danych i z przetwarzaniem tych danych, i ze sprzedawaniem tych danych gdzieś tam podmiotom trzecim na czarnym rynku.
Na czarnym rynku bądź na szemranym rynku.
No i też jest sporo analiz, nawet takich biznesowych, które konfrontują troszkę te opowieści tych dużych big techów, które twierdzą, że mając coraz więcej danych, ich zysk, ich margines tego zysku będzie rósł. No i widziałem pewne statystyki, które pokazują, że ten trend wcale nie jest jakoś super rosnący i jest praktycznie zbliżony do wcześniejszych zysków z okresów, kiedy Big Data właściwie nie było. Więc pytanie, na co to komu i czy faktycznie to Big Data tym firmom… Oczywiście, bo nam to… no nam, to tak, no ale wiadomo, to jest pewnie temat na inną dyskusję.
W każdym bądź razie sztuczna inteligencja tutaj jest gdzieś tam już troszkę kontestowana. Pojawiają się głosy z różnych stron.
Łatwo.
Coraz więcej ludzi twierdzi, że no przecież to jest tylko prosta algebra, proste tutaj matematyczne rzeczy i nie mamy do czynienia z niczym magicznym.
Jakby tak popatrzeć na te sygnały, które tam omawialiśmy w poprzednim odcinku, to tam też nie ma niczego magicznego, bo jest trochę jakiegoś potencjału elektrycznego, jakaś tam szczypta chemii do tego, no i siup, nie?
No tak, tak, tak. I taki neuron, który sobie to wszystko zbiera, i jak mu tam styknie, to piknie.
Tak, jak potencjał będzie wystarczający, to się uaktywni. No oczywiście, wszystko można sprowadzić do pewnych fizycznych podstaw. Natomiast chyba jest takie oczekiwanie na jakiś przełomowy, naprawdę przełomowy produkt albo naprawdę przełomowe zastosowanie. Jest jakieś pewne oczekiwanie, bo wszyscy już zdążyli się przyzwyczaić do generowanych obrazów, generowanego tekstu.
Nie dość, że przyzwyczaić, to się zdążyli znudzić.
Zdążyli się znudzić. Spora część ludzi chyba też zobaczyła, że generowany tekst i ChatGPT no nie zastąpi w wielu przypadkach jednak jakiejś takiej większej…
Scenarzysty Rings of Power na przykład.
No akurat jego czy jej to może zastąpić, czy ją. Ale tutaj też pojawiają się takie drobne wtopy i rysy na tym całym wizerunku. Na przykład Google Search AI, czyli wspomaganie wyszukiwania w wyszukiwarce Google’a przez AI, które zostało dość szumnie wycofane i skomentowane oczywiście na firmowym blogu. Dlaczego tak się dzieje? No bo na przykład jednymi z porad tej wyszukiwarki wspomaganej AI było jedzenie kamieni i że jedzenie kamieni jest dobre dla zdrowia.
Bo są jakieś zwierzęta, którym to pomaga w trawieniu.
Tak. No to wiadomo. Albo porada na temat pizzy, że na nie trzymający się ser na tej pizzy lepiej użyć wtedy kleju, żeby to przykleić. I to są oficjalne porady.
Kurde, od dawna podejrzewałem.
I oczywiście było tam bardzo dużo tłumaczeń, skąd takie rzeczy się wzięły.
Jak klej z mąki, to się nada.
Tak, no tego chyba nie było dodane.
A taki szkolny, kto nigdy kleju szkolnego nie jadł, niech pierwszy rzuci kamieniem.
W każdym bądź razie to też dobrze pokazało po raz kolejny, że jednak wyszukiwanie takich przepastnych zasobów internetu i nieodróżnienie pewnych rzeczy, które były żartem, jakąś satyrą, ironią, nie były na serio, i włączenie ich do wyników wyszukiwania, które bierzemy na poważnie…
Czyli nie umieją w sarkazm?
Nie, nie, nie, chyba nie. Więc memy, tego typu rzeczy chyba jeszcze nie do końca będą akurat rozumiane dobrze. Także widać, że no nawet najwięksi mają z tym problem i zresztą podobnie też jest w Chacie GPT, który też, no teraz trenuje się już wersja piąta, ale też pewnie bardzo dużą wagę przykładają właśnie do prywatności, do tego, żeby czat nikogo nie obrażał, nie był jakiś, że tak powiem, zbiasowany.
Powinien sobie The Boys pooglądać.
No tak. No tak. Jeśli odpowie ci tekstem Billy’ego Butchera…
Możesz go wyłączyć wtedy.
Znaczy może akurat ty się nie obrazisz, ale pewnie co wrażliwsi mogą się obrazić, nie?
Ja bym sam z nim pogadał wtedy.
Także widać, że jest dużo problemów i dużo przeszkód w integracji tego typu technologii, gdzie nie mamy pełnego wglądu, jak to do końca działa, jak się zachowa we wszystkim.
Nawet lepiej, bo w ogóle nie mamy wglądu.
Jakiś wgląd gdzieś tam mamy.
Bo już tam pan Altman powiedział, jaki mamy, po czym go musieli wywalić i z powrotem zaprosić.
Jak się okazało, że nie mamy, w sensie, że człowiek nie ogarnia, co tam się wyrabia w środku.
No tak. No bo jeśli to już jest tak skomplikowane, no to ciężko czasami prześledzić tę drogę tak jak w normalnym algorytmie. Mamy dane wejściowe, mamy dane wyjściowe, tak jak w naszym CRUD-zie na przykład. W naszym CRUD-zie to bardzo łatwo prześledzić.
Chyba że zrobimy siedem warstw abstrakcji, wtedy nie.
Wtedy nie, ale to i tak jest prostsze niż…
Wtedy jest już legacy.
No ale tak, no to są na pewno jakieś tam ograniczenia i problemy sztucznej inteligencji w takich rozwiązaniach bardzo globalnych, jak wyszukiwarka na przykład.
Sztuczna inteligencja w kulturze
Tak. I tu wypada przytoczyć ostatnie znalezisko kulturalne, jakim jest taki niecałkiem ostatnio ujawniony film – Upgrade, czyli „Ulepszenie” po naszemu. Jakby co, to tam na platformach można go znaleźć. I rok 2018, także nie spodziewałem się, że takie niskobudżetowe jak na te standardy kino science fiction właśnie w tych klimatach sztucznej inteligencji może być tak fajnie poprowadzone. I tam jest dużo takich fajnych smaczków, łącznie oczywiście z rozwiązaniem… tu bez spoilerów, ale zakończenie jest bardzo fajne.
I właśnie wszystko się w tym zakończeniu spina z samym początkiem, bo na początku mamy taki dreszczyk, że coś idzie nie tak w pierwszych scenach, kiedy tam dochodzi do pewnego zdarzenia.
No i weź tu poopowiadaj, jak tu spoilera nie wolno dawać.
A może można, co nie? Będzie chciał obejrzeć. Ale momentami też przypomina Venoma i te pogawędki z pewnym bytem, który tam się objawia, są takie troszkę w rodzaju Venoma i wewnętrznego głosu.
Te interakcje w ogóle. I te interakcje takie, jak tam Venom przejmuje kontrolę.
No tak, tak, tak. To jest też fajnie pokazane, ale ogólnie to tam ciekawe się pojawiają pytania i też takie trochę odpowiedzi. Jest na pewno bardzo na czasie. Jest dopasowany do tego właśnie, co teraz…
Także to warto polecić. Bo co tam jeszcze z nowinek kulturalnych? Drwal oczywiście zrecenzował kolejne odcinki Akolity, więc tutaj to można…
Serialu nie oglądać.
Także Wojtek, polecam.
Ja obejrzałem, bo Drwala nie oglądam.
My tu mamy team zwolenników Drwala i my oglądamy oraz team przeciwników.
Może zwolenników materiału źródłowego.
O tak, bardziej zwolenników, którzy dokładnie wolą zbadać materiał źródłowy i wysnuć swoje własne, że tak powiem, zdanie.
No chyba że materiał źródłowy nie nadaje się do badania, to wtedy jesteśmy w teamie.
Ale to nie wiadomo, dopóki go nie zbadamy.
No jak już został częściowo zbadany, to se można odpuścić. To jest jak z tym fotonem. Dopóki go nie zbadasz, to nie wiesz, czy jest cząstką, czy falą.
Więc dopóki nie zbadasz materiału źródłowego serialu Akolita, nie wiesz, czy jest zły, czy dobry.
No okej, okej. Ja go tam zbadałem za pomocą Drwala. A co tam więcej? Nic nie mamy żadnych wieści o Gollumie. Nic mi się nie obiło o uszy, więc nie słyszałem, ale nie śledziłem specjalnie.
Ale The Boys można polecić zdecydowanie.
Jeśli jest się na drugim sezonie, tak jak ja, to można. Albo nawet nie, bo trochę mnie znudziło.
Ale nie powinienem tego mówić publicznie.
Oj tam, przejdzie ci pod koniec może drugiego sezonu. Już nie pamiętam, co tam…
Właśnie nie, no wrócę, obiecuję. Wrócę, wrócę.
I co? I właściwie tyle, nie, z tych takich doniesień bieżących.
Tak. No nic, nic.
Ramy odniesienia i percepcja mózgu
Możemy jeszcze zahaczyć tutaj o naszą książkę wspaniałą, bo będziemy znowu troszeczkę rozmawiać, jak w poprzednim odcinku, o panu Jeffie Hawkinsie i jego książce „1000 mózgów w twojej głowie”.
Polecanej przez Billa Gatesa również.
Michał, przemilczę już.
Ale już Michał się z tym pogodził.
Tak, pogodziłem się w zeszłym odcinku, ale tylko trochę.
Ale on tylko poleca, nic tam więcej nie tego, więc można to zignorować, jeśli się nie jest fanem. Ale też chyba… właściwie to też już pojechaliśmy po Darwinie w poprzednim odcinku jakoś lekko i chyba też teraz się to przydarzy. A w ogóle to odcinek ostatni skończyliśmy na tych hierarchicznych układach odniesienia, tak?
Układach odniesienia, co jest taką główną teorią tutaj pana Jeffa.
Albo jedną z teorii. Znaczy, ale to tak w kontekście na przykład tego nvidiowego wynalazku, to wydaje się, że powinna raczej być trafiona, tym bardziej że im się to właśnie sprawdziło w wyjaśnianiu tych fenomenów. I tutaj ciekawy przykład jest opisany na ruchy sakkadowe gałek ocznych, czyli takie pozornie chaotyczne przemieszczenia tego organu, które skutkują próbkowaniem obrazu w formie, zdawałoby się, niepołączonych ze sobą fragmentów, które następnie kora nowa składa w taką ciągłość, że nie jesteśmy w stanie zobaczyć, ile to ma klatek nawet.
Tak, taką stabilny obraz.
Stabilny obraz, który po prostu nadaje się do podziwiania, a składa się właśnie z takich niezliczonych wręcz ilości fragmentów, klatek, które… no właśnie, mi to się układa w taki obraz mozaiki, którą trzeba wypełnić i ponakładać. O, to wygląda tak jak na przykład w tych fejkowych zdjęciach NASA, gdzie oni tam nakładają różne zdjęcia, że niby z kosmosu, na siebie i później mają już gotowy na przykład zarys. Tudzież w tych prawdziwych zdjęciach.
Ciekawszy temat to te fejkowe, co nie? I ten koleś taki od grafiki, co mi tam to koloruje, nie? I jeszcze dodaje cieniowanie, nie? Ale to okej.
I te refleksy na przykład na oceanie.
W każdym razie te oczy nasze to robią podobnie, że składają tak z fragmentów ten nasz obraz. A mózg, w sensie kory nowej, ten ośrodek patrzenia, on potrafi jednak wykrzesać z tego jakiś obraz po to, żeby na przykład dalsze etapy przetwarzania w tym pipeline potrafiły na przykład jeszcze znaleźć układy odniesienia w tym wszystkim, nie?
Pamiętajmy też, że mamy dwoje oczu, czyli mamy taką stereo tutaj wizję.
Tak, no taką jakąś stereoskopię, czyli możemy sobie dzięki temu umiejscowienie w przestrzeni lepiej… I wszystko to się tutaj, że tak powiem, kręci wokół tych układów odniesienia, bo zarówno ta gałka, która wykonuje ruchy, jest w jakimś tam ciągle monitorowanym układzie odniesienia i ten układ odniesienia ma wpływ na to, jak to jest właśnie później przekładane na już ten gotowy obraz. A później w tym obrazie są wychwytywane kolejne widoczne układy odniesienia i nakładana jest informacja jedna na drugą. Przy czym jeszcze te układy odniesienia to nie wszystkie dotyczą w ogóle przestrzeni czy ruchu jako takiego. One dotyczą po prostu wielu różnych cech, więc całe to nasze postrzeganie czegokolwiek jest takie sobie wysoce wielowymiarowe.
Tak, być może ta obserwacja pozwoliła zwiększyć skalę tym modelom sztucznym, które się dopiero po rozrośnięciu udało uczyć do, no, zgadywania, ile palców jest.
Tak, bo tutaj, warte może podkreślenia i też autor właśnie książki mocno to podkreśla, że, tak jak mówisz, różne bodźce, które trafiają do nas przez wiele zmysłów – no bo to jest wzrok, słuch, węch, gdzieś tam właśnie dotyk…
No i szósty zmysł.
I szósty zmysł. Smak jeszcze. Smak pominąłeś chyba.
Tak. No smak, ale powiedzmy. No w każdym razie tak. Wszystkie te zmysły, których używamy, powiedzmy, gdzieś tam na co dzień w poruszaniu się, one tak naprawdę w naszej korze nowej są reprezentowane przez bardzo podobne struktury, czyli właśnie te kolumny neuronalne. Oczywiście są bardziej czy mniej wyspecjalizowane obszary, to nie jest tak, że to wszystko jest płaską, jednolitą strukturą, ale generalnie na takim poziomie, można powiedzieć, budulca, to są dość podobne struktury. I tutaj właśnie autor mocno podkreśla, że dzięki temu jest duża elastyczność naszego mózgu do przyjmowania tych bodźców. No i dzięki temu możemy sobie łatwo te modele budować i one są… tak jak przy obecnych, na przykład Chat GPT też stara się być już modelem multimodalnym, czyli chce jednocześnie zajmować się i obrazem, i dźwiękiem, i tekstem, nie tylko wyłącznie jednym medium. No i my tak samo działamy, my też mamy tak naprawdę multimodalność. Nie ograniczamy się tylko, oczywiście jeśli mamy w pełni sprawne zmysły, no bo jeśli ktoś straci słuch czy wzrok, no to siłą rzeczy tego zmysłu nie…
Ale, no przepraszam najmocniej, taki pan Bach chyba tak, stracił słuch. No jeśli ktoś, to nie znaczy, że nie może jakby korzystać albo robić czegoś, co jest przypisane temu zmysłowi. Albo przynajmniej nie zawsze do końca.
Albo taki Daredevil.
Albo taki Daredevil, jeśli już wspominamy o postaciach prawdziwych dla równowagi. Więc właśnie ten sposób jakby budowy, przejmowania tych funkcji sprawia, że mamy tutaj dużą elastyczność.
Mózg jako maszyna do prognozowania
Natomiast też autor mocno podkreśla sposób działania, jakby sposób naszego tutaj takiego troszkę przewidywania, bo tak naprawdę nasz mózg działa na zasadzie tworzenia prognoz. Zawsze jesteśmy w swoim otoczeniu i no wszystko jest stabilne, nic się nie zmienia, prawda? W danym momencie siedzimy sobie, wszystko jest bardzo, bardzo ostateczne.
Zawsze był kombucza, aż tu nagle nie ma.
Przepraszam. Zawsze był, ale natomiast jeśli tylko nastąpi jakaś zmiana w naszym otoczeniu, nasz mózg bardzo szybko to zauważy. Jeśli nie wiem, w naszym domu, w którym jesteśmy od lat, wiemy, że nasza podłoga skrzypi, a nagle przestanie skrzypieć albo zacznie, coś się zmieniło w naszym otoczeniu. Jeśli nagle zmieni się kolor ścian, no to też to zarejestrujemy. Mimo że świadomie nie skanujemy przecież naszego otoczenia w poszukiwaniu zmian. Nie patrzymy cały czas wkoło siebie i nie patrzymy, czy, nie wiem, nie zmieniła się framuga w naszych drzwiach.
Właśnie patrzymy.
Chyba że ty patrzysz.
Ja patrzę w ogóle i wszyscy moi znajomi też patrzą, ale nie patrzymy w tym sensie, że nie jesteśmy świadomi właśnie tych ruchów, ale wszystkie zmysły skanują to na bieżąco, a ten hipokamp cały czas to przetwarza i stąd właśnie te prognozy.
Właśnie tak mówię, oczywiście o świadomym porównywaniu tych różnic, bo nie myślimy po prostu, to tak jak nie myślimy o chodzeniu, nie? Jak zaczynamy myśleć o chodzeniu, to się chodzenie kończy, przestajemy chodzić.
Tak, ale właśnie chodzi o to, że nasz mózg cały czas dokonuje pewnych predykcji na podstawie modelu, którego gdzieś tam się nauczyliśmy przez nasze życie, czyli modelu chodzenia, modelu wszystkich obiektów, które znamy wkoło. Nie urodziliśmy się z tą wiedzą, nie urodziliśmy się z wiedzą, jak działa laptop czy jak po prostu działa kubek do kawy. Żeby się napić kawy, to trzeba go chwycić za ucho albo za tutaj. Nie chwytamy go jakoś…
Nawet więcej, bo trzeba mieć w nim kawę.
Trzeba mieć w nim kawę. To są wszystko pewne modele rzeczy, które nauczyliśmy się w trakcie naszego życia. Modele są oczywiście, tak jak wspominaliśmy, bardzo takie strukturalne i zawieszone też w kontekście innych modeli. Czyli wiemy na przykład, że żeby się napić z tego kubka, to ten kubek musi na czymś stać. On nie może sobie gdzieś tam wisieć. On musi stać, nie może leżeć. Musi być pełny, nie może być pusty, nie może mieć dziury i to wszystko – strasznie to jest skomplikowane.
Strasznie to jest skomplikowane.
Nasz mózg sobie modele tych rzeczy przyswoił, powiązał je w ogóle z modelami, które mogą być powiązane z tym przedmiotem, i jednocześnie za każdym razem robimy pewną predykcję, co się wydarzy, jeśli coś zrobimy. Czy jeśli sięgnę po ten kubek, to ja wiem, że go dotknę, wiem, że go złapię, będę stabilnie go trzymać, zbliżę go do ust i wtedy wezmę łyka. I wszystko to jest analizowane na podstawie takich predykcji. Jeśli zachowanie w świecie rzeczywistym nie zgadza się z naszym modelem, znaczy, że coś jest nie tak. Trzeba pewnie zaktualizować model. Może coś się wydarzyło i to momentalnie zwraca naszą uwagę.
Jeśli teraz podniosę kubek i będzie w nim dziura, od razu to zobaczę, od razu coś się zmieni. Albo jeśli nagle zerknę tutaj, a kubek zmieni kolor, od razu się zdziwię, coś tu się zmieniło. Ale świadomie tego nie skanuję. Nie sprawdzam cały czas, czy to jest brązowy kubek. Cały czas jest brązowy, nie zmienia się. Nie robię tego świadomie. Nie sprawdzam świadomie wielu rzeczy. To wszystko gdzieś tam się dzieje w naszych głowach, w naszych neuronach. I tak naprawdę w ten sposób aktualizujemy też wiedzę o naszym świecie.
Błędy w postrzeganiu i iluzje optyczne
Ale tutaj też już nawet nie wiem, czy to autor opisywał, czy to bardziej już moje przemyślenia, bo też mam wrażenie, że w takich modelach, które budujemy, też bardzo mocno są pewne przekłamania.
I to chyba opisywał.
Może to opisywał rzeczywiście, ale to jakoś bardzo mocno do mnie trafiły te problemy z tymi modelami.
Tak, faktycznie, bo to było bardziej już pod koniec książki.
No ale to było już w tym materiale tendencyjnym, tak? Ale też trochę miał racji, w sensie wydaje mi się, że to są pewne problemy z tego typu modelami. W sensie, że jeśli one są, powiedzmy, neutralne i nie nacechowane żadnymi emocjami – które są oczywiście dla ludzi bardzo nieodzowne i gdzieś tam wbudowane w nasze trochę starsze struktury, co z kolei nie jest właśnie częścią dużych modeli językowych, co wspominaliśmy.
Ani Stema.
Ani ze Stema, chociaż ze Stema może troszeczkę tak, akurat z filmu. No ale stąd też może to założenie, które taki za bardzo chyba nie był w tę stronę.
Tak. Stąd też pewne założenie, które chyba gdzieś tam poruszaliśmy, że jeśli sztuczna inteligencja stanie się świadoma, to niekoniecznie musi zniszczyć cokolwiek, no bo nie będzie miała żadnych emocji, więc powinna raczej logicznie rozumować. Ludzie natomiast tak nie mają raczej. I oczywiście chcemy wszyscy wierzyć, że nie ulegamy aż tak bardzo emocjom i raczej kierujemy się logiką, ale czasami nasze modele świata są tak już mocno w nas zakorzenione, że jeśli pojawiają się pewne fakty, które tym modelom przeczą…
Tym gorzej dla faktów.
Tym gorzej dla faktów. I to jest właśnie to powiedzenie, które na co dzień mówimy – „tym gorzej dla faktów” – i ono doskonale się tutaj wpisuje, że autentycznie wtedy jest tym gorzej dla faktów. Że autentycznie nie potrafimy zaakceptować pewnych faktów, nawet jeśli widzimy pewne rzeczy, pewne zachowania, ale mamy pewien model, który zgadza się z jakimiś naszymi przekonaniami. I to nie jest tylko w kwestii, że tak powiem, jakichś wyższych konceptów, jak przekonania polityczne, czy coś istnieje, czy nie, ale czasem nawet w kontekście takich fizycznych zachowań.
Bo na przykład wszelkie iluzje optyczne, które widzimy, taki klasyczny przykład tej szachownicy, która stoi w cieniu tego walca…
Mhm, i gdzie te dwa pola mają ten sam kolor, ale my patrzymy na to i przecież mają różny kolor.
Ale dlaczego mają różny? Bo nasz model świata mówi, że jeśli coś jest w cieniu, to jest ciemniejsze. I faktycznie, później jak sobie ten cień usuniemy, zobaczymy, że rzeczywiście te pola mają ten sam kolor, ale widząc, widzimy, że jest różny. No i w jaki sposób zmienić ten model? Jeśli my widzimy, że te pola tej szachownicy są różne, ale wiemy, że są takie same? To są takie sprzeczne informacje.
Znaczy z jednej strony, nawet wiedząc, że te pola mają ten sam kolor, nie potrafimy tego zobaczyć.
Nie potrafimy tego zobaczyć, bo być może ten model cieniowania jest jakiś taki silniejszy.
Model shaderów.
Model shaderów. Bo może po prostu częściej używaliśmy go przez całe życie do tej pory, bo w większości przypadków pewnie się sprawdzał. Sprawdza się pewnie w takiej większości, która ma pewnie bardzo dużo dziewiątek, zanim dopiero coś tam nastąpi po przecinku. I tu nagle dostajemy taki przykład iluzji skrojonej właśnie, żeby zaprzeczyć temu, tak? No i ten jeden przykład już nam tutaj robi zgrzyt, nie? Że jaka bzdura.
Jest też taka iluzja z tymi odcinkami, które mają końce strzałeczkami albo odwróconymi strzałeczkami oznaczone i one są tej samej długości, te same odcinki, a wyglądają, że są różne. I można by mnożyć, bo i możemy przykładać linijką i sprawdzić, że są takie same.
Tak, a jedne wyglądają, że nie są. Ale przecież widzę, że są różne. I to są właśnie takie wyłapane niuanse tego postrzegania, takie gdzieś tam na granicy zapewne, nie? I po prostu zwykła statystyka tutaj broni te modele.
To nie jest taka zwykła statystyka, tylko to jest taka statystyka kory nowej, która tam wynika właśnie z tych wag, które byśmy zamapowali w Matlabie, ale to jest dosłownie statystyka, tak? Że w pewnym stopniu, iluś tam dziewiątek po przecinku przypadków to się sprawdzało, więc ten model przyjmujemy, bo tak naprawdę wszystko jest jakimś tam modelem.
Uniwersalny algorytm i moc obliczeniowa mózgu
Ale czapki z głów właśnie za niuanse wynikające z tego mechanizmu, że tu najmniejsza nawet zmiana już potrafi zrobić jakiś zgrzyt, nie? Bo tak to po prostu włącza jakiś tam alarm, coś, co chcąc oprogramować tak na piechotę, spędzilibyśmy pewnie długie tygodnie, jeśli nie miesiące, na przewidzeniu wszystkich tych przypadków albo w ogóle znalezieniu jakiegoś fikuśnego algorytmu, który nam coś takiego robi, taką detekcję. I pewnie w którymś momencie zaczęłoby to zmierzać w stronę takiego naturalnego algorytmu, który odbiegałby od standardowych, a bardziej operował na pewnej symulacji takich struktur gdzieś tam do wyważania.
Zwłaszcza że zobacz, że te same prawidła troszkę z tą detekcją tyczą się właśnie wszystkich zmysłów tak naprawdę, bo jeśli nagle usłyszymy jakiś dziwny dźwięk, to też wzbudzi nasze zainteresowanie. Jeśli zobaczymy coś dziwnego, to też wzbudzi zainteresowanie. Jeśli nagle ten kubek będzie jakiś taki bardziej, nie wiem, miękki się stanie, no to wyczuję w dotyku i też zwrócę uwagę, co się dzieje.
Tak, temperatura jego. Też sam dotyk to jest w ogóle skomplikowane zagadnienie, wzrok podobnie.
Tak, już pomijając jakby techniczne implementacje tych rzeczy, ale widać, że u podstaw tych zmysłów, mimo że są tak różne, jednak ten sposób działania jest bardzo podobny.
Że to jest podstawowy algorytm.
Tak jest. I to jest właśnie wniosek tutaj pana Jeffa. Dlatego właśnie bardzo mnie przekonuje dużo jego obserwacji, bo wydaje mi się, że mocno trafiają w takie nasze działanie codzienne i właśnie wyjaśniają dużo… ale to też pokazuje, jaka jest moc obliczeniowa tego całego cacka.
To już nawet chyba wspominaliśmy, że częstotliwości taktowania tego naszego procesora nie są jakieś… nie są w ogóle porównywalne z częstotliwościami w sprzęcie, jakie stosujemy.
Nie, tutaj mówimy o pojedynczych hercach i to w różnych fazach dnia nawet się zmienia, jeśli to się da tak łatwo przełożyć, bo to nie o to chodzi tutaj zapewne. Ale poziom złożoności w ogóle tych danych, które tutaj przetwarzamy, jest wręcz oszałamiający. Bo mamy te modele hierarchiczne, które są same w sobie wielowymiarowe, przy czym one są tak jakby jedne nałożone na drugie i nic sobie z tej wielowymiarowości nie robią, bo w którymś momencie dana cecha po prostu dochodzi do głosu i to ona może zgłosić ten alarm, tak jak na przykład faktura tego kubka czy jego kolor, czy wręcz zaburzenie temperatury, nie?
To jest któraś tam z n tych cech, które my tutaj na bieżąco…
Wszystko się może zadziać na raz, bo kubek może nagle zmienić kolor i zacząć piszczeć. Ja zauważę dwie cechy na raz.
No to już wtedy w ogóle dramat. Nie wiadomo, gdzie uciekać. Ale tak, to jest właśnie ta multimodalność, czyli wiele różnych bodźców, które są no jednak nierozerwalnie gdzieś tam ze sobą spięte.
No i tak jak autor właśnie mocno podkreśla, żeby nauczyć się operowania w naszym tutaj świecie fizycznym, no to musimy to zrobić poprzez właśnie ruch. Nie da się tego nauczyć tylko i wyłącznie, czytając o tym. Nie da się nauczyć o tym kubku, tylko czytając.
Nvidia ma rację, nie, w tych swoich badaniach.
No tak, bo pewnie faktycznie, chociaż ten silnik Nvidii, zaciągnięty od niego, też może mieć pewne ograniczenia, no bo przecież nie da się zasymulować wszystkich materiałów, wszystkich możliwych.
Żeby nie było, to też jest tutaj opisane, że właśnie te zmysły, którymi my się posiłkujemy, albo w ogóle istoty żywe, bo nie da się ukryć, że wiele gatunków jest jakoś tam kompatybilnych mniej lub bardziej, w sensie ze sobą pod kątem postrzegania. No wiadomo, że inne są zmysły wzroku, na przykład owadów i ssaków.
Ograniczenia tego, co widzimy, oczywiście.
No ale chodzi o to, że odbieramy pewne bodźce w podobny sposób, chociaż na przykład zakresy tego odbioru mamy różne. I na przykład my, ludzie, widzimy mniej niż, dajmy na to, koty. Koty to w ogóle fenomeny są, nie? Tam, pominąwszy dziewięć żyć, to jeszcze w ogóle mogą widzieć duchy, więc tam wiadomo.
Czyli odbierają na innym spektrum elektromagnetycznym.
Ich oczy. No tak. Ale zasady, pryncypia są zapewne podobne, nie? Bo też i podobny materiał można w ich mózgownicach znaleźć do przetwarzania tego, tylko w jakimś tam stopniu okrojony względem nas, nie?
I teraz mnogość tych w ogóle bodźców wszelkich, to to jest moim zdaniem… mnogość i łatwość ich przetwarzania, taka nawet nieuświadamiana przez nas, że to się wszystko dzieje w tle. Jakieś tam procesy chodzą i to wszystko wychwytują, i alarmują nas tylko…
Czy proces bezczynności, tak, który zawsze zajmuje 90% systemu.
Ale to właśnie chyba jest taki proces bezczynności, tak. Tylko że on jest taki właśnie bardzo rozproszony po całym tym hardwarze. On cały czas tam ze sobą wchodzi w interakcje.
To właściwie nie jest hardware, bo to jest bardzo miękkie ponoć. Taki software trochę.
No trochę tak. No tutaj ciężko by wyróżnić, co jest właściwie czym.
Biologiczna maszyneria: sen i marzenia senne
Zobacz chociażby taką rzecz jak potrzeba snu u ludzi, która wynika gdzieś tam z usunięcia pewnych zbędnych efektów przemiany materii i tych procesów, które się dzieją w mózgu. No i ludzie potrzebują spać. Bo to jest jasno powiedziane i wielokrotnie udowodnione, że bez tego będzie raczej ciężko i pojawiają się pewne zaburzenia w naszych mózgach.
Natomiast ChatGPT nigdy nie śpi.
To nic, nie chciałem, żeby to zabrzmiało tak filozoficznie, ale chodzi o to, że…
Tak złowieszczo zabrzmiało. Złowieszczo.
Chodzi mi bardziej o to, że jednak procesy, może pod spodem robią jakiś maintenance, może jakieś rzeczy gdzieś tam są czyszczone, ale wydaje się, że obecne modele językowe nie wydają się posiadać jakiś efektów ubocznych swojego działania. Wiadomo, są pewnie tuningowane, są gdzieś tam pewnie doprecyzowane jakieś wagi, te, które wiemy, gdzie tam stuningować, no bo wiadomo, jeśli mamy parametrów w takich sieciach miliony, no to nie da się tego wszystkiego ręcznie stuningować. Ale tutaj widać pewną różnicę. To oczywiście może też wynikać z kwestii budowy biologicznej kontra budowy krzemowej. Może nie trzeba nic oczyszczać na krzemie.
W naszych mózgach tam ciężej o takie zmęczenie materiału.
Tak, cała nasza maszyneria pewnie tworzy trochę efektów i jakiś tam związków takich niepożądanych. Natomiast no to też jest jakaś ciekawa różnica. Czy modele takiej sztucznej inteligencji też będą wymagały jakiegoś takiego okresowego resetu jak nasz sen, czy to jest tylko kwestia biologicznej budowy?
Tylko że ten sen to też nie jest taki reset do końca, jak się okazuje, bo cały czas maszyneria pracuje, nie? I cały czas te modele są tworzone.
Tak, no wiedza się utrwala gdzieś tam, nowe połączenia. O, tutaj polecam… Jaki to jest tytuł polski tego filmu? Teraz druga część była.
W głowie się nie mieści.
Taka bajeczka fajna, ale przyjemnie zrobiona. I pierwsza część traktuje o okresie wczesnego dzieciństwa, od niemowlaka do tam lat kilku, a druga część to jest dojrzewanie. I tam są właśnie w obrazowy sposób pokazane te mechanizmy, na przykład oczyszczania, nie? Jak pacjent idzie spać, co tam się wyrabia w środku, jak są wspomnienia segregowane i jak tam się utrwalają. No to jest taki plastyczny sposób pokazania tych mechanizmów i ale pewnie jakaś tam szczypta prawdy w tym jest, nie? Natomiast oprócz tego to mamy cały czas tę aktywność utrzymywaną, bo nawet jak śpimy, to on sobie tam swoje przemyśliwa. Oczywiście z fazy snu potrafimy się zbudzić na skutek jakiegoś bodźca, nie? Odczujemy jakąś zmianę temperatury, odczujemy węchem coś nie teges.
Potrafimy. Czy chociażby same sny, które mamy, no to też jednak gdzieś tam mózg mimo wszystko się produkuje i tworzy nam różne… no tutaj są teorie, prawda? Ale to nie wchodźmy może…
W następnym odcinku. Muszę zasięgnąć literatury faktu.
Chętnie podsunę.
Ale tak, jedna z takich teorii bardzo przyziemnych głosi, że sny są w ogóle produktem tychże symulacji jakby niedokończonych, albo może ciągniętych dalej, nie? Żeby coś tam z nich wyszło. Czyli w sensie te wszystkie obserwacje, jakie poczyniliśmy świadomie i nieświadomie przed snem, są jakoś tam segregowane i dopasowywane do tych modeli, które gdzieś tam nam się utrwaliły. I coś może z tego ciekawego wyjść, i tam często wychodzi, bo różne są rzeczy i to takie dość plastyczne, pokazane.
A w ogóle fajnie jest, tutaj jeszcze odwołam się do kultury i filmu Incepcja. Tam jest fajnie pokazany mechanizm śnienia. To polecam odświeżyć sobie, bo ja sobie zacząłem odświeżać i zasnąłem.
Musiałeś przemiany materii w mózgu oczyścić.
No ale tam fajne jest takie spostrzeżenie, że nie pamiętamy początku samego snu. Jest tam taka scena, jak DiCaprio oprowadza koleżankę gdzieś tam po jakiejś kawiarence i nagle mówi jej, że nie pamięta początku snu, i ona nagle wie, że faktycznie, skąd się tu wzięła, nie? I zaczyna się tam robić grubo wtedy, bo zaczyna się rzeczywistość sypać. I to są właśnie te fragmenty danych jakoś tam sortowane, tylko że to są dane na takim wyższym poziomie abstrakcji. Wiadomo, że sny są tam różne i mogą być bardziej lub mniej skomplikowane, ale każdy z nas wcześniej czy później jest w stanie wyśnić sobie coś takiego ultrarealistycznego, co później się jeszcze zapamiętuje, bo też trzeba sobie poćwiczyć na przykład zapamiętywanie snów. Bardzo łatwo jest przegapić ten moment, że się w ogóle śniło.
Tak. Więc tutaj to też trzeba jeszcze sięgnąć do warstwy i hardware’owej, i software’owej, żeby to gdzieś tam złapać. Ale ciekawy jest mechanizm generowania takichże obrazów, które czujemy jako rzeczywiste, tak jakbyśmy je przeżywali, nie?
No mi to mocno przypomina troszkę chociażby generowanie kontentu, generowanie obrazów, które teraz tworzą sieci.
A, no w sumie jest to troszkę podobne, bo zaczyna się to od pewnego szumu – no bo tak mniej więcej wygląda tworzenie obrazów. Zaczynamy od pewnego szumu i poprzez sieć albo jakby ciąg obliczeń staramy się znaleźć odpowiednią kombinację wag, która przypomina nam obraz właściwy. Gdzieś tam w kolejnej iteracji to robimy. I w mózgu też może być tak, że pewien szum aktywności naszych neuronów daje nam zaczyn do pewnego obrazu, do pewnego marzenia sennego i od tego już lecimy dalej, bo już mamy ten początek.
Bo na przykład rzeźbiarze biorą sobie taki blok kamienny i po prostu usuwają wszystko, co zbyteczne z niego, i wtedy wyłania się rzeźba.
Dokładnie tak. To tak samo jak w CRUD-zie. Bierzemy sobie kodzik, usuwamy, co zbyteczne, i zostaje CRUD. Pięknie odciosany. Pięknie.
Zakończenie
Okej. Myślę, że chyba na dzisiaj możemy zakończyć. Tematów jeszcze pewnie jest sporo i…
…za miesiąc zobaczymy, co dalej.
…i gdzieś tam poruszymy jeszcze je w następnych odcinkach. W każdym razie nieustannie polecamy książkę pana Jeffa Hawkinsa.
Tak, jeszcze nie dobrnęliśmy do tej symulacji przyszłości, jaką on tutaj zapodał.
Ale na pewno jest warta przeczytania, nawet jeśli tutaj nasze nieskładne próby przybliżenia zawartości…
Albo zrozumienia.
…gdzieś tam kogoś nie przekonały, no to można.
Materia jest ultra ciekawa, a mechanizm przedstawiony tutaj od podszewki jest jeszcze ciekawszy.
Tak, tak.
Bo tym bardziej, że daje się przełożyć na nasze realia techniczne i jest bardzo, bardzo na czasie.
I na pewno zmusza gdzieś tam do myślenia, jeśli ktoś lubi tego typu tematy, na pewno będzie sporo przemyśleń po tejże lekturze.
Dobra, dzięki, Michał.
Dzięki, Wojtas.
Dzięki za wysłuchanie odcinka. Zapraszamy na następne. Trzymajcie się. Cześć.
Do następnego.