AGI pojawi się za 1.5 roku, mówi David Shapiro
W skrócie
Oczekuje się, że sztuczna inteligencja ogólna pojawi się za 1.5 roku dzięki połączeniu dużych pieniędzy, otwartych ram i przekształceniu LLM w agentów kognitywnych.
Analiza wideo Davida Shapiro sugeruje, że ten czas może wystarczyć do pojawienia się AGI.
Przełom minął i za 1.5 roku pojawi się AGI. Połączenie dużych pieniędzy, otwartych ram i przekształcania LLM w agentów kognitywnych zadziała. Analiza wideo opublikowana wczoraj przez kolegę, Davida Shapiro, jest bardzo interesująca ze stereoskopowym spojrzeniem na to, co się dzieje, biorąc pod uwagę trzy nie wszystkie oczywiste czynniki.
Rzeczywiście, jeśli połączymy potencjalny wpływ trzech czynników wymienionych przez Davida na rozwój AI w ciągu najbliższych 1.5 roku, ten czas może wystarczyć do pojawienia się AGI na planecie.
Aby uniknąć pustych sporów terminologicznych, od razu wyjaśnimy.
- Istnieją dziesiątki defipojęcia „sztucznej inteligencji ogólnej” — z których wiele jest zupełnie różnych i często sprzecznych, co wymaga iteracyjnego (lub nawet rekurencyjnego) wyjaśniania pojęć używanych w tych definiucje.
- Dlatego lepiej zostawić spory terminologiczne filozofom i po prostu zastosować „kryterium kaczki”: jeśli AI jako inteligentny agent jest w stanie wyglądać jak człowiek w oczach ludzi, wykonywać jakąkolwiek pracę intelektualną jak ludzie i zachowywać się w sytuacjach które są dla niego nowe, ponieważ ludzie działaliby w jego miejsce, uznamy, że ta sztuczna inteligencja to sztuczna inteligencja ogólna (AGI).
- To zdanie „AGI pojawi się za 1.5 roku” oznacza, że pojawi się AI, która spełni wspomniane wyżej „kryterium kaczki”.
Argument Davida Shapiro, że półtora roku wystarczy na stworzenie AGI opiera się na trzech podstawach.
1) Firmy wierzą, że sztuczna inteligencja naprawdę może zdziałać cuda. I dlatego w ciągu najbliższych 18 miesięcy ogromne inwestycje zostaną zainwestowane w rozwój AI, aby radykalnie obniżyć cenę „inteligentnego wnioskowania” dla użytkownika końcowego (na przykład na jego smartfonie) ze względu na bardzo wysoki koszt szkolenia dużych modele. Dawid daje dobry przykład z Raport Morgana Stanleya: "Myślimy GPT 5 obecnie trenuje na procesorach graficznych 25 tys. – sprzęcie NVIDIA wartym około 225 mln dolarów – a koszty wnioskowania są prawdopodobnie znacznie niższe niż niektóre liczby, które widzieliśmy”.
2) Frameworki do tworzenia aplikacji w oparciu o modele językowe, np. LangChain, nie tylko umożliwiają dostęp do modelu językowego poprzez API, ale także:
– pozwól modelowi być świadomym danych: połącz model językowy z innymi źródłami danych;
– pozwalają zamienić modelkę w agenta; pozwolić mu wchodzić w interakcje z otoczeniem.
3) Opracowano już paradygmaty systemowe (np. MM-REACT), które się łączą ChatGPT z pulą ekspertów w celu osiągnięcia multimodalnego myślenia i działania w celu rozwiązania złożonych problemów problemy ze zrozumieniem. W ramach takiego paradygmatu możliwe będzie tworzenie przepływów poznawczych działań, procesu generowania odpowiedzi dla użytkowników za pomocą kombinacji ChatGPT rozumowanie i działania eksperckie.
Jeśli wszystkie te trzy czynniki: tanie wnioskowanie intelektualne, przekształcenie modelu w agenta i generowanie przepływów działań poznawczych zadziałają, to za 18 miesięcy nie będziemy już spierać się o defiz AGI, bo to po prostu nie będzie już miało znaczenia w świetle kompetencji nabytych przez AI.
A te kompetencje będą na tyle ludzkie i inkluzywne, że nie będzie już problemu z ich znalezieniem defipomysł na to AGI.
Przeczytaj więcej powiązanych artykułów:
Odpowiedzialność
Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.
O autorze
Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.
Więcej artykułówDamir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym.