Raport aktualności Technologia
05 kwietnia 2023 r.

8 rzeczy, które powinieneś wiedzieć o dużych modelach językowych

W skrócie

Duże modele językowe (LLM) służą do badania niuansów języka naturalnego, poprawy zdolności maszyn do rozumienia i generowania tekstu oraz automatyzacji zadań, takich jak rozpoznawanie głosu i tłumaczenie maszynowe.

Nie ma łatwego rozwiązania do zarządzania LLM, ale są one tak samo zdolne jak ludzie.

Wraz z gwałtownym rozwojem przetwarzania języka naturalnego i jego wykorzystania w biznesie rośnie zainteresowanie dużymi modelami językowymi. Modele te są wykorzystywane do badania niuansów języka naturalnego, poprawy zdolności maszyn do rozumienia i generowania tekstu oraz automatyzacji zadań, takich jak rozpoznawanie głosu i tłumaczenie maszynowe. Oto osiem podstawowych rzeczy, które powinieneś wiedzieć o dużych modelach językowych (LLM).

10 rzeczy, które powinieneś wiedzieć o dużych modelach językowych
@Midjourney /Taka#4076

LLM są bardziej „zdolne”, ponieważ koszty stale rosną

Jak można przewidzieć, LLM stają się bardziej „wydajne” wraz ze wzrostem kosztów, nawet bez fajnych innowacji. Najważniejsze tutaj jest przewidywalność, która została pokazana w artykule o GPT-4: uczono od pięciu do siedmiu małych modeli z budżetem wynoszącym 0.1% ostatecznego, a następnie na tej podstawie dokonano prognozy dla dużego modelu. W przypadku ogólnej oceny zakłopotania i metryk na podpróbie jednego konkretnego zadania taka prognoza była bardzo dokładna. Ta przewidywalność jest ważna dla firm i organizacji, które polegają na LLM w swojej działalności, ponieważ mogą odpowiednio budżetować i planować przyszłe wydatki. Należy jednak zauważyć, że chociaż rosnące koszty mogą prowadzić do poprawy możliwości, tempo poprawy może w końcu ustabilizować się, co spowoduje konieczność inwestowania w nowe innowacje w celu dalszego rozwoju.

Szybkie spojrzenie na to, jak GPT modele dostosowują się do wzrostu kosztów szkolenia

Jednak określone ważne umiejętności zwykle pojawiają się w sposób nieprzewidywalny jako produkt uboczny wzrostu koszty szkolenia (dłuższe szkolenie, więcej danych, większy model) — prawie niemożliwe jest przewidzenie, kiedy modele zaczną wykonywać określone zadania. Dokładniej zgłębiliśmy temat w naszym artykuł o historii rozwoju GPT modele. Na rysunku przedstawiono rozkład wzrostu jakości modeli pomiędzy różnymi zadaniami. Tylko duże modele mogą nauczyć się wykonywania różnych zadań. Ten wykres pokazuje znaczący wpływ zwiększania rozmiaru GPT modele na ich wydajność w różnych zadaniach. Należy jednak zauważyć, że odbywa się to kosztem zwiększonych zasobów obliczeniowych i wpływu na środowisko.

Szybkie spojrzenie na to, jak GPT modele dostosowują się do wzrostu kosztów szkolenia

LLM uczą się grać w gry planszowe, używając reprezentacji świata zewnętrznego

LLM często uczą się i wykorzystują reprezentacje świata zewnętrznego. Przykładów jest tutaj wiele, a oto jeden z nich: Wyszkolone modele grać w gry planszowe w oparciu o opisy poszczególnych ruchów, nie widząc obrazu pola gry, poznać wewnętrzne reprezentacje stanu planszy przy każdym ruchu. Można następnie wykorzystać te wewnętrzne reprezentacje przewidzieć przyszłość ruchy i wyniki, dzięki czemu model może grać w grę na wysokim poziomie. Kluczowa jest umiejętność uczenia się i wykorzystywania reprezentacji aspekt uczenia maszynowego i sztuczna inteligencja.

Nie ma łatwego rozwiązania zarządzania LLM

Nie ma niezawodnych metod kontrolowania zachowania LLM. Chociaż nastąpił pewien postęp w zrozumieniu i łagodzeniu różnych problemów (m.in ChatGPT i GPT-4 za pomocą informacji zwrotnej) nie ma zgody co do tego, czy uda nam się je rozwiązać. Rośnie obawa, że ​​w przyszłości, gdy powstaną jeszcze większe systemy, stanie się to ogromnym, potencjalnie katastrofalnym problemem. Dlatego badacze badają nowe metody, które pozwolą zapewnić zgodność systemów sztucznej inteligencji z wartościami i celami ludzkimi, takimi jak dostosowanie wartości i inżynieria nagród. Zagwarantowanie tego pozostaje jednak trudnym zadaniem bezpieczeństwo i niezawodność LLM w złożonych scenariuszach rzeczywistych.

Czytaj więcej: OpenAI Tworzy zespół ponad 50 ekspertów w celu ulepszenia GPT-4Bezpieczeństwo

Eksperci mają problem z wyjaśnieniem, jak działa LLM

Eksperci nie potrafią jeszcze zinterpretować wewnętrznego działania LLM. Żadna technika nie pozwoliłaby nam stwierdzić w zadowalający sposób, jakiego rodzaju wiedzy, rozumowania lub celów używa model, gdy generuje jakikolwiek wynik. Ten brak możliwości interpretacji budzi obawy co do wiarygodności i rzetelności decyzji LLM, zwłaszcza w zastosowaniach o wysokich stawkach, takich jak wymiar sprawiedliwości w sprawach karnych lub punktacja kredytowa. Podkreśla również potrzebę dalszych badań nad opracowaniem bardziej przejrzystych i odpowiedzialnych modeli sztucznej inteligencji.

LLM są tak samo zdolne jak ludzie

Chociaż LLM są szkoleni przede wszystkim do naśladuj ludzkie zachowanie podczas pisania tekstu, mają potencjał, aby nas przewyższyć w wielu zadaniach. Widać to już podczas gry w szachy czy Go. Wynika to z ich zdolności do analizowania ogromnych ilości danych i podejmowania decyzji na podstawie tej analizy z szybkością, której człowiek nie jest w stanie dorównać. Jednak osobom LLM nadal brakuje kreatywności i intuicji, które posiadają ludzie, co czyni je mniej odpowiednimi do wielu zadań.

Czytaj więcej: OpenAI Tworzy zespół ponad 50 ekspertów w celu ulepszenia GPT-4Bezpieczeństwo

LLM muszą być czymś więcej niż tylko „wszystkimi wyrobami”

LLM nie mogą wyrażać wartości ich twórców ani wartości zakodowanych w wyborze z Internetu. Nie powinni powielać stereotypów ani teorii spiskowych ani dążyć do obrażania kogokolwiek. Zamiast tego LLM powinny być zaprojektowane tak, aby dostarczać użytkownikom bezstronnych i opartych na faktach informacji, przy jednoczesnym poszanowaniu różnic kulturowych i społecznych. Ponadto powinny być poddawane regularnym testom i monitorowaniu, aby upewnić się, że nadal spełniają te standardy.

Modele są „mądrzejsze”, niż ludzie myślą na podstawie pierwszego wrażenia

Szacunki zdolności modelu oparte na pierwszym wrażeniu są często mylące. Bardzo często trzeba wymyślić odpowiedni monit, zaproponować model, a może pokazać przykłady, a zacznie dużo lepiej sobie radzić. Oznacza to, że jest „mądrzejszy” niż się wydaje na pierwszy rzut oka. Dlatego ważne jest, aby dać modelowi uczciwą szansę i zapewnić mu niezbędne zasoby, aby działał jak najlepiej. Przy odpowiednim podejściu nawet z pozoru nieodpowiednie modele mogą nas zaskoczyć swoimi możliwościami.

Jeśli skupimy się na próbie 202 zadań ze zbioru danych BIG-Bench (testowanie było specjalnie utrudnione) modele językowe od i do), to z reguły (średnio) modele wykazują wzrost jakości wraz ze wzrostem skali, ale indywidualnie metryki w zadaniach mogą:

  • poprawiać stopniowo,
  • radykalnie poprawić,
  • pozostają bez zmian,
  • zmniejszać,
  • nie wykazywać korelacji.

Wszystko to prowadzi do niemożności pewnej ekstrapolacji wydajności jakiegokolwiek przyszłego systemu. Szczególnie interesująca jest zielona część — właśnie w tym miejscu wskaźniki jakości gwałtownie podskakują bez żadnego powodu.

Przeczytaj więcej o sztucznej inteligencji:

Odpowiedzialność

Zgodnie z Zaufaj wytycznym projektu, należy pamiętać, że informacje zawarte na tej stronie nie mają na celu i nie powinny być interpretowane jako porady prawne, podatkowe, inwestycyjne, finansowe lub jakiekolwiek inne formy porad. Ważne jest, aby inwestować tylko tyle, na utratę czego możesz sobie pozwolić, a w przypadku jakichkolwiek wątpliwości zasięgnąć niezależnej porady finansowej. Aby uzyskać więcej informacji, sugerujemy zapoznać się z warunkami oraz stronami pomocy i wsparcia udostępnianymi przez wydawcę lub reklamodawcę. MetaversePost zobowiązuje się do sporządzania dokładnych i bezstronnych raportów, jednakże warunki rynkowe mogą ulec zmianie bez powiadomienia.

O autorze

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Więcej artykułów
Damir Jałałow
Damir Jałałow

Damir jest liderem zespołu, menedżerem produktu i redaktorem w Metaverse Post, obejmujący takie tematy, jak AI/ML, AGI, LLM, Metaverse i Web3-pokrewne pola. Jego artykuły przyciągają każdego miesiąca ogromną publiczność, liczącą ponad milion użytkowników. Wydaje się być ekspertem z 10-letnim doświadczeniem w SEO i marketingu cyfrowym. Damir został wspomniany w Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto i inne publikacje. Jako cyfrowy koczownik podróżuje między ZEA, Turcją, Rosją i WNP. Damir uzyskał tytuł licencjata z fizyki, co jego zdaniem dało mu umiejętności krytycznego myślenia potrzebne do odniesienia sukcesu w ciągle zmieniającym się środowisku internetowym. 

Hot Stories
Dołącz do naszego newslettera.
Najnowsze wieści

Apetyt instytucjonalny na ETFy Bitcoin rośnie w obliczu zmienności

Ujawnienia zawarte w zgłoszeniach 13F ujawniają, że znaczący inwestorzy instytucjonalni parają się funduszami ETF Bitcoin, co podkreśla rosnącą akceptację…

Dowiedz się więcej

Nadchodzi dzień wyroku: los CZ wisi na włosku, gdy amerykański sąd rozpatruje skargę Departamentu Sprawiedliwości

Changpeng Zhao stanie dziś przed amerykańskim sądem w Seattle wyrokiem skazującym.

Dowiedz się więcej
Dołącz do naszej innowacyjnej społeczności technologicznej
Czytaj więcej
Czytaj więcej
Morph przedstawia swoją sieć testową Holesky z optymistyczną integracją zkEVM, mechanizmem mostkowym i funkcjami zdecentralizowanej sieci sekwencera
Raport aktualności Technologia
Morph przedstawia swoją sieć testową Holesky z optymistyczną integracją zkEVM, mechanizmem mostkowym i funkcjami zdecentralizowanej sieci sekwencera
6 maja 2024 r.
Robinhood Crypto otrzymuje zawiadomienie Wells od Komisji Papierów Wartościowych i Giełd w związku z rzekomymi naruszeniami przepisów dotyczących papierów wartościowych
rynki Raport aktualności Technologia
Robinhood Crypto otrzymuje zawiadomienie Wells od Komisji Papierów Wartościowych i Giełd w związku z rzekomymi naruszeniami przepisów dotyczących papierów wartościowych
6 maja 2024 r.
QuickSwap wdraża się w sieci głównej X Layer i rozszerza sieć Polygon CDK wraz z uruchomieniem Citadel
Raport aktualności Technologia
QuickSwap wdraża się w sieci głównej X Layer i rozszerza sieć Polygon CDK wraz z uruchomieniem Citadel 
6 maja 2024 r.
Linia sieciowa warstwy 2 inicjuje żądanie tokenu ZERO firmy ZeroLend Airdrop Użytkownicy i inwestorzy
rynki Raport aktualności Technologia
Linia sieciowa warstwy 2 inicjuje żądanie tokenu ZERO firmy ZeroLend Airdrop Użytkownicy i inwestorzy
6 maja 2024 r.
CRYPTOMERIA LABS PTE. SP. Z O.O.