Süni intellektdə ən yaxşı 30+ transformator modeli: onlar nədir və necə işləyirlər
Son aylarda süni intellektdə hər birinin özünəməxsus və bəzən əyləncəli adları olan çoxsaylı Transformer modelləri ortaya çıxdı. Bununla belə, bu adlar bu modellərin əslində nə etdiyi barədə çox məlumat verməyə bilər. Bu məqalə ən populyar Transformator modellərinin hərtərəfli və sadə siyahısını təqdim etmək məqsədi daşıyır. O, bu modelləri təsnif edəcək, həmçinin Transformator ailəsində mühüm aspektləri və yenilikləri təqdim edəcək. Üst siyahı əhatə edəcək modellər öyrədilir BERT və ya kimi öz-özünə nəzarət edilən öyrənmə vasitəsilə GPT-3, həmçinin Instruct kimi insan iştirakı ilə əlavə təlim keçən modellərGPT tərəfindən istifadə edilən model ChatGPT.
Pro Tips |
---|
Bu təlimat yeni başlayanlar və qabaqcıl öyrənənlər üçün operativ mühəndislik sahəsində hərtərəfli bilik və praktiki bacarıqları təmin etmək üçün nəzərdə tutulmuşdur. |
Çoxlu kurslar var AI və onunla əlaqəli texnologiyalar haqqında daha çox öyrənmək istəyən şəxslər üçün əlçatandır. |
Bir nəzər yetirin top 10+ AI sürətləndiriciləri performans baxımından bazara liderlik edəcəyi gözlənilir. |
- AI-də Transformatorlar nədir?
- AI-də kodlayıcılar və dekoderlər nədir?
- Süni intellektdə diqqət qatları nədir?
- Süni intellektdə dəqiq tənzimlənmiş modellər hansılardır?
- Transformers niyə süni intellektin gələcəyidir?
- 3 Hazırlıq Memarlığının Növləri
- Əvvəlcədən hazırlanmış modellər üçün 8 tapşırıq növü
- Süni intellektdə ən yaxşı 30+ Transformator
- FAQ
AI-də Transformatorlar nədir?
Transformatorlar, "adlı bir araşdırma məqaləsində təqdim edilmiş bir növ dərin öyrənmə modelləridir.Sizə lazım olan hər şey diqqətdir” 2017-ci ildə Google tədqiqatçıları tərəfindən. Bu məqalə cəmi beş il ərzində 38,000-dən çox sitat toplamaqla böyük tanınıb.
Orijinal Transformer arxitekturası, tətbiq olunmazdan əvvəl populyarlıq qazanmış kodlayıcı-dekoder modellərinin xüsusi formasıdır. Bu modellər əsasən etibar edir LSTM və təkrarlanan neyron şəbəkələrinin digər variasiyaları (RNN-lər), diqqət istifadə edilən mexanizmlərdən yalnız biridir. Bununla belə, Transformer sənədi diqqətin giriş və çıxış arasında asılılıq yaratmaq üçün yeganə mexanizm kimi xidmət edə biləcəyi inqilabi bir fikir təklif etdi.
Transformers kontekstində giriş təbii dil emalında sözlər və ya alt sözlər ola bilən işarələr ardıcıllığından ibarətdir (NLP). Lüğətdən kənar söz problemini həll etmək üçün NLP modellərində alt sözlər adətən istifadə olunur. Kodlayıcının çıxışı bütün ardıcıllıq üçün ayrıca yerləşdirmə ilə birlikdə hər bir işarə üçün sabit ölçülü təsvir yaradır. Dekoder enkoderin çıxışını götürür və çıxışı kimi tokenlər ardıcıllığını yaradır.
Transformer kağızının nəşrindən bəri məşhur modellər kimi BERT və GPT ya kodlayıcı və ya dekoder komponentlərindən istifadə edərək, orijinal arxitekturanın aspektlərini mənimsəmişlər. Bu modellər arasında əsas oxşarlıq özünə diqqət mexanizmlərini və irəli ötürülən təbəqələri özündə birləşdirən təbəqə arxitekturasındadır. Transformers-də hər bir giriş tokeni giriş ardıcıllığında hər bir digər işarə ilə birbaşa asılılıqları qoruyarkən təbəqələr vasitəsilə öz yolunu keçir. Bu unikal xüsusiyyət RNN kimi ardıcıl modellərlə mümkün olmayan kontekstli token təqdimatlarının paralel və səmərəli hesablanmasına imkan verir.
Bu məqalə yalnız Transformator memarlığının səthini cızsa da, onun əsas aspektlərinə nəzər salır. Daha ətraflı başa düşmək üçün orijinal tədqiqat məqaləsinə və ya The Illustrated Transformer yazısına istinad etməyi tövsiyə edirik.
AI-də kodlayıcılar və dekoderlər nədir?
Təsəvvür edin ki, iki modeliniz var, bir kodlayıcı və bir dekoder, birlikdə işləmək komanda kimi. Kodlayıcı bir giriş alır və onu sabit uzunluqlu vektora çevirir. Sonra dekoder həmin vektoru götürür və onu çıxış ardıcıllığına çevirir. Bu modellər çıxışın girişə mümkün qədər yaxından uyğun olduğundan əmin olmaq üçün birlikdə öyrədilir.
Həm kodlayıcı, həm də dekoder bir neçə təbəqədən ibarət idi. Kodlayıcıdakı hər bir təbəqənin iki alt təbəqəsi var idi: çox başlı özünə diqqət qatı və sadə irəli ötürülən şəbəkə. Özünə diqqət səviyyəsi girişdəki hər bir işarəyə bütün digər tokenlərlə əlaqələri anlamağa kömək edir. Bu alt təbəqələrdə öyrənmə prosesini daha hamar etmək üçün qalıq əlaqə və təbəqənin normallaşdırılması da var.
Dekoderin çox başlığı özünə diqqət təbəqəsi kodlayıcıda olandan bir qədər fərqli işləyir. O, diqqət yetirdiyi tokenin sağ tərəfindəki nişanları maskalayır. Bu, dekoderin yalnız proqnozlaşdırmağa çalışdığı tokenlərdən əvvəl gələn işarələrə baxmasını təmin edir. Bu maskalı çoxbaşlı diqqət dekoderə dəqiq proqnozlar yaratmağa kömək edir. Bundan əlavə, dekoderə kodlayıcının bütün çıxışları üzərində çox başlı diqqət qatı olan başqa bir alt qat daxildir.
Qeyd etmək vacibdir ki, bu xüsusi detallar Transformer modelinin müxtəlif variantlarında dəyişdirilib. BERT və kimi modellər GPTməsələn, orijinal arxitekturanın ya kodlayıcı, ya da dekoder aspektinə əsaslanır.
Süni intellektdə diqqət qatları nədir?
Daha əvvəl müzakirə etdiyimiz model arxitekturasında çox başlı diqqət təbəqələri onu güclü edən xüsusi elementlərdir. Bəs diqqət tam olaraq nədir? Bunu bir sualı məlumat dəstinə uyğunlaşdıran və nəticə verən funksiya kimi düşünün. Girişdəki hər bir işarənin sorğusu, açarı və onunla əlaqəli dəyəri var. Hər bir işarənin çıxış təsviri dəyərlərin çəkili cəmini götürməklə hesablanır, burada hər bir dəyər üçün çəki sorğuya nə dərəcədə uyğun olması ilə müəyyən edilir.
Transformatorlar bu çəkiləri hesablamaq üçün miqyaslı nöqtə məhsulu adlanan uyğunluq funksiyasından istifadə edirlər. Transformers-də diqqətin maraqlı tərəfi odur ki, hər bir token öz hesablama yolundan keçir və giriş ardıcıllığında bütün tokenlərin paralel hesablanmasına imkan verir. Bu, sadəcə olaraq, hər bir işarə üçün təmsilləri müstəqil hesablayan çoxsaylı diqqət bloklarıdır. Daha sonra bu təmsillər tokenin son təqdimatını yaratmaq üçün birləşdirilir.
Təkrarlanan və kimi digər şəbəkə növləri ilə müqayisədə bükülmə şəbəkələri, diqqət təbəqələrinin bir sıra üstünlükləri var. Onlar hesablama baxımından səmərəlidirlər, yəni məlumatı tez emal edə bilirlər. Onlar həmçinin daha yüksək əlaqəyə malikdirlər ki, bu da ardıcıllıqla uzunmüddətli əlaqələri ələ keçirmək üçün faydalıdır.
Süni intellektdə dəqiq tənzimlənmiş modellər hansılardır?
Əsas modellər böyük miqdarda ümumi məlumat üzərində öyrədilmiş güclü modellərdir. Daha sonra onları daha kiçik bir dəstdə öyrətməklə xüsusi tapşırıqlar üçün uyğunlaşdırıla və ya dəqiqləşdirilə bilər hədəfə məxsus məlumatlar. tərəfindən populyarlaşan bu yanaşma BERT kağızı, dillə əlaqəli maşın öyrənmə tapşırıqlarında Transformator əsaslı modellərin üstünlük təşkil etməsinə səbəb oldu.
BERT kimi modellərə gəldikdə, onlar giriş işarələrinin təqdimatını yaradırlar, lakin konkret tapşırıqları təkbaşına yerinə yetirmirlər. Onları faydalı etmək üçün əlavə sinir təbəqələri yuxarıya əlavə olunur və model uçdan-uca öyrədilir, bu proses incə tənzimləmə kimi tanınır. Bununla belə, ilə generativ modellər kimi GPT, yanaşma bir az fərqlidir. GPT cümlədəki növbəti sözü təxmin etmək üçün öyrədilmiş dekoder dili modelidir. Böyük həcmdə veb məlumatları üzrə təlim keçərək, GPT giriş sorğuları və ya göstərişlər əsasında ağlabatan nəticələr yarada bilər.
Etmək üçün GPT daha faydalı, OpenAI tədqiqatçılar inkişaf etdirdilər TəlimatlandırmaqGPT, insan göstərişlərinə əməl etmək üçün öyrədilir. Bu, incə tənzimləmə ilə əldə edilir GPT müxtəlif tapşırıqlardan insan etiketli məlumatlardan istifadə etməklə. TəlimatlandırmaqGPT kimi məşhur mühərriklər tərəfindən istifadə olunur və geniş tapşırıqları yerinə yetirməyə qadirdir ChatGPT.
İncə tənzimləmə, həmçinin təməl modellərinin optimallaşdırılmış variantlarını yaratmaq üçün istifadə edilə bilər xüsusi məqsədlər dil modelləşdirməsindən kənar. Məsələn, mətn təsnifatı və axtarış axtarışı kimi semantika ilə bağlı tapşırıqlar üçün dəqiq tənzimlənmiş modellər var. Bundan əlavə, transformator kodlayıcıları çoxlu tapşırıq çərçivəsində uğurla nizamlanmışdır öyrənmə çərçivələri vahid paylaşılan modeldən istifadə edərək birdən çox semantik işi yerinə yetirmək.
Bu gün çox sayda istifadəçi tərəfindən istifadə edilə bilən təməl modellərinin versiyalarını yaratmaq üçün incə tənzimləmə istifadə olunur. Proses daxilə cavabların yaradılmasını əhatə edir istəklər verir və insanların nəticələri sıralayır. Bu sıralama təlim üçün istifadə olunur a mükafat modeli, hər bir çıxış üçün xallar təyin edir. İnsan rəyi ilə öyrənmənin gücləndirilməsi sonra modeli daha da öyrətmək üçün istifadə olunur.
Transformers niyə süni intellektin gələcəyidir?
Güclü model növü olan transformatorlar ilk dəfə dil tərcüməsi sahəsində nümayiş etdirilmişdir. Bununla belə, tədqiqatçılar Transformatorların böyük miqdarda etiketlənməmiş mətn üzərində öyrətməklə və daha sonra daha kiçik etiketli verilənlər toplusunda dəqiq tənzimləməklə dillə bağlı müxtəlif tapşırıqlar üçün istifadə oluna biləcəyini tez başa düşdülər. Bu yanaşma Transformers-ə dil haqqında əhəmiyyətli biliklər əldə etməyə imkan verdi.
Əvvəlcə dil tapşırıqları üçün nəzərdə tutulmuş Transformator arxitekturası digər proqramlara da tətbiq edilmişdir şəkillər yaratmaq, audio, musiqi və hətta hərəkətlər. Bu, Transformerləri cəmiyyətin müxtəlif aspektlərini dəyişdirən Generativ AI sahəsində əsas komponentə çevirdi.
kimi alətlərin və çərçivələrin mövcudluğu PyTorch və TensorFlow Transformator modellərinin geniş yayılmasında həlledici rol oynamışdır. Huggingface kimi şirkətlər özlərini qurdular ideya ətrafında biznes açıq mənbəli Transformator kitabxanalarının və NVIDIA-nın Hopper Tensor Cores kimi xüsusi aparatlarının kommersiyalaşdırılması bu modellərin təlimini və nəticə çıxarma sürətini daha da sürətləndirdi.
Transformers-in diqqətəlayiq tətbiqlərindən biri ChatGPT, tərəfindən buraxılmış bir chatbot OpenAI. Qısa müddət ərzində milyonlarla istifadəçiyə çataraq inanılmaz dərəcədə populyarlaşdı. OpenAI buraxıldığını da açıqladı GPT-4, kimi vəzifələrdə insana bənzər performansa nail ola bilən daha güclü versiya tibbi və hüquqi imtahanlar.
Transformerlərin süni intellekt sahəsinə və onların geniş tətbiq sahəsinə təsiri danılmazdır. Onların var yolu dəyişdirdi biz dillə əlaqəli vəzifələrə yaxınlaşırıq və generativ süni intellektdə yeni irəliləyişlərə yol açırıq.
3 Hazırlıq Memarlığının Növləri
Əvvəlcə Kodlayıcı və Dekoderdən ibarət olan Transformator arxitekturası xüsusi ehtiyaclara əsaslanan müxtəlif variasiyaları daxil etmək üçün inkişaf etmişdir. Gəlin bu variasiyaları sadə sözlərlə parçalayaq.
- Kodlayıcıya hazırlıq: Bu modellər tam cümlələri və ya keçidləri başa düşməyə yönəlmişdir. Əvvəlcədən məşq zamanı kodlayıcı giriş cümləsində maskalı işarələri yenidən qurmaq üçün istifadə olunur. Bu, modelə ümumi konteksti anlamağı öyrənməyə kömək edir. Bu cür modellər mətnin təsnifatı, cəlbedicilik və ekstraktiv suallara cavab kimi tapşırıqlar üçün faydalıdır.
- Dekoderə hazırlıq: Dekoder modelləri tokenlərin əvvəlki ardıcıllığına əsaslanaraq növbəti nişanı yaratmaq üçün öyrədilir. Onlar avto-reqressiv dil modelləri kimi tanınır. Dekoderdəki özünə diqqət layları yalnız cümlədəki verilmiş işarədən əvvəl tokenlərə daxil ola bilər. Bu modellər mətnin yaradılması ilə bağlı tapşırıqlar üçün idealdır.
- Transformator (Enkoder-Dekoder) Əvvəlcədən Təlim: Bu variasiya həm kodlayıcı, həm də dekoder komponentlərini birləşdirir. Kodlayıcının özünə diqqət layları bütün daxiletmə tokenlərinə daxil ola bilər, dekoderin özünə diqqət layları isə yalnız verilmiş tokendən əvvəl tokenlərə daxil ola bilər. Bu arxitektura dekoderə kodlayıcı tərəfindən öyrənilən təsvirlərdən istifadə etməyə imkan verir. Kodlayıcı-dekoder modelləri ümumiləşdirmə, tərcümə və ya generativ suala cavab kimi tapşırıqlar üçün çox uyğundur.
Təlimdən öncəki məqsədlərə denoising və ya səbəbli dil modelləşdirməsi daxil ola bilər. Bu məqsədlər yalnız kodlayıcı və ya yalnız dekoder modelləri ilə müqayisədə kodlayıcı-dekoder modelləri üçün daha mürəkkəbdir. Transformator arxitekturası modelin fokusundan asılı olaraq müxtəlif dəyişikliklərə malikdir. İstər tam cümlələri başa düşmək, mətn yaratmaq və ya hər ikisini müxtəlif tapşırıqlar üçün birləşdirmək olsun, Transformers dillə bağlı müxtəlif problemlərin həllində çeviklik təklif edir.
Əvvəlcədən hazırlanmış modellər üçün 8 tapşırıq növü
Bir modeli öyrədərkən, ona öyrənmək üçün tapşırıq və ya məqsəd verməliyik. Təbii dil emalında (NLP) müxtəlif tapşırıqlar mövcuddur ki, onlardan ilkin hazırlıq modelləri üçün istifadə edilə bilər. Gəlin bu tapşırıqlardan bəzilərini sadə dillə bölək:
- Dil Modelləşdirməsi (LM): Model cümlədəki növbəti işarəni proqnozlaşdırır. Konteksti başa düşməyi və ardıcıl cümlələr yaratmağı öyrənir.
- Səbəb dilinin modelləşdirilməsi: Model soldan sağa ardıcıllıqla mətn ardıcıllığında növbəti işarəni proqnozlaşdırır. Bu, hər dəfə bir sözdən ibarət cümlələr yaradan hekayə modelinə bənzəyir.
- Prefiks Dil Modelləşdirməsi: Model əsas ardıcıllıqdan "prefiks" bölməsini ayırır. O, prefiks daxilində istənilən işarəyə qatıla bilər və sonra ardıcıllığın qalan hissəsini avtoreqressiv şəkildə yaradır.
- Maskalı Dil Modelləşdirməsi (MLM): Giriş cümlələrindəki bəzi işarələr maskalanır və model ətrafdakı kontekst əsasında itkin işarələri proqnozlaşdırır. Boşluqları doldurmağı öyrənir.
- Permuted Language Modeling (PLM): Model giriş ardıcıllığının təsadüfi dəyişdirilməsi əsasında növbəti işarəni proqnozlaşdırır. O, tokenlərin müxtəlif sifarişlərini idarə etməyi öyrənir.
- Denoising Autoencoder (DAE): Model qismən zədələnmiş girişi qəbul edir və orijinal, təhrif olunmamış girişi bərpa etmək məqsədi daşıyır. Səs-küy və ya mətnin çatışmayan hissələrini idarə etməyi öyrənir.
- Replaced Token Detection (RTD): Model işarənin orijinal mətndən və ya yaradılan versiyadan gəldiyini aşkarlayır. O, dəyişdirilmiş və ya manipulyasiya edilmiş tokenləri müəyyən etməyi öyrənir.
- Sonrakı Cümlə Proqnozu (NSP): Model iki giriş cümləsinin təlim məlumatlarından davamlı seqmentlər olub-olmadığını ayırd etməyi öyrənir. Cümlələr arasındakı əlaqəni başa düşür.
Bu tapşırıqlar modelə dilin strukturunu və mənasını öyrənməyə kömək edir. Bu tapşırıqlar üzrə hazırlıq keçməklə, modellər xüsusi tətbiqlər üçün dəqiq tənzimlənməmişdən əvvəl dili yaxşı başa düşürlər.
Süni intellektdə ən yaxşı 30+ Transformator
ad | Memarlıqdan əvvəl hazırlıq | Tapşırıq | Ərizə | Tərəfindən hazırlanıb |
---|---|---|---|---|
ALBERT | Encoder | MLM/NSP | BERT kimi | |
Alpaca | Decoder | LM | Mətn yaratmaq və təsnifat tapşırıqları | Stanford |
AlphaFold | Encoder | Protein qatlanmasının proqnozu | Protein qatlanması | Deep Mind |
Antropik köməkçi (həmçinin bax) | Decoder | LM | Ümumi dialoqdan kod köməkçisinə qədər. | antropik |
BART | Kodlayıcı/dekoder | DAE | Mətn yaratmaq və mətni anlamaq üçün tapşırıqlar | |
BERT | Encoder | MLM/NSP | Dil Anlama və Suallara Cavab | |
BlenderBot 3 | Decoder | LM | Mətn yaratmaq və mətni anlamaq üçün tapşırıqlar | |
ÇİÇƏK | Decoder | LM | Mətn yaratmaq və mətni anlamaq üçün tapşırıqlar | Böyük Elm/Qucaqlayan üz |
ChatGPT | Decoder | LM | Dialoq agentləri | OpenAI |
Chinchilla | Decoder | LM | Mətn yaratmaq və mətni anlamaq üçün tapşırıqlar | Deep Mind |
KLIP | Encoder | Şəkil/Obyekt təsnifatı | OpenAI | |
CTRL | Decoder | Nəzarət edilə bilən mətn yaratmaq | Salesforce | |
SLAB | Decoder | Başlıq proqnozu | Şəkil üçün mətn | OpenAI |
DALL-E-2 | Kodlayıcı/dekoder | Başlıq proqnozu | Şəkil üçün mətn | OpenAI |
DeBERTa | Decoder | MLM | BERT kimi | microsoft |
Qərar transformatorları | Decoder | Növbəti fəaliyyət proqnozu | Ümumi RL (möhkəmləndirici öyrənmə tapşırıqları) | Google/UC Berkeley/FAIR |
DialoGPT | Decoder | LM | Dialoq parametrlərində mətn yaratmaq | microsoft |
DistilBERT | Encoder | MLM/NSP | Dil Anlama və Suallara Cavab | Qucaqlayan üz |
DQ-BART | Kodlayıcı/dekoder | DAE | Mətn yaratmaq və anlama | Amazon |
Dolly | Decoder | LM | Mətn yaratmaq və təsnifat tapşırıqları | Databricks, Inc |
ERNIE | Encoder | MLM | Bilik intensivliyi ilə əlaqəli tapşırıqlar | Müxtəlif Çin qurumları |
Qızılqaz | Decoder | Başlıq proqnozu | Şəkil üçün mətn | Deep Mind |
Qalaktika | Decoder | LM | Elmi QA, riyazi əsaslandırma, ümumiləşdirmə, sənədlərin yaradılması, molekulyar xassələrin proqnozlaşdırılması və obyektin çıxarılması. | Meta |
ŞİŞƏ | Encoder | Başlıq proqnozu | Şəkil üçün mətn | OpenAI |
GPT-3.5 | Decoder | LM | Dialoq və ümumi dil | OpenAI |
GPTTəlimatlandırmaq | Decoder | LM | Bilik tutumlu dialoq və ya dil tapşırıqları | OpenAI |
HTML | Kodlayıcı/dekoder | DAE | Strukturlaşdırılmış HTML təklifinə imkan verən dil modeli | |
Təsvir | T5 | Başlıq proqnozu | Şəkil üçün mətn | |
LAMDA | Decoder | LM | Ümumi dil modelləşdirmə | |
LLaMA | Decoder | LM | Sağlam düşüncə, Suallara cavab, Kod yaratma və Oxumağı başa düşmə. | Meta |
Minerva | Decoder | LM | Riyazi əsaslandırma | |
palma | Decoder | LM | Dil anlayışı və nəsil | |
Roberta | Encoder | MLM | Dil Anlama və Suallara Cavab | UW/Google |
Sparrow | Decoder | LM | Dialoq agentləri və Q&A kimi ümumi dil yaratmaq proqramları | Deep Mind |
Stabil diffuziya | Kodlayıcı/dekoder | Başlıq proqnozu | Şəkil üçün mətn | LMU Münhen + Stability.ai + Eleuther.ai |
Vicuna | Decoder | LM | Dialoq agentləri | UC Berkeley, CMU, Stanford, UC San Diego və MBZUAI |
FAQ
AI-də transformatorlar bir növdür dərin öyrənmə memarlığı təbii dilin işlənməsini və digər vəzifələri dəyişdirən. Onlar bir cümlədəki sözlər arasındakı əlaqələri ələ keçirmək üçün özünə diqqət mexanizmlərindən istifadə edərək, onlara insana bənzər mətni başa düşməyə və yaratmağa imkan verir.
Kodlayıcılar və dekoderlər ardıcıllıqdan ardıcıllığa modellərdə çox istifadə olunan komponentlərdir. Kodlayıcılar mətn və ya şəkillər kimi daxilolma məlumatlarını emal edir və onu sıxılmış təsvirə çevirir, dekoderlər isə kodlaşdırılmış təqdimat əsasında çıxış məlumatlarını yaradır, dil tərcüməsi və ya şəkil yazısı kimi tapşırıqları yerinə yetirir.
Diqqət təbəqələri istifadə olunan komponentlərdir sinir şəbəkələri, xüsusilə Transformator modellərində. Onlar modelə giriş ardıcıllığının müxtəlif hissələrinə seçici şəkildə fokuslanmağa, aktuallığına əsasən hər bir elementə çəkilər təyin etməyə imkan verir və elementlər arasında asılılıqları və əlaqələri effektiv şəkildə ələ keçirməyə imkan verir.
İncə tənzimlənmiş modellər, performanslarını yaxşılaşdırmaq və onları həmin tapşırığın xüsusi tələblərinə uyğunlaşdırmaq üçün xüsusi tapşırıq və ya verilənlər toplusu üzrə əlavə təlim keçmiş əvvəlcədən hazırlanmış modellərə istinad edir. Bu incə tənzimləmə prosesi onun proqnozlarını optimallaşdırmaq və onu hədəf tapşırıq üçün daha ixtisaslaşmış etmək üçün modelin parametrlərinin tənzimlənməsini nəzərdə tutur.
Transformatorlar süni intellektin gələcəyi hesab olunur, çünki onlar təbii dilin işlənməsi, təsvirin yaradılması və s. daxil olmaqla, geniş tapşırıqlarda müstəsna performans nümayiş etdiriblər. Onların uzunmüddətli asılılıqları ələ keçirmək və ardıcıl məlumatları səmərəli şəkildə emal etmək qabiliyyəti onları müxtəlif tətbiqlər üçün yüksək dərəcədə uyğunlaşmaq və effektiv edir, generativ süni intellektdə irəliləyişlərə yol açır və cəmiyyətin bir çox aspektlərində inqilab edir.
Süni intellektdə ən məşhur transformator modellərinə BERT (Transformerlərdən Bidirectional Encoder Representations) daxildir. GPT (General Pre-Təlimli Transformator) və T5 (Mətndən Mətnə Transfer Transformatoru). Bu modellər müxtəlif təbii dil emal tapşırıqlarında əla nəticələr əldə etmiş və AI tədqiqat cəmiyyətində əhəmiyyətli populyarlıq qazanmışdır.
AI haqqında daha çox oxuyun:
Məsuliyyətdən imtina
uyğun olaraq Güvən Layihəsi qaydaları, lütfən nəzərə alın ki, bu səhifədə təqdim olunan məlumat hüquqi, vergi, investisiya, maliyyə və ya hər hansı digər məsləhət forması kimi təfsir edilməməlidir və təfsir edilməməlidir. Yalnız itirə biləcəyiniz şeyə investisiya qoymaq və hər hansı bir şübhəniz varsa, müstəqil maliyyə məsləhətləri axtarmaq vacibdir. Əlavə məlumat üçün biz emitent və ya reklamçı tərəfindən təmin edilən şərtlər və şərtlərə, həmçinin yardım və dəstək səhifələrinə müraciət etməyi təklif edirik. MetaversePost dəqiq, qərəzsiz hesabat verməyə sadiqdir, lakin bazar şərtləri xəbərdarlıq edilmədən dəyişdirilə bilər.
Müəllif haqqında
Damir komanda rəhbəri, məhsul meneceri və redaktordur Metaverse Post, AI/ML, AGI, LLMs, Metaverse və kimi mövzuları əhatə edir Web3- əlaqəli sahələr. Onun məqalələri hər ay bir milyondan çox istifadəçinin kütləsini cəlb edir. O, SEO və rəqəmsal marketinq sahəsində 10 illik təcrübəyə malik mütəxəssis kimi görünür. Damirin adı Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto və digər nəşrlər. O, rəqəmsal köçəri kimi BƏƏ, Türkiyə, Rusiya və MDB arasında səyahət edir. Damir fizika üzrə bakalavr dərəcəsi qazandı və onun fikrincə, bu, ona internetin daim dəyişən mənzərəsində uğur qazanmaq üçün lazım olan tənqidi düşünmə bacarıqlarını verdi.
Ətraflı məqalələrDamir komanda rəhbəri, məhsul meneceri və redaktordur Metaverse Post, AI/ML, AGI, LLMs, Metaverse və kimi mövzuları əhatə edir Web3- əlaqəli sahələr. Onun məqalələri hər ay bir milyondan çox istifadəçinin kütləsini cəlb edir. O, SEO və rəqəmsal marketinq sahəsində 10 illik təcrübəyə malik mütəxəssis kimi görünür. Damirin adı Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto və digər nəşrlər. O, rəqəmsal köçəri kimi BƏƏ, Türkiyə, Rusiya və MDB arasında səyahət edir. Damir fizika üzrə bakalavr dərəcəsi qazandı və onun fikrincə, bu, ona internetin daim dəyişən mənzərəsində uğur qazanmaq üçün lazım olan tənqidi düşünmə bacarıqlarını verdi.