Laporan Berita Teknologi
Semoga 15, 2023

Program LLM: Laluan Baharu untuk Memperhalus Model Neural dalam Situasi Kompleks

Secara ringkas

Penulis mencadangkan laluan alternatif yang dipanggil Program LLM, yang boleh dianggap sebagai pembangunan pembelajaran dalam konteks.

Kunci untuk menyelesaikan masalah melalui Program LLM ialah keupayaan untuk menguraikan penyelesaian kepada masalah kepada urutan langkah yang lebih mudah.

Terdapat dua bidang utama penyesuaian LLM: penalaan halus (atau latihan tambahan) model asas pra-latihan dan pembelajaran dalam konteks. Penalaan halus memerlukan sumber pengkomputeran yang ketara, pengumpulan data dan infrastruktur untuk melakukan ini dan kemudian menjadi tuan rumah model yang diperhalusi. Sementara itu, pembelajaran dalam konteks melibatkan penyusunan gesaan yang betul dengan contoh penyelesaian masalah, seperti Chain-of-Thought (CoT). Walau bagaimanapun, terdapat beberapa kesukaran, seperti saiz teks yang terhad yang boleh diserahkan kepada model dan hakikat bahawa dalam gesaan berbilang laluan yang kompleks, langkah-langkah boleh mengganggu satu sama lain, dan model boleh terganggu oleh sesuatu. yang tidak sepatutnya terganggu pada masa ini. Penulis mencadangkan jalan alternatif yang dipanggil Program LLM, yang boleh dianggap sebagai pembangunan pembelajaran dalam konteks.

Program LLM: Laluan Baharu untuk Memperhalus Model Neural dalam Situasi Kompleks
Lawatan: Panduan Terbaik Kejuruteraan Prompt 2023

LLM dibina ke dalam program (dalam program konvensional bahasa pengaturcaraan, sebagai contoh, dalam Python). Kod luaran ini bertanggungjawab untuk menyimpan keadaan dan mengekalkan model langkah demi langkah. Ia mempunyai beberapa kelebihan utama: Bahasa pengaturcaraan disesuaikan untuk ini, saiz konteks yang tersedia berkembang, dan langkah-langkah tidak mengganggu satu sama lain. Kunci untuk menyelesaikan masalah melalui Program LLM ialah keupayaan untuk menguraikan penyelesaian kepada masalah kepada urutan langkah yang lebih mudah. Pendekatan ini berbeza daripada kerja-kerja terdahulu, di mana model menggunakan alat luaran seperti kalkulator atau jurubahasa kod untuk mengekalkan negeri. Pendekatan ini bagus kerana anda boleh menerangkan tugas yang rumit dan meluas dengan cara ini, menjadikannya lebih mudah untuk menguji, nyahpepijat dan menilai kualiti.

Selain itu, tiada gangguan antara langkah, menjadikannya lebih mudah untuk bekerja dengan LLM. Sistem soal jawab juga bukan baru; mereka telah wujud lama sebelum LLM. Bagaimanakah tugas menjawab soalan diselesaikan sekarang?

Tapak dikemas kini dengan kerap, jadi a model beku bukan pilihan; ia akan cepat ketinggalan zaman dan tidak akan dapat menjawab soalan tentang produk baharu. Latihan semula model yang berterusan untuk setiap kemas kini bukanlah pilihan yang realistik: Ia mahal dan memakan masa. Sebaliknya, halaman tapak web biasanya diindeks, dimasukkan ke dalam beberapa jenis pangkalan data, dan sering divektorkan. Atas permintaan pengguna, dokumen yang berkaitan ditarik ke atas dan dihantar sebagai konteks kepada LLM.

Dalam paradigma sebegini, masalah itu secara semula jadi diselesaikan melalui Program LLM. Sebagai bonus, ia menjadi mungkin untuk melaksanakan logik berbilang laluan yang lebih kompleks yang tidak sesuai sepenuhnya dengan konteks.

Diuji pada Set data StrategiQA mengandungi masalah klasifikasi binari, penyelesaiannya melibatkan penaakulan pelbagai hala. Seperti "Adakah cahaya matahari menembusi ke tempat paling dalam di Laut Hitam?". Untuk menjawab, anda perlu mencari kedalaman maksimum (2 km) dan berapa dalam cahaya menembusi air (1 km), dan kemudian membuat kesimpulan. Mari kita lihat contoh soalan lain: "Adakah Aristotle menggunakan komputer riba?" Soalan ini tidak semudah dan tidak mengikut urutan langkah penaakulan secara eksplisit seperti "Adakah Aristotle masih hidup semasa komputer riba dicipta?" tidak. Set data memfokuskan pada soalan yang urutan sedemikian adalah tersirat. Terdapat hanya 2,780 soalan dalam set data, yang mana hanya 918 mempunyai perenggan dengan bukti yang mengukuhkan semua langkah penaakulan. Dalam kerja semasa, ia menghadkan kepada subset ini; jika tidak, kita perlu bergantung pada LLM mempelajari beberapa fakta semasa pralatihan.

OPT-175B LLM, secara lalai, tidak begitu baik dalam mengikuti arahan; ia tidak perlu memperhalusi arahan mahupun data perbualan. Untuk menyelesaikan masalah menjawab soalan yang disokong bukti, dibahagikan kepada peringkat penapisan data dan peringkat carian pokok.

Pada peringkat penapisan, mempunyai soalan, pembangun meneliti semua perenggan dan memilih perenggan yang paling berkaitan. Contohnya, dengan gesaan beberapa pukulan, minta LLM menjawab (ya/tidak) sama ada perenggan yang diberikan berkaitan dengan soalan yang ditanya. Diuji pada subset 300 StrategyQA, di mana setiap soalan dipadankan dengan perenggan, berkaitan atau tidak, 50/50. OPT-175B dan text-davinci-002 tidak mempunyai a kualiti yang jauh lebih tinggi daripada garis dasar rawak: sehingga 56%. Semakin maju 11B Tk-Arahan tidak jauh lebih baik pada 61.6%.

Disebabkan oleh kualiti pendekatan ini yang lemah, satu alternatif telah disusun yang mempertimbangkan purata kemungkinan log negatif (NLL) soalan dalam kombinasi dengan perenggan teks sebelumnya dan kemudian menyusun keputusan. Dinilai pada set data di mana untuk setiap soalan, terdapat 100 perenggan, dan hanya satu yang relevan (jadi tekaan rawak memberikan 1%). Kami mendapat ketepatan top-1 pada 79% dan top-5 pada 93%. Untuk pengiraan ini, anda biasanya memerlukan akses kepada model itu sendiri, yang tidak selalu dilakukan dalam API.

Seterusnya ialah peringkat membina rantaian keluaran. Ini dilakukan melalui carian melalui pokok di mana soalan adalah akarnya, dan pada setiap peringkat, terdapat banyak perenggan dengan bukti yang mungkin digunakan sebagai konteks untuk menjana langkah seterusnya. Setiap laluan melalui pokok adalah rantaian keluaran yang berpotensi. Adalah tidak realistik untuk membuat kesimpulan pada semua rantaian yang mungkin, jadi semua rantaian yang tersedia diberi kedudukan, dan rantaian kedudukan tertinggi diperluaskan. Ini ialah variasi carian pancaran. Proses berhenti apabila respons dibuat atau bilangan langkah maksimum yang dibenarkan telah berlalu.

Butiran yang paling penting ialah dua strategi kedudukan yang diuji untuk langkah carian pokok. Strategi pertama adalah berdasarkan purata NLL keseluruhan rantaian, manakala strategi kedua melihat perbezaan purata dalam NLL dengan dan tanpa perenggan (P), dengan dan tanpa soalan (Q). Mengenai 918 soalan yang tersedia daripada StrategyQA, pendekatan ini meningkatkan kualiti jawapan dengan ketara berbanding garis dasar dengan CoT (60%); kedua-dua pilihan carian memberikan sekitar 66% (strategi dengan delta yang lebih tinggi sedikit). Jika fakta emas dikemukakan, kualiti menjadi sekitar 81%, iaitu had atas untuk OPT. Darklang nampaknya akan pergi ke suatu tempat tetapi dengan cara yang sedikit berbeza.

Artikel itu berdasarkan Telegram hantar.

Baca lebih lanjut mengenai AI:

Penafian

Selaras dengan Garis panduan Projek Amanah, sila ambil perhatian bahawa maklumat yang diberikan pada halaman ini tidak bertujuan untuk menjadi dan tidak seharusnya ditafsirkan sebagai nasihat undang-undang, cukai, pelaburan, kewangan atau sebarang bentuk nasihat lain. Adalah penting untuk hanya melabur apa yang anda mampu kehilangan dan mendapatkan nasihat kewangan bebas jika anda mempunyai sebarang keraguan. Untuk maklumat lanjut, kami mencadangkan merujuk kepada terma dan syarat serta halaman bantuan dan sokongan yang disediakan oleh pengeluar atau pengiklan. MetaversePost komited kepada laporan yang tepat dan tidak berat sebelah, tetapi keadaan pasaran tertakluk kepada perubahan tanpa notis.

Tentang Pengarang

Damir ialah ketua pasukan, pengurus produk dan editor di Metaverse Post, meliputi topik seperti AI/ML, AGI, LLM, Metaverse dan Web3-bidang berkaitan. Artikelnya menarik khalayak besar lebih sejuta pengguna setiap bulan. Dia nampaknya seorang pakar dengan pengalaman 10 tahun dalam SEO dan pemasaran digital. Damir telah disebut dalam Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto dan penerbitan lain. Dia mengembara antara UAE, Turki, Rusia dan CIS sebagai nomad digital. Damir memperoleh ijazah sarjana muda dalam fizik, yang dia percaya telah memberikannya kemahiran berfikir kritis yang diperlukan untuk berjaya dalam landskap internet yang sentiasa berubah. 

lebih banyak artikel
Damir Yalalov
Damir Yalalov

Damir ialah ketua pasukan, pengurus produk dan editor di Metaverse Post, meliputi topik seperti AI/ML, AGI, LLM, Metaverse dan Web3-bidang berkaitan. Artikelnya menarik khalayak besar lebih sejuta pengguna setiap bulan. Dia nampaknya seorang pakar dengan pengalaman 10 tahun dalam SEO dan pemasaran digital. Damir telah disebut dalam Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto dan penerbitan lain. Dia mengembara antara UAE, Turki, Rusia dan CIS sebagai nomad digital. Damir memperoleh ijazah sarjana muda dalam fizik, yang dia percaya telah memberikannya kemahiran berfikir kritis yang diperlukan untuk berjaya dalam landskap internet yang sentiasa berubah. 

Selera Institusi Berkembang Terhadap Bitcoin ETF Di Tengah-tengah Kemeruapan

Pendedahan melalui pemfailan 13F mendedahkan pelabur institusi terkenal yang berkecimpung dalam Bitcoin ETF, menekankan penerimaan yang semakin meningkat terhadap ...

Mengetahui lebih lanjut

Hari Penghukuman Tiba: Nasib CZ Bergantung Seimbang apabila Mahkamah AS Mempertimbangkan Rayuan DOJ

Changpeng Zhao bersedia untuk menghadapi hukuman di mahkamah AS di Seattle hari ini.

Mengetahui lebih lanjut
Sertai Komuniti Teknologi Inovatif Kami
Untuk Lebih Lanjut
Baca lagi
Injektif Menyertai Pasukan Dengan AltLayer Untuk Membawa Keselamatan Restaking Kepada inEVM
Perniagaan Laporan Berita Teknologi
Injektif Menyertai Pasukan Dengan AltLayer Untuk Membawa Keselamatan Restaking Kepada inEVM
Semoga 3, 2024
Masa Bekerjasama Dengan Juruwang Untuk Memperkenalkan Kumpulan Pinjaman MASA, Membolehkan Pinjaman USDC Di Pangkalan
pasaran Laporan Berita Teknologi
Masa Bekerjasama Dengan Juruwang Untuk Memperkenalkan Kumpulan Pinjaman MASA, Membolehkan Pinjaman USDC Di Pangkalan
Semoga 3, 2024
Velodrome Melancarkan Versi Beta Superchain Dalam Minggu Akan Datang Dan Berkembang Merentasi OP Stack Layer 2 Blockchains
pasaran Laporan Berita Teknologi
Velodrome Melancarkan Versi Beta Superchain Dalam Minggu Akan Datang Dan Berkembang Merentasi OP Stack Layer 2 Blockchains
Semoga 3, 2024
CARV Mengumumkan Perkongsian Dengan Aethir Untuk Memusnahkan Lapisan Datanya Dan Mengedarkan Ganjaran
Perniagaan Laporan Berita Teknologi
CARV Mengumumkan Perkongsian Dengan Aethir Untuk Memusnahkan Lapisan Datanya Dan Mengedarkan Ganjaran
Semoga 3, 2024