GPT-4 Mewarisi Fakta “Halusinasi” dan Kesalahan Penalaran Sebelumnya GPT Model
Singkatnya
OpenAI mengatakan GPT-4 memiliki keterbatasan yang sama seperti sebelumnya GPT model.
GPT-4 masih berhalusinasi fakta dan membuat kesalahan penalaran.
Namun, GPT-4 skor 40% lebih tinggi dari OpenAIterbaru GPT-3.5 tentang evaluasi faktualitas permusuhan internal perusahaan.
OpenAI telah memperingatkan pengguna bahwa model bahasa terbarunya, GPT-4, masih belum sepenuhnya dapat diandalkan dan dapat “berhalusinasi” fakta dan membuat kesalahan penalaran. Perusahaan mendesak pengguna untuk berhati-hati saat menggunakan keluaran model bahasa, terutama dalam “konteks berisiko tinggi.”
Namun, kabar baiknya adalah GPT-4 secara signifikan mengurangi halusinasi dibandingkan model sebelumnya. OpenAI mengklaim itu GPT-4 mendapat skor 40% lebih tinggi dari yang terbaru GPT-3.5 tentang evaluasi faktualitas permusuhan internal.
“Kami telah membuat kemajuan pada tolok ukur eksternal seperti TruthfulQA, yang menguji kemampuan model untuk memisahkan fakta dari serangkaian pernyataan salah yang dipilih secara bermusuhan. Pertanyaan-pertanyaan ini dipasangkan dengan jawaban yang salah secara faktual yang menarik secara statistik,” OpenAI menulis dalam a posting blog.
Terlepas dari peningkatan ini, model masih kekurangan pengetahuan tentang peristiwa yang terjadi setelah September 2021 dan terkadang membuat kesalahan penalaran sederhana, seperti yang dilakukan model sebelumnya. Selain itu, dapat terlalu mudah tertipu dalam menerima pernyataan palsu yang jelas dari pengguna dan gagal pada masalah yang sulit, seperti memasukkan kerentanan keamanan ke dalam kodenya. Itu juga tidak memeriksa fakta informasi yang diberikannya.
Seperti pendahulunya, GPT-4 dapat menghasilkan saran berbahaya, kode buggy, atau informasi yang tidak akurat. Namun, kemampuan tambahan model ini memunculkan permukaan risiko baru yang perlu dipahami. Untuk menilai sejauh mana risiko ini, lebih dari 50 ahli dari berbagai domain, termasuk risiko penyelarasan AI, keamanan siber, risiko biologis, kepercayaan dan keselamatan, serta keamanan internasional, dilibatkan untuk menguji model tersebut secara bermusuhan. Masukan dan data mereka kemudian digunakan untuk menyempurnakan model, seperti mengumpulkan data tambahan untuk menyempurnakannya GPT-4kemampuan untuk menolak permintaan tentang cara mensintesis bahan kimia berbahaya.
Salah satu cara utama OpenAI Salah satu cara untuk mengurangi dampak buruk adalah dengan memasukkan sinyal penghargaan keselamatan tambahan selama pelatihan RLHF (Reinforcement Learning from Human Feedback). Sinyal tersebut melatih model untuk menolak permintaan konten berbahaya, seperti defiditentukan oleh pedoman penggunaan model. Hadiah diberikan oleh a GPT-4 pengklasifikasi zero-shot, yang menilai batasan keselamatan dan gaya penyelesaian berdasarkan perintah terkait keselamatan.
OpenAI juga mengatakan bahwa hal ini telah menurunkan kecenderungan model untuk merespons permintaan konten yang tidak diizinkan sebesar 82% dibandingkan dengan GPT-3.5, dan GPT-4 menanggapi permintaan sensitif seperti nasihat medis dan tindakan menyakiti diri sendiri sesuai dengan kebijakan perusahaan 29% lebih sering.
Sementara OpenAIIntervensi yang dilakukan telah meningkatkan kesulitan dalam memunculkan perilaku buruk GPT-4, masih mungkin, dan masih terdapat jailbreak yang dapat menghasilkan konten yang melanggar pedoman penggunaan.
“Seiring dengan semakin lazimnya sistem AI, mencapai tingkat keandalan yang tinggi dalam intervensi ini akan menjadi semakin penting. Untuk saat ini, penting untuk melengkapi keterbatasan ini dengan teknik keamanan waktu penerapan seperti pemantauan penyalahgunaan,” tambah perusahaan.
OpenAI berkolaborasi dengan peneliti eksternal untuk lebih memahami dan menilai potensi dampak GPT-4 dan model penerusnya. Tim ini juga mengembangkan evaluasi terhadap kemampuan berbahaya yang mungkin muncul dalam sistem AI di masa depan. Seiring mereka terus mengkaji potensi sosial dan dampak ekonomi of GPT-4 dan sistem AI lainnya, OpenAI akan membagikan temuan dan wawasan mereka kepada publik pada waktunya.
Baca lebih lanjut:
Penolakan tanggung jawab
Sejalan dengan Percayai pedoman Proyek, harap dicatat bahwa informasi yang diberikan pada halaman ini tidak dimaksudkan untuk dan tidak boleh ditafsirkan sebagai nasihat hukum, pajak, investasi, keuangan, atau bentuk nasihat lainnya. Penting untuk hanya menginvestasikan jumlah yang mampu Anda tanggung kerugiannya dan mencari nasihat keuangan independen jika Anda ragu. Untuk informasi lebih lanjut, kami menyarankan untuk merujuk pada syarat dan ketentuan serta halaman bantuan dan dukungan yang disediakan oleh penerbit atau pengiklan. MetaversePost berkomitmen terhadap pelaporan yang akurat dan tidak memihak, namun kondisi pasar dapat berubah tanpa pemberitahuan.
Tentang Penulis
Cindy adalah seorang jurnalis di Metaverse Post, mencakup topik yang terkait dengan web3, NFT, metaverse dan AI, dengan fokus pada wawancara dengan Web3 pelaku industri. Dia telah berbicara dengan lebih dari 30 eksekutif tingkat C dan terus bertambah, menyampaikan wawasan berharga mereka kepada pembaca. Berasal dari Singapura, Cindy kini tinggal di Tbilisi, Georgia. Beliau meraih gelar Sarjana Komunikasi & Studi Media dari University of South Australia dan memiliki pengalaman satu dekade di bidang jurnalisme dan penulisan. Hubungi dia melalui [email dilindungi] dengan pitches pers, pengumuman dan peluang wawancara.
lebih artikelCindy adalah seorang jurnalis di Metaverse Post, mencakup topik yang terkait dengan web3, NFT, metaverse dan AI, dengan fokus pada wawancara dengan Web3 pelaku industri. Dia telah berbicara dengan lebih dari 30 eksekutif tingkat C dan terus bertambah, menyampaikan wawasan berharga mereka kepada pembaca. Berasal dari Singapura, Cindy kini tinggal di Tbilisi, Georgia. Beliau meraih gelar Sarjana Komunikasi & Studi Media dari University of South Australia dan memiliki pengalaman satu dekade di bidang jurnalisme dan penulisan. Hubungi dia melalui [email dilindungi] dengan pitches pers, pengumuman dan peluang wawancara.