OpenAI: AI Berpotensi Membahayakan Orang, Tetapi Mencoba Menghentikan Kemajuan bukanlah Pilihan
Singkatnya
OpenAIDokumennya yang berjudul “Planning for AGI and Beyond” menyarankan pengenalan model yang lebih kompleks dan “cerdas” secara bertahap dan perlahan, mengorganisir audit independen terhadap sistem besar, dan membatasi sumber daya komputasi.
OpenAI ingin AI terbuka untuk semua orang secara setara dan berkreasi lebih konsisten dan model yang dapat dikelola untuk mengurangi bias dan perilaku yang tidak diinginkan.
OpenAI baru-baru ini menerbitkan dokumen berjudul “Planning for AGI and Beyond.” Dokumen ini menguraikan ide-ide luas yang memandu tindakan perusahaan seiring dengan semakin dekatnya perkembangan AGI (kecerdasan umum buatan).
OpenAI dengan keyakinan bahwa meskipun AI berpotensi menimbulkan kerugian besar bagi manusia, upaya untuk menghentikan kemajuan bukanlah suatu pilihan. Oleh karena itu, kita harus belajar bagaimana mempertahankan peningkatan ini agar tidak memburuk secara signifikan.
Dokumen dapat ditemukan di sini. Mari soroti beberapa elemen penting darinya:
- OpenAI ingin AGI membantu masyarakat berkembang dalam semua aspek kehidupan mereka, baik secara ekonomi maupun ilmiah.
Daripada menciptakan AI besar yang super keren dan segera merilisnya ke dunia, OpenAI akan memperkenalkan model yang lebih rumit dan “pintar” secara bertahap. Asumsinya adalah peningkatan kemampuan AI secara bertahap tidak akan mengejutkan dunia, memberikan waktu bagi manusia untuk menyesuaikan diri, mengadaptasi perekonomian, dan membangun prosedur untuk berinteraksi dengan AI. - OpenAI mengundang semua organisasi untuk secara formal mengadopsi prinsip yang disebutkan di atas (secara bertahap meluncurkan AI yang kuat). Altman juga merekomendasikan untuk membatasi jumlah sumber daya komputasi yang dapat digunakan untuk melatih model dan menyiapkan audit yang tidak memihak terhadap sistem utama sebelum tersedia untuk masyarakat umum. Daripada terlibat dalam kompetisi seperti “siapa yang pertama kali meluncurkan model yang lebih keren dan lebih besar?” OpenAI meminta perusahaan untuk melakukannya bekerja sama untuk meningkatkan keamanan AI.
- OpenAI percaya bahwa sangat penting bagi pemerintah untuk mendapatkan informasi mengenai pelaksanaan pelatihan yang melebihi skala tertentu. Ini adalah konsep yang menarik, dan kami ingin tahu lebih banyak tentangnya rencana OpenAI memiliki dalam hal ini. Proposal ini tampaknya tidak terlalu bagus bagi saya pada awalnya.
- OpenAI akan mencoba mengembangkan model yang lebih dapat diandalkan dan dikendalikan, yang kemungkinan besar akan membatasi bias dan perilaku tidak menguntungkan dalam AI. Pendekatan yang dilakukan oleh OpenAI dalam hal ini adalah membuat model tersedia untuk masyarakat umum dalam bentuk yang sangat terbatas sekaligus memberikan opsi kepada pengguna untuk mempersonalisasikannya. Karena konsumen tidak dapat “mempersonalisasi” apa pun di sana, saya tidak yakin bagaimana hal ini akan membantu model secara keseluruhan menjadi tidak terlalu bias. Kecuali jika hal tersebut membebaskan perusahaan dari tanggung jawab atas tindakan model tersebut.
Secara keseluruhan, dokumen tersebut, menunjuk ke arah yang benar. Namun, ada konflik kecil antara "kami tidak akan langsung menunjukkan model keren kepada publik, tetapi kami akan membicarakannya ke negara bagian" dan “orang harus tahu tentang kemajuan AI.” Singkatnya, kami menunggu klarifikasi rinci dari OpenAI pada semua topik.
Baca lebih lanjut tentang AI:
Penolakan tanggung jawab
Sejalan dengan Percayai pedoman Proyek, harap dicatat bahwa informasi yang diberikan pada halaman ini tidak dimaksudkan untuk dan tidak boleh ditafsirkan sebagai nasihat hukum, pajak, investasi, keuangan, atau bentuk nasihat lainnya. Penting untuk hanya menginvestasikan jumlah yang mampu Anda tanggung kerugiannya dan mencari nasihat keuangan independen jika Anda ragu. Untuk informasi lebih lanjut, kami menyarankan untuk merujuk pada syarat dan ketentuan serta halaman bantuan dan dukungan yang disediakan oleh penerbit atau pengiklan. MetaversePost berkomitmen terhadap pelaporan yang akurat dan tidak memihak, namun kondisi pasar dapat berubah tanpa pemberitahuan.
Tentang Penulis
Damir adalah pemimpin tim, manajer produk, dan editor di Metaverse Post, mencakup topik seperti AI/ML, AGI, LLM, Metaverse, dan Web3-bidang terkait. Artikelnya menarik lebih dari satu juta pengguna setiap bulan. Dia tampaknya ahli dengan pengalaman 10 tahun dalam SEO dan pemasaran digital. Damir telah disebutkan dalam Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto, dan publikasi lainnya. Dia melakukan perjalanan antara UEA, Turki, Rusia, dan CIS sebagai pengembara digital. Damir memperoleh gelar sarjana dalam bidang fisika, yang menurutnya telah memberinya keterampilan berpikir kritis yang diperlukan untuk berhasil dalam lanskap internet yang selalu berubah.
lebih artikelDamir adalah pemimpin tim, manajer produk, dan editor di Metaverse Post, mencakup topik seperti AI/ML, AGI, LLM, Metaverse, dan Web3-bidang terkait. Artikelnya menarik lebih dari satu juta pengguna setiap bulan. Dia tampaknya ahli dengan pengalaman 10 tahun dalam SEO dan pemasaran digital. Damir telah disebutkan dalam Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto, dan publikasi lainnya. Dia melakukan perjalanan antara UEA, Turki, Rusia, dan CIS sebagai pengembara digital. Damir memperoleh gelar sarjana dalam bidang fisika, yang menurutnya telah memberinya keterampilan berpikir kritis yang diperlukan untuk berhasil dalam lanskap internet yang selalu berubah.