Bagaimana Syarikat Menghadapi Sisi Gelap AI
Secara ringkas
Penyepaduan AI ke dalam kehidupan seharian menimbulkan kebimbangan tentang keselamatan. Syarikat, kerajaan dan pakatan mengisi kekosongan, menangani fungsi, menimbulkan kebimbangan, dan kekurangan.
Kecerdasan buatan semakin disepadukan ke dalam kehidupan seharian kita, daripada chatbot yang menyediakan sokongan emosi kepada algoritma yang memaksimumkan perdagangan, dan kebimbangannya semakin jelas. Isunya bukan lagi "jika," tetapi siapa dan bagaimana akan mengarahkan AI kepada keselamatan.
Syarikat, kerajaan dan pakatan multinasional secara progresif mengisi kekosongan, kadangkala secara reaktif, kadangkala secara preskriptif. Berikut ialah garis besar tentang perkara yang berfungsi, perkara yang menyebabkan kebimbangan dan perkara yang masih kurang.
Tech Titans Ketatkan Tali Kekang
Meta Menambah Pengawal untuk Remaja
Sebagai tindak balas kepada tindak balas orang ramai dan politik, Meta telah berjanji untuk mengukuhkan perlindungan AInya:
Chatbotsnya kini akan menolak untuk membincangkan isu kecederaan diri, bunuh diri atau makan dengan remaja, sebaliknya merujuk mereka kepada profesional kesihatan mental.
Ini adalah sebahagian daripada inisiatif "akaun remaja" yang lebih besar di Facebook, Instagram dan Messenger yang bertujuan untuk memberikan pengalaman yang lebih selamat dan kesedaran ibu bapa, termasuk keupayaan untuk mengetahui bot yang digunakan oleh kanak-kanak pada minggu sebelumnya.
Pengkritik mendakwa bahawa langkah ini sudah lama tertangguh, terutamanya memandangkan data bocor yang menunjukkan bahawa bot mungkin telah terlibat dalam sembang "sensual" yang memalukan dengan kanak-kanak. "Ujian keselamatan yang teguh harus dilakukan sebelum produk diletakkan di pasaran, bukan secara retrospektif," seorang peguam bela memberi amaran.
Meta Menarik Diri daripada Kod AI Sukarela EU
Kesatuan Eropah mengeluarkan Kod Amalan sukarela untuk membantu pembangun AI selaras dengan Akta AInya. Meta enggan menandatangani, memanggilnya melampaui batas birokrasi yang berisiko menghalang inovasi.
Kerjasama Kerajaan AS
OpenAI dan Anthropic telah bersetuju untuk berkongsi model AI mereka dengan Institut Keselamatan AI AS sebelum dan selepas penerbitan. Ideanya adalah untuk mendapatkan input keselamatan dan mengurangkan bahaya melalui pemeriksaan kerajaan.
Pada Ogos 2025, 44 Peguam Negara AS menandatangani surat gabungan yang menggalakkan syarikat AI utama, termasuk Meta, OpenAI, Microsoft, Google dan Replika, untuk melindungi kanak-kanak bawah umur dengan lebih baik daripada bahan AI pemangsa.
Illinois Mengharamkan AI sebagai Terapi
Illinois telah menjadi salah satu negeri pertama untuk melarang chatbot berkuasa AI daripada digunakan sebagai terapi melainkan diawasi oleh profesional bertauliah. Nevada dan Utah telah melaksanakan batasan yang sama. Pelanggar mungkin berdepan hukuman sivil sehingga $10,000.
Rangka Kerja Perundangan Global
Peraturan sedang dibangunkan di seluruh dunia, daripada Akta AI EU hingga Akta Perlindungan Data India and Keperluan keselamatan Korea Selatan. Sebilangan besar negeri AS sedang melaksanakan perundangan khusus AI atau mengembangkan rangka kerja semasa seperti perlindungan pengguna, ketelusan algoritma dan audit berat sebelah.
Senator Wiener dari California telah mencadangkan undang-undang yang memaksa perniagaan AI utama mendedahkan secara terbuka amalan keselamatan mereka dan melaporkan insiden besar kepada pihak berkuasa negeri.
Institut Keselamatan AI: Pengawasan Berbilang Negara
Untuk memastikan semakan AI bebas dan piawai, negara telah menubuhkan Institut Keselamatan AI:
AS dan UK mewujudkan institut kebangsaan selepas Sidang Kemuncak Keselamatan AI 2023.
Menjelang 2025, banyak negara menyertai rangkaian, termasuk Jepun, Perancis, Jerman, Itali, Singapura, Korea Selatan, Kanada dan EU, untuk menilai keselamatan model dan menetapkan piawaian pengawasan global.
Laporan Mendedahkan Jurang Berterusan
The Future of Life Institute (FLI) memberi gred kepada syarikat AI D atau ke bawah dalam perancangan keselamatan wujud; tiada markah melebihi C+. Anthropic diketuai dengan C+, diikuti oleh OpenAI (C), dan Meta (D).
Bekas OpenAI pekerja menuduh syarikat mengutamakan keuntungan berbanding keselamatan, meningkatkan ketelusan dan kebimbangan etika di sebalik pintu tertutup.
Daripada pagar kanak-kanak Meta hingga larangan rawatan Illinois, kepada syarikat seperti SSI yang mengintegrasikan keselamatan ke dalam AI, mesejnya jelas: perundangan dan pandangan jauh ketinggalan di belakang teknologi. Data yang bocor, litigasi dan penelitian antarabangsa menunjukkan bahawa bahaya biasanya didahulukan. Tugasnya bukan hanya untuk membangunkan AI yang lebih baik, tetapi juga untuk memastikan bahawa setiap kejayaan melindungi orang ramai sebelum malapetaka melanda.
Penafian
Selaras dengan Garis panduan Projek Amanah, sila ambil perhatian bahawa maklumat yang diberikan pada halaman ini tidak bertujuan untuk menjadi dan tidak seharusnya ditafsirkan sebagai nasihat undang-undang, cukai, pelaburan, kewangan atau sebarang bentuk nasihat lain. Adalah penting untuk hanya melabur apa yang anda mampu kehilangan dan mendapatkan nasihat kewangan bebas jika anda mempunyai sebarang keraguan. Untuk maklumat lanjut, kami mencadangkan merujuk kepada terma dan syarat serta halaman bantuan dan sokongan yang disediakan oleh pengeluar atau pengiklan. MetaversePost komited kepada laporan yang tepat dan tidak berat sebelah, tetapi keadaan pasaran tertakluk kepada perubahan tanpa notis.
Tentang Pengarang
Victoria adalah seorang penulis mengenai pelbagai topik teknologi termasuk Web3.0, AI dan mata wang kripto. Pengalamannya yang luas membolehkannya menulis artikel yang bernas untuk khalayak yang lebih luas.
lebih banyak artikel
Victoria adalah seorang penulis mengenai pelbagai topik teknologi termasuk Web3.0, AI dan mata wang kripto. Pengalamannya yang luas membolehkannya menulis artikel yang bernas untuk khalayak yang lebih luas.