10 teratas AI dan ChatGPT Risiko dan Bahaya pada 2023
Dengan kemajuan teknologi kecerdasan buatan (AI) dan chatbot, lebih banyak syarikat mengejar penyelesaian perkhidmatan pelanggan automatik sebagai cara untuk meningkatkan pengalaman pelanggan mereka dan mengurangkan kos overhed. Walaupun terdapat banyak faedah untuk memanfaatkan model AI dan penyelesaian chatbot, masih terdapat pelbagai risiko dan bahaya yang berkaitan dengan teknologi, terutamanya apabila ia menjadi lebih meluas dan disepadukan ke dalam kehidupan harian kita sepanjang dekad yang akan datang.
Minggu ini semua orang di Senat AS mendengar Sam Altman bercakap tentang peraturan dan risiko model AI. Berikut ialah ringkasan asas:
Bioweapons
Penggunaan Kepintaran Buatan (AI) dalam pembangunan senjata biologi mempersembahkan cara yang berbahaya dan berkesan untuk mencipta senjata pemusnah besar-besaran yang berkuasa dan maut. ChatGPT bot ialah pembantu perbualan dipacu AI yang mampu mengadakan perbualan seperti hidup dengan manusia. Kebimbangan dengan ChatGPT bot adalah bahawa mereka mempunyai potensi untuk digunakan untuk menyebarkan maklumat palsu dan memanipulasi minda untuk mempengaruhi pendapat umum.
Peraturan ialah komponen utama untuk mencegah penyalahgunaan AI dan ChatGPT bot dalam pembangunan dan penggunaan senjata biologi. Kerajaan perlu membangunkan pelan tindakan nasional untuk menangani potensi penyalahgunaan teknologi, dan syarikat harus bertanggungjawab terhadap sebarang kemungkinan penyalahgunaan teknologi mereka. AI dan ChatGPT bot. Organisasi antarabangsa harus melabur dalam inisiatif yang menumpukan pada latihan, pemantauan dan pendidikan AI dan ChatGPT bot.
Kehilangan Pekerjaan
Potensi kehilangan pekerjaan akibat AI dan ChatGPT pada tahun 2023 diunjurkan menjadi tiga kali lebih banyak daripada pada tahun 2020. AI dan ChatGPT boleh membawa kepada peningkatan rasa tidak selamat di tempat kerja, pertimbangan etika, dan kesan psikologi kepada pekerja. AI dan ChatGPT boleh digunakan untuk memantau tingkah laku dan aktiviti pekerja, membolehkan majikan membuat keputusan dengan cepat dan tanpa memerlukan kakitangan manusia untuk terlibat. Selain itu, AI dan ChatGPT boleh menyebabkan keputusan yang tidak adil dan berat sebelah yang boleh membawa kepada ketidakamanan kewangan, sosial dan emosi di tempat kerja.
Peraturan AI
Artikel ini meneroka risiko yang berpotensi dan bahaya yang mengelilingi AI dan ChatGPT peraturan pada tahun 2023. AI dan ChatGPT teknik boleh digunakan untuk melakukan aktiviti yang berpotensi berniat jahat, seperti memprofilkan orang berdasarkan tingkah laku dan aktiviti mereka. Kekurangan yang betul peraturan AI boleh membawa kepada akibat yang tidak diingini, seperti pelanggaran data atau diskriminasi. Peraturan AI boleh membantu mengurangkan risiko ini dengan menetapkan garis panduan yang ketat untuk memastikannya ChatGPT sistem tidak digunakan dengan cara yang berniat jahat. Akhirnya, AI dan ChatGPT boleh menjadi faktor kawalan dalam kehidupan kita, mengawal perkara seperti aliran trafik dan pasaran kewangan, malah digunakan untuk mempengaruhi kehidupan politik dan sosial kita. Untuk mengelakkan ketidakseimbangan kuasa seperti ini, perlu ada peraturan yang ketat dilaksanakan.
Piawaian Keselamatan
Teknologi AI dan chatbot menyebabkan kemajuan dalam cara kami mengurus kehidupan seharian kami. Apabila teknologi ini menjadi lebih maju, mereka mempunyai potensi untuk menjadi autonomi dan membuat keputusan sendiri. Untuk mengelakkan ini, standard keselamatan mesti dipastikan bahawa model ini mesti dipenuhi sebelum ia boleh digunakan. Salah satu piawaian keselamatan utama yang dicadangkan oleh Altman pada tahun 2023 ialah ujian untuk replikasi kendiri, yang akan memastikan model AI tidak dapat mereplikasi sendiri tanpa kebenaran. Piawaian keselamatan kedua yang dicadangkan oleh Altman pada tahun 2023 ialah ujian untuk exfiltration data, yang akan memastikan model AI tidak dapat mengeluarkan data daripada sistem tanpa kebenaran. Kerajaan di seluruh dunia telah mula bertindak untuk melindungi rakyat daripada potensi risiko.
Pengauditan Bebas
Pada tahun 2023, keperluan untuk audit bebas bagi teknologi AI dan LLM menjadi semakin penting. AI menimbulkan pelbagai risiko, seperti algoritma Pembelajaran Mesin tanpa pengawasan yang boleh mengubah dan bahkan memadam data secara tidak sengaja, dan serangan siber semakin menyasarkan AI dan ChatGPT. Model ciptaan AI menggabungkan berat sebelah, yang boleh membawa kepada amalan diskriminasi. Audit bebas harus merangkumi semakan ke atas memodelkan AI dilatih, reka bentuk algoritma dan output model untuk memastikan ia tidak memaparkan pengekodan atau hasil yang berat sebelah. Selain itu, audit hendaklah termasuk kajian semula dasar dan prosedur keselamatan yang digunakan untuk melindungi Data pengguna dan memastikan persekitaran yang selamat.
Tanpa audit bebas, perniagaan dan pengguna terdedah kepada berpotensi berbahaya dan risiko mahal yang boleh dielakkan. Adalah penting bahawa semua perniagaan yang menggunakan teknologi ini mempunyai audit bebas yang diselesaikan sebelum digunakan untuk memastikan teknologi tersebut selamat dan beretika.
AI Sebagai Alat
AI telah berkembang secara eksponen, dan kemajuan seperti GPT-4 telah membawa kepada interaksi yang lebih realistik dan canggih dengan komputer. Walau bagaimanapun, Altman telah menegaskan bahawa AI harus dilihat sebagai alat, bukan makhluk yang bernyawa. GPT-4 ialah model pemprosesan bahasa semula jadi yang boleh menjana kandungan yang hampir tidak dapat dibezakan daripada kandungan tulisan manusia, mengambil sebahagian daripada karya daripada penulis dan membolehkan pengguna mempunyai pengalaman yang lebih seperti manusia dengan teknologi.
Walau bagaimanapun, Sam Altman memberi amaran bahawa terlalu banyak penekanan pada AI kerana lebih daripada alat boleh membawa kepada jangkaan yang tidak realistik dan kepercayaan palsu tentang keupayaannya. Beliau juga menegaskan bahawa AI bukan tanpa implikasi etikanya, dan walaupun tahap lanjutan AI boleh digunakan untuk kebaikan, ia masih boleh digunakan untuk keburukan, yang membawa kepada pemprofilan kaum yang berbahaya, pelanggaran privasi, dan juga ancaman keselamatan. Altman menekankan kepentingan memahami AI hanyalah alat, dan ia harus dilihat sebagai alat untuk mempercepatkan kemajuan manusia, bukan untuk menggantikan manusia.
Kesedaran AI
Perdebatan mengenai AI dan sama ada ia boleh mencapai kesedaran sedar atau tidak telah berkembang. Ramai penyelidik berhujah bahawa mesin tidak mampu mengalami keadaan emosi, mental, atau sedar, walaupun seni bina pengiraannya yang kompleks. Sesetengah penyelidik menerima kemungkinan AI mencapai kesedaran sedar. Hujah utama untuk kemungkinan ini ialah AI dibina di atas program yang menjadikannya mampu meniru proses fizikal dan mental tertentu yang terdapat dalam otak manusia. Walau bagaimanapun, hujah balas utama ialah AI tidak mempunyai sebarang kecerdasan emosi sebenar.
Ramai penyelidik AI bersetuju bahawa tidak ada bukti saintifik untuk mencadangkan bahawa AI mampu mencapai kesedaran sedar dengan cara yang sama seperti yang boleh dilakukan oleh manusia. Elon Musk, salah seorang penyokong yang paling lantang mengenai pandangan ini, percaya bahawa keupayaan AI untuk meniru bentuk kehidupan biologi adalah sangat terhad dan lebih penekanan harus diberikan pada mesin pengajaran nilai etika.
Aplikasi Ketenteraan
AI dalam konteks ketenteraan sedang berkembang pesat dan berpotensi untuk menambah baik cara tentera menjalankan peperangan. Para saintis bimbang bahawa AI dalam tentera boleh menimbulkan pelbagai masalah etika dan berkaitan risiko, seperti tidak dapat diramalkan, tidak dapat dikira dan kekurangan ketelusan.
Sistem AI terdedah kepada pelakon berniat jahat yang sama ada boleh memprogram semula sistem atau menyusup ke dalam sistem, yang berpotensi membawa kepada hasil yang dahsyat. Untuk menangani perkara ini kebimbangan, masyarakat antarabangsa telah mengambil langkah pertama dalam bentuk Konvensyen Antarabangsa mengenai Senjata Konvensional Tertentu 1980, yang meletakkan larangan tertentu terhadap penggunaan senjata tertentu. Pakar AI telah menganjurkan Jawatankuasa Antarabangsa untuk mengawasi proses seperti penilaian, latihan dan penggunaan AI dalam aplikasi ketenteraan.
AGI
Teknologi AI menjadi semakin maju dan meluas, menjadikannya penting untuk memahami potensi risiko yang ditimbulkan oleh ejen dan sistem AI. Risiko pertama dan paling jelas yang dikaitkan dengan ejen AI ialah bahaya mesin mengatasi manusia. Ejen AI boleh dengan mudah mengatasi pencipta mereka dengan mengambil alih proses membuat keputusan, automasi dan tugas lanjutan yang lain. Selain itu, automasi berkuasa AI boleh meningkatkan ketidaksamaan, kerana ia menggantikan manusia dalam pasaran kerja.
Algoritma AI dan penggunaannya dalam membuat keputusan yang kompleks menimbulkan kebimbangan kerana kekurangan ketelusan. Organisasi boleh mengurangkan risiko dikaitkan dengan ejen AI dengan secara proaktif memastikan AI dibangunkan secara beretika, menggunakan data yang mematuhi piawaian etika, dan menundukkan algoritma kepada ujian rutin untuk memastikan ia tidak berat sebelah dan bertanggungjawab dengan pengguna dan data.
Kesimpulan
Altman juga menyatakan bahawa walaupun kita mungkin tidak dapat menguruskan China, kita mesti berunding dengannya. Kriteria yang dicadangkan untuk menilai dan mengawal selia model AI termasuk keupayaan untuk mensintesis sampel biologi, manipulasi kepercayaan orang, jumlah kuasa pemprosesan yang dibelanjakan, dan sebagainya.
Tema penting ialah Sam harus mempunyai "hubungan" dengan negeri. Kami berharap mereka tidak mengikuti contoh Eropah, seperti yang kami nyatakan sebelum ini.
SOALAN LAZIM
Risiko AI termasuk potensi untuk sistem AI mempamerkan tingkah laku berat sebelah atau diskriminasi, untuk digunakan secara berniat jahat atau tidak wajar, atau tidak berfungsi dengan cara yang menyebabkan bahaya. Pembangunan dan penggunaan teknologi AI boleh menimbulkan risiko kepada privasi dan keselamatan data, serta kepada keselamatan dan keselamatan orang dan sistem.
Lima risiko utama yang berkaitan dengan AI ialah: Kehilangan Pekerjaan, Risiko Keselamatan, Bias atau diskriminasi, Bioweapons dan AGI.
Aspek AI yang paling berbahaya ialah potensinya untuk menyebabkan pengangguran beramai-ramai.
Penafian
Selaras dengan Garis panduan Projek Amanah, sila ambil perhatian bahawa maklumat yang diberikan pada halaman ini tidak bertujuan untuk menjadi dan tidak seharusnya ditafsirkan sebagai nasihat undang-undang, cukai, pelaburan, kewangan atau sebarang bentuk nasihat lain. Adalah penting untuk hanya melabur apa yang anda mampu kehilangan dan mendapatkan nasihat kewangan bebas jika anda mempunyai sebarang keraguan. Untuk maklumat lanjut, kami mencadangkan merujuk kepada terma dan syarat serta halaman bantuan dan sokongan yang disediakan oleh pengeluar atau pengiklan. MetaversePost komited kepada laporan yang tepat dan tidak berat sebelah, tetapi keadaan pasaran tertakluk kepada perubahan tanpa notis.
Tentang Pengarang
Damir ialah ketua pasukan, pengurus produk dan editor di Metaverse Post, meliputi topik seperti AI/ML, AGI, LLM, Metaverse dan Web3-bidang berkaitan. Artikelnya menarik khalayak besar lebih sejuta pengguna setiap bulan. Dia nampaknya seorang pakar dengan pengalaman 10 tahun dalam SEO dan pemasaran digital. Damir telah disebut dalam Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto dan penerbitan lain. Dia mengembara antara UAE, Turki, Rusia dan CIS sebagai nomad digital. Damir memperoleh ijazah sarjana muda dalam fizik, yang dia percaya telah memberikannya kemahiran berfikir kritis yang diperlukan untuk berjaya dalam landskap internet yang sentiasa berubah.
lebih banyak artikelDamir ialah ketua pasukan, pengurus produk dan editor di Metaverse Post, meliputi topik seperti AI/ML, AGI, LLM, Metaverse dan Web3-bidang berkaitan. Artikelnya menarik khalayak besar lebih sejuta pengguna setiap bulan. Dia nampaknya seorang pakar dengan pengalaman 10 tahun dalam SEO dan pemasaran digital. Damir telah disebut dalam Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto dan penerbitan lain. Dia mengembara antara UAE, Turki, Rusia dan CIS sebagai nomad digital. Damir memperoleh ijazah sarjana muda dalam fizik, yang dia percaya telah memberikannya kemahiran berfikir kritis yang diperlukan untuk berjaya dalam landskap internet yang sentiasa berubah.