AI Wiki Công nghệ
18 Tháng Năm, 2023

10 AI hàng đầu và ChatGPT Rủi Ro và Nguy Hiểm trong năm 2023

Với những tiến bộ của trí tuệ nhân tạo (AI) và công nghệ chatbot, nhiều công ty đang theo đuổi các giải pháp dịch vụ khách hàng tự động như một phương tiện để cải thiện trải nghiệm khách hàng và giảm chi phí chung. Mặc dù có nhiều lợi ích khi tận dụng các mô hình AI và giải pháp chatbot, nhưng vẫn còn nhiều rủi ro và nguy hiểm liên quan đến công nghệ, đặc biệt là khi chúng trở nên phổ biến hơn và được tích hợp vào cuộc sống hàng ngày của chúng ta trong thập kỷ tới.

Tuần này, mọi người trong Thượng viện Hoa Kỳ đã nghe Sam Altman nói về quy định và rủi ro của các mô hình AI. Đây là một tóm tắt cơ bản:

Bioweapons

Bioweapons
@Midjourney

Việc sử dụng trí tuệ nhân tạo (AI) trong quá trình phát triển vũ khí sinh học trình bày một phương pháp hiệu quả và có phương pháp nguy hiểm để tạo ra vũ khí hủy diệt hàng loạt mạnh mẽ và gây chết người. ChatGPT chương trình là những trợ lý đàm thoại do AI điều khiển có khả năng tổ chức các cuộc trò chuyện sống động như thật với con người. Mối quan tâm với ChatGPT bot là chúng có khả năng được sử dụng để truyền bá thông tin sai lệch và thao túng tâm trí nhằm gây ảnh hưởng dư luận.

Tôi đã cảnh báo về khả năng lạm dụng AI trong việc tạo ra vũ khí sinh học và nhấn mạnh sự cần thiết phải có quy định để ngăn chặn những tình huống như vậy.

Sam Altman

Quy định là một thành phần quan trọng để ngăn chặn việc lạm dụng AI và ChatGPT bot trong việc phát triển và triển khai vũ khí sinh học. Các chính phủ cần xây dựng các kế hoạch hành động quốc gia để giải quyết việc lạm dụng công nghệ có thể xảy ra và các công ty phải chịu trách nhiệm về mọi hành vi lạm dụng tiềm ẩn đối với công nghệ của họ. AI và ChatGPT chương trình. Các tổ chức quốc tế nên đầu tư vào các sáng kiến ​​tập trung vào đào tạo, giám sát và giáo dục AI và ChatGPT bot.

Mất việc

Mất việc
@Midjourney

Khả năng mất việc do AI và ChatGPT vào năm 2023 được dự đoán là gấp ba lần so với năm 2020. AI và ChatGPT có thể dẫn đến gia tăng sự bất an tại nơi làm việc, cân nhắc về đạo đức và tác động tâm lý đối với người lao động. trí tuệ nhân tạo và ChatGPT có thể được sử dụng để giám sát hành vi và hoạt động của nhân viên, cho phép người sử dụng lao động đưa ra quyết định nhanh chóng và không yêu cầu nhân sự tham gia. Ngoài ra, AI và ChatGPT có thể đưa ra các quyết định không công bằng và thiên vị dẫn đến sự bất an về tài chính, xã hội và cảm xúc tại nơi làm việc.

Tôi nhấn mạnh rằng sự phát triển của AI có thể dẫn đến mất việc làm đáng kể và gia tăng bất bình đẳng.

Sam Altman

quy định AI

quy định AI
@Midjourney

Bài viết này tìm hiểu các rủi ro tiềm ẩn và những nguy hiểm xung quanh AI và ChatGPT quy định vào năm 2023. AI và ChatGPT kỹ thuật có thể được sử dụng để thực hiện các hoạt động có khả năng gây hại, chẳng hạn như lập hồ sơ cá nhân dựa trên hành vi và hoạt động của họ. Thiếu sự thích hợp Quy định AI có thể dẫn đến những hậu quả không lường trước được, chẳng hạn như vi phạm dữ liệu hoặc phân biệt đối xử. Quy định về AI có thể giúp giảm thiểu rủi ro này bằng cách đặt ra các hướng dẫn nghiêm ngặt để đảm bảo rằng ChatGPT hệ thống không được sử dụng một cách độc hại. Cuối cùng, AI và ChatGPT có thể trở thành một yếu tố kiểm soát trong cuộc sống của chúng ta, kiểm soát những thứ như lưu lượng giao thông và thị trường tài chính, và thậm chí được sử dụng để tác động đến đời sống chính trị và xã hội của chúng ta. Để ngăn chặn tình trạng mất cân bằng quyền lực này, cần phải có những quy định nghiêm ngặt được thực hiện.

Chúng tôi đã đề xuất thành lập một cơ quan mới để cấp phép và điều chỉnh AI hoạt động nếu khả năng của họ vượt quá một ngưỡng nhất định.

Sam Altman

Tiêu chuẩn bảo mật

Tiêu chuẩn bảo mật
@Midjourney

Công nghệ AI và chatbot đang tạo ra một bước tiến trong cách chúng ta quản lý cuộc sống hàng ngày của mình. Khi những công nghệ này trở nên tiên tiến hơn, chúng có khả năng tự chủ và tự đưa ra quyết định. Để ngăn chặn điều này, tiêu chuẩn bảo mật phải được thiết lập rằng các mô hình này phải đáp ứng trước khi chúng có thể được triển khai. Một trong những tiêu chuẩn bảo mật chính do Altman đề xuất vào năm 2023 là thử nghiệm khả năng tự sao chép, điều này sẽ đảm bảo rằng mô hình AI không thể tự sao chép khi chưa được phép. Tiêu chuẩn bảo mật thứ hai do Altman đề xuất vào năm 2023 là một thử nghiệm để lọc dữ liệu, điều này sẽ đảm bảo rằng các mô hình AI không thể trích xuất dữ liệu từ một hệ thống mà không được phép. Các chính phủ trên khắp thế giới đã bắt đầu hành động để bảo vệ công dân khỏi những rủi ro tiềm ẩn.

Chúng tôi phải triển khai các tiêu chuẩn bảo mật mà các mô hình AI phải đáp ứng trước khi triển khai, bao gồm các thử nghiệm về khả năng tự sao chép và đánh cắp dữ liệu.

Sam Altman

Kiểm toán độc lập

Kiểm toán độc lập
@Midjourney

Vào năm 2023, nhu cầu kiểm toán độc lập các công nghệ AI và LLM ngày càng trở nên quan trọng. AI đặt ra nhiều rủi ro, chẳng hạn như các thuật toán Machine Learning không được giám sát có thể thay đổi và thậm chí xóa dữ liệu một cách vô tình, và các cuộc tấn công mạng đang ngày càng nhắm mục tiêu vào AI và ChatGPT. Các mô hình do AI tạo ra kết hợp sự thiên vị, có thể dẫn đến các hành vi phân biệt đối xử. Một cuộc kiểm toán độc lập phải bao gồm việc xem xét các mô hình AI được đào tạo về thiết kế thuật toán và đầu ra của mô hình để đảm bảo mô hình không hiển thị kết quả hoặc mã hóa sai lệch. Ngoài ra, cuộc kiểm toán phải bao gồm việc xem xét các chính sách và thủ tục bảo mật được sử dụng để bảo vệ dữ liệu người dùng và đảm bảo một môi trường an toàn.

Các cuộc kiểm toán độc lập được tiến hành để đảm bảo rằng các mô hình AI đáp ứng các tiêu chuẩn bảo mật đã thiết lập.

Sam Altman

Nếu không có kiểm toán độc lập, các doanh nghiệp và người dùng sẽ tiếp xúc với nguy hiểm tiềm tàng và những rủi ro tốn kém đáng lẽ có thể tránh được. Điều quan trọng là tất cả các doanh nghiệp sử dụng công nghệ này phải hoàn thành kiểm toán độc lập trước khi triển khai để đảm bảo rằng công nghệ này an toàn và hợp đạo đức.

AI như một công cụ

AI như một công cụ
@Midjourney

AI đã phát triển theo cấp số nhân, và những tiến bộ như GPT-4 đã dẫn đến những tương tác thực tế và phức tạp hơn với máy tính. Tuy nhiên, Altman đã nhấn mạnh rằng AI nên được coi là công cụ chứ không phải sinh vật có tri giác. GPT-4 là một mô hình xử lý ngôn ngữ tự nhiên có thể tạo ra nội dung gần như không thể phân biệt được với nội dung do con người viết, loại bỏ một số công việc của người viết và cho phép người dùng có trải nghiệm giống con người hơn với công nghệ.

AI, đặc biệt là các mô hình tiên tiến như GPT-4, nên được xem như công cụ, không phải chúng sinh.

Sam Altman

Tuy nhiên, Sam Altman cảnh báo rằng việc nhấn mạnh quá nhiều vào AI hơn là một công cụ có thể dẫn đến những kỳ vọng không thực tế và niềm tin sai lầm về khả năng của nó. Ông cũng chỉ ra rằng AI không phải là không có ý nghĩa đạo đức của nó, và ngay cả khi mức độ tiên tiến của AI có thể được sử dụng cho mục đích tốt thì nó vẫn có thể được sử dụng cho mục đích xấu, dẫn đến tình trạng phân biệt chủng tộc nguy hiểm, vi phạm quyền riêng tư, và thậm chí cả các mối đe dọa bảo mật. Altman nhấn mạnh tầm quan trọng của việc hiểu AI chỉ là một công cụ và nó nên được coi là một công cụ để thúc đẩy sự tiến bộ của con người chứ không phải để thay thế con người.

ý thức AI

ý thức AI
@Midjourney

Cuộc tranh luận liên quan đến AI và liệu nó có thể đạt được nhận thức có ý thức hay không đang ngày càng gia tăng. Nhiều nhà nghiên cứu đang lập luận rằng máy móc không có khả năng trải nghiệm các trạng thái cảm xúc, tinh thần hoặc ý thức, mặc dù cấu trúc tính toán phức tạp của chúng. Một số nhà nghiên cứu chấp nhận khả năng AI đạt được nhận thức có ý thức. Lập luận chính cho khả năng này là AI được xây dựng dựa trên các chương trình giúp nó có khả năng tái tạo một số quá trình thể chất và tinh thần được tìm thấy trong não người. Tuy nhiên, lập luận phản bác chính là AI không có bất kỳ trí tuệ cảm xúc thực sự nào.

Mặc dù AI nên được coi là một công cụ, nhưng tôi thừa nhận cuộc tranh luận đang diễn ra trong cộng đồng khoa học về tiềm năng nhận thức của AI.

Sam Altman

Nhiều nhà nghiên cứu AI đồng ý rằng không có bằng chứng khoa học nào cho thấy AI có khả năng đạt được nhận thức có ý thức giống như cách mà con người có thể làm được. Elon Musk, một trong những người ủng hộ mạnh mẽ nhất quan điểm này, tin rằng khả năng bắt chước các dạng sống sinh học của AI là vô cùng hạn chế và cần chú trọng hơn vào việc dạy các giá trị đạo đức cho máy móc.

Ứng dụng quân sự

Ứng dụng quân sự
@Midjourney

Trí tuệ nhân tạo trong bối cảnh quân sự đang phát triển nhanh chóng và có khả năng cải thiện cách thức quân đội tiến hành chiến tranh. Các nhà khoa học lo lắng rằng AI trong quân đội có thể gây ra một loạt các vấn đề liên quan đến đạo đức và rủi ro, chẳng hạn như tính không thể đoán trước, không thể tính toán và thiếu minh bạch.

Tôi nhận ra tiềm năng của việc sử dụng AI trong các ứng dụng quân sự như máy bay không người lái tự động và kêu gọi quy định để quản lý sử dụng như vậy.

Sam Altman

Các hệ thống AI dễ bị tấn công bởi các tác nhân độc hại có thể lập trình lại hệ thống hoặc xâm nhập vào hệ thống, có khả năng dẫn đến hậu quả tàn khốc. Để giải quyết những mối quan tâm, cộng đồng quốc tế đã thực hiện bước đầu tiên dưới hình thức Công ước quốc tế về một số loại vũ khí thông thường nhất định năm 1980, trong đó đặt ra một số lệnh cấm đối với việc sử dụng một số loại vũ khí. Các chuyên gia về AI đã vận động thành lập một Ủy ban Quốc tế để giám sát các quy trình như đánh giá, đào tạo và triển khai AI trong các ứng dụng quân sự.

AGI

AGI
@Midjourney

Công nghệ AI ngày càng trở nên tiên tiến và phổ biến, điều quan trọng là phải hiểu những rủi ro tiềm ẩn do các tác nhân và hệ thống AI gây ra. Rủi ro đầu tiên và rõ ràng nhất liên quan đến các tác nhân AI là nguy cơ máy móc thông minh hơn con người. Các tác nhân AI có thể dễ dàng vượt qua người sáng tạo của họ bằng cách đảm nhận việc ra quyết định, quy trình tự động hóa và các nhiệm vụ nâng cao khác. Ngoài ra, tự động hóa do AI cung cấp có thể làm tăng sự bất bình đẳng, vì nó thay thế con người trong Thị trường việc làm.

Tôi cảnh báo rằng các hệ thống AI mạnh mẽ và phức tạp hơn có thể gần với thực tế hơn nhiều người nghĩ và nhấn mạnh sự cần thiết của các biện pháp phòng ngừa và chuẩn bị sẵn sàng.

Sam Altman

Các thuật toán AI và việc sử dụng chúng trong quá trình ra quyết định phức tạp gây lo ngại về sự thiếu minh bạch. Tổ chức có thể giảm thiểu rủi ro liên kết với các tác nhân AI bằng cách chủ động đảm bảo AI đang được phát triển một cách có đạo đức, sử dụng dữ liệu tuân thủ các tiêu chuẩn đạo đức và đưa các thuật toán vào các bài kiểm tra định kỳ để đảm bảo chúng không thiên vị và có trách nhiệm với người dùng cũng như dữ liệu.

Kết luận

Altman cũng tuyên bố rằng mặc dù chúng tôi có thể không quản lý được Trung Quốc, nhưng chúng tôi phải đàm phán với họ. Các tiêu chí đề xuất để đánh giá và điều chỉnh các mô hình AI bao gồm khả năng tổng hợp các mẫu sinh học, sự thao túng niềm tin của mọi người, lượng sức mạnh xử lý đã sử dụng, v.v.

Một chủ đề quan trọng là Sam nên có “mối quan hệ” với nhà nước. Chúng tôi hy vọng họ không theo gương châu Âu, như chúng tôi đã đề cập trước đây.

Câu Hỏi Thường Gặp

Rủi ro AI bao gồm khả năng các hệ thống AI thể hiện hành vi thiên vị hoặc phân biệt đối xử, bị sử dụng một cách ác ý hoặc không phù hợp hoặc trục trặc theo cách gây hại. Việc phát triển và triển khai các công nghệ AI có thể gây ra rủi ro đối với quyền riêng tư và bảo mật dữ liệu, cũng như đối với sự an toàn và bảo mật của con người và hệ thống.

Năm rủi ro chính liên quan đến AI là: Mất việc làm, Rủi ro bảo mật, Thành kiến ​​hoặc phân biệt đối xử, Vũ khí sinh học và AGI.

Khía cạnh nguy hiểm nhất của AI là khả năng gây thất nghiệp hàng loạt.

Từ chối trách nhiệm

Phù hợp với Hướng dẫn của Dự án Tin cậy, xin lưu ý rằng thông tin được cung cấp trên trang này không nhằm mục đích và không được hiểu là tư vấn pháp lý, thuế, đầu tư, tài chính hoặc bất kỳ hình thức tư vấn nào khác. Điều quan trọng là chỉ đầu tư những gì bạn có thể đủ khả năng để mất và tìm kiếm lời khuyên tài chính độc lập nếu bạn có bất kỳ nghi ngờ nào. Để biết thêm thông tin, chúng tôi khuyên bạn nên tham khảo các điều khoản và điều kiện cũng như các trang trợ giúp và hỗ trợ do nhà phát hành hoặc nhà quảng cáo cung cấp. MetaversePost cam kết báo cáo chính xác, không thiên vị nhưng điều kiện thị trường có thể thay đổi mà không cần thông báo trước.

Giới thiệu về Tác giả

Damir là trưởng nhóm, quản lý sản phẩm và biên tập viên tại Metaverse Post, bao gồm các chủ đề như AI/ML, AGI, LLMs, Metaverse và Web3-các lĩnh vực liên quan. Các bài báo của anh ấy thu hút một lượng lớn độc giả với hơn một triệu người dùng mỗi tháng. Anh ấy có vẻ là một chuyên gia với 10 năm kinh nghiệm về SEO và tiếp thị kỹ thuật số. Damir đã được đề cập trong Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto và các ấn phẩm khác. Anh đi lại giữa Các Tiểu vương quốc Ả Rập Thống nhất, Thổ Nhĩ Kỳ, Nga và CIS với tư cách là một người du mục kỹ thuật số. Damir đã có bằng cử nhân vật lý, bằng cấp mà anh tin rằng đã mang lại cho anh những kỹ năng tư duy phản biện cần thiết để thành công trong bối cảnh luôn thay đổi của Internet. 

Xem thêm bài viết
Damir Yalalov
Damir Yalalov

Damir là trưởng nhóm, quản lý sản phẩm và biên tập viên tại Metaverse Post, bao gồm các chủ đề như AI/ML, AGI, LLMs, Metaverse và Web3-các lĩnh vực liên quan. Các bài báo của anh ấy thu hút một lượng lớn độc giả với hơn một triệu người dùng mỗi tháng. Anh ấy có vẻ là một chuyên gia với 10 năm kinh nghiệm về SEO và tiếp thị kỹ thuật số. Damir đã được đề cập trong Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto và các ấn phẩm khác. Anh đi lại giữa Các Tiểu vương quốc Ả Rập Thống nhất, Thổ Nhĩ Kỳ, Nga và CIS với tư cách là một người du mục kỹ thuật số. Damir đã có bằng cử nhân vật lý, bằng cấp mà anh tin rằng đã mang lại cho anh những kỹ năng tư duy phản biện cần thiết để thành công trong bối cảnh luôn thay đổi của Internet. 

Hot Stories
Tham gia bản tin của chúng tôi.
Tin mới nhất

Sự thèm muốn của các tổ chức ngày càng tăng đối với các quỹ ETF Bitcoin trong bối cảnh biến động

Tiết lộ thông qua hồ sơ 13F cho thấy các nhà đầu tư tổ chức đáng chú ý đang đầu tư vào Bitcoin ETF, nhấn mạnh sự chấp nhận ngày càng tăng đối với ...

Biết thêm

Ngày tuyên án đến: Số phận của CZ đang cân bằng khi Tòa án Hoa Kỳ xem xét lời bào chữa của DOJ

Changpeng Zhao sẽ phải đối mặt với bản tuyên án tại tòa án Hoa Kỳ ở Seattle vào ngày hôm nay.

Biết thêm
Tham gia cộng đồng công nghệ đổi mới của chúng tôi
Tìm hiểu thêm
Tìm hiểu thêm
Sàn giao dịch tiền điện tử Bybit tích hợp USDe của Ethena Labs làm tài sản thế chấp, cho phép các cặp giao dịch BTC-USDe và ETH-USDe
thị trường Báo cáo tin tức Công nghệ
Sàn giao dịch tiền điện tử Bybit tích hợp USDe của Ethena Labs làm tài sản thế chấp, cho phép các cặp giao dịch BTC-USDe và ETH-USDe
7 Tháng Năm, 2024
Ví Bitget giới thiệu GetDrop Airdrop Nền tảng và ra mắt sự kiện Meme Coin đầu tiên với tổng giải thưởng trị giá 130,000 USD
thị trường Báo cáo tin tức Công nghệ
Ví Bitget giới thiệu GetDrop Airdrop Nền tảng và ra mắt sự kiện Meme Coin đầu tiên với tổng giải thưởng trị giá 130,000 USD
7 Tháng Năm, 2024
Từ phản xạ đơn giản đến tác nhân học tập: Kiểm tra các loại tác nhân AI khác nhau và vai trò của chúng trong các ứng dụng hiện đại
Phong cách sống Phần mềm Câu chuyện và đánh giá Công nghệ
Từ phản xạ đơn giản đến tác nhân học tập: Kiểm tra các loại tác nhân AI khác nhau và vai trò của chúng trong các ứng dụng hiện đại
7 Tháng Năm, 2024
Mạng Meson cho phép người khai thác tiền điện tử nhận được token thông qua việc khai thác. Airdrops Và các chương trình mua lại đang đến
thị trường Báo cáo tin tức Công nghệ
Mạng Meson cho phép người khai thác tiền điện tử nhận được token thông qua việc khai thác. Airdrops Và các chương trình mua lại đang đến
7 Tháng Năm, 2024
CRYPTOMERIA LABS PTE. CÔNG TY TNHH