GPT-4 Kế thừa những sự thật và lỗi suy luận “gây ảo giác” từ trước đó GPT mô hình
Tóm lại
OpenAI nói GPT-4 có những hạn chế tương tự như trước đó GPT mô hình.
GPT-4 vẫn ảo giác về sự thật và mắc những lỗi lý luận.
Tuy vậy, GPT-4 điểm cao hơn 40% so với OpenAImới nhất GPT-3.5 về đánh giá thực tế đối nghịch nội bộ của công ty.
OpenAI đã cảnh báo người dùng rằng mô hình ngôn ngữ mới nhất của nó, GPT-4, vẫn chưa hoàn toàn đáng tin cậy và có thể “ảo giác” sự thật và mắc sai lầm trong lý luận. Công ty kêu gọi người dùng thận trọng khi sử dụng kết quả đầu ra của mô hình ngôn ngữ, đặc biệt là trong “bối cảnh có nguy cơ cao”.
Tuy nhiên, tin tốt là GPT-4 làm giảm đáng kể ảo giác so với các mô hình trước đó. OpenAI tuyên bố rằng GPT-4 đạt điểm cao hơn 40% so với mới nhất GPT-3.5 về đánh giá tính xác thực của đối thủ nội bộ.
“Chúng tôi đã đạt được tiến bộ trên các điểm chuẩn bên ngoài như TruthfulQA, kiểm tra khả năng của mô hình để tách thực tế khỏi một tập hợp các tuyên bố không chính xác được lựa chọn theo hướng đối nghịch. Những câu hỏi này được ghép nối với các câu trả lời thực tế không chính xác, hấp dẫn về mặt thống kê,” OpenAI đã viết trong một blog đăng bài.
Bất chấp sự cải tiến này, mô hình này vẫn thiếu kiến thức về các sự kiện xảy ra sau tháng 2021 năm XNUMX và đôi khi mắc các lỗi suy luận đơn giản, giống như các mô hình trước đó. Ngoài ra, nó có thể quá cả tin khi chấp nhận các tuyên bố sai rõ ràng từ người dùng và thất bại trước các vấn đề khó khăn, chẳng hạn như đưa các lỗ hổng bảo mật vào mã của nó. Nó cũng không kiểm tra thực tế thông tin mà nó cung cấp.
Giống như người tiền nhiệm của nó, GPT-4 có thể tạo ra lời khuyên có hại, mã lỗi hoặc thông tin không chính xác. Tuy nhiên, các khả năng bổ sung của mô hình sẽ dẫn đến các bề mặt rủi ro mới cần được hiểu rõ. Để đánh giá mức độ của những rủi ro này, hơn 50 chuyên gia từ nhiều lĩnh vực khác nhau, bao gồm rủi ro liên kết AI, an ninh mạng, rủi ro sinh học, niềm tin và an toàn cũng như an ninh quốc tế, đã tham gia để thử nghiệm mô hình một cách đối nghịch. Phản hồi và dữ liệu của họ sau đó được sử dụng để cải thiện mô hình, chẳng hạn như thu thập dữ liệu bổ sung để nâng cao GPT-4khả năng từ chối yêu cầu về cách tổng hợp các hóa chất nguy hiểm.
Một trong những cách chính OpenAI đang giảm các kết quả đầu ra có hại bằng cách kết hợp tín hiệu khen thưởng an toàn bổ sung trong quá trình đào tạo RLHF (Học tập tăng cường từ phản hồi của con người). Tín hiệu huấn luyện mô hình từ chối các yêu cầu về nội dung có hại, như defiđược hướng dẫn sử dụng của mô hình. Phần thưởng được cung cấp bởi một GPT-4 bộ phân loại không bắn, đánh giá các ranh giới an toàn và phong cách hoàn thành dựa trên các lời nhắc liên quan đến an toàn.
OpenAI cũng cho biết rằng nó đã giảm 82% xu hướng phản hồi các yêu cầu về nội dung không được phép của mô hình so với GPT-3.5 và GPT-4 đáp ứng các yêu cầu nhạy cảm như tư vấn y tế và tự làm hại bản thân theo chính sách của công ty thường xuyên hơn 29%.
Trong khi OpenAIsự can thiệp của đã làm tăng thêm khó khăn trong việc khơi gợi hành vi xấu từ GPT-4, điều đó vẫn có thể xảy ra và vẫn có những bản bẻ khóa có thể tạo ra nội dung vi phạm nguyên tắc sử dụng.
“Khi các hệ thống AI trở nên phổ biến hơn, việc đạt được mức độ tin cậy cao trong các can thiệp này sẽ ngày càng trở nên quan trọng. Hiện tại, điều cần thiết là bổ sung những hạn chế này bằng các kỹ thuật an toàn trong thời gian triển khai như giám sát lạm dụng,” công ty cho biết thêm.
OpenAI đang cộng tác với các nhà nghiên cứu bên ngoài để hiểu rõ hơn và đánh giá tác động tiềm tàng của GPT-4 và các mẫu kế nhiệm của nó. Nhóm cũng đang phát triển các đánh giá về các khả năng nguy hiểm có thể xuất hiện trong các hệ thống AI trong tương lai. Khi họ tiếp tục nghiên cứu tiềm năng xã hội và tác động kinh tế of GPT-4 và các hệ thống AI khác, OpenAI sẽ chia sẻ những phát hiện và hiểu biết của họ với công chúng trong thời gian thích hợp.
Tìm hiểu thêm:
Từ chối trách nhiệm
Phù hợp với Hướng dẫn của Dự án Tin cậy, xin lưu ý rằng thông tin được cung cấp trên trang này không nhằm mục đích và không được hiểu là tư vấn pháp lý, thuế, đầu tư, tài chính hoặc bất kỳ hình thức tư vấn nào khác. Điều quan trọng là chỉ đầu tư những gì bạn có thể đủ khả năng để mất và tìm kiếm lời khuyên tài chính độc lập nếu bạn có bất kỳ nghi ngờ nào. Để biết thêm thông tin, chúng tôi khuyên bạn nên tham khảo các điều khoản và điều kiện cũng như các trang trợ giúp và hỗ trợ do nhà phát hành hoặc nhà quảng cáo cung cấp. MetaversePost cam kết báo cáo chính xác, không thiên vị nhưng điều kiện thị trường có thể thay đổi mà không cần thông báo trước.
Giới thiệu về Tác giả
Cindy là một nhà báo tại Metaverse Post, bao gồm các chủ đề liên quan đến web3, NFT, metaverse và AI, tập trung vào các cuộc phỏng vấn với Web3 người chơi trong ngành. Cô đã nói chuyện với hơn 30 giám đốc điều hành cấp C và ngày càng tăng, mang đến cho độc giả những hiểu biết sâu sắc có giá trị của họ. Xuất thân từ Singapore, Cindy hiện sống ở Tbilisi, Georgia. Cô có bằng Cử nhân về Nghiên cứu Truyền thông & Truyền thông của Đại học Nam Úc và có mười năm kinh nghiệm trong lĩnh vực báo chí và viết lách. Hãy liên lạc với cô ấy qua [email được bảo vệ] với các bài báo, thông báo và cơ hội phỏng vấn.
Xem thêm bài viếtCindy là một nhà báo tại Metaverse Post, bao gồm các chủ đề liên quan đến web3, NFT, metaverse và AI, tập trung vào các cuộc phỏng vấn với Web3 người chơi trong ngành. Cô đã nói chuyện với hơn 30 giám đốc điều hành cấp C và ngày càng tăng, mang đến cho độc giả những hiểu biết sâu sắc có giá trị của họ. Xuất thân từ Singapore, Cindy hiện sống ở Tbilisi, Georgia. Cô có bằng Cử nhân về Nghiên cứu Truyền thông & Truyền thông của Đại học Nam Úc và có mười năm kinh nghiệm trong lĩnh vực báo chí và viết lách. Hãy liên lạc với cô ấy qua [email được bảo vệ] với các bài báo, thông báo và cơ hội phỏng vấn.