CEO ôm mặt dự đoán các mô hình AI nhỏ hơn sẽ thống trị vào năm 2024
Tóm lại
Năm 2024 sẽ chứng kiến sự nổi lên của Mô hình ngôn ngữ nhỏ, khi các công ty vượt qua ranh giới về hiệu quả, hiệu quả chi phí và khả năng tiếp cận.
Trong trí tuệ nhân tạo, năm 2024 sẵn sàng đánh dấu một bước ngoặt quan trọng — với sự nổi lên của Mô hình ngôn ngữ nhỏ (SLM), khi các công ty vượt qua ranh giới về hiệu quả, hiệu quả chi phí và khả năng tiếp cận.
Hành trình từ sự thống trị của các Mô hình Ngôn ngữ Lớn (LLM) khổng lồ đến sự xuất hiện của SLM nhỏ gọn, mạnh mẽ hứa hẹn sẽ định hình lại thế giới phong cảnh AI.
Tuyên bố này đã nhận được sự ủng hộ từ Clam Delangue, đồng sáng lập và CEO của Ôm mặt.
“Phi-2 của Microsoft AI hiện là mô hình thịnh hành số một trên Ôm Mặt. Năm 2024 sẽ là năm của các mô hình AI nhỏ!” Delangue nói, trong một Bài đăng trên LinkedIn.
Hơn nữa, vào đầu tháng XNUMX, công ty khởi nghiệp AI Mistral của Pháp, ngay sau khi huy động được số vốn đáng kể $ 415 triệu vòng tài trợ, đã giới thiệu Mixtral 8x7B, một SLM nguồn mở đã nhanh chóng đạt được sức hút nhờ khả năng cạnh tranh với chất lượng của GPT-3.5 trên một số điểm chuẩn nhất định, tất cả đều chạy trên một máy tính có RAM khiêm tốn 100 gigabyte.
Cách tiếp cận của Mistral, được gọi là mô hình 'hỗn hợp thưa thớt các chuyên gia', kết hợp các mô hình nhỏ hơn được đào tạo cho các nhiệm vụ cụ thể, đạt được hiệu quả vượt trội.
Không chịu thua kém, gã khổng lồ công nghệ microsoft bước vào đấu trường với Phi-2, phiên bản mới nhất của SLM cây nhà lá vườn. Đặc biệt nhỏ bé với chỉ 2.7 tỷ thông số, Phi-2 được thiết kế để chạy trên điện thoại di động, thể hiện cam kết của ngành trong việc giảm kích thước các mẫu máy mà không ảnh hưởng đến khả năng.
Mô hình như GPT-3, tự hào với 175 tỷ tham số đáng kinh ngạc, thể hiện khả năng tạo văn bản giống con người, trả lời câu hỏi và tóm tắt tài liệu. Tuy nhiên, những nhược điểm cố hữu của LLM, bao gồm những lo ngại liên quan đến hiệu quả, chi phí và khả năng tùy chỉnh, đã mở đường cho sự phát triển của SLM.
Các yếu tố thúc đẩy phát triển mô hình ngôn ngữ quy mô nhỏ
SLM có cách tiếp cận hợp lý với ít tham số hơn, dẫn đến tốc độ suy luận nhanh hơn và thông lượng cao hơn. Yêu cầu bộ nhớ và lưu trữ giảm của chúng làm cho các quy trình tính toán trở nên linh hoạt, thách thức niềm tin thông thường rằng dung lượng mô hình phải luôn song hành với sự tăng trưởng của nhu cầu dữ liệu.
Trong khi các mô hình ngôn ngữ lớn như GPT-3 phải chịu chi phí cắt cổ - thường lên tới hàng chục triệu đô la để phát triển - SLM là một giải pháp thay thế hiệu quả về mặt chi phí.
Những mô hình này có thể được đào tạo, triển khai và vận hành trên phần cứng hàng hóa sẵn có, khiến chúng trở thành lựa chọn khả thi về mặt tài chính cho các doanh nghiệp. Hơn nữa, yêu cầu tài nguyên khiêm tốn khiến chúng trở thành ứng cử viên lý tưởng cho các ứng dụng trong điện toán biên, chạy ngoại tuyến trên các thiết bị có công suất thấp hơn.
Tương tự, điểm mạnh chính của SLM nằm ở khả năng tùy chỉnh của chúng. Không giống như các đối tác lớn hơn, thể hiện sự thỏa hiệp giữa các miền, SLM có thể được tinh chỉnh cho các ứng dụng cụ thể. Chu kỳ lặp lại nhanh chóng của chúng tạo điều kiện thuận lợi cho việc thử nghiệm thực tế, cho phép các nhà phát triển điều chỉnh mô hình cho phù hợp với nhu cầu cụ thể.
Khi chúng ta đến gần năm 2024, sự gia tăng của các mô hình ngôn ngữ nhỏ báo hiệu một kỷ nguyên biến đổi trong trí tuệ nhân tạo. Sân khấu được thiết lập cho Năm mô hình AI nhỏ, nơi sự đổi mới và khả năng tiếp cận hội tụ để táidefivề khả năng của trí tuệ nhân tạo.
Từ chối trách nhiệm
Phù hợp với Hướng dẫn của Dự án Tin cậy, xin lưu ý rằng thông tin được cung cấp trên trang này không nhằm mục đích và không được hiểu là tư vấn pháp lý, thuế, đầu tư, tài chính hoặc bất kỳ hình thức tư vấn nào khác. Điều quan trọng là chỉ đầu tư những gì bạn có thể đủ khả năng để mất và tìm kiếm lời khuyên tài chính độc lập nếu bạn có bất kỳ nghi ngờ nào. Để biết thêm thông tin, chúng tôi khuyên bạn nên tham khảo các điều khoản và điều kiện cũng như các trang trợ giúp và hỗ trợ do nhà phát hành hoặc nhà quảng cáo cung cấp. MetaversePost cam kết báo cáo chính xác, không thiên vị nhưng điều kiện thị trường có thể thay đổi mà không cần thông báo trước.
Giới thiệu về Tác giả
Kumar là một Nhà báo Công nghệ giàu kinh nghiệm với chuyên môn về các lĩnh vực giao thoa năng động giữa AI/ML, công nghệ tiếp thị và các lĩnh vực mới nổi như tiền điện tử, chuỗi khối và NFTS. Với hơn 3 năm kinh nghiệm trong ngành, Kumar đã lập được thành tích đã được chứng minh trong việc tạo ra những câu chuyện hấp dẫn, thực hiện các cuộc phỏng vấn sâu sắc và đưa ra những hiểu biết toàn diện. Chuyên môn của Kumar nằm ở việc sản xuất nội dung có tác động cao, bao gồm các bài báo, báo cáo và ấn phẩm nghiên cứu cho các nền tảng công nghiệp nổi bật. Với bộ kỹ năng độc đáo kết hợp giữa kiến thức kỹ thuật và cách kể chuyện, Kumar vượt trội trong việc truyền đạt các khái niệm công nghệ phức tạp tới nhiều đối tượng khác nhau một cách rõ ràng và hấp dẫn.
Xem thêm bài viếtKumar là một Nhà báo Công nghệ giàu kinh nghiệm với chuyên môn về các lĩnh vực giao thoa năng động giữa AI/ML, công nghệ tiếp thị và các lĩnh vực mới nổi như tiền điện tử, chuỗi khối và NFTS. Với hơn 3 năm kinh nghiệm trong ngành, Kumar đã lập được thành tích đã được chứng minh trong việc tạo ra những câu chuyện hấp dẫn, thực hiện các cuộc phỏng vấn sâu sắc và đưa ra những hiểu biết toàn diện. Chuyên môn của Kumar nằm ở việc sản xuất nội dung có tác động cao, bao gồm các bài báo, báo cáo và ấn phẩm nghiên cứu cho các nền tảng công nghiệp nổi bật. Với bộ kỹ năng độc đáo kết hợp giữa kiến thức kỹ thuật và cách kể chuyện, Kumar vượt trội trong việc truyền đạt các khái niệm công nghệ phức tạp tới nhiều đối tượng khác nhau một cách rõ ràng và hấp dẫn.