RagaAI برای سهولت ارزیابی و ایمنی مدل زبان، مرکز LLM منبع باز راه اندازی می کند
به طور خلاصه
RagaAI 'RagaAI LLM Hub' را راه اندازی کرد، یک پلت فرم منبع باز برای ارزیابی و ایجاد نرده های محافظ برای مدل های زبان خاص هوش مصنوعی.
پلت فرم تست هوش مصنوعی RagaAI اخیراً راه اندازی "مرکز RagaAI LLM"یک پلتفرم منبع باز و آماده برای شرکت طراحی شده برای ارزیابی و ایجاد نرده های محافظ برای مدل های زبان بزرگ (LLMs). هدف این پلتفرم با بیش از 100 معیار اندازه گیری دقیق ساخته شده، جلوگیری از خرابی های فاجعه بار در برنامه های کاربردی LLM و Retrieval Augmented Generation (RAG) است.
RagaAI LLM Hub به توسعه دهندگان و سازمان ها ابزاری قوی برای ارزیابی و مقایسه موثر LLM ها ارائه می دهد که جنبه های مهمی مانند ارتباط و درک، کیفیت محتوا را پوشش می دهد. توهم، ایمنی و تعصب، ارتباط متن، حفاظ ها و اسکن آسیب پذیری. علاوه بر این، مجموعه ای از تست های مبتنی بر متریک را برای تجزیه و تحلیل کمی فراهم می کند.
ارزیابی جامع LLM ها در حال حاضر یک نیاز کلیدی در دنیای ساخت LLM است، زیرا دانشمندان داده و شرکت ها متوجه می شوند که چه فناوری و پشته برای آنها کار می کند. تشخیص یک مشکل مستلزم شناسایی دقیق مشکل در منبع است، و با توجه به صدها دلیل احتمالی ریشه ای، به صدها معیار برای مشخص کردن علت اصلی نیاز دارد. گاوراو آگاروالبنیانگذار RagaAI گفت MPost.
توانایی RagaAI LLM Hub برای آزمایش جامع ارزش قابل توجهی را به گردش کار توسعهدهنده میافزاید و با حذف تجزیه و تحلیل موقت و سرعت بخشیدن به توسعه LLM تا 3 برابر، در زمان حیاتی صرفهجویی میکند.
مرکز RagaAI LLM که برای رسیدگی به مسائل در طول چرخه حیات LLM، از اثبات مفهوم تا کاربردهای تولید طراحی شده است، مشکلات اساسی را در داخل شناسایی می کند. برنامه های کاربردی LLM و حل آنها را در منبع تسهیل می کند و رویکردهای متحول کننده برای اطمینان از قابلیت اطمینان و قابل اعتماد بودن را ایجاد می کند.
RagaAI ادعا می کند که مرکز LLM خود این قابلیت را از طریق طیف وسیعی از آزمایشات که جنبه های مختلف تصمیم گیری را پوشش می دهد، تقویت می کند:
- Prompts: در حین ایجاد حفاظ برای کاهش حملات دشمن، الگوهای سریع بهینه را تکرار و شناسایی می کند.
- مدیریت زمینه برای RAG ها: به کاربران در یافتن تعادل بهینه بین عملکرد LLM و هزینه/تأخیر هنگام کار در مقیاس کمک می کند.
- تولید پاسخ: از معیارهایی برای شناسایی توهمات در پاسخهای LLM استفاده میکند و حفاظهایی را برای جلوگیری از سوگیری، نشت PII و سایر مسائل بالقوه ایجاد میکند.
کاهش توهمات هوش مصنوعی و سوگیری از طریق تشخیص LLM
RagaAI LLM Hub در صنایع مختلف از جمله تجارت الکترونیک، امور مالی، بازاریابی، حقوقی و بهداشت و درمان، پشتیبانی از توسعه دهندگان و شرکت ها در کارهایی مانند chatbots، ایجاد محتوا، خلاصه سازی متن و تولید کد منبع.
فراتر از ارزیابی، RagaAI LLM Hub به تنظیم نردههایی برای اطمینان از حفظ حریم خصوصی دادهها و انطباق قانونی، ترویج اخلاقی و اخلاقی کمک میکند. هوش مصنوعی مسئول اقدامات، به ویژه در بخش های حساس مانند مالی، مراقبت های بهداشتی، و قانون.
یکی از مشتریان ما در فضای تجارت الکترونیک از LLM برای چت بات برای پشتیبانی مشتری استفاده می کرد و چت بات پاسخ های اشتباه می داد. با استفاده از RagaAI، این مشکل با موفقیت شناسایی و حل شد. MPost. "در بیمه سلامت، اطلاعات شخصی بیمار مهم است که محافظت شود. در یکی از مشتریان ما، برخی از اطلاعات شخصی مهم با شخص ثالث به اشتراک گذاشته شد - یک مشکل بزرگ حریم خصوصی داده ها. با استفاده از نردههای محافظ RagaAI LLM Hub، این و مسائل مشابه دیگر در زمان واقعی شناسایی شدند و از وقوع آنها جلوگیری شد.
علاوه بر این، هدف آن کاهش خطرات شهرت با پایبندی به هنجارها و ارزش های اجتماعی است.
RagaAI به تنظیم نردههای محافظ مانند شناسایی اطلاعات شخصی قابل شناسایی (PII) در پاسخ LLM کمک میکند. Gaurav Agarwal توضیح داد که این تضمین می کند که هیچ داده شخصی از اسناد داخلی هرگز توسط برنامه LLM درز نمی کند و برای هوش مصنوعی مسئول بسیار مهم است. "این و سایر حفاظها مانند اطمینان از پاسخهای بیطرفانه و منصفانه، عدم اظهار نظر در مورد رقبا و حذف اطلاعات غیر عمومی مادی (MNPI) برای شرکتها بسیار مهم است زیرا آنها به دنبال اجتناب از آسیبهای اجتماعی و اعتبار هستند.
راه اندازی RagaAI LLM Hub به دنبال موفقیت آمیز بود 4.7 میلیون دلار در یک دور سرمایه گذاری اولیه در ژانویه 2024 به رهبری pi Ventures، برای گسترش آن تحقیق هوش مصنوعی، توسعه و پایگاه مشتری در سراسر ایالات متحده و اروپا.
"هدف ما ارائه بهترین فناوری برای قابل اعتماد و قابل اعتماد کردن LLM ها است. سرمایه گذاری قابل توجهی برای ساخت فناوری های کلیدی برای رسیدگی به جنبه های تضمین کیفیت LLM انجام می دهد. Gaurav Agarwal گفت: ایجاد این فناوری منبع باز، تلاش ما در جهت در دسترس قرار دادن این فناوری برای همه برای جامعه توسعه دهندگان است تا بر اساس بهترین راه حل موجود ایجاد شود.
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
ویکتور یک مدیر ویراستار/نویسنده فناوری است Metaverse Post و هوش مصنوعی، رمزنگاری، علم داده، فراجهت و امنیت سایبری را در حوزه سازمانی پوشش میدهد. او نیم دهه تجربه رسانه ای و هوش مصنوعی کار در رسانه های معروفی مانند VentureBeat، DatatechVibe و Analytics India Magazine دارد. ویکتور به عنوان یک مربی رسانه در دانشگاه های معتبر از جمله آکسفورد و USC و دارای مدرک کارشناسی ارشد در علم داده و تجزیه و تحلیل، عمیقا متعهد است که در جریان روندهای در حال ظهور بماند. او به خوانندگان جدیدترین و روشنگرانه ترین روایت ها را از فناوری و Web3 چشم انداز.
مقالات بیشترویکتور یک مدیر ویراستار/نویسنده فناوری است Metaverse Post و هوش مصنوعی، رمزنگاری، علم داده، فراجهت و امنیت سایبری را در حوزه سازمانی پوشش میدهد. او نیم دهه تجربه رسانه ای و هوش مصنوعی کار در رسانه های معروفی مانند VentureBeat، DatatechVibe و Analytics India Magazine دارد. ویکتور به عنوان یک مربی رسانه در دانشگاه های معتبر از جمله آکسفورد و USC و دارای مدرک کارشناسی ارشد در علم داده و تجزیه و تحلیل، عمیقا متعهد است که در جریان روندهای در حال ظهور بماند. او به خوانندگان جدیدترین و روشنگرانه ترین روایت ها را از فناوری و Web3 چشم انداز.