RagaAI lance un hub LLM open source pour faciliter l'évaluation et la sécurité des modèles de langage
En bref
RagaAI a lancé « RagaAI LLM Hub », une plate-forme open source permettant d'évaluer et d'établir des garde-fous pour les modèles de langage spécifiques à l'IA.
Plateforme de test d'IA RagaAI a récemment annoncé le lancement de «Centre LLM RagaAI», une plate-forme open source et prête pour l'entreprise conçue pour évaluer et établir des garde-fous pour grands modèles linguistiques (LLM). Avec plus de 100 métriques méticuleusement élaborées, la plateforme vise à prévenir les pannes catastrophiques dans les applications LLM et Retrieval Augmented Generation (RAG).
Le RagaAI LLM Hub offre aux développeurs et aux organisations une boîte à outils robuste pour évaluer et comparer efficacement les LLM, couvrant des aspects critiques tels que la pertinence et la compréhension, la qualité du contenu, Hallucination, Sécurité et biais, pertinence du contexte, garde-fous et analyse des vulnérabilités. De plus, il fournit une suite de tests basés sur des métriques pour l'analyse quantitative.
« L'évaluation holistique des LLM est actuellement une exigence clé dans le monde de la création de LLM, alors que les data scientists et les entreprises déterminent quelle technologie et quelle pile fonctionnent pour eux. Diagnostiquer un problème nécessite d'identifier méticuleusement le problème à la source, et étant donné des centaines de causes profondes possibles, il faut des centaines de mesures pour identifier cette cause profonde. Gaurav Agarwal, a déclaré le fondateur de RagaAI MPost.
«La capacité de RagaAI LLM Hub à effectuer des tests complets ajoute une valeur significative au flux de travail d'un développeur, lui permettant de gagner un temps crucial en éliminant les analyses ad hoc et en accélérant le développement LLM de 3 fois.»
Conçu pour résoudre les problèmes tout au long du cycle de vie du LLM, de la validation de principe aux applications de production, le RagaAI LLM Hub identifie les problèmes sous-jacents au sein de Candidatures LLM et facilite leur résolution à la source, révolutionnant ainsi les approches visant à garantir la fiabilité et la fiabilité.
RagaAI affirme que son LLM Hub renforce cette capacité grâce à une gamme de tests couvrant divers aspects de la prise de décision :
- Invites : il itère et identifie les modèles d'invites optimaux tout en établissant des garde-fous pour atténuer les attaques contradictoires.
- Gestion du contexte pour les RAG : elle aide les utilisateurs à trouver l'équilibre optimal entre les performances LLM et le coût/latence lors d'un fonctionnement à grande échelle.
- Génération de réponses : il utilise des mesures pour identifier les hallucinations dans les réponses LLM et établit des garde-fous pour éviter les biais, les fuites de PII et d'autres problèmes potentiels.
Atténuer les hallucinations et les biais de l'IA grâce au diagnostic LLM
Le RagaAI LLM Hub trouve des applications dans divers secteurs, notamment le commerce électronique, la finance, le marketing, le droit et la santé, aidant les développeurs et les entreprises dans des tâches telles que Chatbots, création de contenu, résumé de texte et génération de code source.
Au-delà de l'évaluation, le RagaAI LLM Hub aide à établir des garde-fous pour garantir la confidentialité des données et la conformité légale, en promouvant l'éthique et la conformité. IA responsable pratiques, en particulier dans des secteurs sensibles comme la finance, la santé et le droit.
« L'un de nos clients dans le domaine du commerce électronique utilisait des LLM pour chatbot pour le support client, et le chatbot donnait de mauvaises réponses. Grâce à RagaAI, ce problème a été détecté et résolu avec succès », a déclaré Gaurav Agarwal de RagaAI. MPost. « Dans le domaine de l'assurance maladie, il est important que les informations personnelles des patients soient protégées. Chez l’un de nos clients, certaines informations personnelles importantes ont été partagées avec un tiers – un énorme problème de confidentialité des données. Grâce aux garde-corps RagaAI LLM Hub, ce problème et d’autres similaires ont été détectés en temps réel et empêchés de se produire.
De plus, il vise à atténuer les risques de réputation en adhérant aux normes et valeurs sociétales.
« RagaAI aide à mettre en place des garde-fous tels que la détection des informations personnelles identifiables (PII) dans la réponse LLM. Cela garantit qu’aucune donnée personnelle provenant de documents internes n’est divulguée par l’application LLM et est essentielle à l’IA responsable », a expliqué Gaurav Agarwal. "Ces garde-fous ainsi que d'autres, comme garantir des réponses impartiales et équitables, ne pas commenter les concurrents et supprimer les informations importantes non publiques (MNPI), sont cruciaux pour les entreprises qui cherchent à éviter de nuire à la société et à leur réputation."
Le lancement du RagaAI LLM Hub fait suite à un succès 4.7 millions de dollars lors d'un cycle de financement d'amorçage en janvier 2024 mené par pi Ventures, pour étendre son Recherche sur l'IA, développement et clientèle aux États-Unis et en Europe.
« Notre objectif est de fournir la meilleure technologie pour rendre les LLM dignes de confiance et fiables. Il investit de manière significative pour développer des technologies clés permettant de répondre aux aspects d'assurance qualité du LLM. Rendre cette technologie open source est notre effort pour la rendre accessible à tous afin que la communauté des développeurs puisse s'appuyer sur la meilleure solution disponible », a déclaré Gaurav Agarwal.
Clause de non-responsabilité
En ligne avec la Lignes directrices du projet de confiance, veuillez noter que les informations fournies sur cette page ne sont pas destinées à être et ne doivent pas être interprétées comme des conseils juridiques, fiscaux, d'investissement, financiers ou toute autre forme de conseil. Il est important d’investir uniquement ce que vous pouvez vous permettre de perdre et de demander des conseils financiers indépendants en cas de doute. Pour plus d'informations, nous vous suggérons de vous référer aux conditions générales ainsi qu'aux pages d'aide et de support mises à disposition par l'émetteur ou l'annonceur. MetaversePost s'engage à fournir des rapports précis et impartiaux, mais les conditions du marché sont susceptibles de changer sans préavis.
A propos de l'auteur
Victor est rédacteur/rédacteur technique en chef chez Metaverse Post et couvre l'intelligence artificielle, la cryptographie, la science des données, le métaverse et la cybersécurité dans le domaine de l'entreprise. Il possède une demi-décennie d'expérience dans les médias et l'IA, travaillant dans des médias bien connus tels que VentureBeat, DatatechVibe et Analytics India Magazine. En tant que mentor en médias dans des universités prestigieuses, dont Oxford et USC, et titulaire d'une maîtrise en science et analyse des données, Victor est profondément engagé à rester au courant des tendances émergentes. Il propose aux lecteurs les récits les plus récents et les plus perspicaces de la technologie et Web3 impactant.
Plus d'articles
Victor est rédacteur/rédacteur technique en chef chez Metaverse Post et couvre l'intelligence artificielle, la cryptographie, la science des données, le métaverse et la cybersécurité dans le domaine de l'entreprise. Il possède une demi-décennie d'expérience dans les médias et l'IA, travaillant dans des médias bien connus tels que VentureBeat, DatatechVibe et Analytics India Magazine. En tant que mentor en médias dans des universités prestigieuses, dont Oxford et USC, et titulaire d'une maîtrise en science et analyse des données, Victor est profondément engagé à rester au courant des tendances émergentes. Il propose aux lecteurs les récits les plus récents et les plus perspicaces de la technologie et Web3 impactant.