RagaAI lanza LLM Hub de código abierto para facilitar la evaluación y seguridad del modelo lingüístico
En Resumen
RagaAI lanzó 'RagaAI LLM Hub', una plataforma de código abierto para evaluar y establecer barreras de seguridad para modelos de lenguaje específicos de IA.
Plataforma de pruebas de IA Raga AI anunció recientemente el lanzamiento de “Centro LLM de RagaAI”, una plataforma de código abierto y lista para empresas diseñada para evaluar y establecer barreras de seguridad para Modelos de lenguaje grande (LLM). Con más de 100 métricas meticulosamente elaboradas, la plataforma tiene como objetivo prevenir fallas catastróficas en aplicaciones LLM y recuperación de generación aumentada (RAG).
RagaAI LLM Hub ofrece a los desarrolladores y organizaciones un sólido conjunto de herramientas para evaluar y comparar los LLM de manera efectiva, cubriendo aspectos críticos como relevancia y comprensión, calidad del contenido, Alucinación, Seguridad y sesgo, Relevancia del contexto, Barandillas y Escaneo de vulnerabilidades. Además, proporciona un conjunto de pruebas basadas en métricas para análisis cuantitativos.
“La evaluación holística de los LLM es un requisito clave en el mundo de la creación de LLM en este momento, a medida que los científicos de datos y las empresas descubren qué tecnología y pila funcionan para ellos. Diagnosticar un problema requiere identificar meticulosamente el problema en su origen y, dados cientos de posibles causas fundamentales, se requieren cientos de métricas para identificar esa causa fundamental”. Gaurav Agarval, dijo el fundador de RagaAI MPost.
"La capacidad de RagaAI LLM Hub para realizar pruebas integrales agrega un valor significativo al flujo de trabajo de un desarrollador, ahorrando un tiempo crucial al eliminar el análisis ad hoc y acelerando el desarrollo de LLM tres veces".
Diseñado para abordar problemas a lo largo del ciclo de vida de LLM, desde la prueba de concepto hasta las aplicaciones de producción, RagaAI LLM Hub identifica problemas subyacentes dentro Aplicaciones de maestría en Derecho y facilita su resolución en la fuente, revolucionando los enfoques para garantizar la confiabilidad y la confiabilidad.
RagaAI afirma que su LLM Hub potencia esta capacidad a través de una variedad de pruebas que cubren diversos aspectos de la toma de decisiones:
- Avisos: itera e identifica plantillas de avisos óptimas mientras establece barreras de seguridad para mitigar los ataques adversarios.
- Gestión de contexto para RAG: ayuda a los usuarios a encontrar el equilibrio óptimo entre el rendimiento de LLM y el costo/latencia cuando operan a escala.
- Generación de respuestas: emplea métricas para identificar alucinaciones en las respuestas de LLM y establece barreras de seguridad para evitar sesgos, fugas de PII y otros problemas potenciales.
Mitigar las alucinaciones y los prejuicios de la IA mediante el diagnóstico de LLM
RagaAI LLM Hub encuentra aplicaciones en diversas industrias, incluido el comercio electrónico, las finanzas, el marketing, el derecho y la atención médica, y brinda soporte a los desarrolladores y empresas en tareas como Chatbots, creación de contenido, resumen de texto y generación de código fuente.
Más allá de la evaluación, RagaAI LLM Hub ayuda a establecer barreras para garantizar la privacidad de los datos y el cumplimiento legal, promoviendo la ética y IA responsable prácticas, particularmente en sectores sensibles como las finanzas, la salud y el derecho.
“Uno de nuestros clientes en el espacio del comercio electrónico estaba utilizando LLM para chatbot para atención al cliente y el chatbot estaba dando respuestas incorrectas. Con RagaAI, este problema se detectó y resolvió con éxito”, dijo Gaurav Agarwal de RagaAI. MPost. “En los seguros de salud, es importante salvaguardar la información personal del paciente. En el caso de uno de nuestros clientes, parte de la información personal importante se compartió con un tercero, lo que supone un enorme problema de privacidad de datos. Al utilizar las barreras de seguridad de RagaAI LLM Hub, este y otros problemas similares se detectaron en tiempo real y se evitaron”.
Además, su objetivo es mitigar los riesgos para la reputación mediante la adhesión a normas y valores sociales.
“RagaAI ayuda a establecer barreras como la detección de información de identificación personal (PII) en la respuesta de LLM. Esto garantiza que la aplicación LLM no filtre datos personales de documentos internos y es fundamental para la IA responsable”, explicó Gaurav Agarwal. "Ésta y otras barreras, como garantizar respuestas imparciales y justas, no comentar sobre los competidores y eliminar la información material no pública (MNPI, por sus siglas en inglés), son cruciales para las empresas que buscan evitar daños sociales y a su reputación".
El lanzamiento de RagaAI LLM Hub sigue a un éxito 4.7 millones de dólares en una ronda de financiación inicial en enero de 2024 liderada por pi Ventures, para ampliar su Investigación de IA, desarrollo y base de clientes en EE. UU. y Europa.
“Nuestro objetivo es proporcionar la mejor tecnología para que los LLM sean confiables y confiables. Está invirtiendo significativamente para desarrollar tecnologías clave para abordar los aspectos de garantía de calidad del LLM. Hacer que esta tecnología sea de código abierto es nuestro esfuerzo para que esté disponible para todos, para que la comunidad de desarrolladores pueda construir sobre la mejor solución disponible”, dijo Gaurav Agarwal.
Aviso
En línea con la Directrices del Proyecto Confianza, tenga en cuenta que la información proporcionada en esta página no pretende ser ni debe interpretarse como asesoramiento legal, fiscal, de inversión, financiero o de cualquier otro tipo. Es importante invertir sólo lo que pueda permitirse perder y buscar asesoramiento financiero independiente si tiene alguna duda. Para mayor información sugerimos consultar los términos y condiciones así como las páginas de ayuda y soporte proporcionadas por el emisor o anunciante. MetaversePost se compromete a brindar informes precisos e imparciales, pero las condiciones del mercado están sujetas a cambios sin previo aviso.
Sobre el Autor
Victor es editor/escritor técnico en jefe en Metaverse Post y cubre inteligencia artificial, criptografía, ciencia de datos, metaverso y ciberseguridad dentro del ámbito empresarial. Cuenta con media década de experiencia en medios e inteligencia artificial trabajando en medios de comunicación reconocidos como VentureBeat, DatatechVibe y Analytics India Magazine. Al ser mentor de medios en prestigiosas universidades, incluidas Oxford y USC, y con una maestría en ciencia y análisis de datos, Víctor está profundamente comprometido a mantenerse al tanto de las tendencias emergentes. Ofrece a los lectores las narrativas más recientes y reveladoras de la tecnología y Web3 paisaje.
Más artículosVictor es editor/escritor técnico en jefe en Metaverse Post y cubre inteligencia artificial, criptografía, ciencia de datos, metaverso y ciberseguridad dentro del ámbito empresarial. Cuenta con media década de experiencia en medios e inteligencia artificial trabajando en medios de comunicación reconocidos como VentureBeat, DatatechVibe y Analytics India Magazine. Al ser mentor de medios en prestigiosas universidades, incluidas Oxford y USC, y con una maestría en ciencia y análisis de datos, Víctor está profundamente comprometido a mantenerse al tanto de las tendencias emergentes. Ofrece a los lectores las narrativas más recientes y reveladoras de la tecnología y Web3 paisaje.