Nyheds rapport Teknologier
Marts 08, 2024

RagaAI lancerer Open-Source LLM Hub for at lette evaluering og sikkerhed af sprogmodeller

Kort sagt

RagaAI lancerede 'RagaAI LLM Hub', en open source-platform til evaluering og etablering af autoværn til AI-specifikke sprogmodeller.

RagaAI lancerer Open-Source LLM Hub for at lette evaluering og sikkerhed af sprogmodeller

AI test platform RagaAI annoncerede for nylig lanceringen af ​​"RagaAI LLM Hub,” en open source og virksomhedsklar platform designet til at evaluere og etablere autoværn for Store sprogmodeller (LLM'er). Med over 100 omhyggeligt udformede målinger, sigter platformen mod at forhindre katastrofale fejl i LLM'er og Retrieval Augmented Generation (RAG) applikationer.

RagaAI LLM Hub tilbyder udviklere og organisationer et robust værktøjssæt til at vurdere og sammenligne LLM'er effektivt, der dækker kritiske aspekter såsom relevans og forståelse, indholdskvalitet, hallucination, Sikkerhed & Bias, Kontekstrelevans, Autoværn og Sårbarhedsscanning. Derudover giver det en række metrisk-baserede tests til kvantitativ analyse.

"Holistisk evaluering af LLM'er er et nøglekrav i verden af ​​LLM-bygning lige nu, da dataforskere og virksomheder finder ud af, hvilken teknologi og stak der fungerer for dem. Diagnosticering af et problem kræver omhyggelig identifikation af problemet ved kilden, og givet hundredvis af mulige grundlæggende årsager, kræver det hundredvis af målinger for at lokalisere den grundlæggende årsag." Gaurav Agarwal, fortalte grundlægger hos RagaAI MPost.

"RagaAI LLM Hubs evne til omfattende test tilføjer betydelig værdi til en udviklers arbejdsgang, hvilket sparer afgørende tid ved at eliminere ad hoc-analyser og accelerere LLM-udvikling med 3x."  

RagaAI LLM Hub er designet til at løse problemer gennem hele LLMs livscyklus, fra proof-of-concept til produktionsapplikationer, og identificerer underliggende problemer inden for LLM applikationer og letter deres løsning ved kilden, revolutionerende tilgange til at sikre pålidelighed og troværdighed.

RagaAI hævder, at deres LLM Hub styrker denne evne gennem en række tests, der dækker forskellige beslutningstagningsaspekter:

  • Prompter: Den gentager og identificerer optimale promptskabeloner, mens den etablerer autoværn for at afbøde modstridende angreb.
  • Kontekststyring for RAG'er: Det hjælper brugere med at finde den optimale balance mellem LLM-ydeevne og omkostninger/forsinkelse, når de opererer i stor skala.
  • Responsgenerering: Den anvender målinger til at identificere hallucinationer i LLM-svar og etablerer autoværn for at forhindre bias, PII-lækage og andre potentielle problemer.
RagaAI lancerer Open-Source LLM Hub for at lette evaluering og sikkerhed af sprogmodeller
Kilde: RagaAI

Afhjælpning af AI-hallucinationer og bias gennem LLM-diagnose

RagaAI LLM Hub finder applikationer på tværs af forskellige brancher, herunder e-handel, finans, marketing, juridisk og sundhedspleje, og støtter udviklere og virksomheder i opgaver som f.eks. chatbots, indholdsoprettelse, tekstresumé og kildekodegenerering.

Ud over evaluering hjælper RagaAI LLM Hub med at sætte autoværn for at sikre databeskyttelse og lovoverholdelse, fremme etiske og ansvarlig AI praksis, især i følsomme sektorer som finans, sundhedspleje og jura.

"En af vores kunder i e-handelsområdet brugte LLM'er til chatbot til kundesupport, og chatbotten gav forkerte svar. Ved at bruge RagaAI blev dette problem registreret og løst med succes,” fortalte RagaAIs Gaurav Agarwal MPost. ”I sygesikringen er patientens personlige oplysninger vigtige for at blive beskyttet. Hos en af ​​vores kunder blev nogle af de vigtige personlige oplysninger delt til 3. part - et stort problem med databeskyttelse. Ved at bruge RagaAI LLM Hub autoværn blev dette og lignende andre problemer opdaget i realtid og forhindret i at ske."

RagaAI lancerer Open-Source LLM Hub for at lette evaluering og sikkerhed af sprogmodeller
Gaurav Agarwal, grundlægger hos RagaAI

Derudover har det til formål at mindske omdømmerisici ved at overholde samfundsmæssige normer og værdier.

"RagaAI hjælper med at sætte autoværn som detektering af personlig identificerbar information (PII) i LLM-svar. Dette sikrer, at ingen personlige data fra interne dokumenter nogensinde lækkes af LLM-applikationen og er afgørende for Responsible AI,” forklarede Gaurav Agarwal. "Dette og andre værn, såsom at sikre upartiske og retfærdige svar, ikke kommentere konkurrenter og fjerne materiale, ikke-offentlig information (MNPI) er afgørende for virksomheder, da de søger at undgå samfunds- og omdømmeskader."

Lanceringen af ​​RagaAI LLM Hub følger en vellykket $ 4.7 millioner i en seed-finansieringsrunde i januar 2024 ledet af pi Ventures, for at udvide sin AI forskning, udvikling og kundebase i hele USA og Europa.

"Vores mål er at levere den bedste teknologi til at gøre LLM'er troværdige og pålidelige. Det investerer betydeligt i at bygge nøgleteknologier til at imødegå kvalitetssikringsaspekter af LLM. At gøre denne teknologi til open source er vores indsats i retning af at gøre denne tilgængelig for alle, så udviklerfællesskabet kan bygge oven på den bedste tilgængelige løsning,” sagde Gaurav Agarwal.

Ansvarsfraskrivelse

I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.

Om forfatteren

Victor er Managing Tech Editor/Writer på Metaverse Post og dækker kunstig intelligens, krypto, datavidenskab, metaverse og cybersikkerhed inden for virksomhedsområdet. Han kan prale af et halvt årti med medie- og AI-erfaring ved at arbejde på kendte medier som VentureBeat, DatatechVibe og Analytics India Magazine. Som mediementor på prestigefyldte universiteter, herunder Oxford og USC og med en mastergrad i datavidenskab og analyse, er Victor dybt engageret i at holde sig ajour med nye tendenser. Han tilbyder læserne de nyeste og mest indsigtsfulde fortællinger fra Tech og Web3 landskab.

Flere artikler
Victor Dey
Victor Dey

Victor er Managing Tech Editor/Writer på Metaverse Post og dækker kunstig intelligens, krypto, datavidenskab, metaverse og cybersikkerhed inden for virksomhedsområdet. Han kan prale af et halvt årti med medie- og AI-erfaring ved at arbejde på kendte medier som VentureBeat, DatatechVibe og Analytics India Magazine. Som mediementor på prestigefyldte universiteter, herunder Oxford og USC og med en mastergrad i datavidenskab og analyse, er Victor dybt engageret i at holde sig ajour med nye tendenser. Han tilbyder læserne de nyeste og mest indsigtsfulde fortællinger fra Tech og Web3 landskab.

Hot Stories
Tilmeld dig vores nyhedsbrev.
Seneste Nyheder

Stilheden før Solana-stormen: Hvad diagrammer, hvaler og signaler på kæden siger nu

Solana har vist stærke resultater, drevet af stigende implementering, institutionel interesse og vigtige partnerskaber, samtidig med at den står over for potentielle ...

Vide mere

Krypto i april 2025: Vigtigste tendenser, ændringer og hvad der kommer bagefter

I april 2025 fokuserede kryptomarkedet på at styrke kerneinfrastrukturen, hvor Ethereum forberedte sig på Pectra ...

Vide mere
Læs mere
Læs mere
Eightco rejser 125 millioner dollars i institutionel finansiering anført af Bitmine, ARK Invest og Payward for at accelerere investeringer i næste generations teknologi
Forretning Nyheds rapport Teknologier
Eightco rejser 125 millioner dollars i institutionel finansiering anført af Bitmine, ARK Invest og Payward for at accelerere investeringer i næste generations teknologi
Marts 13, 2026
CZ bestrider Forbes' påstande om nettoformue; Hvor rige er de største kryptostemmer?
Forretning Markeder Nyheds rapport Teknologier
CZ bestrider Forbes' påstande om nettoformue; Hvor rige er de største kryptostemmer?
Marts 13, 2026
Fra vækst til sikkerhed: Pejsesamtale hos HSC Asset Management udforsker markedsskift og Kinas globale indflydelse
Hack sæsoner Udtalelse Forretning Lifestyle Nyheds rapport Teknologier
Fra vækst til sikkerhed: Pejsesamtale hos HSC Asset Management udforsker markedsskift og Kinas globale indflydelse
Marts 13, 2026
Oxfords AI-forsker Samuele Marro om decentraliseret AI og blockchain: Når integration tilføjer værdi – men begrænser innovation
Interview Teknologier
Oxfords AI-forsker Samuele Marro om decentraliseret AI og blockchain: Når integration tilføjer værdi – men begrænser innovation
Marts 13, 2026