„RagaAI“ pristato atvirojo kodo LLM centrą, kad palengvintų kalbos modelio įvertinimą ir saugumą
Trumpai
„RagaAI“ pristatė „RagaAI LLM Hub“ – atvirojo kodo platformą, skirtą AI specifiniams kalbų modeliams įvertinti ir nustatyti.
AI testavimo platforma RagaAI neseniai paskelbė apie „RagaAI LLM centras“, atvirojo kodo ir įmonėms pritaikyta platforma, skirta įvertinti ir nustatyti apsauginius turėklus Dideli kalbų modeliai (LLM). Platforma, turinti daugiau nei 100 kruopščiai sukurtų metrikų, siekia užkirsti kelią katastrofiškoms LLM ir Retrieval Augmented Generation (RAG) programų gedimams.
„RagaAI LLM Hub“ kūrėjams ir organizacijoms siūlo patikimą įrankių rinkinį, leidžiantį efektyviai įvertinti ir palyginti LLM, apimančius svarbius aspektus, tokius kaip tinkamumas ir supratimas, turinio kokybė, Haliucinacija, sauga ir šališkumas, konteksto atitikimas, apsauginiai turėklai ir pažeidžiamumo nuskaitymas. Be to, jame pateikiamas metrika pagrįstų testų rinkinys, skirtas kiekybinei analizei.
„Holistinis LLM vertinimas šiuo metu yra pagrindinis reikalavimas LLM kūrimo pasaulyje, nes duomenų mokslininkai ir įmonės išsiaiškina, kokia technologija ir kaminas jiems tinka. Norint diagnozuoti problemą, reikia kruopščiai nustatyti problemos šaltinį, o atsižvelgiant į šimtus galimų pagrindinių priežasčių, norint tiksliai nustatyti pagrindinę priežastį, reikia šimtų metrikų. Gauravas Agarvalis, pasakojo RagaAI įkūrėjas MPost.
„RagaAI LLM Hub galimybė atlikti išsamų testavimą suteikia didelės vertės kūrėjo darbo eigai, sutaupo daug laiko, nes pašalina ad hoc analizę ir paspartina LLM kūrimą 3 kartus.
Sukurtas spręsti problemas per visą LLM gyvavimo ciklą, nuo koncepcijos patvirtinimo iki gamybos programų, RagaAI LLM Hub nustato pagrindines problemas LLM programos ir palengvina jų sprendimo šaltinį, pakeisdama patikimumo ir patikimumo užtikrinimo metodus.
„RagaAI“ tvirtina, kad „LLM Hub“ suteikia šią galimybę atlikdamas įvairius testus, apimančius įvairius sprendimų priėmimo aspektus:
- Raginimai: jis kartoja ir identifikuoja optimalius raginimo šablonus, tuo pačiu nustatydamas apsaugines atitvaras, kad sušvelnintų priešiškas atakas.
- RAG konteksto valdymas: jis padeda vartotojams rasti optimalią pusiausvyrą tarp LLM našumo ir sąnaudų / delsos, kai veikia dideliu mastu.
- Atsakymų generavimas: naudojama metrika, skirta LLM atsakymų haliucinacijoms identifikuoti, ir nustatomi apsauginiai turėklai, kad būtų išvengta šališkumo, AII nutekėjimo ir kitų galimų problemų.
AI haliucinacijų ir šališkumo mažinimas naudojant LLM diagnozę
„RagaAI LLM Hub“ randa programų įvairiose pramonės šakose, įskaitant elektroninę prekybą, finansus, rinkodarą, teisinę ir sveikatos priežiūrą, padedant kūrėjams ir įmonėms atlikti tokias užduotis kaip pokalbių svetainės, turinio kūrimas, teksto apibendrinimas ir šaltinio kodo generavimas.
Be įvertinimo, „RagaAI LLM Hub“ padeda nustatyti apsauginius turėklus, kad būtų užtikrintas duomenų privatumas ir teisinė atitiktis, skatinama etiška ir atsakingas AI ypač jautriuose sektoriuose, tokiuose kaip finansai, sveikatos priežiūra ir teisė.
„Vienas iš mūsų klientų elektroninės prekybos erdvėje naudojo LLM pokalbių robotui klientų aptarnavimui, o pokalbių robotas davė neteisingus atsakymus. Naudojant „RagaAI“, ši problema buvo sėkmingai aptikta ir išspręsta“, – sakė „RagaAI“ atstovas Gauravas Agarwalas MPost. „Sveikatos draudime svarbu apsaugoti paciento asmeninę informaciją. Viename iš mūsų klientų kai kuri svarbi asmeninė informacija buvo pasidalinta su trečiąja šalimi – tai didžiulė duomenų privatumo problema. Naudojant „RagaAI LLM Hub“ apsauginius turėklus, ši ir panašios kitos problemos buvo aptiktos realiuoju laiku ir jai užkirstas kelias.
Be to, juo siekiama sumažinti riziką reputacijai laikantis visuomenės normų ir vertybių.
„RagaAI padeda nustatyti apsauginius turėklus, tokius kaip asmens identifikavimo informacijos (PII) aptikimas atsakant į LLM. Tai užtikrina, kad LLM programa niekada nenutekėtų asmens duomenų iš vidinių dokumentų ir tai yra labai svarbu atsakingam dirbtiniam intelektui“, – aiškino Gauravas Agarwalas. „Šios ir kitos apsaugos priemonės, pvz., nešališkų ir sąžiningų atsakymų užtikrinimas, konkurentų nekomentavimas ir esminės neviešosios informacijos (MNPI) pašalinimas, yra labai svarbūs įmonėms, nes jos siekia išvengti žalos visuomenei ir reputacijai.
RagaAI LLM Hub paleidimas įvyko sėkmingai 4.7 milijonų JAV dolerių 2024 m. sausio mėn. pradiniame finansavimo etape, kuriam vadovavo pi Ventures, išplėsti savo veiklą AI tyrimai, plėtra ir klientų bazė visoje JAV ir Europoje.
„Mūsų tikslas yra pateikti geriausią technologiją, kad LLM būtų patikimi ir patikimi. Ji daug investuoja, kad sukurtų pagrindines technologijas, skirtas LLM kokybės užtikrinimo aspektams spręsti. Padaryti šią technologiją atviro kodo – tai mūsų pastangos, kad ji būtų prieinama visiems, kad kūrėjų bendruomenė galėtų remtis geriausiu turimu sprendimu“, – sakė Gauravas Agarwalas.
Atsakomybės neigimas
Remdamasi tuo, Pasitikėjimo projekto gairės, atkreipkite dėmesį, kad šiame puslapyje pateikta informacija nėra skirta ir neturėtų būti aiškinama kaip teisinė, mokesčių, investicinė, finansinė ar bet kokia kita konsultacija. Svarbu investuoti tik tai, ką galite sau leisti prarasti, ir, jei turite kokių nors abejonių, kreiptis į nepriklausomą finansinę konsultaciją. Norėdami gauti daugiau informacijos, siūlome peržiūrėti taisykles ir nuostatas bei pagalbos ir palaikymo puslapius, kuriuos pateikia išdavėjas arba reklamuotojas. MetaversePost yra įsipareigojusi teikti tikslias, nešališkas ataskaitas, tačiau rinkos sąlygos gali keistis be įspėjimo.
Apie autorių
Viktoras yra vadovaujantis technologijų redaktorius / rašytojas Metaverse Post ir apima dirbtinį intelektą, kriptografiją, duomenų mokslą, metaversą ir kibernetinį saugumą įmonės sferoje. Jis gali pasigirti pusės dešimtmečio žiniasklaidos ir AI patirtimi dirbdamas tokiose žinomose žiniasklaidos priemonėse kaip „VentureBeat“, „DatatechVibe“ ir „Analytics India Magazine“. Būdamas žiniasklaidos mentorius prestižiniuose universitetuose, įskaitant Oksfordą ir USC, ir turintis duomenų mokslo ir analizės magistro laipsnį, Viktoras yra labai įsipareigojęs neatsilikti nuo kylančių tendencijų. Jis siūlo skaitytojams naujausius ir įžvalgiausius pasakojimus iš Technologijos ir Web3 peizažas.
Daugiau straipsniųViktoras yra vadovaujantis technologijų redaktorius / rašytojas Metaverse Post ir apima dirbtinį intelektą, kriptografiją, duomenų mokslą, metaversą ir kibernetinį saugumą įmonės sferoje. Jis gali pasigirti pusės dešimtmečio žiniasklaidos ir AI patirtimi dirbdamas tokiose žinomose žiniasklaidos priemonėse kaip „VentureBeat“, „DatatechVibe“ ir „Analytics India Magazine“. Būdamas žiniasklaidos mentorius prestižiniuose universitetuose, įskaitant Oksfordą ir USC, ir turintis duomenų mokslo ir analizės magistro laipsnį, Viktoras yra labai įsipareigojęs neatsilikti nuo kylančių tendencijų. Jis siūlo skaitytojams naujausius ir įžvalgiausius pasakojimus iš Technologijos ir Web3 peizažas.