A RagaAI elindítja a nyílt forráskódú LLM Hubot a nyelvi modellek értékelésének és biztonságának megkönnyítése érdekében
Röviden
A RagaAI elindította a „RagaAI LLM Hub”-ot, egy nyílt forráskódú platformot az AI-specifikus nyelvi modellek értékelésére és korlátok kialakítására.
AI tesztelési platform RagaAI nemrég bejelentette a „RagaAI LLM Hub”, egy nyílt forráskódú és vállalati használatra alkalmas platform, amelyet a korlátok értékelésére és kialakítására terveztek. Nagy nyelvi modellek (LLM-ek). A több mint 100 aprólékosan kidolgozott mérőszámmal a platform célja az LLM-ek és a Retrieval Augmented Generation (RAG) alkalmazások katasztrofális hibáinak megelőzése.
A RagaAI LLM Hub robusztus eszközkészletet kínál a fejlesztők és szervezetek számára az LLM-ek hatékony értékeléséhez és összehasonlításához, olyan kritikus szempontokat lefedve, mint a relevancia és megértés, a tartalom minősége, Hallucináció, Biztonság és elfogultság, kontextus relevancia, védőkorlátok és sebezhetőségi vizsgálat. Ezenkívül metrikus alapú tesztek sorozatát kínálja a kvantitatív elemzéshez.
„Az LLM-ek holisztikus értékelése jelenleg kulcsfontosságú követelmény az LLM-építés világában, mivel az adattudósok és a vállalatok kitalálják, milyen technológia és stack működik számukra. A probléma diagnosztizálásához alaposan meg kell határozni a problémát a forrásnál, és tekintettel a több száz lehetséges kiváltó okra, több száz mérőszámra van szükség a kiváltó ok pontos meghatározásához.” Gaurav Agarwal, mondta a RagaAI alapítója MPost.
„A RagaAI LLM Hub átfogó tesztelési képessége jelentős hozzáadott értéket ad a fejlesztők munkafolyamatához, és döntő időt takarít meg az ad hoc elemzések kiküszöbölésével és az LLM-fejlesztés háromszoros felgyorsításával.”
Az LLM teljes életciklusa során felmerülő problémák megoldására tervezett RagaAI LLM Hub a koncepció bizonyításától a termelési alkalmazásokig, azonosítja a mögöttes problémákat LLM alkalmazások és megkönnyíti azok megoldását a forrásnál, forradalmasítva a megbízhatóság és megbízhatóság biztosításának megközelítéseit.
A RagaAI kijelenti, hogy az LLM Hub számos döntési szempontot lefedő teszteken keresztül felhatalmazza ezt a képességet:
- Prompts: Iterálja és azonosítja az optimális prompt sablonokat, miközben védőkorlátokat hoz létre az ellenséges támadások mérséklésére.
- Környezetkezelés RAG-okhoz: Segít a felhasználóknak megtalálni az optimális egyensúlyt az LLM-teljesítmény és a költség/késleltetés között, amikor nagy léptékben működik.
- Válaszgenerálás: Mérőszámokat alkalmaz a hallucinációk azonosítására az LLM-válaszokban, és védőkorlátokat hoz létre az elfogultság, a személyazonossági adatok szivárgásának és más lehetséges problémák megelőzésére.
A mesterséges intelligencia hallucinációinak és torzításának enyhítése az LLM-diagnosztikával
A RagaAI LLM Hub különféle iparágakban talál alkalmazásokat, beleértve az e-kereskedelmet, a pénzügyeket, a marketinget, a jogi és az egészségügyet, és támogatja a fejlesztőket és a vállalkozásokat olyan feladatokban, mint pl. chatbots, tartalomkészítés, szövegösszegzés és forráskód generálás.
Az értékelésen túl a RagaAI LLM Hub segít a korlátok felállításában az adatvédelem és a jogi megfelelés biztosítása érdekében, elősegítve az etikai és felelős AI gyakorlatokat, különösen az olyan érzékeny ágazatokban, mint a pénzügy, az egészségügy és a jog.
„Egyik ügyfelünk az e-kereskedelmi területen LLM-eket használt a chatbothoz az ügyfélszolgálathoz, és a chatbot rossz válaszokat adott. A RagaAI segítségével ezt a problémát sikeresen észleltük és megoldottuk” – mondta Gaurav Agarwal, a RagaAI munkatársa MPost. „Az egészségbiztosításban fontos a páciens személyes adatainak védelme. Egyik ügyfelünknél néhány fontos személyes információt megosztottak a harmadik féllel – ez óriási adatvédelmi probléma. A RagaAI LLM Hub védőkorlátok segítségével ezt és a hasonló egyéb problémákat valós időben észlelték, és megakadályozták.
Ezen túlmenően a reputációs kockázatok mérséklése a társadalmi normák és értékek betartásával.
„A RagaAI segít a korlátok beállításában, például a személyazonosításra alkalmas adatok (PII) észlelésében az LLM válaszában. Ez biztosítja, hogy az LLM-alkalmazás soha ne szivárogjon ki a belső dokumentumokból származó személyes adatokból, és ez kritikus a Responsible AI számára” – magyarázta Gaurav Agarwal. „Ez és az egyéb védőkorlátok, mint például az elfogulatlan és tisztességes válaszok biztosítása, a versenytársak kommentálásának mellőzése és a lényeges, nem nyilvános információk (MNPI) eltávolítása kulcsfontosságúak a cégek számára, mivel igyekeznek elkerülni a társadalmi és a jó hírnév károsodását.”
A RagaAI LLM Hub elindítása sikeres volt 4.7 millió $ 2024 januárjában a pi Ventures által vezetett magvető finanszírozási körben, hogy bővítsék AI kutatás, fejlesztés és ügyfélkör az Egyesült Államokban és Európában.
„Célunk az, hogy a legjobb technológiát biztosítsuk annak érdekében, hogy az LLM-eket megbízhatóvá és megbízhatóvá tegyük. Jelentős beruházásokat hajt végre az LLM minőségbiztosítási szempontjainak megoldására szolgáló kulcsfontosságú technológiák kifejlesztésébe. Ennek a technológiának a nyílt forráskódúvá tétele az a törekvésünk, hogy ezt mindenki számára elérhetővé tegyük, hogy a fejlesztői közösség az elérhető legjobb megoldásokra építhessen” – mondta Gaurav Agarwal.
A felelősség megtagadása
Összhangban a A Trust Project irányelvei, kérjük, vegye figyelembe, hogy az ezen az oldalon közölt információk nem minősülnek jogi, adózási, befektetési, pénzügyi vagy bármilyen más formájú tanácsnak, és nem is értelmezhetők. Fontos, hogy csak annyit fektessen be, amennyit megengedhet magának, hogy elveszítsen, és kérjen független pénzügyi tanácsot, ha kétségei vannak. További információkért javasoljuk, hogy tekintse meg a szerződési feltételeket, valamint a kibocsátó vagy hirdető által biztosított súgó- és támogatási oldalakat. MetaversePost elkötelezett a pontos, elfogulatlan jelentéstétel mellett, de a piaci feltételek előzetes értesítés nélkül változhatnak.
A szerzőről
Victor vezető műszaki szerkesztő/író a cégnél Metaverse Post és a mesterséges intelligencia, a kriptográfia, az adattudomány, a metaverzum és a kiberbiztonság területére terjed ki a vállalati szférán belül. Fél évtizedes média és mesterséges intelligencia tapasztalattal büszkélkedhet olyan jól ismert médiáknál, mint a VentureBeat, a DatatechVibe és az Analytics India Magazine. Mint médiamentor rangos egyetemeken, köztük az Oxfordban és az USC-ben, valamint adattudományi és analitikai mesterfokozattal rendelkezik, Victor mélyen elkötelezett amellett, hogy lépést tartson a feltörekvő trendekkel. Az olvasóknak kínálja a Tech és a legfrissebb és legszembetűnőbb narratívákat Web3 tájkép.
További cikkekVictor vezető műszaki szerkesztő/író a cégnél Metaverse Post és a mesterséges intelligencia, a kriptográfia, az adattudomány, a metaverzum és a kiberbiztonság területére terjed ki a vállalati szférán belül. Fél évtizedes média és mesterséges intelligencia tapasztalattal büszkélkedhet olyan jól ismert médiáknál, mint a VentureBeat, a DatatechVibe és az Analytics India Magazine. Mint médiamentor rangos egyetemeken, köztük az Oxfordban és az USC-ben, valamint adattudományi és analitikai mesterfokozattal rendelkezik, Victor mélyen elkötelezett amellett, hogy lépést tartson a feltörekvő trendekkel. Az olvasóknak kínálja a Tech és a legfrissebb és legszembetűnőbb narratívákat Web3 tájkép.