Protect AI rapporterer kritiske sårbarheder i eksisterende AI- og ML-systemer, opfordrer til at sikre Open Source-projekter
Kort sagt
Rapporten Protect AI identificerer sårbarheder i værktøjer, der bruges inden for AI/ML-forsyningskæden, ofte Open Source, med unikke sikkerhedstrusler.
Der er sårbarheder i værktøjer, der bruges inden for AI/ML-forsyningskæden, ofte Open Source, med unikke sikkerhedstrusler, og disse sårbarheder udgør en risiko for uautoriseret fjernudførelse af kode og lokal filinkludering, ifølge rapporten fra Protect AI – en cybersikkerhed virksomhed med fokus på AI- og ML-systemer.
Det kan resultere i implikationer lige fra serverovertagelser til tyveri af følsomme oplysninger, tilføjede rapporten.
Rapporten understreger yderligere nødvendigheden af en proaktiv tilgang til at identificere og adressere disse sårbarheder for at beskytte data, modeller og legitimationsoplysninger.
I spidsen for Protect AI's indsats er huntr, verdens første AI/ML bug bounty-program, der engagerer et fællesskab på over 13,000 medlemmer, der aktivt jagter efter sårbarheder. Dette initiativ har til formål at levere afgørende efterretninger om potentielle trusler og lette en hurtig reaktion på sikre AI-systemer.
I august 2023 annoncerede virksomheden lanceringen af huntr – en AI/ML bug bounty platform, der udelukkende fokuserer på at beskytte AI/ML open source software (OSS), grundlæggende modellerog ML Systems. Lanceringen af huntr AI/ML bug bounty-platformen kommer som et resultat af overtagelsen af huntr.dev af Protect AI.
"Med over 15,000 medlemmer nu er Protect AI's huntr det største og mest koncentrerede sæt af trusselsforskere og hackere, der udelukkende fokuserer på AI/ML-sikkerhed," Daryan Dehghanpisheh, præsident og medstifter af Protect AI.
“Huntrs driftsmodel er fokuseret på enkelhed, gennemsigtighed og belønninger. De automatiserede funktioner og Protect AI's triage-ekspertise i kontekstualisering af trusler for vedligeholdere hjælper alle bidragydere af open source-software i AI med at bygge mere sikre softwarepakker. Dette gavner i sidste ende alle brugere, da AI-systemer bliver mere sikre og modstandsdygtige,” tilføjede Dehghanpisheh.
Rapport identificerer kritiske sårbarheder
Rapporten fremhæver resultaterne af huntr-fællesskabet i den seneste måned og identificerer tre kritiske sårbarheder, der inkluderer MLflow Remote Code Execution, MLflow Arbitrary File Overwrite og MLflow Local File Include.
- MLflow Remote Code Execution: Fejlen resulterer i serverovertagelse og tab af følsomme oplysninger. MLflow, et værktøj til lagring og sporing af modeller, havde en sårbarhed for fjernudførelse af kode i den kode, der blev brugt til at trække fjerndatalagring ned. Brugere kan blive narre til at bruge ondsindede fjerndatakilder, som kan udføre kommandoer på brugerens vegne.
- MLflow vilkårlig filoverskrivning: Fejlen har potentiale for systemovertagelse, lammelsesangreb og ødelæggelse af data. Der blev fundet en bypass i en MLflow-funktion, som validerer, at en filsti er sikker, hvilket gør det muligt for en ondsindet bruger at fjernoverskrive filer på MLflow-serveren. Dette kan føre til fjernudførelse af kode med yderligere trin, såsom overskrivning af SSH-nøglerne på systemet eller redigering af .bashrc-filen for at køre vilkårlige kommandoer ved næste brugerlogin
- MLflow Local File Include: Fejlen resulterer i tab af følsomme oplysninger og potentialet for systemovertagelse. MLflow, når det hostes på specifikke operativsystemer, kan manipuleres til at vise indholdet af følsomme filer, hvilket udgør en potentiel mulighed for systemovertagelse, hvis væsentlige legitimationsoplysninger er gemt på serveren.
Protect AI's medstifter Daryan Dehghanpisheh fortalte Metaverse Post, "Det haster med at løse AI/ML-systemsårbarheder afhænger af deres forretningspåvirkning. Med AI/ML’s kritiske rolle i moderne forretning og den alvorlige karakter af potentielle udnyttelser, vil de fleste organisationer finde denne hastende betydning. Den primære udfordring i at sikre AI/ML-systemer ligger i at forstå risici på tværs af MLOps's livscyklus."
"For at mindske disse risici skal virksomheder udføre trusselsmodellering for deres AI- og ML-systemer, identificere eksponeringsvinduer og implementere passende kontroller i et integreret og omfattende MLSecOps-program," tilføjede han.
I sin rapport understreger Protect AI, at det haster med at løse disse sårbarheder omgående og giver en liste over anbefalinger til brugere med berørte projekter i produktionen, hvilket understreger vigtigheden af en proaktiv holdning til at afbøde potentielle risici. Brugere, der står over for udfordringer med at afbøde disse sårbarheder, opfordres til at nå ud til Protect AI's fællesskab.
Efterhånden som AI-teknologien udvikler sig, arbejder Protect AI på at sikre det indviklede net af AI/ML-systemer for at sikre ansvarlig og sikker udnyttelse af fordelene ved kunstig intelligens.
Ansvarsfraskrivelse
I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.
Om forfatteren
Kumar er en erfaren teknisk journalist med speciale i de dynamiske skæringspunkter mellem AI/ML, marketingteknologi og nye områder som krypto, blockchain og NFTs. Med over 3 års erfaring i branchen har Kumar etableret en dokumenteret track record i at skabe overbevisende fortællinger, udføre indsigtsfulde interviews og levere omfattende indsigt. Kumars ekspertise ligger i at producere indhold med stor gennemslagskraft, herunder artikler, rapporter og forskningspublikationer til fremtrædende industriplatforme. Med et unikt færdighedssæt, der kombinerer teknisk viden og historiefortælling, udmærker Kumar sig ved at kommunikere komplekse teknologiske koncepter til forskellige målgrupper på en klar og engagerende måde.
Flere artiklerKumar er en erfaren teknisk journalist med speciale i de dynamiske skæringspunkter mellem AI/ML, marketingteknologi og nye områder som krypto, blockchain og NFTs. Med over 3 års erfaring i branchen har Kumar etableret en dokumenteret track record i at skabe overbevisende fortællinger, udføre indsigtsfulde interviews og levere omfattende indsigt. Kumars ekspertise ligger i at producere indhold med stor gennemslagskraft, herunder artikler, rapporter og forskningspublikationer til fremtrædende industriplatforme. Med et unikt færdighedssæt, der kombinerer teknisk viden og historiefortælling, udmærker Kumar sig ved at kommunikere komplekse teknologiske koncepter til forskellige målgrupper på en klar og engagerende måde.