Protect AI meldet kritische Schwachstellen in bestehenden KI- und ML-Systemen und drängt auf die Sicherung von Open-Source-Projekten
In Kürze
Der Protect AI-Bericht identifiziert Schwachstellen in Tools, die in der KI/ML-Lieferkette verwendet werden, oft Open Source, mit einzigartigen Sicherheitsbedrohungen.
Es gibt Schwachstellen in Tools, die innerhalb der KI/ML-Lieferkette verwendet werden, oft Open Source, die einzigartige Sicherheitsbedrohungen bergen und diese Schwachstellen das Risiko einer nicht authentifizierten Remote-Codeausführung und der Einbeziehung lokaler Dateien bergen, heißt es in dem Bericht von Protect AI – a Internet-Sicherheit Unternehmen, das sich auf KI- und ML-Systeme konzentriert.
Dies könne Folgen haben, die von Serverübernahmen bis hin zum Diebstahl sensibler Informationen reichen, heißt es in dem Bericht weiter.
Der Bericht betont außerdem die Notwendigkeit eines proaktiven Ansatzes zur Identifizierung und Behebung dieser Schwachstellen, um Daten, Modelle und Anmeldeinformationen zu schützen.
An der Spitze der Bemühungen von Protect AI steht huntr, das weltweit erste AI/ML-Bug-Bounty-Programm, das eine Community von über 13,000 Mitgliedern einbezieht, die aktiv nach Schwachstellen sucht. Ziel dieser Initiative ist es, entscheidende Informationen über potenzielle Bedrohungen bereitzustellen und eine schnelle Reaktion auf sichere KI-Systeme zu ermöglichen.
Im August 2023 kündigte das Unternehmen die Einführung von huntr an – einer KI/ML-Bug-Bounty-Plattform, die sich ausschließlich auf den Schutz von KI/ML-Open-Source-Software (OSS) konzentriert. grundlegende Modelleund ML-Systeme. Der Start der huntr AI/ML-Bug-Bounty-Plattform erfolgt als Ergebnis der Übernahme von huntr.dev durch Protect AI.
„Mit mittlerweile über 15,000 Mitgliedern ist Protect AI’s huntr die größte und konzentrierteste Gruppe von Bedrohungsforschern und Hackern, die sich ausschließlich auf KI/ML-Sicherheit konzentrieren“, Daryan Dehghanpisheh, Präsident und Mitbegründer von Protect AI.
„Das Betriebsmodell von Huntr ist auf Einfachheit, Transparenz und Belohnungen ausgerichtet. Die automatisierten Funktionen und die Triage-Expertise von Protect AI bei der Kontextualisierung von Bedrohungen für Betreuer helfen allen Mitwirkenden von Open-Source-Software in KI, sicherere Softwarepakete zu erstellen. Dies kommt letztendlich allen Benutzern zugute, da KI-Systeme sicherer und widerstandsfähiger werden“, fügte Dehghanpisheh hinzu.
Bericht identifiziert kritische Schwachstellen
Der Bericht hebt die Erkenntnisse der huntr-Community im vergangenen Monat hervor und identifiziert drei kritische Schwachstellen, darunter MLflow Remote Code Execution, MLflow Arbitrary File Overwrite und MLflow Local File Include.
- MLflow Remote Code Execution: Der Fehler führt zur Serverübernahme und zum Verlust vertraulicher Informationen. MLflow, ein Tool zum Speichern und Verfolgen von Modellen, wies eine Sicherheitslücke bei der Remote-Codeausführung im Code auf, der zum Herunterfahren der Remote-Datenspeicherung verwendet wurde. Benutzer könnten dazu verleitet werden, bösartige Remote-Datenquellen zu verwenden, die im Namen des Benutzers Befehle ausführen könnten.
- MLflow Arbitrary File Overwrite: Der Fehler birgt das Potenzial für Systemübernahme, Denial-of-Service und Zerstörung von Daten. Es wurde eine Umgehung in einer MLflow-Funktion gefunden, die überprüft, ob ein Dateipfad sicher ist, sodass ein böswilliger Benutzer Dateien auf dem MLflow-Server aus der Ferne überschreiben kann. Dies kann zur Remote-Codeausführung mit zusätzlichen Schritten wie dem Überschreiben der SSH-Schlüssel auf dem System oder dem Bearbeiten der .bashrc-Datei führen, um bei der nächsten Benutzeranmeldung beliebige Befehle auszuführen
- MLflow Local File Include: Der Fehler führt zum Verlust vertraulicher Informationen und der Möglichkeit einer Systemübernahme. Wenn MLflow auf bestimmten Betriebssystemen gehostet wird, kann es manipuliert werden, um den Inhalt vertraulicher Dateien anzuzeigen, was eine potenzielle Möglichkeit zur Systemübernahme darstellt, wenn wichtige Anmeldeinformationen auf dem Server gespeichert sind.
Daryan Dehghanpisheh, Mitbegründer von Protect AI, sagte Metaverse Post„Die Dringlichkeit der Behebung von Schwachstellen in KI-/ML-Systemen hängt von deren geschäftlichen Auswirkungen ab.“ Angesichts der entscheidenden Rolle von KI/ML im modernen Geschäftsleben und der Schwere potenzieller Exploits wird diese Dringlichkeit für die meisten Unternehmen hoch sein. Die größte Herausforderung bei der Sicherung von KI/ML-Systemen besteht darin, die Risiken im gesamten MLOps-Lebenszyklus zu verstehen.“
„Um diese Risiken zu mindern, müssen Unternehmen eine Bedrohungsmodellierung für ihre KI- und ML-Systeme durchführen, Gefährdungsfenster identifizieren und geeignete Kontrollen im Rahmen eines integrierten und umfassenden MLSecOps-Programms implementieren“, fügte er hinzu.
Protect AI betont in seinem Bericht die Dringlichkeit, diese Probleme anzugehen Schwachstellen zeitnah und stellt eine Liste mit Empfehlungen für Benutzer mit betroffenen Projekten in der Produktion bereit, die die Bedeutung einer proaktiven Haltung bei der Minderung potenzieller Risiken unterstreicht. Benutzer, die bei der Behebung dieser Schwachstellen vor Herausforderungen stehen, werden aufgefordert, sich an die Community von Protect AI zu wenden.
Während die KI-Technologie voranschreitet, arbeitet Protect AI daran, das komplexe Netz der KI-/ML-Systeme zu sichern, um eine verantwortungsvolle und sichere Nutzung der Vorteile der künstlichen Intelligenz zu gewährleisten.
Haftungsausschluss
Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.
Über den Autor
Kumar ist ein erfahrener Technologiejournalist mit Spezialisierung auf die dynamischen Schnittstellen von KI/ML, Marketingtechnologie und aufstrebenden Bereichen wie Krypto, Blockchain und NFTS. Mit über drei Jahren Erfahrung in der Branche hat Kumar eine nachgewiesene Erfolgsbilanz bei der Erstellung überzeugender Erzählungen, der Durchführung aufschlussreicher Interviews und der Bereitstellung umfassender Erkenntnisse. Kumars Fachwissen liegt in der Produktion von wirkungsvollen Inhalten, darunter Artikeln, Berichten und Forschungspublikationen für prominente Branchenplattformen. Mit seinen einzigartigen Fähigkeiten, die technisches Wissen und Geschichtenerzählen kombinieren, zeichnet sich Kumar dadurch aus, dass er komplexe technologische Konzepte einem unterschiedlichen Publikum auf klare und ansprechende Weise vermittelt.
Weitere ArtikelKumar ist ein erfahrener Technologiejournalist mit Spezialisierung auf die dynamischen Schnittstellen von KI/ML, Marketingtechnologie und aufstrebenden Bereichen wie Krypto, Blockchain und NFTS. Mit über drei Jahren Erfahrung in der Branche hat Kumar eine nachgewiesene Erfolgsbilanz bei der Erstellung überzeugender Erzählungen, der Durchführung aufschlussreicher Interviews und der Bereitstellung umfassender Erkenntnisse. Kumars Fachwissen liegt in der Produktion von wirkungsvollen Inhalten, darunter Artikeln, Berichten und Forschungspublikationen für prominente Branchenplattformen. Mit seinen einzigartigen Fähigkeiten, die technisches Wissen und Geschichtenerzählen kombinieren, zeichnet sich Kumar dadurch aus, dass er komplexe technologische Konzepte einem unterschiedlichen Publikum auf klare und ansprechende Weise vermittelt.