Nachrichtenbericht Technologie
27. Oktober 2023

KI-Unternehmen sollten 30 % ihrer Mittel für Forschung und Entwicklung in den Bereichen Sicherheit und Ethik ausgeben

Der durch Vorurteile und Falschinformationen verursachte Schaden ist bereits erkennbar. Es gibt Hinweise darauf, dass auch andere Gefahren auftauchen könnten. Es ist von entscheidender Bedeutung, aktuelle Risiken zu mindern und neue Risiken vorherzusehen.

KI-Unternehmen sollten 30 % ihrer Mittel für Forschung und Entwicklung in den Bereichen Sicherheit und Ethik ausgeben

Wir wüssten nicht, wie wir sicherstellen können, dass fortschrittliche autonome Systeme oder AGI sicher sind, oder wie wir sie testen können, wenn sie jetzt verfügbar wären. Darüber hinaus mangelt es den Regierungen an den notwendigen Institutionen, um Missbrauch zu stoppen und sichere Praktiken einzuführen, selbst wenn dies der Fall wäre. Die Autoren befürworten die Entwicklung einer effizienten staatlichen Aufsicht und die Neuausrichtung der Forschungs- und Entwicklungsbemühungen auf Sicherheit und Ethik.

Kontrolle und Ehrlichkeit (ausgefeiltere Systeme können Tests überlisten, indem sie falsche, aber überzeugende Antworten liefern), Robustheit (unter neuen Bedingungen mit Verteilungsverschiebungen oder gegnerischen Eingaben), Interpretierbarkeit (Arbeit verstehen), Risikobewertung (neue Fähigkeiten entstehen, die schwer vorherzusagen sind), und das Aufkommen neuer Herausforderungen (beispiellose Fehlerarten) sind einige der F&E-Herausforderungen, die dadurch nicht gelöst werden können Entwicklung leistungsfähigerer KI-Systeme.

Die Autoren schlagen vor, dass Sicherheit und Ethik mindestens ein Drittel der Mittel für KI-Forschung und -Entwicklung erhalten sollten.

Standards müssen sowohl in Bezug auf nationale Institutionen als auch in Bezug auf die globale Governance durchgesetzt werden. Der KI fehlen diese, wohl aber in der Pharma-, Finanz- und Nuklearindustrie. Es gibt jetzt Anreize für Nationen und Unternehmen, auf Kosten der Sicherheit zu sparen. Unternehmen können von KI-Fortschritten profitieren und gleichzeitig die Gesellschaft mit den Folgen belasten, ähnlich wie die Industrie Abfälle in Flüsse entsorgt.

Starkes technisches Know-how und die Fähigkeit, schnell zu agieren, sind Anforderungen an nationale Institutionen. Auf globaler Ebene sind Partnerschaften und Vereinbarungen unerlässlich. Um die akademische Forschung und risikoarme Anwendungen zu sichern, müssen bürokratische Hindernisse für kleine und vorhersehbare Modelle vermieden werden. Grenzmodelle – eine ausgewählte Gruppe der leistungsstärksten Systeme, die auf milliardenschweren Supercomputern trainiert werden – sollten den größten Fokus erhalten.

Damit die Vorschriften wirksam sind, müssen die Regierungen den Entwicklungen gegenüber offener sein. Die Regulierungsbehörden sollten die Registrierung von Modellen vorschreiben, interne Informanten schützen, die Meldung von Vorfällen vorschreiben und die Entwicklung von Modellen und den Einsatz von Supercomputern im Auge behalten.

Auch die Regulierungsbehörden müssen Zugang zu diesen Systemen haben, bevor sie in die Produktion gelangen, um sie bewerten zu können potenziell schädlich Merkmale wie Pathogengenerierung, Selbstreplikation und Systemdurchdringung.

Systeme, die potenziell gefährlich sein können, benötigen verschiedene Kontrollmethoden. Grenzmodell Urheber müssen außerdem für alle Schäden an ihren Systemen haftbar gemacht werden, die hätten vermieden werden können. Dies sollte Sicherheitsinvestitionen fördern. Weitere Funktionen, wie z. B. staatliche Lizenzen, die Möglichkeit, die Entwicklung als Reaktion darauf zu stoppen potenziell gefährlich Für äußerst leistungsfähige Systeme könnten Fähigkeiten, Zugriffskontrollen und Informationssicherheitsmaßnahmen erforderlich sein, die für Hacker auf Landesebene unzugänglich sind.

Obwohl es keine Regeln gibt, sollten Unternehmen ihre Wenn-Dann-Verantwortlichkeiten schnell klären, indem sie die genauen Schritte darlegen, die sie unternehmen werden, wenn bestimmte Modellfunktionen eine rote Linie überschreiten. Diese Maßnahmen müssen ausführlich erklärt und unabhängig bestätigt werden. So ist es. Ein separates Versicherungsergänzung erstellt eine Zusammenfassung der Thesen.

  • Im Oktober das Frontier Model Forum hat einen KI-Sicherheitsfonds in Höhe von über 10 Millionen US-Dollar eingeführtmit dem Ziel, Fortschritte in der KI-Sicherheitsforschung voranzutreiben. Der Fonds, eine Zusammenarbeit zwischen dem Frontier Model Forum und philanthropischen Partnern, wird unabhängige Forscher weltweit unterstützen, die mit akademischen Institutionen, Forschungsorganisationen und Start-ups verbunden sind. Die Hauptmitwirkenden der Initiative sind Anthropic, Google, Microsoft, OpenAI, zusammen mit philanthropischen Organisationen wie der Patrick J. McGovern Foundation, der David and Lucile Packard Foundation, Eric Schmidt und Jaan Tallinn. Der AI Safety Fund konzentriert sich vor allem auf die Förderung der Entwicklung neuer Bewertungstechniken und Red-Teaming-Ansätze für KI-Modelle mit dem Ziel, potenzielle Gefahren aufzudecken. Das Forum plant, in den kommenden Monaten einen Beirat einzurichten und wird kurz darauf seine erste Aufforderung zur Einreichung von Vorschlägen und zur Vergabe von Zuschüssen veröffentlichen.
Verbunden: Die britische Wettbewerbs- und Marktbehörde leitet eine Überprüfung von KI-Modellen ein, da die Regulierungsbemühungen der Regierung eskalieren

Haftungsausschluss

Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.

Über den Autor

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Weitere Artikel
Damir Jalalow
Damir Jalalow

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Von Ripple zum Big Green DAO: Wie Kryptowährungsprojekte zur Wohltätigkeit beitragen

Lassen Sie uns Initiativen erkunden, die das Potenzial digitaler Währungen für wohltätige Zwecke nutzen.

Weitere Informationen

AlphaFold 3, Med-Gemini und andere: Die Art und Weise, wie KI das Gesundheitswesen im Jahr 2024 verändert

KI manifestiert sich im Gesundheitswesen auf verschiedene Weise, von der Aufdeckung neuer genetischer Zusammenhänge bis hin zur Stärkung robotergestützter chirurgischer Systeme ...

Weitere Informationen
Treten Sie unserer innovativen Tech-Community bei
Weiterlesen
Lesen Sie weiter
Biswap veröffentlicht neue strategische Roadmap, die sich auf die Multi-Chain-Erweiterung und die Einführung von Liquid Staking konzentriert
Märkte Nachrichtenbericht Technologie
Biswap veröffentlicht neue strategische Roadmap, die sich auf die Multi-Chain-Erweiterung und die Einführung von Liquid Staking konzentriert
24. Mai 2024
Web3 KI enthüllt: Jimmy Zhao erläutert, wie BNB Chain Blockchain und AI Re integriertdefines Vertrauen, Transparenz und Dezentralisierung
Interview Geschäft Märkte Software Technologie
Web3 KI enthüllt: Jimmy Zhao erläutert, wie BNB Chain Blockchain und AI Re integriertdefines Vertrauen, Transparenz und Dezentralisierung
24. Mai 2024
Hyperliquid stellt HIP-1-Spot-Token-Bereitstellungsfunktion in seinem Mainnet vor und empfiehlt Tests für eine reibungslose Bereitstellung
Nachrichtenbericht Technologie
Hyperliquid stellt HIP-1-Spot-Token-Bereitstellungsfunktion in seinem Mainnet vor und empfiehlt Tests für eine reibungslose Bereitstellung
24. Mai 2024
Die Top-Angebote dieser Woche, große Investitionen in KI, IT, Web3, und Krypto (20-24.05)
Digest Top-Listen Geschäft Lifestyle Märkte Software Technologie
Die Top-Angebote dieser Woche, große Investitionen in KI, IT, Web3, und Krypto (20-24.05)
24. Mai 2024