Nachrichtenbericht Technologie
27. Oktober 2023

KI-Unternehmen sollten 30 % ihrer Mittel für Forschung und Entwicklung in den Bereichen Sicherheit und Ethik ausgeben

Der durch Vorurteile und Falschinformationen verursachte Schaden ist bereits erkennbar. Es gibt Hinweise darauf, dass auch andere Gefahren auftauchen könnten. Es ist von entscheidender Bedeutung, aktuelle Risiken zu mindern und neue Risiken vorherzusehen.

KI-Unternehmen sollten 30 % ihrer Mittel für Forschung und Entwicklung in den Bereichen Sicherheit und Ethik ausgeben

Wir wüssten nicht, wie wir sicherstellen können, dass fortschrittliche autonome Systeme oder AGI sicher sind, oder wie wir sie testen können, wenn sie jetzt verfügbar wären. Darüber hinaus mangelt es den Regierungen an den notwendigen Institutionen, um Missbrauch zu stoppen und sichere Praktiken einzuführen, selbst wenn dies der Fall wäre. Die Autoren befürworten die Entwicklung einer effizienten staatlichen Aufsicht und die Neuausrichtung der Forschungs- und Entwicklungsbemühungen auf Sicherheit und Ethik.

Kontrolle und Ehrlichkeit (ausgefeiltere Systeme können Tests überlisten, indem sie falsche, aber überzeugende Antworten liefern), Robustheit (unter neuen Bedingungen mit Verteilungsverschiebungen oder gegnerischen Eingaben), Interpretierbarkeit (Arbeit verstehen), Risikobewertung (neue Fähigkeiten entstehen, die schwer vorherzusagen sind), und das Aufkommen neuer Herausforderungen (beispiellose Fehlerarten) sind einige der F&E-Herausforderungen, die dadurch nicht gelöst werden können Entwicklung leistungsfähigerer KI-Systeme.

Die Autoren schlagen vor, dass Sicherheit und Ethik mindestens ein Drittel der Mittel für KI-Forschung und -Entwicklung erhalten sollten.

Standards müssen sowohl in Bezug auf nationale Institutionen als auch in Bezug auf die globale Governance durchgesetzt werden. Der KI fehlen diese, wohl aber in der Pharma-, Finanz- und Nuklearindustrie. Es gibt jetzt Anreize für Nationen und Unternehmen, auf Kosten der Sicherheit zu sparen. Unternehmen können von KI-Fortschritten profitieren und gleichzeitig die Gesellschaft mit den Folgen belasten, ähnlich wie die Industrie Abfälle in Flüsse entsorgt.

Starkes technisches Know-how und die Fähigkeit, schnell zu agieren, sind Anforderungen an nationale Institutionen. Auf globaler Ebene sind Partnerschaften und Vereinbarungen unerlässlich. Um die akademische Forschung und risikoarme Anwendungen zu sichern, müssen bürokratische Hindernisse für kleine und vorhersehbare Modelle vermieden werden. Grenzmodelle – eine ausgewählte Gruppe der leistungsstärksten Systeme, die auf milliardenschweren Supercomputern trainiert werden – sollten den größten Fokus erhalten.

Damit die Vorschriften wirksam sind, müssen die Regierungen den Entwicklungen gegenüber offener sein. Die Regulierungsbehörden sollten die Registrierung von Modellen vorschreiben, interne Informanten schützen, die Meldung von Vorfällen vorschreiben und die Entwicklung von Modellen und den Einsatz von Supercomputern im Auge behalten.

Auch die Regulierungsbehörden müssen Zugang zu diesen Systemen haben, bevor sie in die Produktion gelangen, um sie bewerten zu können potenziell schädlich Merkmale wie Pathogengenerierung, Selbstreplikation und Systemdurchdringung.

Systeme, die potenziell gefährlich sein können, benötigen verschiedene Kontrollmethoden. Grenzmodell Urheber müssen außerdem für alle Schäden an ihren Systemen haftbar gemacht werden, die hätten vermieden werden können. Dies sollte Sicherheitsinvestitionen fördern. Weitere Funktionen, wie z. B. staatliche Lizenzen, die Möglichkeit, die Entwicklung als Reaktion darauf zu stoppen potenziell gefährlich Für äußerst leistungsfähige Systeme könnten Fähigkeiten, Zugriffskontrollen und Informationssicherheitsmaßnahmen erforderlich sein, die für Hacker auf Landesebene unzugänglich sind.

Obwohl es keine Regeln gibt, sollten Unternehmen ihre Wenn-Dann-Verantwortlichkeiten schnell klären, indem sie die genauen Schritte darlegen, die sie unternehmen werden, wenn bestimmte Modellfunktionen eine rote Linie überschreiten. Diese Maßnahmen müssen ausführlich erklärt und unabhängig bestätigt werden. So ist es. Ein separates Versicherungsergänzung erstellt eine Zusammenfassung der Thesen.

  • Im Oktober das Frontier Model Forum hat einen KI-Sicherheitsfonds in Höhe von über 10 Millionen US-Dollar eingeführtmit dem Ziel, Fortschritte in der KI-Sicherheitsforschung voranzutreiben. Der Fonds, eine Zusammenarbeit zwischen dem Frontier Model Forum und philanthropischen Partnern, wird unabhängige Forscher weltweit unterstützen, die mit akademischen Institutionen, Forschungsorganisationen und Start-ups verbunden sind. Die Hauptmitwirkenden der Initiative sind Anthropic, Google, Microsoft, OpenAI, zusammen mit philanthropischen Organisationen wie der Patrick J. McGovern Foundation, der David and Lucile Packard Foundation, Eric Schmidt und Jaan Tallinn. Der AI Safety Fund konzentriert sich vor allem auf die Förderung der Entwicklung neuer Bewertungstechniken und Red-Teaming-Ansätze für KI-Modelle mit dem Ziel, potenzielle Gefahren aufzudecken. Das Forum plant, in den kommenden Monaten einen Beirat einzurichten und wird kurz darauf seine erste Aufforderung zur Einreichung von Vorschlägen und zur Vergabe von Zuschüssen veröffentlichen.
Verbunden: Die britische Wettbewerbs- und Marktbehörde leitet eine Überprüfung von KI-Modellen ein, da die Regulierungsbemühungen der Regierung eskalieren

Haftungsausschluss

Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.

Über den Autor

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Weitere Artikel
Damir Jalalow
Damir Jalalow

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Angesichts der Volatilität wächst der institutionelle Appetit auf Bitcoin-ETFs

Offenlegungen in 13F-Anmeldungen zeigen, dass namhafte institutionelle Anleger sich mit Bitcoin-ETFs beschäftigen, was die wachsende Akzeptanz von ... unterstreicht.

Weitere Informationen

Der Tag der Verurteilung steht vor der Tür: Das Schicksal von CZ bleibt ungewiss, während das US-Gericht den Plädoyer des DOJ prüft

Changpeng Zhao steht heute vor einer Verurteilung vor einem US-Gericht in Seattle.

Weitere Informationen
Treten Sie unserer innovativen Tech-Community bei
Weiterlesen
Lesen Sie weiter
Donald Trumps Wandel zur Kryptowährung: Vom Gegner zum Befürworter und was er für den US-amerikanischen Kryptowährungsmarkt bedeutet
Geschäft Märkte Geschichten und Rezensionen Technologie
Donald Trumps Wandel zur Kryptowährung: Vom Gegner zum Befürworter und was er für den US-amerikanischen Kryptowährungsmarkt bedeutet
10. Mai 2024
Layer3 wird diesen Sommer L3-Token einführen und 51 % des Gesamtangebots der Community zur Verfügung stellen
Märkte Nachrichtenbericht Technologie
Layer3 wird diesen Sommer L3-Token einführen und 51 % des Gesamtangebots der Community zur Verfügung stellen
10. Mai 2024
Edward Snowdens letzte Warnung an Bitcoin-Entwickler: „Machen Sie den Datenschutz zu einer Priorität auf Protokollebene, sonst riskieren Sie, ihn zu verlieren.“
Märkte Sicherheit Wiki Software Geschichten und Rezensionen Technologie
Edward Snowdens letzte Warnung an Bitcoin-Entwickler: „Machen Sie den Datenschutz zu einer Priorität auf Protokollebene, sonst riskieren Sie, ihn zu verlieren.“
10. Mai 2024
Das von Optimismus geprägte Ethereum Layer 2 Network Mint startet sein Mainnet am 15. Mai
Nachrichtenbericht Technologie
Das von Optimismus geprägte Ethereum Layer 2 Network Mint startet sein Mainnet am 15. Mai
10. Mai 2024