Geschäft Nachrichtenbericht
25. Oktober 2023

Anthropic, Google, Microsoft und OpenAI Ernennung des geschäftsführenden Direktors für das Frontier Model Forum und Einführung eines KI-Sicherheitsfonds in Höhe von 10 Millionen US-Dollar

In Kürze

Anthropic, Google, Microsoft und OpenAI haben Chris Meserole als ersten Geschäftsführer des Frontier Model Forum vorgestellt.

Gleichzeitig haben sie einen umfangreichen KI-Sicherheitsfonds mit einer Finanzierung von über 10 Millionen US-Dollar angekündigt.

Anthropic, Google, Microsoft und OpenAI Ernennung des geschäftsführenden Direktors für das Frontier Model Forum und Einführung eines KI-Sicherheitsfonds in Höhe von 10 Millionen US-Dollar

Anthropic, Google, Microsoft und OpenAI haben ernannt Chris Meserole als erster Geschäftsführer des Frontier Model Forums. Das Industriekonsortium widmet sich der Förderung der sicheren und ethischen Weiterentwicklung modernster KI-Modelle weltweit. Gleichzeitig führte das Forum einen KI-Sicherheitsfonds in Höhe von mehr als 10 Millionen US-Dollar ein. Ziel des Fonds ist es, Fortschritte in der KI-Sicherheitsforschung voranzutreiben.

Geschäftsführer Chris Meserole bringt einen umfassenden Hintergrund in der Technologiepolitik und der Governance neuer Technologien mit. Vor seiner Ernennung war er Direktor der Initiative für künstliche Intelligenz und neue Technologien an der Brookings Institution. In seiner neuen Funktion wird Meserole die Bemühungen leiten, die KI-Sicherheitsforschung voranzutreiben, Best Practices für die Entwicklung sicherer KI-Modelle zu ermitteln, Wissen an Interessengruppen weiterzugeben und Initiativen zu unterstützen, die KI zur Bewältigung gesellschaftlicher Herausforderungen nutzen.

„Die leistungsstärksten KI-Modelle sind für die Gesellschaft enorm vielversprechend, aber um ihr Potenzial auszuschöpfen, müssen wir besser verstehen, wie wir sie sicher entwickeln und bewerten können.“ Ich freue mich darauf, diese Herausforderung mit dem Frontier Model Forum anzunehmen.“

sagte Meserole.

Der AI Safety Fund wurde als Reaktion auf die rasante Weiterentwicklung der KI-Fähigkeiten im vergangenen Jahr ins Leben gerufen, was weitere akademische Forschung zur KI-Sicherheit erforderlich macht. Dieser Fonds, eine Zusammenarbeit zwischen dem Frontier Model Forum und philanthropischen Partnern, wird unabhängige Forscher weltweit unterstützen, die mit akademischen Institutionen, Forschungsorganisationen und Start-ups verbunden sind. 

Die Hauptmitwirkenden dieser Initiative sind Anthropic, Google, Microsoft und OpenAI, zusammen mit philanthropischen Organisationen wie der Patrick J. McGovern Foundation, der David and Lucile Packard Foundation, Eric Schmidt und Jaan Tallinn. Ihre Gesamtbeiträge übersteigen 10 Millionen US-Dollar, wobei weitere Spenden von anderen Partnern erwartet werden.

Anfang dieses Jahres verpflichteten sich die Mitglieder des Forums im Weißen Haus zu freiwilligen Verpflichtungen, darunter die Ermöglichung der Entdeckung und Meldung von Schwachstellen in ihren KI-Systemen durch Dritte. Der AI Safety Fund kommt dieser Verpflichtung nach, indem er externen Gemeinschaften Finanzmittel für die Prüfung von KI-Systemen im Grenzbereich bereitstellt. Eine Vielfalt an Stimmen und Perspektiven wird den globalen Diskurs über KI-Sicherheit bereichern und die allgemeine KI-Wissensbasis erweitern.

Steigerung der KI-Sicherheit und -Zusammenarbeit

Der AI Safety Fund konzentriert sich vor allem auf die Förderung der Entwicklung neuer Bewertungstechniken und Red-Teaming-Ansätze für KI-Modelle mit dem Ziel, potenzielle Gefahren aufzudecken. Red Teaming ist ein strukturierter Prozess zur Untersuchung von KI-Systemen, um schädliche Fähigkeiten, Ergebnisse oder Infrastrukturbedrohungen zu identifizieren. Eine stärkere Finanzierung in diesem Bereich könnte die Sicherheitsstandards erhöhen und wertvolle Erkenntnisse zur Bewältigung der Herausforderungen durch KI-Systeme liefern.

Darüber hinaus wird der Fonds bald nach Forschungsvorschlägen suchen und vom Meridian Institute mit der Beratung eines Beratungsausschusses verwaltet, dem unabhängige Experten, KI-Experten und Experten für die Gewährung von Fördermitteln angehören.

Derzeit läuft ein Prozess zur verantwortungsvollen Offenlegung, der es den Frontier-KI-Laboren ermöglicht, Informationen über Schwachstellen und gefährliche Fähigkeiten in Frontier-KI-Modellen sowie ihre Lösungen auszutauschen. Einige Forum-Unternehmen haben solche Probleme bereits im Zusammenhang mit der nationalen Sicherheit identifiziert und dienen als Fallstudien, um andere Labore bei der Umsetzung von Verfahren zur verantwortungsvollen Offenlegung anzuleiten.

Mit Blick auf die Zukunft plant das Frontier Model Forum, in den kommenden Monaten einen Beirat einzurichten, der die Aufgabe hat, seine strategischen Prioritäten zu steuern und vielfältige Fachkenntnisse und Perspektiven zu vertreten. Das Forum wird regelmäßig Updates veröffentlichen, einschließlich der Hinzufügung neuer Mitglieder. Gleichzeitig wird der AI Safety Fund seine erste Aufforderung zur Einreichung von Vorschlägen veröffentlichen und kurz darauf Zuschüsse vergeben. Darüber hinaus wird das Forum weiterhin technische Erkenntnisse veröffentlichen, sobald diese verfügbar sind.

Das übergeordnete Ziel des Forums ist die Zusammenarbeit mit Chris Meserole und die Ausweitung des Engagements mit der breiteren Forschungsgemeinschaft. Dazu gehören Partnerschaften mit Organisationen wie der Partnership on AI, MLCommons und anderen führenden NGOs, Regierungsstellen und multinationalen Organisationen. Gemeinsam wollen sie das Potenzial der KI nutzen und gleichzeitig ihre sichere und ethische Entwicklung und Nutzung gewährleisten.

Verwandt: 5 wichtige Einblicke in die Zukunft von KI und LLMs von Dario Amodei, CEO von Anthropic

Haftungsausschluss

Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.

Über den Autor

Agne ist eine Journalistin, die über die neuesten Trends und Entwicklungen im Metaversum, in der KI und anderen Bereichen berichtet Web3 Branchen für die Metaverse Post. Ihre Leidenschaft für das Geschichtenerzählen hat sie dazu geführt, zahlreiche Interviews mit Experten auf diesen Gebieten zu führen, immer auf der Suche nach spannenden und fesselnden Geschichten. Agne hat einen Bachelor-Abschluss in Literatur und verfügt über umfangreiche Erfahrung im Schreiben über ein breites Themenspektrum, darunter Reisen, Kunst und Kultur. Sie war außerdem ehrenamtlich als Redakteurin für die Tierrechtsorganisation tätig und half dabei, das Bewusstsein für Tierschutzthemen zu schärfen. Kontaktieren Sie sie unter [E-Mail geschützt] .

Weitere Artikel
Agne Cimerman
Agne Cimerman

Agne ist eine Journalistin, die über die neuesten Trends und Entwicklungen im Metaversum, in der KI und anderen Bereichen berichtet Web3 Branchen für die Metaverse Post. Ihre Leidenschaft für das Geschichtenerzählen hat sie dazu geführt, zahlreiche Interviews mit Experten auf diesen Gebieten zu führen, immer auf der Suche nach spannenden und fesselnden Geschichten. Agne hat einen Bachelor-Abschluss in Literatur und verfügt über umfangreiche Erfahrung im Schreiben über ein breites Themenspektrum, darunter Reisen, Kunst und Kultur. Sie war außerdem ehrenamtlich als Redakteurin für die Tierrechtsorganisation tätig und half dabei, das Bewusstsein für Tierschutzthemen zu schärfen. Kontaktieren Sie sie unter [E-Mail geschützt] .

Hot Stories
Abonnieren Sie unseren Newsletter.
Aktuelle News

Die Ruhe vor dem Solana-Sturm: Was Charts, Wale und On-Chain-Signale jetzt sagen

Solana hat eine starke Leistung gezeigt, die auf die zunehmende Akzeptanz, das institutionelle Interesse und wichtige Partnerschaften zurückzuführen ist, während es gleichzeitig mit potenziellen ... konfrontiert ist.

Mehr Erfahren

Krypto im April 2025: Wichtige Trends, Veränderungen und was als nächstes kommt

Im April 2025 konzentrierte sich der Kryptobereich auf die Stärkung der Kerninfrastruktur, wobei sich Ethereum auf Pectra vorbereitete ...

Mehr Erfahren
MEHR LESEN
Weiterlesen
Bitcoin-Ausblick Mitte Februar: Finanzierung negativ, Spotnachfrage fehlt
Nachrichtenbericht Technologie
Bitcoin-Ausblick Mitte Februar: Finanzierung negativ, Spotnachfrage fehlt
16. Februar 2026
Qwen stellt neues Bild-Sprach-Modell vor, um die Leistung von Codierung, Schlussfolgerung und multimodaler KI zu verbessern
Nachrichtenbericht Technologie
Qwen stellt neues Bild-Sprach-Modell vor, um die Leistung von Codierung, Schlussfolgerung und multimodaler KI zu verbessern
16. Februar 2026
Onchain Perpetual Futures: Die Lücke zwischen CeFi und schließen DeFi Für institutionelle Händler
Nachrichtenbericht Technologie
Onchain Perpetual Futures: Die Lücke zwischen CeFi und schließen DeFi Für institutionelle Händler
16. Februar 2026
OpenAI: GPT-5.2 Leitet neue Formel ab und beweist sie im ersten physikalischen Durchbruch der KI
Nachrichtenbericht Technologie
OpenAI: GPT-5.2 Leitet neue Formel ab und beweist sie im ersten physikalischen Durchbruch der KI
16. Februar 2026
CRYPTOMERIA LABS PTE. GMBH.