OpenAI: KI könnte den Menschen möglicherweise großen Schaden zufügen, aber der Versuch, den Fortschritt zu stoppen, ist keine Option
In Kürze
OpenAIDas Dokument „Planning for AGI and Beyond“ schlägt eine schrittweise, langsame Einführung komplexerer und „intelligenterer“ Modelle vor, die Organisation unabhängiger Prüfungen großer Systeme und die Begrenzung der Rechenressourcen.
OpenAI möchte, dass KI für alle gleichermaßen offen ist und konsistentere und einheitlichere Ergebnisse schafft überschaubare Modelle Voreingenommenheit und unerwünschtes Verhalten zu reduzieren.
OpenAI hat kürzlich ein Dokument mit dem Titel „Planning for AGI and Beyond“ veröffentlicht. Es umreißt die allgemeinen Ideen, die das Handeln des Unternehmens leiten, während sich die Welt der Entwicklung von AGI (künstliche allgemeine Intelligenz) nähert.
OpenAI with ist davon überzeugt, dass KI zwar das Potenzial hat, den Menschen erheblichen Schaden zuzufügen, der Versuch, den Fortschritt aufzuhalten, jedoch keine Option ist. Daher müssen wir lernen, diese Verbesserung aufrechtzuerhalten, damit sie sich nicht wesentlich verschlechtert.
Das Dokument kann gefunden werden hier. Lassen Sie uns einige entscheidende Elemente hervorheben:
- OpenAI möchte, dass AGI Menschen dabei hilft, in allen Aspekten ihres Lebens erfolgreich zu sein, sowohl wirtschaftlich als auch wissenschaftlich.
Anstatt eine supercoole große KI zu erschaffen und sie sofort in die Welt zu entlassen, OpenAI wird nach und nach kompliziertere und „intelligentere“ Modelle einführen. Es wird davon ausgegangen, dass die schrittweise Erhöhung der KI-Fähigkeiten die Welt nicht schockieren wird und den Menschen Zeit gibt, sich anzupassen, die Wirtschaft anzupassen und Verfahren für die Interaktion mit KI zu entwickeln. - OpenAI fordert alle Organisationen auf, das oben genannte Prinzip formell zu übernehmen (schrittweise Einführung leistungsstarker KI). Altman empfiehlt außerdem, die Menge an Rechenressourcen zu begrenzen, die zum Trainieren von Modellen verwendet werden können, und unparteiische Prüfungen wichtiger Systeme einzurichten, bevor sie der breiten Öffentlichkeit zugänglich gemacht werden. Anstatt an Wettbewerben teilzunehmen wie „Wer bringt als Erster ein cooleres und größeres Modell auf den Markt?“ OpenAI fordert Unternehmen dazu auf zusammenarbeiten um die Sicherheit der KI zu verbessern.
- OpenAI ist der Ansicht, dass es von entscheidender Bedeutung ist, dass Regierungen über Trainingsläufe informiert werden, die einen bestimmten Umfang überschreiten. Das ist ein faszinierendes Konzept und wir würden gerne mehr darüber erfahren Pläne OpenAI hat diesbezüglich. Dieser Vorschlag erscheint mir zunächst nicht so toll.
- OpenAI wird versuchen, Modelle zu entwickeln, die zuverlässiger und kontrollierbarer sind und höchstwahrscheinlich Voreingenommenheit und ungünstiges Verhalten in der KI begrenzen. Der Ansatz von OpenAI In diesem Fall geht es darum, das Modell der breiten Öffentlichkeit in einer sehr eingeschränkten Form zur Verfügung zu stellen und den Benutzern gleichzeitig die Möglichkeit zu geben, es zu personalisieren. Da die Verbraucher dort nichts „personalisieren“ können, bin ich mir nicht sicher, wie dies dazu beitragen wird, dass das Modell insgesamt weniger voreingenommen wird. Es sei denn, es entbindet das Unternehmen von der Haftung für die Handlungen des Models.
Insgesamt weist das Dokument in die richtige Richtung. Es gab jedoch einen kleinen Konflikt zwischen „wir werden coole Modelle nicht sofort der Öffentlichkeit zeigen, aber wir werden den Staaten darüber sprechen“ und „Die Leute sollten es wissen über den Fortschritt der KI.“ Kurz gesagt, wir werden auf detaillierte Klarstellungen warten OpenAI zu allen Themen.
Lesen Sie mehr über KI:
Haftungsausschluss
Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.
Über den Autor
Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein.
Weitere ArtikelDamir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein.