Nachrichtenbericht Technologie
27. Oktober 2023

Forscher replizierten OpenAI's Arbeit basierend auf Proximal Policy Optimization (PPO) in RLHF

Reinforcement Learning from Human Feedback (RLHF) ist ein integraler Bestandteil von Trainingssystemen wie ChatGPTund setzt auf spezielle Methoden, um erfolgreich zu sein. Eine dieser Methoden, Proximal Policy Optimization (PPO), war ursprünglich konzipiert innerhalb der Mauern von OpenAI im Jahr 2017. Auf den ersten Blick zeichnete sich PPO durch sein Versprechen einer einfachen Implementierung und einer relativ geringen Anzahl von Hyperparametern aus, die zur Feinabstimmung des Modells erforderlich sind. Allerdings steckt der Teufel, wie man so schön sagt, im Detail.

Forscher replizierten OpenAI's Arbeit basierend auf Proximal Policy Optimization (PPO) in RLHF

Kürzlich erschien ein Blogbeitrag mit dem Titel „Die 37 Implementierungsdetails der proximalen Richtlinienoptimierung” beleuchten die Feinheiten von PPO (vorbereitet für die ICLR-Konferenz). Allein der Name deutet bereits auf die Herausforderungen hin, die sich bei der Umsetzung dieser vermeintlich einfachen Methode stellen. Erstaunlicherweise brauchten die Autoren drei Jahre, um alle notwendigen Informationen zu sammeln und die Ergebnisse zu reproduzieren.

Der Code im OpenAI Das Repository erfuhr zwischen den Versionen erhebliche Änderungen, einige Aspekte blieben ungeklärt und Besonderheiten, die als Fehler auftraten, führten irgendwie zu Ergebnissen. Die Komplexität von PPO wird deutlich, wenn man sich mit den Details befasst, und für diejenigen, die an einem tieferen Verständnis oder einer Selbstverbesserung interessiert sind, gibt es eine sehr empfehlenswerte Videozusammenfassung.

Aber die Geschichte ist damit noch nicht zu Ende. Dieselben Autoren beschlossen, das noch einmal zu überdenken openai/lm-human-preferences-Repository aus dem Jahr 2019, das mithilfe von PPO eine entscheidende Rolle bei der Feinabstimmung von Sprachmodellen basierend auf menschlichen Vorlieben spielte. Dieses Endlager markierte die ersten Entwicklungen ChatGPT. Der aktuelle Blogbeitrag: „Die N-Implementierungsdetails von RLHF mit PPO“, reproduziert genau OpenAIfunktioniert, verwendet aber PyTorch und moderne Bibliotheken anstelle des veralteten TensorFlow. Dieser Übergang brachte eine Reihe eigener Herausforderungen mit sich, wie z. B. Unterschiede in der Implementierung des Adam-Optimierers zwischen den Frameworks, die es unmöglich machten, das Training ohne Anpassungen zu reproduzieren.

Der vielleicht faszinierendste Aspekt dieser Reise ist das Bestreben, Experimente mit bestimmten GPU-Setups durchzuführen, um originelle Metriken und Lernkurven zu erhalten. Es ist eine Reise voller Herausforderungen, von Speicherbeschränkungen bei verschiedenen GPU-Typen bis hin zur Migration von OpenAI Datensätze zwischen Speichereinrichtungen.

Zusammenfassend lässt sich sagen, dass die Untersuchung der Proximal Policy Optimization (PPO) beim Reinforcement Learning from Human Feedback (RLHF) eine faszinierende Welt voller Komplexität offenbart.

Haftungsausschluss

Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.

Über den Autor

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Weitere Artikel
Damir Jalalow
Damir Jalalow

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Angesichts der Volatilität wächst der institutionelle Appetit auf Bitcoin-ETFs

Offenlegungen in 13F-Anmeldungen zeigen, dass namhafte institutionelle Anleger sich mit Bitcoin-ETFs beschäftigen, was die wachsende Akzeptanz von ... unterstreicht.

Weitere Informationen

Der Tag der Verurteilung steht vor der Tür: Das Schicksal von CZ bleibt ungewiss, während das US-Gericht den Plädoyer des DOJ prüft

Changpeng Zhao steht heute vor einer Verurteilung vor einem US-Gericht in Seattle.

Weitere Informationen
Treten Sie unserer innovativen Tech-Community bei
Weiterlesen
Lesen Sie weiter
Donald Trumps Wandel zur Kryptowährung: Vom Gegner zum Befürworter und was er für den US-amerikanischen Kryptowährungsmarkt bedeutet
Geschäft Märkte Geschichten und Rezensionen Technologie
Donald Trumps Wandel zur Kryptowährung: Vom Gegner zum Befürworter und was er für den US-amerikanischen Kryptowährungsmarkt bedeutet
10. Mai 2024
Layer3 wird diesen Sommer L3-Token einführen und 51 % des Gesamtangebots der Community zur Verfügung stellen
Märkte Nachrichtenbericht Technologie
Layer3 wird diesen Sommer L3-Token einführen und 51 % des Gesamtangebots der Community zur Verfügung stellen
10. Mai 2024
Edward Snowdens letzte Warnung an Bitcoin-Entwickler: „Machen Sie den Datenschutz zu einer Priorität auf Protokollebene, sonst riskieren Sie, ihn zu verlieren.“
Märkte Sicherheit Wiki Software Geschichten und Rezensionen Technologie
Edward Snowdens letzte Warnung an Bitcoin-Entwickler: „Machen Sie den Datenschutz zu einer Priorität auf Protokollebene, sonst riskieren Sie, ihn zu verlieren.“
10. Mai 2024
Das von Optimismus geprägte Ethereum Layer 2 Network Mint startet sein Mainnet am 15. Mai
Nachrichtenbericht Technologie
Das von Optimismus geprägte Ethereum Layer 2 Network Mint startet sein Mainnet am 15. Mai
10. Mai 2024