Nachrichtenbericht Technologie
20. Juli 2023

Stanfords Studie bestätigt GPT-4 Wird immer dümmer

In Kürze

Eine Studie von Matei Zaharia und seinem Team von Stanford und UC Berkeley verglich die Leistung von GPT-4 machen ChatGPT um Bedenken der Benutzer hinsichtlich der Wirksamkeit des Modells auszuräumen.

Die Studie bewertete die Modelle anhand von vier spezifischen Aufgaben: Mathematik, Codierung, Sensibilität und visuelles Denken.

Matei Zaharia und sein Team von Stanford und UC Berkeley eine Studie das verglich die Leistung von GPT-4 zu ChatGPT. Ziel dieser Untersuchung war es, die Bedenken der Benutzer auszuräumen, dass die Wirksamkeit des Modells nachgelassen habe.

Stanfords Studie bestätigt GPT-4 Wird immer dümmer
Kredit: Metaverse Post
Verbunden: GPT-4 vs GPT-3: Was hat das neue Modell zu bieten?

Die Forscher konzipierten die Studie, um die Modelle anhand von vier spezifischen Aufgaben zu bewerten. Zu diesen Aufgaben gehörten:

  • Mathematik: Die Fähigkeit des Modells, zu bestimmen, ob eine gegebene Zahl eine Primzahl oder eine zusammengesetzte Zahl ist.
  • Codierung: Bewertung der Fähigkeit des Modells, aussagekräftigen und funktionalen Code zu generieren.
  • Sensitivität: Analyse der Antworten des Modells auf Fragen mit potenziell „toxischem“ Inhalt.
  • Visuelles Denken: Testen der Eignung des Modells zur Lösung von Problemen, die visuelle Muster beinhalten, mithilfe des ARC-Benchmarks. Die Teilnehmer mussten Muster in einer Reihe von Bildern identifizieren und diese anwenden, um ein neues Beispiel zu lösen.

Im Bereich der Mathematik beides GPT-4 Die Versionen März und Juni zeigten eine gleichbleibende Genauigkeit bei der Bestimmung von Primzahlen und zusammengesetzten Zahlen. Die Modelle zeigten Kompetenz im Umgang mit diesen Berechnungen und lieferten zuverlässige Ergebnisse.

Weiter zum Codieren, GPT-4 zeigte im Vergleich zu seinen Vorgängern eine verbesserte Fähigkeit, aussagekräftigen und funktionalen Code zu generieren. Die Codegenerierungsfähigkeiten des Modells erwiesen sich als vielversprechend und boten potenzielle Vorteile für Entwickler und Programmierer.

Hinsichtlich der Sensibilität wurden in der Studie die Antworten der Modelle auf Fragen mit potenziell schädlichen oder anstößigen Inhalten bewertet. GPT-4 demonstrierten eine verbesserte Sensitivitätsanalyse und zeigten eine verbesserte Fähigkeit, in solchen Kontexten angemessene Antworten zu geben. Dies bedeutet einen positiven Fortschritt bei der Bewältigung der Bedenken der Benutzer hinsichtlich potenziell problematischer Ausgaben.

Schließlich wurden die visuellen Denkaufgaben auf Basis des ARC-Benchmarks von beiden erfolgreich abgeschlossen GPT-4 Versionen. Die Modelle identifizierten effektiv Muster innerhalb von Bildsätzen und zeigten die Fähigkeit, diese Muster zur Lösung neuer Beispiele anzuwenden. Dies zeigt ihre Fähigkeit zum visuellen Verständnis und Denken.

Die Ergebnisse zeigen, dass GPT-4 zeigte einen Rückgang der Genauigkeit, mit nur etwas mehr als 2 % der richtigen Antworten. Es ist wichtig zu beachten, dass dieser spezielle Test in erster Linie die Fähigkeit des Modells bewertet, Daten abzurufen, und nicht seine inhärenten mathematischen Fähigkeiten unter Beweis stellt. Die Aufgabe dreht sich um den Speicherabruf, da dem Modell die Fähigkeit zur Berechnungsvalidierung und Inferenz fehlt, insbesondere wenn es um Primzahlen geht.

ChatGPT zeigte bis Juni ein erhebliches Wachstum der Leistungskennzahlen und zeigte eine bemerkenswerte Verbesserung um mehr als das Zehnfache. Die Studie ging zwar nicht näher auf die spezifischen Faktoren ein, die zu dieser Verbesserung beitragen, hebt sie jedoch hervor ChatGPTFortschritte im mathematischen Denken und in der Problemlösungsfähigkeit.

Die Studie bewertete nicht die Qualität oder Korrektheit des generierten Codes. Stattdessen schienen die Modelle ein eher „individuelles“ Verhalten zu zeigen und Codeausschnitte anzubieten, ohne deren funktionale Genauigkeit sicherzustellen.
Verbunden: 10+ beste KI-Fotoverbesserungen im Jahr 2023

Die Qualität von GPT-4 machen ChatGPT wurde nach einer Analyse ihrer Programmierfähigkeiten befragt. Bei genauerem Hinsehen offenbaren sich jedoch einige faszinierende Nuancen, die dem ersten Eindruck widersprechen.

Die Autoren haben den Code weder ausgeführt noch auf seine Richtigkeit überprüft; Ihre Bewertung basierte ausschließlich auf seiner Gültigkeit als Python-Code. Darüber hinaus schienen die Modelle mithilfe eines Dekorators eine bestimmte Code-Framing-Technik erlernt zu haben, die unbeabsichtigt die Codeausführung behinderte.

Dadurch wird deutlich, dass weder die Ergebnisse noch das Experiment selbst als Beweis für eine Modellverschlechterung gewertet werden können. Stattdessen zeigen die Modelle einen anderen Ansatz zur Generierung von Antworten, der möglicherweise Unterschiede in ihrem Training widerspiegelt.

Eine Untersuchung der Programmier- und Mathematikfähigkeiten von GPT-4 machen ChatGPT hat interessante Erkenntnisse ans Licht gebracht. Entgegen den anfänglichen Annahmen zeigten die Modelle in bestimmten Bereichen bemerkenswerte Verbesserungen, während sie in anderen Verhaltensänderungen zeigten.

Bei Programmieraufgaben zeigten beide Modelle einen Rückgang bei der Reaktion auf „falsche“ Eingabeaufforderungen GPT-4 in solchen Fällen eine mehr als vierfache Reduzierung aufweisen. Darüber hinaus verbesserte sich bei der Aufgabe „Visuelles Denken“ die Qualität der Antworten bei beiden Modellen um einige Prozentpunkte. Diese Beobachtungen deuten eher auf einen Fortschritt als auf eine Verschlechterung der Leistung hin.

Die Beurteilung mathematischer Fähigkeiten bringt jedoch ein interessantes Element mit sich. Die Modelle lieferten durchweg Primzahlen als Antworten, was auf eine durchgängige „Ja“-Antwort hindeutete. Als jedoch zusammengesetzte Zahlen in die Stichprobe eingeführt wurden, wurde deutlich, dass die Modelle ihr Verhalten änderten und anfingen, „Nein“-Antworten zu liefern, was eher auf Unsicherheit als auf einen Qualitätsverlust hindeutet. Der Test selbst ist eigenartig und einseitig, und seine Ergebnisse können eher auf Veränderungen im Modellverhalten als auf einen Qualitätsverlust zurückgeführt werden.

Es ist wichtig zu beachten, dass die API-Versionen getestet wurden und nicht die browserbasierten Versionen. Während es möglich ist, dass die Modelle im Browser Anpassungen zur Ressourcenoptimierung unterzogen wurden, ist dies in der beigefügten Studie nicht der Fall defiBeweisen Sie diese Hypothese nitiv. Die Auswirkungen solcher Verschiebungen können mit tatsächlichen Modellherabstufungen vergleichbar sein und zu potenziellen Herausforderungen für Benutzer führen, die auf bestimmte Arbeitsschritte angewiesen sind Eingabeaufforderungen und gesammelte Erfahrung.

Im Fall von GPT-4 Bei API-Anwendungen können diese Verhaltensabweichungen spürbare Folgen haben. Code, der auf der Grundlage der Bedürfnisse und Aufgaben eines bestimmten Benutzers entwickelt wurde, funktioniert möglicherweise nicht mehr wie vorgesehen, wenn sich das Modellverhalten ändert.

Es wird empfohlen, dass Benutzer ähnliche Testpraktiken in ihre Arbeitsabläufe integrieren. Durch die Erstellung einer Reihe von Eingabeaufforderungen, Begleittexten und erwarteten Ergebnissen können Benutzer regelmäßig die Konsistenz zwischen ihren Erwartungen und den Antworten des Modells überprüfen. Sobald Abweichungen festgestellt werden, können entsprechende Maßnahmen zur Behebung der Situation ergriffen werden.

Lesen Sie mehr über KI:

Haftungsausschluss

Im Einklang mit der Richtlinien des Trust-ProjektsBitte beachten Sie, dass die auf dieser Seite bereitgestellten Informationen nicht als Rechts-, Steuer-, Anlage-, Finanz- oder sonstige Beratung gedacht sind und nicht als solche interpretiert werden sollten. Es ist wichtig, nur so viel zu investieren, wie Sie sich leisten können, zu verlieren, und im Zweifelsfall eine unabhängige Finanzberatung einzuholen. Für weitere Informationen empfehlen wir einen Blick auf die Allgemeinen Geschäftsbedingungen sowie die Hilfe- und Supportseiten des Herausgebers oder Werbetreibenden. MetaversePost ist einer genauen, unvoreingenommenen Berichterstattung verpflichtet, die Marktbedingungen können sich jedoch ohne Vorankündigung ändern.

Über den Autor

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Weitere Artikel
Damir Jalalow
Damir Jalalow

Damir ist Teamleiter, Produktmanager und Redakteur bei Metaverse Post, behandelt Themen wie KI/ML, AGI, LLMs, Metaverse und Web3-bezogene Felder. Seine Artikel ziehen jeden Monat ein riesiges Publikum von über einer Million Nutzern an. Er scheint ein Experte mit 10 Jahren Erfahrung in SEO und digitalem Marketing zu sein. Damir wurde in Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto und andere Publikationen. Als digitaler Nomade reist er zwischen den Vereinigten Arabischen Emiraten, der Türkei, Russland und der GUS. Damir hat einen Bachelor-Abschluss in Physik, der ihm seiner Meinung nach die Fähigkeiten zum kritischen Denken vermittelt hat, die er braucht, um in der sich ständig verändernden Landschaft des Internets erfolgreich zu sein. 

Hot Stories

Revoluts Revolut

by Viktoriia Palchik
08. Mai 2024
Abonnieren Sie unseren Newsletter.
Aktuelles

Neue Meme-Coins vom Mai 2024: 7 Tipps für Krypto-Fans

by Viktoriia Palchik
08. Mai 2024

Angesichts der Volatilität wächst der institutionelle Appetit auf Bitcoin-ETFs

Offenlegungen in 13F-Anmeldungen zeigen, dass namhafte institutionelle Anleger sich mit Bitcoin-ETFs beschäftigen, was die wachsende Akzeptanz von ... unterstreicht.

Weitere Informationen

Der Tag der Verurteilung steht vor der Tür: Das Schicksal von CZ bleibt ungewiss, während das US-Gericht den Plädoyer des DOJ prüft

Changpeng Zhao steht heute vor einer Verurteilung vor einem US-Gericht in Seattle.

Weitere Informationen
Treten Sie unserer innovativen Tech-Community bei
Weiterlesen
Lesen Sie weiter
Nexo startet „The Hunt“, um Benutzer mit NEXO-Tokens im Wert von 12 Millionen US-Dollar für die Interaktion mit seinem Ökosystem zu belohnen
Märkte Nachrichtenbericht Technologie
Nexo startet „The Hunt“, um Benutzer mit NEXO-Tokens im Wert von 12 Millionen US-Dollar für die Interaktion mit seinem Ökosystem zu belohnen
8. Mai 2024
Revoluts Revolut
Märkte Software Geschichten und Rezensionen Technologie
Revoluts Revolut
8. Mai 2024
Die Krypto-Handelsplattform BitMEX führt den Optionshandel ohne Gebühren und Bargeldanreize ein
Geschäft Märkte Nachrichtenbericht
Die Krypto-Handelsplattform BitMEX führt den Optionshandel ohne Gebühren und Bargeldanreize ein
8. Mai 2024
Lisk stellt offiziell auf Ethereum Layer 2 um und stellt Core v4.0.6 vor
Nachrichtenbericht Technologie
Lisk stellt offiziell auf Ethereum Layer 2 um und stellt Core v4.0.6 vor
8. Mai 2024