Richard Mathenge, werknemer van OpenAI's GPT
4.0/ 10

Richard Mathenge, werknemer van OpenAI's GPT

Richard Mathenge maakte deel uit van een team van aannemers in Nairobi, Kenia die trainden OpenAI's GPT modellen. Hij deed dit als teamleider bij Sama, een AI-trainingsbedrijf dat samenwerkte aan het project. In deze aflevering van Big Technology Podcast vertelt Mathenge het verhaal van zijn ervaring. Tijdens de training werd hij routinematig onderworpen aan seksueel expliciet materiaal, kreeg hij onvoldoende begeleiding en kregen zijn teamleden in sommige gevallen slechts $ 1 per uur betaald.
persoonlijke Merk Aanwezigheid3 / 10
gezaghebbendheid2 / 10
Expertise5 / 10
Beïnvloeden7 / 10
Algemene beoordeling4 / 10

Richard Mathenge gaf les OpenAI's GPT modellen in Nairobi, Kenia, als onderdeel van een aannemersteam. Hij werkte als teamleider voor Sama, een AI-trainingsstartup die projectpartner was, en heeft dit bereikt. Mathenge deelt zijn ervaringen in deze Big Technology Podcast-aflevering. Er werd onvoldoende begeleiding geboden, hij werd tijdens de training regelmatig blootgesteld aan seksueel expliciete inhoud en zijn teamgenoten ontvingen soms slechts $ 1 per uur. Luister en leer meer over het trainingsproces van deze modellen en het menselijke aspect van Reinforcement Learning met menselijke feedback.


2023

Mathenge en zijn collega's tagden expliciet materiaal dat ze tijdens het werk regelmatig zagen en onderzochten voor het model. De bron van de inhoud was onzeker, dus kunnen ze deze classificeren als erotische seksuele inhoud, materiaal voor seksueel misbruik van kinderen, onwettig, niet-seksueel of een andere categorie. Veel van wat ze lazen, schokte hen. Volgens Mathenge enkele passages featured afbeeldingen van kinderverkrachting, terwijl anderen het verhaal vertelden van een man die seks had met een dier in het bijzijn van zijn kind. Mathenge weigerde bepaalde onderwerpen te bespreken omdat ze zo beledigend waren.

Het soort werk dat Mathenge deed is essentieel geweest voor de functionaliteit en betovering ervan bots als ChatGPT en Google's Bard. De menselijke kosten van de inspanning zijn echter grotendeels buiten beschouwing gelaten. Door mensen informatie te laten identificeren, maakt een methode die bekend staat als 'Reinforcement Learning from Human Feedback' of RLHF, bots slimmer door hen te leren hoe ze kunnen optimaliseren op basis van opmerkingen van gebruikers. Leiders op het gebied van kunstmatige intelligentie, zoals Sam Altman van OpenAIhebben de doeltreffendheid van de technologie geprezen, maar ze bespreken zelden de prijs die mensen moeten betalen om AI-systemen in overeenstemming te brengen met onze morele normen. Mathenge en zijn medewerkers bevonden zich aan de ontvangende kant van dat feit.


Laatste nieuws over Richard Mathenge


Nieuwste sociale berichten van Richard Mathenge

Van Ripple tot The Big Green DAO: hoe cryptocurrency-projecten bijdragen aan liefdadigheid

Laten we initiatieven onderzoeken die het potentieel van digitale valuta voor goede doelen benutten.

Meer weten

AlphaFold 3, Med-Gemini en anderen: de manier waarop AI de gezondheidszorg transformeert in 2024

AI manifesteert zich op verschillende manieren in de gezondheidszorg, van het blootleggen van nieuwe genetische correlaties tot het versterken van robotchirurgische systemen...

Meer weten
Sluit u aan bij onze innovatieve technologiegemeenschap