OpenAI Presenta el seu últim enfocament per garantir la seguretat de la IA
En breu
OpenAI ha publicat una publicació al bloc que descriu el seu enfocament millorat de la seguretat després de les preocupacions recents sobre seguretat i privadesa i investigacions.
L'empresa es compromet a realitzar proves rigoroses, contractar experts externs per obtenir comentaris i treballar amb els governs per determinar el millor enfocament de la normativa d'IA.
Després d'afrontar les preocupacions sobre seguretat i privadesa i seguir investigacions recents en alguns països europeus, OpenAI té alliberat una entrada al bloc que descriu l'enfocament millorat de la companyia en matèria de seguretat.
OpenAI es compromet a realitzar proves rigoroses, contractar experts externs per obtenir comentaris abans de llançar qualsevol sistema nou i treballar amb els governs per determinar el millor enfocament per a les regulacions d'IA.
Anteriorment, la companyia va passar més de sis mesos treballant en la seguretat i l'alineació del seu darrer model, GPT-4, abans de publicar-lo públicament. Per garantir la seguretat del seu model d'idioma més recent, GPT-4, OpenAI contractat un equip de més de 50 experts: especialistes en seguretat, ètica i polítiques d'IA, inclosos investigadors i enginyers.
"De manera crucial, creiem que la societat ha de tenir temps per actualitzar i adaptar-se a una IA cada cop més capaç, i que tothom que es vegi afectat per aquesta tecnologia hauria de tenir una veu significativa sobre com es desenvolupa encara més la IA".
OpenAI va escriure.
OpenAIFocus en la seguretat i privadesa dels nens
Itàlia prohibida ChatGPT, citant OpenAILa no verificació de l'edat dels seus usuaris, tot i estar pensada per a persones majors de 13 anys, com un dels motius. Un enfocament crític dels esforços de seguretat de l'empresa s'ha traslladat a protegir els nens mitjançant la implementació d'opcions de verificació d'edat, que OpenAI ara s'està explorant, sobretot perquè les eines d'IA estan destinades a persones de 18 anys o més o de 13 anys o més amb l'aprovació dels pares.
L'empresa prohibeix estrictament la generació de contingut d'odi, assetjament, violent o per a adults, i GPT-4 ja té un 82% menys de probabilitat de respondre a sol·licituds de contingut no permesos en comparació amb GPT-3. 5.
OpenAI ha establert un sistema robust per controlar els abusos i espera fer-ho GPT-4 disponible per a més persones al llarg del temps. L'empresa treballa amb desenvolupadors en mitigacions de seguretat a mida, com ara la Khan Academy, sense ànim de lucre, i està treballant en funcions per permetre estàndards més estrictes per a les sortides dels models.
Millorar la privadesa és un altre aspecte de seguretat OpenAI s'està centrant, sobretot després del recent incompliments de dades. Els grans models lingüístics de l'empresa d'IA s'entrenen en una quantitat enorme de text que inclou contingut disponible per al públic, contingut amb llicència i contingut generat per revisors humans; utilitza dades per fer que els models d'IA siguin més útils per a les persones.
OpenAI està prenent mesures per protegir la privadesa de les persones eliminant la informació personal de les seves dades d'entrenament, ajustant els models per rebutjar les sol·licituds d'informació personal i suprimint la informació personal dels seus sistemes a petició. Això redueix la possibilitat que els models d'IA generin respostes que incloguin informació personal.
OpenAIenfocament de abordar els problemes de seguretat de la IA és investigar mitigacions efectives i tècniques d'alineació i prova-les contra l'abús del món real. També es compromet a ser cada cop més prudent a l'hora de crear i desplegar models més capaços i millorar les precaucions de seguretat. La governança eficaç del desenvolupament i el desplegament de la IA és essencial per garantir la seguretat, que requereix innovació tècnica i institucional.
Llegir més:
renúncia
En línia amb la Directrius del projecte Trust, si us plau, tingueu en compte que la informació proporcionada en aquesta pàgina no pretén ni s'ha d'interpretar com a assessorament legal, fiscal, d'inversió, financer o de cap altra forma. És important invertir només el que et pots permetre perdre i buscar assessorament financer independent si tens dubtes. Per obtenir més informació, us suggerim que feu referència als termes i condicions, així com a les pàgines d'ajuda i assistència proporcionades per l'emissor o l'anunciant. MetaversePost es compromet a fer informes precisos i imparcials, però les condicions del mercat estan subjectes a canvis sense previ avís.
About The Autor
L'Agne és una periodista que cobreix les últimes tendències i desenvolupaments en el metavers, IA i Web3 indústries per a Metaverse Post. La seva passió per la narració l'ha portat a realitzar nombroses entrevistes amb experts en aquests camps, sempre buscant descobrir històries apassionants i atractives. L'Agne és llicenciada en literatura i té una àmplia experiència en l'escriptura sobre una àmplia gamma de temes, com ara viatges, art i cultura. També ha estat voluntaria com a editora de l'organització dels drets dels animals, on va ajudar a conscienciar sobre els problemes de benestar animal. Contacta amb ella [protegit per correu electrònic].
més articlesL'Agne és una periodista que cobreix les últimes tendències i desenvolupaments en el metavers, IA i Web3 indústries per a Metaverse Post. La seva passió per la narració l'ha portat a realitzar nombroses entrevistes amb experts en aquests camps, sempre buscant descobrir històries apassionants i atractives. L'Agne és llicenciada en literatura i té una àmplia experiència en l'escriptura sobre una àmplia gamma de temes, com ara viatges, art i cultura. També ha estat voluntaria com a editora de l'organització dels drets dels animals, on va ajudar a conscienciar sobre els problemes de benestar animal. Contacta amb ella [protegit per correu electrònic].