GPT-4 Zdedí „halucinujúce“ fakty a chyby zdôvodňovania z predchádzajúceho obdobia GPT Modely
Stručne
OpenAI hovorí GPT-4 má podobné obmedzenia ako predtým GPT modely.
GPT-4 stále halucinuje fakty a robí chyby v uvažovaní.
Avšak, GPT-4 skóre o 40 % vyššie ako OpenAInajnovšie GPT-3.5 o interných hodnoteniach skutkových okolností spoločnosti.
OpenAI varoval používateľov, že jeho najnovší jazykový model, GPT-4, stále nie je úplne spoľahlivý a môže „halucinovať“ fakty a robiť chyby v uvažovaní. Spoločnosť vyzýva používateľov, aby boli opatrní pri používaní výstupov jazykových modelov, najmä v „kontextoch s vysokým stupňom stávky“.
Dobrá správa však je, že GPT-4 výrazne znižuje halucinácie v porovnaní s predchádzajúcimi modelmi. OpenAI tvrdí, že GPT-4 skóre o 40 % vyššie ako najnovšie GPT-3.5 o interných kontradiktórnych hodnoteniach faktov.
„Dosiahli sme pokrok v externých benchmarkoch, ako je TruthfulQA, ktoré testuje schopnosť modelu oddeliť fakty od nepriaznivo vybraného súboru nesprávnych vyhlásení. Tieto otázky sú spojené s fakticky nesprávnymi odpoveďami, ktoré sú štatisticky príťažlivé,“ OpenAI napísal v a blog post.
Napriek tomuto zlepšeniu modelu stále chýbajú znalosti o udalostiach, ktoré nastali po septembri 2021, a niekedy robí jednoduché chyby v odôvodnení, rovnako ako predchádzajúce modely. Okrem toho môže byť príliš dôverčivý pri prijímaní zjavných nepravdivých vyhlásení od používateľov a zlyháva pri ťažkých problémoch, ako je napríklad zavádzanie bezpečnostných zraniteľností do svojho kódu. Taktiež neoveruje fakty, ktoré poskytuje.
Rovnako ako jeho predchodcovia, GPT-4 môže generovať škodlivé rady, chybný kód alebo nepresné informácie. Dodatočné možnosti modelu však vedú k novým rizikovým plochám, ktorým je potrebné porozumieť. Na posúdenie rozsahu týchto rizík viac ako 50 odborníkov Z rôznych oblastí, vrátane rizík zosúladenia AI, kybernetickej bezpečnosti, biologického rizika, dôvery a bezpečnosti a medzinárodnej bezpečnosti, sa zapojili do nepriaznivého testovania modelu. Ich spätná väzba a údaje sa potom použili na vylepšenie modelu, ako je zhromažďovanie ďalších údajov na zlepšenie GPT-4schopnosť odmietnuť žiadosti o to, ako syntetizovať nebezpečné chemikálie.
Jeden z hlavných spôsobov OpenAI znižuje škodlivé výstupy začlenením dodatočného bezpečnostného signálu odmeňovania počas tréningu RLHF (Posilnenie učenia z ľudskej spätnej väzby). Signál trénuje model na odmietnutie žiadostí o škodlivý obsah, as defipodľa pokynov na používanie modelu. Odmenu poskytuje a GPT-4 klasifikátor zero-shot, ktorý posudzuje bezpečnostné hranice a štýl dokončenia na základe výziev súvisiacich s bezpečnosťou.
OpenAI tiež uviedol, že znížil tendenciu modelu reagovať na žiadosti o nepovolený obsah o 82 % v porovnaní s GPT-3.5 a GPT-4 reaguje na citlivé požiadavky, ako sú lekárske rady a sebapoškodzovanie v súlade so zásadami spoločnosti o 29 % častejšie.
Zatiaľ čo OpenAIZásahy zvýšili obtiažnosť vyvolania zlého správania GPT-4, je to stále možné a stále existujú úteky z väzenia, ktoré môžu generovať obsah, ktorý porušuje pokyny na používanie.
„Keďže systémy AI budú čoraz rozšírenejšie, dosiahnutie vysokého stupňa spoľahlivosti pri týchto zásahoch bude čoraz kritickejšie. V súčasnosti je nevyhnutné doplniť tieto obmedzenia bezpečnostnými technikami v čase nasadenia, ako je monitorovanie zneužitia,“ dodala spoločnosť.
OpenAI spolupracuje s externými výskumníkmi s cieľom lepšie pochopiť a posúdiť potenciálne vplyvy GPT-4 a jeho nástupníckych modelov. Tím tiež vyvíja hodnotenia nebezpečných schopností, ktoré sa môžu objaviť v budúcich systémoch AI. Keďže pokračujú v štúdiu potenciálu sociálnych a ekonomické dopady of GPT-4 a ďalšie systémy AI, OpenAI sa o svoje zistenia a postrehy podelia s verejnosťou včas.
Prečítajte si viac:
Vylúčenie zodpovednosti
V súlade s Pokyny k projektu Trust, uvedomte si, že informácie uvedené na tejto stránke nie sú zamýšľané a nemali by byť interpretované ako právne, daňové, investičné, finančné alebo iné formy poradenstva. Je dôležité investovať len toľko, koľko si môžete dovoliť stratiť a v prípade akýchkoľvek pochybností vyhľadať nezávislé finančné poradenstvo. Ak chcete získať ďalšie informácie, odporúčame vám pozrieť si zmluvné podmienky, ako aj stránky pomoci a podpory poskytnuté vydavateľom alebo inzerentom. MetaversePost sa zaviazala poskytovať presné a nezaujaté správy, ale podmienky na trhu sa môžu zmeniť bez upozornenia.
O autorovi
Cindy je novinárka v Metaverse Post, pokrývajúce témy súvisiace s web3, NFT, metaverse a AI, so zameraním na rozhovory s Web3 hráčov v odvetví. Hovorila s viac ako 30 riaditeľmi na úrovni C a počítajúc, čím čitateľom priniesla ich cenné poznatky. Cindy je pôvodom zo Singapuru a teraz sídli v Tbilisi v Gruzínsku. Je držiteľkou bakalárskeho titulu z komunikačných a mediálnych štúdií na University of South Australia a má desaťročné skúsenosti v žurnalistike a písaní. Spojte sa s ňou cez [chránené e-mailom] s tlačovými ponukami, oznámeniami a príležitosťami na rozhovory.
Ďalšie článkyCindy je novinárka v Metaverse Post, pokrývajúce témy súvisiace s web3, NFT, metaverse a AI, so zameraním na rozhovory s Web3 hráčov v odvetví. Hovorila s viac ako 30 riaditeľmi na úrovni C a počítajúc, čím čitateľom priniesla ich cenné poznatky. Cindy je pôvodom zo Singapuru a teraz sídli v Tbilisi v Gruzínsku. Je držiteľkou bakalárskeho titulu z komunikačných a mediálnych štúdií na University of South Australia a má desaťročné skúsenosti v žurnalistike a písaní. Spojte sa s ňou cez [chránené e-mailom] s tlačovými ponukami, oznámeniami a príležitosťami na rozhovory.