GPT-4 Paveldi „haliucinuojančius“ faktus ir samprotavimo klaidas iš anksčiau GPT modeliai
Trumpai
OpenAI sako GPT-4 turi panašių apribojimų kaip ir anksčiau GPT modeliai.
GPT-4 vis dar haliucinuoja faktus ir daro samprotavimo klaidas.
Tačiau, GPT-4 balai 40% didesni nei OpenAInaujausias GPT-3.5 dėl įmonės vidinio priešpriešinio faktinio vertinimo.
OpenAI perspėjo vartotojus, kad naujausias kalbos modelis, GPT-4, vis dar nėra visiškai patikimas ir gali „haliucinuoti“ faktus bei padaryti samprotavimo klaidų. Bendrovė ragina vartotojus būti atsargiems naudojant kalbos modelio išvestį, ypač „didelės lėšos kontekstuose“.
Tačiau gera žinia ta GPT-4 žymiai sumažina haliucinacijas, palyginti su ankstesniais modeliais. OpenAI teigia, kad GPT-4 balai 40 % didesni nei naujausi GPT-3.5 dėl vidinio priešpriešinio faktinio vertinimo.
„Padarėme pažangą taikydami išorinius etalonus, tokius kaip „TruthfulQA“, kuris tikrina modelio gebėjimą atskirti faktus nuo priešingai pasirinkto neteisingų teiginių rinkinio. Šie klausimai yra suporuoti su faktiškai neteisingais atsakymais, kurie yra statistiškai patrauklūs. OpenAI rašė a dienoraštyje.
Nepaisant šio patobulinimo, modelis vis dar neturi žinių apie įvykius, įvykusius po 2021 m. rugsėjo mėn., ir kartais daro paprastas samprotavimo klaidas, kaip ir ankstesniuose modeliuose. Be to, jis gali būti pernelyg patiklus, priimdamas akivaizdžius klaidingus vartotojų teiginius ir nesugebėti išspręsti sudėtingų problemų, pavyzdžiui, į savo kodą įtraukti saugumo spragų. Ji taip pat netikrina pateikiamos informacijos faktų.
Kaip ir jo pirmtakai, GPT-4 gali generuoti žalingus patarimus, klaidingą kodą arba netikslią informaciją. Tačiau dėl papildomų modelio galimybių atsiranda naujų rizikos paviršių, kuriuos reikia suprasti. Norėdami įvertinti šios rizikos mastą, daugiau nei 50 ekspertų Iš įvairių sričių, įskaitant AI suderinimo rizikas, kibernetinį saugumą, biologinę riziką, pasitikėjimą ir saugą bei tarptautinį saugumą, buvo pasitelkti modelio priešpriešiniam bandymui. Tada jų atsiliepimai ir duomenys buvo naudojami modeliui tobulinti, pavyzdžiui, rinkti papildomus duomenis, kad būtų galima tobulinti GPT-4galimybė atmesti užklausas, kaip susintetinti pavojingas chemines medžiagas.
Vienas iš pagrindinių būdų OpenAI Žalingų rezultatų mažinimas yra įtraukiant papildomą saugos atlygio signalą per RLHF (angl. Inforcement Learning from Human Feedback) mokymą. Signalas moko modelį atmesti užklausas dėl žalingo turinio, kaip defipagal modelio naudojimo gaires. Atlygį skiria a GPT-4 zero-shot klasifikatorius, kuris įvertina saugos ribas ir užbaigimo stilių pagal su sauga susijusius raginimus.
OpenAI taip pat teigė, kad 82 % sumažino modelio tendenciją atsakyti į užklausas dėl neleidžiamo turinio, palyginti su GPT-3.5 ir GPT-4 29% dažniau reaguoja į jautrius prašymus, tokius kaip medicininė konsultacija ir savęs žalojimas pagal įmonės politiką.
O OpenAI's įsikišimas padidino sunkumų išprovokuoti blogą elgesį GPT-4, tai vis dar įmanoma, ir vis dar yra „jailbreak“, galinčių generuoti turinį, kuris pažeidžia naudojimo gaires.
„Kadangi dirbtinio intelekto sistemos tampa vis labiau paplitusios, labai svarbu pasiekti aukštą šių intervencijų patikimumo laipsnį. Šiuo metu labai svarbu šiuos apribojimus papildyti įdiegimo laiko saugos technikomis, pvz., piktnaudžiavimo stebėjimu“, – pridūrė bendrovė.
OpenAI bendradarbiauja su išorės tyrėjais, kad geriau suprastų ir įvertintų galimą poveikį GPT-4 ir jo įpėdiniai modeliai. Komanda taip pat kuria pavojingų galimybių, kurios gali atsirasti būsimose AI sistemose, vertinimus. Jiems toliau tiriant potencialias socialines ir ekonominis poveikis of GPT-4 ir kitos AI sistemos, OpenAI savo atradimais ir įžvalgomis laiku pasidalins su visuomene.
Plačiau paskaitykite čia:
Atsakomybės neigimas
Remdamasi tuo, Pasitikėjimo projekto gairės, atkreipkite dėmesį, kad šiame puslapyje pateikta informacija nėra skirta ir neturėtų būti aiškinama kaip teisinė, mokesčių, investicinė, finansinė ar bet kokia kita konsultacija. Svarbu investuoti tik tai, ką galite sau leisti prarasti, ir, jei turite kokių nors abejonių, kreiptis į nepriklausomą finansinę konsultaciją. Norėdami gauti daugiau informacijos, siūlome peržiūrėti taisykles ir nuostatas bei pagalbos ir palaikymo puslapius, kuriuos pateikia išdavėjas arba reklamuotojas. MetaversePost yra įsipareigojusi teikti tikslias, nešališkas ataskaitas, tačiau rinkos sąlygos gali keistis be įspėjimo.
Apie autorių
Cindy yra žurnalistė Metaverse Post, apimantis temas, susijusias su web3, NFT, metaverse ir AI, daugiausia dėmesio skiriant interviu su Web3 pramonės žaidėjų. Ji kalbėjosi su daugiau nei 30 C lygio vadovų ir skaičiuoja, pateikdama jų vertingas įžvalgas skaitytojams. Iš Singapūro kilusi Cindy dabar įsikūrusi Tbilisyje, Gruzijoje. Ji Pietų Australijos universitete yra įgijusi komunikacijos ir žiniasklaidos studijų bakalauro laipsnį ir turi dešimtmetį žurnalistikos ir rašymo patirties. Susisiekite su ja per [apsaugotas el. paštu] su pranešimais spaudai, pranešimais ir interviu galimybėmis.
Daugiau straipsniųCindy yra žurnalistė Metaverse Post, apimantis temas, susijusias su web3, NFT, metaverse ir AI, daugiausia dėmesio skiriant interviu su Web3 pramonės žaidėjų. Ji kalbėjosi su daugiau nei 30 C lygio vadovų ir skaičiuoja, pateikdama jų vertingas įžvalgas skaitytojams. Iš Singapūro kilusi Cindy dabar įsikūrusi Tbilisyje, Gruzijoje. Ji Pietų Australijos universitete yra įgijusi komunikacijos ir žiniasklaidos studijų bakalauro laipsnį ir turi dešimtmetį žurnalistikos ir rašymo patirties. Susisiekite su ja per [apsaugotas el. paštu] su pranešimais spaudai, pranešimais ir interviu galimybėmis.