November 06, 2023

Let-til-hård generalisering

Hvad er let-til-hård generalisering?

Let-til-hård generalisering refererer til processen med at evaluere algoritmernes ydeevne på opgaver, der varierer i kompleksitet, fra enkle og håndterbare til mere udfordrende. I forbindelse med AI-udvikling hjælper denne tilgang med at sikre, at modeller ikke kun er effektive til at håndtere ligetil opgaver, men også i stand til at skalere deres adfærd, når de står over for mere komplekse udfordringer.

Hvad er let-til-hård generalisering?
Dette koncept anvendes ofte i forskellige domæner, herunder machine learning, perceptuel læring, algoritmisk problemløsning og kognitiv psykologi. Ved at udsætte modeller eller individer for en progression af eksempler eller opgaver af stigende sværhedsgrad, menes det, at de kan udvikle bedre generaliseringsevner og tilpasningsevne.

Forstå let-til-hård generalisering

Overvej for eksempel scenariet, hvor en model testes med henblik på at identificere fejl i et lille stykke kode.

I maskinlæring kan let-til-hård generalisering f.eks. involvere træning af en model på et datasæt, der starter med enkle eller godt adskilte eksempler og gradvist introducerer mere komplekse eller overlappende eksempler. Denne tilgang har til formål at forbedre modellens evne til at håndtere udfordrende scenarier og forbedre dens overordnede ydeevne på usete data.

I perceptuel læring kan let-til-hård generalisering involvere træning af individer i perceptuelle opgaver, der starter med let skelnelige stimuli og gradvist introducerer sværere eller tvetydige stimuli. Denne proces hjælper individer med at udvikle bedre diskriminationsevner og generalisere deres læring til en bredere vifte af stimuli.

Overordnet set er let-til-hård generalisering en strategi, der bruges til at forbedre læring, forbedre præstationer og fremme bedre generaliseringsevner ved gradvist at øge sværhedsgraden eller kompleksiteten af ​​eksempler eller opgaver.

Seneste nyt vedr Let-til-hård generalisering

  • Forskere fra University College London har introduceret Spawrious-datasættet, en billedklassificering benchmark suite, for at adressere falske sammenhænge i AI-modeller. Datasættet, der består af 152,000 billeder af høj kvalitet, omfatter både en-til-en og mange-til-mange falske korrelationer. Holdet fandt ud af, at datasættet viste en utrolig ydeevne og afslørede svaghederne ved de nuværende modeller på grund af deres afhængighed af fiktive baggrunde. Datasættet fremhævede også behovet for at fange de indviklede relationer og indbyrdes afhængigheder i M2M falske korrelationer.
  • Den nye AI, kendt som en Differential Neural Computer (DNC), er afhængig af en ekstern hukommelsesenhed med høj kapacitet til at gemme tidligere lærte modeller og generere nye neurale netværk baseret på arkiverede modeller. Denne nye form for generaliseret læring kunne bane vejen for en æra med kunstig intelligens, der vil belaste den menneskelige fantasi.
  • Et nyligt papir fra MIT fandt det GPT-4, en sprogmodel (LLM), der scorede 100 % på MIT's pensum, havde ufuldstændige spørgsmål og skæve evalueringsmetoder, hvilket resulterede i væsentligt lavere nøjagtighed. Allen Institute for AI's "Faith and Fate: Limits of Transformers on Compositionality" diskuterer begrænsningerne ved transformer-baserede modeller med fokus på kompositionsproblemer, der kræver flertrins-ræsonnement. Undersøgelsen viste, at transformatormodeller viser et fald i ydeevne, efterhånden som opgavekompleksiteten øges, og finjustering med opgavespecifikke data forbedrer ydeevnen inden for det trænede domæne, men ikke generalisere til usete eksempler. Forfatterne foreslår, at transformatorer bør udskiftes på grund af deres begrænsninger i at udføre komplekse kompositoriske ræsonnementer, afhængighed af mønstre, memorisering og enkelttrinsoperationer.

Seneste sociale indlæg om let-til-hård generalisering

Ofte Stillede Spørgsmål

Let-til-hård generalisering refererer til processen med at træne eller lære modeller, algoritmer eller systemer ved gradvist at øge sværhedsgraden eller kompleksiteten af ​​eksemplerne eller opgaver. Ideen bag let-til-hård generalisering er at starte med enklere eller nemmere eksempler og gradvist introducere mere udfordrende eller svære eksempler for at forbedre modellens evne til at generalisere og præstere godt på en bred vifte af input.

«Tilbage til ordlisteindeks

Ansvarsfraskrivelse

I tråd med den Trust Project retningslinjer, bemærk venligst, at oplysningerne på denne side ikke er beregnet til at være og ikke skal fortolkes som juridiske, skattemæssige, investeringsmæssige, finansielle eller nogen anden form for rådgivning. Det er vigtigt kun at investere, hvad du har råd til at tabe, og at søge uafhængig finansiel rådgivning, hvis du er i tvivl. For yderligere information foreslår vi at henvise til vilkårene og betingelserne samt hjælpe- og supportsiderne fra udstederen eller annoncøren. MetaversePost er forpligtet til nøjagtig, objektiv rapportering, men markedsforholdene kan ændres uden varsel.

Om forfatteren

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Flere artikler
Damir Yalalov
Damir Yalalov

Damir er teamleder, produktchef og redaktør på Metaverse Post, der dækker emner som AI/ML, AGI, LLM'er, Metaverse og Web3-relaterede felter. Hans artikler tiltrækker et massivt publikum på over en million brugere hver måned. Han ser ud til at være en ekspert med 10 års erfaring i SEO og digital markedsføring. Damir er blevet nævnt i Mashable, Wired, Cointelegraph, The New Yorker, Inside.com, Entrepreneur, BeInCrypto og andre publikationer. Han rejser mellem UAE, Tyrkiet, Rusland og SNG som en digital nomade. Damir tog en bachelorgrad i fysik, som han mener har givet ham de kritiske tænkningskompetencer, der er nødvendige for at få succes i internettets evigt skiftende landskab. 

Hot Stories
Tilmeld dig vores nyhedsbrev.
Seneste Nyheder

Nye mememønter fra maj 2024: 7 valg til kryptofans

by Viktoria Palchik
Maj 08, 2024

Institutionel appetit vokser mod Bitcoin ETF'er midt i volatilitet

Afsløringer gennem 13F-arkivering afslører bemærkelsesværdige institutionelle investorer, der dytter i Bitcoin ETF'er, hvilket understreger en voksende accept af ...

Vide mere

Straffeudmålingsdagen ankommer: CZ's skæbne hænger i balance, da amerikansk domstol overvejer DOJ's anbringende

Changpeng Zhao står klar til at blive dømt ved en amerikansk domstol i Seattle i dag.

Vide mere
Tilmeld dig vores innovative teknologifællesskab
Læs mere
Læs mere
BlockDAG fører med opdateret køreplan og likviditetsplan på $100 mio., da Uniswaps hvaler bevæger sig og Fantoms prisændringer
Historier og anmeldelser
BlockDAG fører med opdateret køreplan og likviditetsplan på $100 mio., da Uniswaps hvaler bevæger sig og Fantoms prisændringer
Maj 8, 2024
Nexo indleder 'The Hunt' for at belønne brugere med $12M i NEXO-tokens for at engagere sig i sit økosystem
Markeder Nyheds rapport Teknologier
Nexo indleder 'The Hunt' for at belønne brugere med $12M i NEXO-tokens for at engagere sig i sit økosystem
Maj 8, 2024
Revoluts Revolut X Exchange Woos Crypto Traders med nul producentgebyrer og avanceret analyse
Markeder Software Historier og anmeldelser Teknologier
Revoluts Revolut X Exchange Woos Crypto Traders med nul producentgebyrer og avanceret analyse
Maj 8, 2024
Kryptoanalytiker, der forudsagde Bonk (BONK)-rally en måned i forvejen, mener, at ny Solana Meme-mønt, der pumpede over 5000 % i april, vil slå Shiba Inu (SHIB) i 2024
Historier og anmeldelser
Kryptoanalytiker, der forudsagde Bonk (BONK)-rally en måned i forvejen, mener, at ny Solana Meme-mønt, der pumpede over 5000 % i april, vil slå Shiba Inu (SHIB) i 2024
Maj 8, 2024