Nyhetsrapport Teknologi
Februari 16, 2026

Qwen lanserar ny syn- och språkmodell för att förbättra kodning, resonemang och multimodal AI-prestanda

I korthet

Qwen-teamet har lanserat den öppna modellen Qwen3.5‑397B‑A17B, som introducerar stora framsteg inom multimodal prestanda, förstärkningsinlärning och träningseffektivitet som en del av en bredare satsning mot mer kapabla AI-agenter för allmänt bruk.

Qwen lanserar ny syn- och språkmodell för att förbättra kodning, resonemang och multimodal AI-prestanda

Alibaba Clouds Qwen-team har introducerat den första modellen i sin nya Qwen3.5-serie och presenterar den öppna Qwen3.5‑397B‑A17B. 

Modellen är positionerad som ett inbyggt visionsspråkssystem och levererar stark prestanda inom resonemang, kodning, agentuppgifter och multimodal förståelse, vilket återspeglar ett betydande framsteg i företagets storskaliga AI-utvecklingsinsatser. 

Modellen är byggd på en hybridarkitektur som kombinerar linjär uppmärksamhet genom Gated Delta Networks med en gles blandning av experter, vilket möjliggör hög effektivitet under inferens. Även om hela systemet innehåller 397 miljarder parametrar aktiveras endast 17 miljarder för varje framåtpassning, vilket gör att det kan bibehålla hög kapacitet samtidigt som beräkningskostnaderna minskar. Versionen utökar också språk- och dialekttäckningen från 119 till 201, vilket breddar tillgängligheten för användare och utvecklare över hela världen.

Qwen3.5 markerar ett stort språng inom förstärkningsinlärning och effektivitet före träning

Qwen3.5-serien introducerar betydande fördelar jämfört med Qwen3, till stor del drivna av omfattande skalning av förstärkningsinlärning över en mängd olika miljöer. Istället för att optimera för snäva riktmärken fokuserade teamet på att öka uppgiftens svårighetsgrad och generaliserbarhet, vilket resulterade i förbättrad agentprestanda i utvärderingar som BFCL-V4, VITA-Bench, DeepPlanning, Tool-Decathlon och MCP-Mark. Ytterligare resultat kommer att beskrivas i en kommande teknisk rapport.

Förbättringar av förträning omfattar kraft, effektivitet och mångsidighet. Qwen3.5 tränas på en betydligt större volym visuell textdata med förstärkt flerspråkigt, STEM- och resonemangsinnehåll, vilket gör att det kan matcha prestandan hos tidigare biljonparametermodeller. Arkitektoniska uppgraderingar – inklusive MoE med högre sparsitet, hybriduppmärksamhet, stabilitetsförbättringar och prediktion av flera tokens – ger stora dataflödesvinster, särskilt vid utökade kontextlängder på 32k och 256k tokens. Modellens multimodala funktioner stärks genom tidig text-vision-fusion och utökade datamängder som täcker bilder, STEM-material och video, medan ett större ordförråd på 250k förbättrar kodnings- och avkodningseffektiviteten på de flesta språk.

Infrastrukturen bakom Qwen3.5 är utformad för effektiv multimodal träning. En heterogen parallellitetsstrategi separerar visions- och språkkomponenter för att undvika flaskhalsar, medan gles aktivering möjliggör nästan fullt dataflöde även vid blandade text-bild-video-arbetsbelastningar. En inbyggd FP8-pipeline minskar aktiveringsminnet med ungefär hälften och ökar träningshastigheten med mer än 10 procent, vilket bibehåller stabiliteten vid massiva tokenskalor. 

Förstärkningsinlärning stöds av ett helt asynkront ramverk som kan hantera modeller av alla storlekar, förbättra hårdvaruutnyttjande, lastbalansering och felåterställning. Tekniker som FP8 end-to-end-träning, spekulativ avkodning, replay av rollout-router och multi-turn rollout-låsning hjälper till att upprätthålla konsekvens och minska gradientföråldradhet. Systemet är byggt för att stödja storskaliga agentarbetsflöden, vilket möjliggör sömlösa multi-turn-interaktioner och bred generalisering över olika miljöer.

Användare kan interagera med Qwen3.5 via Qwen Chat, som erbjuder lägena Auto, Thinking och Fast beroende på uppgiften. Modellen är också tillgänglig via Alibaba Clouds ModelStudio, där avancerade funktioner som resonemang, webbsökning och kodkörning kan aktiveras genom enkla parametrar. Integration med tredjepartskodningsverktyg gör det möjligt för utvecklare att implementera Qwen3.5 i befintliga arbetsflöden med minimal friktion.

Enligt Qwen-teamet lägger Qwen3.5 grunden för universella digitala agenter genom sin hybridarkitektur och inbyggda multimodala resonemang. Framtida utveckling kommer att fokusera på integration på systemnivå, inklusive permanent minne för lärande mellan sessioner, förkroppsligade gränssnitt för interaktion i verkligheten, självstyrda förbättringsmekanismer och ekonomisk medvetenhet för långsiktig autonom drift. Målet är att gå bortom uppgiftsspecifika assistenter mot sammanhängande, permanenta agenter som kan hantera komplexa, flerdagarsmål med tillförlitlig, människoanpassad bedömning.

Ansvarsfriskrivning

I linje med den Riktlinjer för Trust Project, vänligen notera att informationen på den här sidan inte är avsedd att vara och inte ska tolkas som juridisk, skattemässig, investerings-, finansiell eller någon annan form av rådgivning. Det är viktigt att bara investera det du har råd att förlora och att söka oberoende finansiell rådgivning om du har några tvivel. För ytterligare information föreslår vi att du hänvisar till villkoren samt hjälp- och supportsidorna som tillhandahålls av utfärdaren eller annonsören. MetaversePost är engagerad i korrekt, opartisk rapportering, men marknadsförhållandena kan ändras utan föregående meddelande.

Om författaren

Alisa, en engagerad journalist på MPost, specialiserat på kryptovaluta, nollkunskapsbevis, investeringar och den expansiva sfären av Web3. Med ett skarpt öga för nya trender och tekniker levererar hon omfattande täckning för att informera och engagera läsare i det ständigt föränderliga landskapet för digital ekonomi.

fler artiklar
Alisa Davidson
Alisa Davidson

Alisa, en engagerad journalist på MPost, specialiserat på kryptovaluta, nollkunskapsbevis, investeringar och den expansiva sfären av Web3. Med ett skarpt öga för nya trender och tekniker levererar hon omfattande täckning för att informera och engagera läsare i det ständigt föränderliga landskapet för digital ekonomi.

Hot Stories
Gå med i vårt nyhetsbrev.
Senaste nytt

Lugnet före Solana-stormen: Vad diagram, valar och signaler på kedjan säger nu

Solana har visat starka resultat, drivet av ökande implementering, institutionellt intresse och viktiga partnerskap, samtidigt som den står inför potentiella ...

Lär dig mer

Krypto i april 2025: Viktiga trender, förändringar och vad som kommer härnäst

I april 2025 fokuserade kryptomarknaden på att stärka kärninfrastrukturen, där Ethereum förberedde sig för Pectra ...

Lär dig mer
Läs mer
Läs mer
Eightco samlar in 125 miljoner dollar i institutionell finansiering ledd av Bitmine, ARK Invest och Payward för att accelerera investeringar i nästa generations teknik
företag Nyhetsrapport Teknologi
Eightco samlar in 125 miljoner dollar i institutionell finansiering ledd av Bitmine, ARK Invest och Payward för att accelerera investeringar i nästa generations teknik
Mars 13, 2026
CZ bestrider Forbes påståenden om nettoförmögenhet; Hur rika är de främsta kryptorösterna?
företag Marknader Nyhetsrapport Teknologi
CZ bestrider Forbes påståenden om nettoförmögenhet; Hur rika är de främsta kryptorösterna?
Mars 13, 2026
Från tillväxt till säkerhet: Kaminsamtal på HSC Asset Management utforskar marknadsförändringar och Kinas globala inflytande
Hacka säsonger Yttrande företag Livsstil Nyhetsrapport Teknologi
Från tillväxt till säkerhet: Kaminsamtal på HSC Asset Management utforskar marknadsförändringar och Kinas globala inflytande
Mars 13, 2026
Oxfords AI-forskare Samuele Marro om decentraliserad AI och blockkedja: När integration tillför värde – men begränsar innovation
Intervju Teknologi
Oxfords AI-forskare Samuele Marro om decentraliserad AI och blockkedja: När integration tillför värde – men begränsar innovation
Mars 13, 2026