Microsoft lanserar superdator för att träna nya modeller av artificiell intelligens

Under Build-konferensen, som hölls online för första gången, avslöjade Microsoft konturerna av sin nya superdator, en av de fem mest kraftfulla i världen. Den kommer att kunna träna nya artificiell intelligensmodeller och dra nytta av ny, modern och kraftfull infrastruktur, tillgänglig på Azure, det amerikanska företagets molnplattform. Specifikationsmässigt har denna superdator ett unikt system med mer än 285 000 bearbetningskärnor, 10 000 GPU:er och 400 gigabit/s nätverk per GPU-server.

Superdatorn designades som en del av ett partnerskap mellan Microsoft och OpenAI, en struktur som lanserades 2015 av Elon Musk och Sam Altman för att främja forskning inom artificiell intelligens. Microsofts mål: att leverera stora modeller, optimeringsverktyg och superdatorresurser genom Azure AI- och GitHub-tjänster så att utvecklare, datavetare och företagskunder enkelt kan utnyttja kraften i AI i stor skala. Denna superdator kan hjälpa till att påskynda denna process, för att etablera och träna en ny generation av mer kraftfulla modeller.

Superdatorer möter behoven hos den nya generationen AI

Om den tidigare generationen av AI-modeller utformades för att lära sig en enkel uppgift (översätta ett främmande språk, känna igen objekt eller text för att identifiera nyckelpunkter, etc.), så kan en ny typ av modell på grund av tillägget. FoU-gemenskapen kan nu optimera dessa uppgifter med en enda, kraftfullare modell. Denna typ av artificiell intelligens kan tillgodogöra sig nyanser av språk, grammatik, sammanhang, men också ny kunskap eller begrepp, samtidigt som de utför en mängd specifika uppgifter: att sammanfatta en text hålla långa tal, moderera innehåll i livechatt, hitta relevanta avsnitt i tusentals juridiska filer, eller till och med generera kod från GitHub.

Tack vare förbättringen av dessa nya modeller är det möjligt att lära sig nyanserna i språket genom att undersöka de miljarder sidor som finns tillgängliga på webben, de blir mer och mer effektiva och kan förstå hur ord relaterar till varandra. för att bättre förstå meningen. Därför behöver denna nya generation tränas med stora mängder data och superdatorresurser. Microsoft arbetar med storskaliga AI-modeller med inlärningsmetoder som tar hänsyn till text, bilder och video. Dessa nya framsteg kommer att göra det möjligt att förbättra automatisk textning av bilder för tillgänglighet i Office eller att optimera sökningen för Internetanvändare på Bing-motorn, genom att förstå innehållet i bilderna.

Andra Microsoft AI-meddelanden

Det amerikanska företaget tillkännagav andra AI-nyheter under sin Build-onlinekonferens: Microsoft Turing kommer att finnas tillgänglig som öppen källkod, en ny version av DeepSpeed ​​​​rullar ut och ONNX Runtime kommer att förbättra sin prestanda tack vare sin förbättrade prestanda. ny uppdatering . .

Microsoft Turing-modeller kommer till öppen källkod

Som en del av AI@Scale-initiativet har Microsoft utvecklat sin egen fantastiska serie av AI-modeller: Turing-NLG (Turing Natural Language Generation). Detta är den största Turing-modellen för generering av naturligt språk med 17 miljarder parametrar, dubbelt så mycket som konkurrenten Megatron från Nvidia. Denna Turing-modell används särskilt för att förbättra många språkförståelseuppgifter i Bing, Office, Dynamics och andra Microsoft-produkter. Att utveckla denna nya generation av AI kräver ny superdatorinfrastruktur och toppmodern hårdvara för att träna dessa modeller.

Det amerikanska företaget kommer snart att öppna källkod för sina Microsoft Turing-modeller, samt metoderna för att träna dem i Azures maskininlärningsprogram. Som ett resultat kommer utvecklare att ha tillgång till samma uppsättning modeller som företaget har använt för att förbättra språkförståelsen i sina produkter.

Ny version av DeepSpeed ​​​​library, uppdaterat ONNX Runtime-verktyg

Bland andra meddelanden släpper Microsoft en ny version av DeepSpeed, ett djupinlärningsbibliotek med öppen källkod för PyTorch som minskar mängden datorkraft som behövs för att träna stora AI-modeller. Enligt Microsoft kommer den här uppdateringen att vara mer effektiv än den tidigare versionen som släpptes för tre månader sedan. Användare kommer att kunna träna modeller 15 gånger större och 10 gånger snabbare än om de inte använde DeepSpeed ​​på samma infrastruktur.

ONNX Runtime (Open Neural Network Exchange), en högpresterande inferensmotor för öppen källkod för maskininlärningsmodeller, utvecklad i samarbete med Facebook och Amazon Web Services, drar också nytta av uppdateringen. Den lägger till stöd för modellträning, samt lägger till DeepSpeed-biblioteksoptimering, vilket ger upp till 17x prestandaförbättring jämfört med nuvarande ONNX Runtime.

Källa: Microsoft.

Relaterade Inlägg

Back to top button