Tekniska bloggspel, Android-app-apk, tips och tricks

Apple vinner “Best Paper Award” på prestigefylld maskin…

Efter att Apple beslutat att tillåta sina forskare att dela sina resultat offentligt publicerades deras första akademiska uppsats sent förra året. Nu har den forskningen precis vunnit ett “Best Paper Award” på en prestigefylld datorseende och datorkonferens.

Den första publicerade akademiska artikeln som involverade Apple lärdes av simulerade och oövervakade bilder genom fiendeträning av Ashish Shrivastava, Tomas Pfister, Oncel Tuzel, Josh Susskind, Wenda Wang, Russ Webb Apple Inc. Hela dokumentationen finns här.

Denna AI-forskning lämnades till CVPR (Conference on Computer Vision & Pattern Recognition), som anses vara en av de mest framstående och inflytelserika studierna på konferenser inom området.

Kom ihåg att detta var Apples första publikation av sin forskning och var en av 2 600 inlämningar för CVPR 2017 och den vann priset för bästa papper (tillsammans med en annan inlämning), en medlem av teamet. ganska imponerande!

Förra månaden såg vi Apple driva ännu längre för att publicera sin forskning med lanseringen av Apples Journal of Machine Learning. Den här veckan såg vi även tre nya tidskriftsartiklar som kommer att presenteras på Interspeech 2017 i Stockholm den här veckan. Ett särskilt intressant avsnitt är jämförelsen av Siris ljudsampling från iOS 9, 10 och 11 (finns i slutet av avsnitt 4).

Om du är nyfiken på Apples prisbelönta forskningsartikel, men inte vill gå in på det hela, här är sammanfattningen:

“Med de senaste framstegen inom grafiken har det blivit lättare att träna modeller på sammansatta bilder, vilket undviker behovet av dyra kommentarer. Men att lära sig av sammansatta bilder kanske inte uppnår önskad prestanda på grund av gapet mellan verklig bildsyntes och distribution. För att minska detta gap introducerar vi inlärningsmetoden Simulation + Unsupervised (S + U), där uppgiften är att lära sig en modell för att förbättra realismen i simulatorns utdata genom att använda omärkta verkliga data, samtidigt som anteckningsinformation från simulering bevaras. Vi utvecklar en S+U-inlärningsmetod som använder ett kontradiktoriskt nätverk liknande ett General Adversary Network (GAN), men med en sammansatt bild som input istället för en slumpmässig vektor. Vi gör några större modifieringar av algoritmstandarden GAN för att bevara symboler, undvika artefakter och stabilisera träning: (i) termen “självreglering”, (ii) lokal kontradiktorisk förlustuppsättning och (iii) uppdatera diskriminatorn med hjälp av historiken för förfinade bilder. Vi visar att detta möjliggör skapandet av mycket realistiska bilder, vilket vi bevisar både kvalitativt och med en användarstudie. Vi utvärderar kvantitativt bilderna som genereras av träningsmodeller för blickuppskattning och handhållningsuppskattning. Vi visar en betydande förbättring jämfört med att använda sammansatta bilder och uppnår toppmoderna resultat på MPIIGaze-datauppsättningen utan några märkta riktiga data. “

Källa: 9to5mac