Tekniska bloggspel, Android-app-apk, tips och tricks

AI-verktyg kan upptäcka deepfakes, men hur länge?

Deepfakes – videor som ser realistiska ut och underhålls av AI som beskriver händelser som aldrig riktigt har hänt – har varit en källa till oro i flera år, och när tekniken fortskrider blir detektering allt svårare.

För närvarande lämnar redigerade bilder och videor digitala fingeravtryck som kan upptäckas med rätt verktyg. Forskare vid University of California, Riverside, utvecklade till exempel en AI-algoritm som kan känna igen bilder och videor som manipuleras genom att hitta slående artefakter kvar av redigeringsverktyg.

Denna djupa inlärningsalgoritm – från Amit Roy-Chowdhury, professor i elektroteknik och datorteknik, och UCR-forskare – fann avvikelser orsakade av att infoga, radera eller manipulera objekt i en bild. Idén, förklarade Roy-Chowdhury, var att lokalisera bildmanipulation. “Vi utbildar neurala nätverk för att identifiera områden som manipuleras i framtida bilder,” sade han.

Utveckla ett “välutbildat nervnätverk”

Neurala nätverk är en grundkomponent i djupinlärningsalgoritmer. Till skillnad från klassisk programvara, där utvecklare manuellt ger datorinstruktioner, utvecklar neurala nätverk sitt beteende genom att analysera och jämföra exempel.

Neurala nätverk är mycket bra på att hitta mönster och klassificera data som är röriga och ostrukturerade som bilder och videor. När du tillhandahåller ett neuralt nätverk med tillräckliga exempel på vissa typer av bilder – en process som kallas “träning” – kommer det att kunna hitta liknande funktioner i bilder som aldrig har sett förut.

“När någon manipulerar en bild försöker de göra det på ett sätt som inte upptäcks av det mänskliga ögat,” sade Roy-Chowdhury. “Men vanligtvis påverkas en del av pixelutrymmet av denna manipulation.”

UCR-forskare tränar sina neurala nätverk på kommenterade bilder som manipuleras med olika verktyg och låter dem hitta vanliga pixelmönster som är synliga vid gränsen för det drabbade objektet. Efter träningen kan AI-modellen markera områden i bilden som innehåller manipulerade objekt.

Fånga Deepfake

På det nuvarande stadiet fungerar inlärningsmodellen på stillbilder, men samma teknik kan ändras för att hitta djupfake och andra videomanipuleringstekniker. Deepfake är i princip en video där varje ram ändras för att ersätta ett ansikte mot ett annat.

“Idén kan också användas för video. I varje ram finns det områden som har manipulerats, och ett utbildat neuralt nätverk kan lyfta fram områden som är skadade,” sade Roy-Chowdhury.

Det neurala nätverket i UCR är ett av flera försök som syftar till att fånga deepfakes och andra destruktiva tekniker för bilder och videor. Tidigare i år utvecklade forskare vid University of Surrey en kombination av blockchain och neurala nätverk för att registrera äkta videor och identifiera defekta versioner. Ett annat projekt från University of Albany använder två neurala nätverk för att upptäcka syntetiserade videor genom att upptäcka onaturliga fenomen som blinkande ögon.

Men när igenkänningsmetoden ökar, gör tekniken också för att skapa realistiska falska bilder och videor. “Det är ett katt-och-mus-spel”, sa Roy-Chowdhury. “Detta är inte en triviell fråga. Vad vi än gör, den som gör manipulationen producerar något annat. Jag vet inte om det kommer att vara en tid då vi kommer att kunna upptäcka alla typer av manipulationer.”

Table of Contents