CERT-datawetenschappers onderzoeken de fijne kneepjes van deepfakes

Deepfakes Day 2022, vorige week online gehouden, werd georganiseerd door de CERT-divisie van het Carnegie Mellon University Software Engineering Institute (SEI), dat samenwerkt met de overheid, de industrie, wetshandhaving en de academische wereld om de beveiliging en veerkracht van computersystemen en -netwerken te verbeteren , om de groeiende dreiging van deepfakes te onderzoeken.

CERT beschrijft een deepfake als een „mediabestand, meestal video’s, afbeeldingen of spraak die een menselijk onderwerp vertegenwoordigen, dat op bedrieglijke wijze is aangepast met behulp van diepe neurale netwerken om de identiteit van een persoon te veranderen. Vooruitgang in machine learning heeft de beschikbaarheid en verfijning van tools voor het maken van deepfake-inhoud versneld. Naarmate het maken van deepfake toeneemt, nemen ook de risico’s voor privacy en veiligheid toe.“

Tijdens het openingssegment namen twee experts van het Coördinatiecentrum van het Computer Emergency Response Team (CERT) – datawetenschapper Shannon Gallagher en Thomas Scanlon, een technisch ingenieur – hun publiek mee op een verkennende rondleiding door een groeiende veiligheidsdreiging die geen teken van afnemend.

„Een deel van ons onderzoek op dit gebied en het vergroten van het bewustzijn voor deepfakes is om mensen te beschermen tegen enkele van de cyberuitdagingen en persoonlijke veiligheid en privacy-uitdagingen die deepfakes met zich meebrengen“, aldus Scanlon.

Een SEI-blog dat in maart werd gepost, stelde dat “het bestaan ​​van een breed scala aan videomanipulatietools betekent dat video die online wordt ontdekt, niet altijd kan worden vertrouwd. Bovendien is het idee van deepfakes zichtbaarder geworden in de populaire media, de pers en sociale media, en is er een parallelle dreiging ontstaan ​​uit het zogenaamde leugenaarsdividend – die de authenticiteit of waarachtigheid van legitieme informatie in twijfel trekt door een valse bewering dat iets is een deepfake, zelfs als het dat niet is.

„Het bepalen van de authenticiteit van video-inhoud kan een dringende prioriteit zijn wanneer een video betrekking heeft op nationale veiligheidskwesties. Evolutionaire verbeteringen in methoden voor het genereren van video’s stellen relatief goedkope tegenstanders in staat om kant-en-klare machine learning-software te gebruiken om nep-inhoud te genereren met toenemende schaal en realisme.

Het seminar omvatte een discussie over het criminele gebruik van deepfakes, waarbij voorbeelden werden aangehaald, waaronder kwaadwillende acteurs die een CEO overtuigen om 243.000 dollar over te schrijven naar de bankrekening van een oplichter met behulp van een diepe nepaudio, en politici uit het VK, Letland, Estland en Litouwen die werden gedupeerd in nepbijeenkomsten met oppositiefiguren.

„Politici zijn bedrogen“, zei Scanlon. “Dit is er een die keer op keer is opgedoken. Ze zijn in een telefonische vergadering met iemand en realiseren zich niet dat de persoon met wie ze praten geen hoogwaardigheidsbekleder uit een ander land is.”

De belangrijkste aandachtspunten van de twee cyberbeveiligingsexperts waren:

  • goed nieuws: Zelfs met tools die al zijn gebouwd (Faceswap, DeepFace Lab etc.) kost het nog steeds veel tijd en middelen voor grafische verwerkingseenheden (GPU) om deepfakes van nog lagere kwaliteit te maken
  • slecht nieuws: Goed gefinancierde actoren kunnen de middelen inzetten om deepfakes van hogere kwaliteit te maken, met name voor hoogwaardige doelen.
  • goed nieuws: Deepfakes zijn in principe alleen gezichtswisselingen en gezichtsre-enactments.
  • slecht nieuws: Uiteindelijk zullen de technologische mogelijkheden verder gaan dan alleen gezichten.
  • goed nieuws: Er worden vorderingen gemaakt in het detecteren van deepfakes.
  • slecht nieuws: Technologie voor het maken van deepfake blijft vooruitgaan; het zal waarschijnlijk een nooit eindigende strijd zijn, vergelijkbaar met die van antivirussoftware versus malware.

In termen van wat een organisatie kan doen om te voorkomen dat ze een slachtoffer wordt, ligt de sleutel, zei Scanlon, in het begrijpen van de huidige mogelijkheden voor zowel creatie als detectie, en het opstellen van training- en bewustmakingsprogramma’s.

Het is ook belangrijk, zei hij, om een ​​deepfake te kunnen detecteren, en „praktische aanwijzingen“ omvatten flikkeren, onnatuurlijke bewegingen en uitdrukkingen, gebrek aan knipperen en onnatuurlijke haar- en huidskleuren.

“Als je in je organisatie een cybersecurity-rol vervult, is de kans groot dat je wordt gevraagd naar deze technologie”, zegt Scanlon.

Wat betreft tools die deepfakes kunnen detecteren, voegde hij eraan toe, deze omvatten:

In een twee jaar oude blogpost die profetisch bleek te zijn, verklaarde Microsoft dat het verwacht dat „methoden voor het genereren van synthetische media in verfijning zullen blijven groeien. Omdat alle AI-detectiemethoden faalpercentages hebben, moeten we begrijpen en klaar zijn om te reageren op deepfakes die door detectiemethoden glippen. Op de langere termijn moeten we dus zoeken naar sterkere methoden voor het onderhouden en certificeren van de authenticiteit van nieuwsartikelen en andere media.

“Geen enkele organisatie zal een betekenisvolle impact kunnen hebben op het bestrijden van desinformatie en schadelijke deepfakes. We zullen doen wat we kunnen om te helpen, maar de aard van de uitdaging vereist dat meerdere technologieën op grote schaal worden toegepast, dat educatieve inspanningen consumenten overal consequent bereiken en dat we steeds meer leren over de uitdaging terwijl deze zich ontwikkelt.”

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert