Snapchat Face Swaps til DOT: Deepfake Offensive Toolkit til it-sikkerhed og Red Team

Deepfake teknologi har taget en stor spring fremad i de seneste år, hvilket har ført til mange etiske og sikkerhedsmæssige bekymringer. En af de nyere redskaber i denne teknologiske front er Deepfake Offensive Toolkit (DOT), et værktøj designet til at foretage penetrationstests imod systemer som identitetsverifikation og video-konferencesystemer. Dette værktøj er skabt til brug af sikkerhedsanalytikere, Red Team-medlemmer og biometriske forskere.

Hvad er et Red Team?

I cybersikkerhedssammenhæng henviser “Red Team” til en uafhængig gruppe, der udfordrer en organisation til at forbedre sin effektivitet ved at antage en fjendtlig rolle. Red Teams bruger forskellige taktikker, teknikker og procedurer (TTP’er), ofte efterligner de ægte angribere, for at teste organisationens forsvar og identificere potentielle sårbarheder.

Målet med en Red Team-øvelse er ikke at forårsage faktisk skade, men snarere at give en realistisk simulering af, hvad der kan ske under et ægte cyberangreb. Dette giver organisationen mulighed for at opdage og adressere svagheder i deres systemer, politikker og reaktionsprotokoller, før de kan blive udnyttet af ondsindede aktører.

Konceptet med Red Teaming stammer fra militæret, hvor det blev brugt til at teste en styrkes taktikker og strategier ved at simulere fjendtlige angreb. I dag anvendes det bredt inden for cybersikkerhed og informationssikkerhed.

Modparten til et Red Team er et Blue Team, som er det defensive team ansvarlig for at implementere og opretholde de sikkerhedsforanstaltninger, som Red Team forsøger at besejre. Der er også Purple Team, som fungerer som en bro mellem Red og Blue, og sikrer at de defensive læring (fra Blue) fra angrebene (fra Red) bliver korrekt forstået og implementeret.

Hvordan virker det?

I en nøddeskal virker DOT på følgende måde: alle deepfakes understøttet af DOT kræver ikke yderligere træning. De kan anvendes i realtid på et billede, der bliver målet for ansigtsforfalskningen. De understøttede metoder inkluderer ansigtsbytte (via SimSwap), med mulighed for superopløsning af ansigter (via GPen) og en simplere form for ansigtsbytte (via OpenCV). DOT anvender også FOMM, First Order Motion Model, til billedanimation.

En GIF fra sensity-ai udviklerne bag værktøjet Link: https://github.com/sensity-ai/dot

Informative og Etiske Overvejelser

Selvom DOT er en kraftfuld teknologi, kommer dens brug med store etiske overvejelser. Teknologien kan nemt misbruges til formål, der strider imod loven, såsom bedrag, afpresning eller identitetstyveri. Desuden kan deepfakes skabe mistillid til audiovisuelt indhold generelt, hvilket kan underminere vores evne til at skelne mellem virkelighed og fiktion.

Udviklerne af DOT er klare i deres intentioner: Værktøjet er skabt for forskning og demonstration. Som slutbruger har man ansvaret for at overholde alle gældende love, når man bruger dette program. Forfatterne og bidragende udviklere påtager sig ingen ansvar og er ikke ansvarlige for misbrug eller skade forårsaget ved brug af dette program.

Det er afgørende, at virksomheder og enkeltpersoner forstår den potentielle risiko og skade, der kan opstå ved brug af deepfake teknologi, og tager de nødvendige skridt til at beskytte sig imod misbrug. Det kræver også en løbende dialog omkring regler og lovgivning for at sikre, at denne teknologi ikke bruges på måder, der skader individer eller samfundet som helhed.

Læs mere om kunstig intelligens på Digital Boulevard

Tilmeld dig vores nyhedsbrev og
få en notifikation når vi udgiver nyt indhold!

ingen spam, ingen tilbud - kun indhold