En computerlavet by set ovenfra, der ligner et motherboard.

Cyberlandskabet ændrer sig hele tiden – nye trusler kommer til, og gamle trusler genopstår.

Et computerlavet polygonansigt er lagt oven på den computerlavede by.

Her er en aktuel trussel, du bør være opmærksom på, inden du fortsætter.

En sammenlignende deepfake-video af Ron Livingston, der kører i et køretøj.

Deepfakes er falske medier, som er skabt ved hjælp af maskinlæring og har til hensigt at efterligne en person på en overbevisende måde, ofte berømtheder eller politikere.

Kilde: VFXChris Ume på YouTube

Ægte video

Deepfake

Et computerprogram bruger skuespilleren Robert Downey Jr. til at skabe en deepfake-video.

Gerningsmændene bag bruger offentligt tilgængelige lydklip, billeder og videoer af personer og lægger dem oven på eksisterende medier.

Kilde: DeepFakery på YouTube

En sammenlignende deepfake-video af politikeren og diplomaten Hilary Clinton, der taler på et podie.

Disse manipulerede videoklip bruges typisk til underholdningsformål, men de kan også anvendes med en mere skadelig hensigt.

Kilde: Derpfakes på YouTube

Ægte video

Deepfake

En person sidder i en sofa og kigger på sin smartphone.

Det kunne være bedrageri, som en del af et social engineering-angreb, fake news og spredning af misinformation.

Nærbillede af en hånd tilhørende en cyberkriminel, der taster på et tastatur på en bærbar computer.

For nylig rettede social engineers et angreb mod den administrerende direktør i et energiselskab i Storbritannien og narrede ham til at tro, at han kommunikerede med direktøren for moderselskabet, blandt andet takket være gerningsmandens tyske accent. Der var dog tale om manipuleret lyd, som narrede ham til at overføre 220.000 euro til cyberkriminelle.

Computerlavet deepfake-ansigtskortlægning vises oven på en persons ansigt.

Teknologiselskaber arbejder på at bekæmpe disse angreb, men vi er stadig meget sårbare over for denne type manipulation. Som er tilfældet med maskinlæring, vil deepfakes kun blive bedre og mere overbevisende med tiden.

En sammenlignende deepfake-video af tidligere præsident Barack Obama og filmskaberen Jordan Peele.

Dit vigtigste forsvar mod disse trusler er at være skeptisk over for sensationelle eller mistænkelige medier, selv hvis billederne eller stemmen virker ægte.

Kilde: BuzzFeed på YouTube

Ægte video

Deepfake

En deepfake-video af skuespilleren Ryan Reynolds' ansigt, der erstatter Gene Wilder som Willy Wonka.

Selvom teknologi kan være overbevisende, kan du stadig spotte fejl i udførelsen. Det kunne være et øje, der ikke blinker, eller unaturlige ansigtsudtryk, forskelle i hudfarve og lys eller andre uregelmæssigheder.

Kilde: NextFace på YouTube

En person ser bekymret ud, mens vedkommende læser oplysninger på sin bærbare computer.

Hvis du har mistro til en video, kan du se, om du kan finde det originale medie, videoen kommer fra.

En opdelt skærm viser en person, der ubevidst taler med en cyberkriminel på sin smartphone.

Hvis du modtager et mistænkeligt opkald, bør du tjekke, hvor opkaldet kommer fra, og om telefonnummeret virker reelt, selv hvis det lyder som en rigtig person.

En person sidder på en sofa og bruger sin smartphone med et bekymret ansigtsudtryk.

Den bedste måde at undgå at blive udnyttet på er ved at kontrollere ægtheden af alle anmodninger om følsomme oplysninger eller penge, f.eks. ved at ringe til personen via et telefonnummer, du kan bekræfte.

En person sidder og læser vigtige oplysninger på sin bærbare computerskærm.

Vær på vagt over for deepfakes, da det forventes, at denne teknologi kun bliver mere sofistikeret og udbredt i fremtiden.