En datastyrt by som ligner et hovedkort, sett i fugleperspektiv.

Dagens digitale trusselbilde er i stadig endring ved at nye trusler dukker opp og gamle trusler gjenoppstår.

Et datastyrt polygonansikt er lagt over den datastyrte byen.

Her er en eksisterende trussel du bør være oppmerksom på før vi går videre.

En side-ved-side deepfake-video av skuespiller Ron Livingston som kjører et kjøretøy.

Deepfakes er falske medier, dvs. videoer og lydklipp. Denne teknologien tar i bruk kunstig intelligens og avansert maskinlæring til å etterligne personer, ofte kjente personer eller politikere.

Kilde: YouTube-kanalen VFX Chris UME

Ekte video

Deepfake

Et deepfake-dataprogram bruker ansiktet til Robert Downey Jr. til å lage en deepfake-video.

De som står bak denne trusseltypen bruker offentlig tilgjengelige lydklipp, bilder og videoer av personer til å manipulere eksisterende medier.

Kilde: YouTube-kanalen DeepFakery

En deepfake-video av politikeren og diplomaten Hilary Clinton som taler på et podium.

Disse manipulerte mediene brukes ofte til underholdningsformål, men de som står bak kan også ha mer uredelige hensikter,

Kilde: YouTube-kanalen Derpfakes

Ekte video

Deepfake

En person sitter på en sofa og ser på smarttelefonen sin.

som å svindle ofre, hjelpe til med sosial manipulering, generere falske nyheter og spre falsk informasjon.

Nærbilde av en nettkriminells håndskriving på et bærbar-PC-tastatur.

Administrerende direktør i et energiselskap i Storbritannia ble nye utsatt for sosial manipulering, da han ble narret til å tro at han snakket med toppsjefen i morselskapet, der til og med den tyske aksenten var overbevisende kopiert. Dette var et forfalsket lydklipp som narret den administrerende direktøren til å overføre 220 000 euro til de nettkriminelle som stor bak.

Deepfake datastyrt ansiktskartlegging vises over en persons ansikt.

Teknologiselskaper jobber for å bekjempe slike angrep, men vi er fremdeles svært utsatte for denne typen manipulering. Gjennom maskinlæring vil deepfakes over tid bli bedre og bedre samt enda mer overbevisende.

En side-ved-side deepfake-video av president Barack Obama og filmskaperen Jordan Peele.

Det beste forsvaret mot disse truslene er å forholde seg skeptisk til oppsiktsvekkende eller mistenkelige nyheter, selv om videoen eller lydopptaket kan se ut til å være ekte.

Kilde: YouTube-kanalen BuzzFeed

Ekte video

Deepfake

En deepfake-video av ansiktet til Ryan Reynolds erstatter ansiktet til Gene Wilders som Willy Wonka.

Selv om teknologien kan gi svært overbevisende resultater, er det likevel mulig å kunne se feil, som at en person ikke blunker eller har unaturlige ansiktsbevegelser, forskjeller i hudtoner og andre avvik.

Kilde: YouTube-kanalen NextFace

En person ser bekymret ut mens de leser informasjon på den bærbare PC-en sin.

Hvis du mistenker at en video er forfalsket, kan du se om du finner originale videoen på nett.

En delt skjerm viser en person som ubevisst snakker med en nettkriminell på smarttelefonen.

Mottar du en mistenkelig samtale, selv om det høres ut som en faktisk person, bør du dobbeltsjekke hvor anropet kommer fra eller om nummeret er uvanlig.

En person sitter på en sofa og ser bekymret ut mens de bruker smarttelefonen sin.

Den beste måten å sikre at du ikke blir utnyttet på, er å bekrefte ektheten til alle forespørsler om sensitiv informasjon, som å ringe opp personen på et nummer du vet er ekte.

En person sitter og leser viktig informasjon på den bærbare PC-en sin.

Det er viktig å være oppmerksom på deepfakes, da det er stor sannsynlighet for at denne teknologien vil bli langt mer avansert og få en mer fremtredende rolle i dagens trusselbilde.