Økokrim advarer mot fenomenet deepfake:

Frykter svindelmetode: Bruker barnebarn i falske videoer

En kort video av barnebarnet ditt som snakker til deg, kan i virkeligheten være en datamanipulasjon laget av svindlere.

NYE SVINDELMETODER: Ifølge Økokrim vil det komme stadig flere forsøk der svindleren gir seg ut for å være noen andre enn mottakeren ser at de er. Foto: Shutterstock NTB
NYE SVINDELMETODER: Ifølge Økokrim vil det komme stadig flere forsøk der svindleren gir seg ut for å være noen andre enn mottakeren ser at de er. Foto: Shutterstock NTB Vis mer
Publisert
Sist oppdatert

Følg Vi.no på Facebook og Instagram, og motta nyhetsbrev ved å registrere deg her.

Bruk av ulike internett-tjenester gir oss mange muligheter til å blant annet holde kontakten med våre nærmeste. Men det krever også at vi ikke stoler blindt på all informasjon som deles med oss. Profesjonelle svindlere vil hele tiden forsøke å finne nye metoder for å lure oss. Målet er ofte eldre, som svindlerne antar er lettere å lure på nett.

Vi.no har tidligere skrevet om svindlere som bevisst har gått inn for å svindle eldre kvinner over 70 år, såkalt Olgasvindel.

- Den aller nyeste svindelmetoden vi forventer å se, er bruk av Deepfake - teknologisk manipulasjon, sier førsteadvokat Inge Svae-Grotli i Økokrim til Vi.no.

«Kan du sende meg penger, mormor?»

Ifølge Svae-Grotli blir svindelmetodene mer avanserte i takt med den teknologiske utviklingen og etter hvert som flere sosiale medier tas i bruk.

- Det er i seg selv ikke noe problem å bruke sosiale medier som Snapchat eller Facebook, men bruken kan føre til at andre personer kan forsøke å komme i kontakt med deg. Du kan tro at du for eksempel er i kontakt med barnebarnet ditt, mens du i virkeligheten kommuniserer med noen helt andre, sier Svae-Grotli.

Og det er her Deepfake-svindel kommer inn i bildet. Deepfake er kort fortalt manipulasjon av bilder, video og lyd.

- Svindlerne kan bruke et bilde av barnebarnet ditt og lage små videosnutter som varer noen sekunder. De kan få det til å se og høres ut som om det er barnebarnet ditt som filmes og som snakker til deg: «Kan du sende meg penger, mormor»? Så er vi i gang, sier Svae-Grotli.

Snuttene kan for eksempel bli sendt via Snapchat eller Facetime. Avsenderen kan ha laget en e-postadresse som ligner på navnet til de du kjenner.

- Selv om videosnutten kommer fra en ukjent avsender, er det også lett å overse dette fordi man ser en video av barnebarnet, sier Svae-Grotli.

Har du fått en videosnutt av barnebarnet ditt eller andre nære personer som spør etter penger, har Svae-Grotli et klart råd: Ta en telefon til denne personen for å dobbeltsjekke henvendelsen.

Ifølge førsteadvokaten er ikke Deepfake-svindel rettet mot privatpersoner utbredt ennå, men:

- Vi er sikre på at svindlere vil komme til å ta disse metodene i bruk fordi teknologien finnes. Det vil komme stadig flere forsøk der svindleren gir seg ut for å være noen andre enn mottakeren ser at de er. Det er nesten ikke til å tro at det er sant, sier han og viser til et eksempel fra Storbritannia der svindlere hadde klart å imitere stemmen til en direktør ved hjelp av deepfake via telefon. En underordnet ansatt ble lurt til å utføre pengetransaksjoner.

Manipulerte Obama

Såkalte Deepfake-videoer har florert på nettet noen år. I 2019 skrev Dagbladet om manipulasjon av både Donald Trump og Barack Obama i slike videoer.

DEEP FAKE: Videoen viser et bilde av Donald Trump, men personen i videoen, som er produsert av det belgiske politiske partiet Socialistische Partij Anders (Sp.a), er ikke den amerikanske presidenten. Video: Socialistische Partij Anders Vis mer

Et godt eksempel på hvor godt en video kan bli manipulert er en video som ble laget av Buzzfeed i 2018. Er du interessert i å se hvordan det fungerer, klikk på videoen hvor vi hører og ser USAs tidligere president Barack Obama kalle Donald Trump en «drittsekk». I virkeligheten var det filmregissør Jordan Peel som etterlignet den tidligere presidenten.

Teknologien blir også brukt i humorsammenheng. Blant annet har komiker Herman Flesvig brukt den hyppig på sin Instagramkonto. Her er det imidlertid tydelig at det er forfalskning og tydelig at det er parodi på blant annet Petter Stordalen:

Se dette innlegget på Instagram

God mandag!

Et innlegg delt av Herman Flesvig (@hermanflesvig)

Kan skape en betalingsvilje

Torgeir Waterhouse, rådgiver og foredragsholder innen teknologi, er enig med Økokrim i at Deepfake kan bli mer brukt som svindelmetode.

- Jeg kan for eksempel sende deg en deepfake-video som viser dine barn i en vanskelig situasjon. Det kan se ut som om de filmer seg i skjul og ber om hjelp. Det kan skape en betalingsvilje hos noen, sier han.

Muligheten til å manipulere video krever en ny bevissthet hos oss. Waterhouse påpeker at vi ikke er innstilt på at levende bilder kan være falske.

- Når vi ser det selv, må det jo være sant. Vi baserer oss på det vi kan observere. Nå er det sånn at vi ikke nødvendigvis kan stole på det. Det er et skille mellom det vi observerer i sanntid og det som er filmet. En stor frykt i denne sammenhengen er porno, sier han.

Utpressing

I deepfake-porno kan uskyldige personer manipuleres inn i pornografiske filmer. Her er det først og fremst utpressing som er målet. Svindlerne vil ha penger for ikke å publisere innholdet offentlig eller sende til for eksempel partner eller arbeidsgiver.

Ifølge Waterhouse er rådet at du ikke skal betale proffe svindlere. Men det kan være vanskelig å følge dette rådet i praksis.

- Selv om du skjønner at det er en falsk video, tar du ikke sjansen på å ikke betale. Uavhengig av om opptaket er ekte eller ikke er det vanskelig hvis svindlerne truer med å sende det til arbeidsgiver eller andre, sier Waterhouse.

Noen tastetrykk på Google

Men hvordan klarer svindlerne å etterligne og manipulere stemmer?

Ifølge Waterhouse skal det ikke mye til for å få tak i nok taleopptak fra en person til å lage en deepfake.

- Jeg trenger bare å google navnet ditt for å finne ut hvor du har jobbet, adressen din og at du bor i nærheten av en skole. Jeg kan for eksempel ringe deg på vegne av skolen og si at det foregår et utbyggingsprosjekt. Jeg kan si at jeg kontakter naboene for å høre om det er greit at boligen blir pakket inn i presenning blant annet. Jeg kan konstruere en samtale og ta nok opptak av stemmen din til å lage en deepfake, sier Waterhouse.

Noe vi må leve med

Hvor bekymra bør vi egentlig være for å bli svindlet på denne måten?

- Det er noe vi må ta på alvor, men på den andre siden er det kanskje noe vi må lære oss å leve med, sier Waterhouse.

Han mener det handler mye om at vi som mennesker må forstå konsekvensene.

- Én ting er svindlere som vil ha tak i penger. Det er noe annet med en kollega som er forbannet på deg og manipulerer deg inn i en pornofilm eller lager en video hvor du skriker rasistiske ting til et barn på gata.

Ifølge Waterhouse jobbes det også med teknologi som skal avsløre deepfakes.

- Det må kanskje etableres strafferammer som er høyere enn i dag. Vi kommer nok også til å se at det kommer forsikringsordninger til hjelp for personer som kan oppleve slike trusler.

Ifølge Waterhouse er eldre er opplagt et mål for de som bevisst jobber med svindel og innsamling av data.

- Folk i Norge er i tillegg interessante fordi vi har penger, bruker nett og er villig til å betale for det, sier han.

Vi bryr oss om ditt personvern

Vi er en del av Aller Media, som er ansvarlig for dine data. Vi bruker dataene til å forbedre og tilpasse tjenestene, tilbudene og annonsene våre.

Vil du vite mer om hvordan du kan endre dine innstillinger, gå til personverninnstillinger

Les mer

Velkommen til vårt kommentarfelt

Vi setter pris på kommentarer til artiklene på vi.no. Husk at mange vil lese det du skriver. Hold deg til temaet og vær saklig. Vi gjør oppmerksom på at alle innlegg kan bli redigert eller fjernet av redaksjonen.