Tech reviews and news

AI falsk porno er den siste tingen på internett som må forsvinne

click fraud protection

Husker du på 1990-tallet da Daily Sport (angivelig) fotograferte celebhoder på kroppene til Page 3 modeller, bare for å hevde opprør om de falske snapsene?

Vel, 2018-versjonen av det er AI-pornografi, og det går litt lenger. Og med det mener vi altfor langt.

Deepfakes er pornografiske videoer med skuespillerinnenes ansikt erstattet av en kjendis, og det er en hel Reddit-tråd dedikert til dem, med 15 000 abonnenter.

De avanserte ansiktsbyttevideoene har tatt eksisterende opptak av kjendiser som Daisy Ridley, Katy Perry og Taylor Swift og bruker maskinlæringsalgoritmer, skreddersydd programvare og en topp GPU for å skape det virkelige forfalskninger.

I slekt: CamSodas nye VIRP-verktøy avslørt

Deepfakes er oppkalt etter opphavsmannens Reddit-profil og får et nytt liv etter at en plakat publiserte FakeApp, et gratis og brukervennlig skrivebordsprogram.

Skaperen av appen fortalte Hovedkort de planlegger å forbedre appen slik at den fungerer med bare ett tastetrykk.

"Jeg tror den nåværende versjonen av appen er en god start, men jeg håper å effektivisere den enda mer i løpet av de kommende dagene og ukene," sa de.

Etter hvert vil jeg forbedre det til det punktet at potensielle brukere ganske enkelt kan velge en video på datamaskinen sin, laste ned en nevral nettverk korrelert med et bestemt ansikt fra et offentlig tilgjengelig bibliotek, og bytt videoen med et annet ansikt med trykk på en knapp."

Videoene er ikke begrenset til kjendiser, Reddit-plakater spør om hvordan de skal lage forfalskninger ved å bruke knusene deres i stedet.

Vanskeligere å få øye på forfalskningene

Bekymrende, kanskje, blir videoene så gode at det blir vanskeligere og vanskeligere å se forskjellen mellom falske og ekte videoer.

Deborah Johnson, emeritus professor i anvendt etikk ved University of Virginia, sa til hovedkortet: “Du kan argumentere for at det nye er i hvilken grad det kan gjøres, eller troverdigheten, kommer vi til det punktet hvor vi ikke kan skille hva som er ekte - men da gjorde vi ikke før.

“Det som er nytt er at det nå er tilgjengelig for alle, eller vil være... Det er destabiliserende. Hele virksomheten med tillit og pålitelighet undergraves av disse tingene. ”

De potensielle bruksområdene for verktøyet er skummelt å tenke på, langt utover pornografi. Det er bekymringer om det kan brukes til å utpresse eller skape falske bevis mot uskyldige mennesker.

Hva er ditt syn på Deepfakes? Del den med oss ​​@TrustedReviews på Twitter.

AirPower avbrutt: Historien om Apples uredde trådløse ladematte

AirPower avbrutt: Historien om Apples uredde trådløse ladematte

Etter mer enn et års stillhet og spekulasjoner har Apple offisielt kansellert AirPower.Den etterl...

Les Mer

Storbritannias 4G for å få boost fra Qualcomm spektrumsalg

Qualcomm selger britisk nettverksspektrum, noe som gir mobiloperatører en sjanse til å øke 4G-kap...

Les Mer

WhatsApp lar deg nå stoppe folk som tilfeldig legger deg til gruppechatter

WhatsApp har kunngjort at de lanserer en ny personvernfunksjon for å gi brukerne mer kontroll ove...

Les Mer

insta story