Tech reviews and news

AI Fake Porn ist das Neueste im Internet, das verschwinden muss

click fraud protection

Erinnern Sie sich noch an die 1990er Jahre, als der (angeblich) photoshoppte Promi von Daily Sport auf die Körper der Models stieß, nur um sich über die gefälschten Schnappschüsse zu empören?

Nun, die 2018-Version davon ist KI-Pornografie und geht noch ein bisschen weiter. Und damit meinen wir viel zu weit.

Deepfakes sind pornografische Videos, bei denen das Gesicht der Schauspielerin durch eine Berühmtheit ersetzt wird. Ihnen ist ein ganzer Reddit-Thread mit 15.000 Abonnenten gewidmet.

Die fortgeschrittenen Face-Swap-Videos haben bereits Aufnahmen von Prominenten wie Daisy Ridley, Katy Perry und Taylor Swift und verwendet Algorithmen für maschinelles Lernen, maßgeschneiderte Software und eine Top-GPU, um das Leben zu schaffen Fälschungen.

Verbunden: Das neue VIRP-Tool von CamSoda wurde vorgestellt

Deepfakes, benannt nach dem Reddit-Profil des Urhebers, erweckt ein neues Leben, nachdem ein Poster FakeApp veröffentlicht hat, eine kostenlose und benutzerfreundliche Desktop-Anwendung.

Der Schöpfer der App sagte

Hauptplatine Sie planen, die App so zu verbessern, dass sie mit nur einem Knopfdruck funktioniert.

"Ich denke, die aktuelle Version der App ist ein guter Anfang, aber ich hoffe, sie in den kommenden Tagen und Wochen noch weiter zu optimieren", sagten sie.

„Schließlich möchte ich es so weit verbessern, dass potenzielle Benutzer einfach ein Video auf ihrem Computer auswählen und eine neuronale Datei herunterladen können Das Netzwerk korrelierte mit einem bestimmten Gesicht aus einer öffentlich zugänglichen Bibliothek und tauschte das Video mit der Presse eines anderen gegen ein anderes Gesicht aus Taste."

Die Videos sind nicht auf Prominente beschränkt. Reddit-Poster fragen stattdessen nach, wie man die Fälschungen mit ihren Schwärmen erstellt.

Schwieriger, die Fälschungen zu erkennen

Besorgniserregend ist vielleicht, dass die Videos so gut werden, dass es immer schwieriger wird, den Unterschied zwischen gefälschten und echten Videos zu erkennen.

Deborah Johnson, emeritierte Professorin für Angewandte Ethik an der Universität von Virginia, sagte gegenüber Motherboard: "Man könnte argumentieren, dass das Neue das ist Inwieweit dies möglich ist oder glaubwürdig, kommen wir an einen Punkt, an dem wir nicht mehr unterscheiden können, was wirklich ist - aber dann haben wir es nicht getan Vor.

"Was neu ist, ist die Tatsache, dass es jetzt für alle verfügbar ist oder sein wird... Es ist destabilisierend. Das ganze Geschäft mit Vertrauen und Zuverlässigkeit wird durch dieses Zeug untergraben. “

Die möglichen Verwendungsmöglichkeiten des Tools sind beängstigend, weit über Pornografie hinaus. Es gibt Bedenken, ob es zur Erpressung oder zur Schaffung gefälschter Beweise gegen unschuldige Menschen verwendet werden könnte.

Wie sehen Sie Deepfakes? Teilen Sie es mit uns @TrustedReviews auf Twitter.

Das neueste Fire HD 8 von Amazon kann sich in eine tragbare Echo-Show verwandeln

Das neueste Fire HD 8 von Amazon kann sich in eine tragbare Echo-Show verwandeln

Amazon bringt heute seinen neuesten Eintrag in die Fire HD-Tablet-Serie auf den Markt, zusammen m...

Weiterlesen

Instagram-Videofunktion startet am 20. Juni auf Facebook

Instagram-Videofunktion startet am 20. Juni auf Facebook

Facebook soll die Instagram-Videofunktion während einer Presseveranstaltung am 20. Juni starten, ...

Weiterlesen

Berichten zufolge gibt Apple das iPhone 6 an Besitzer aus, die von #Crescentgate betroffen sind

Gerade als Sie dachten, Apples neueste iPhone-Serie sei von so ziemlich jedem lächerlichen Hardwa...

Weiterlesen

insta story