AI Fake Porn ist das Neueste im Internet, das verschwinden muss
Erinnern Sie sich noch an die 1990er Jahre, als der (angeblich) photoshoppte Promi von Daily Sport auf die Körper der Models stieß, nur um sich über die gefälschten Schnappschüsse zu empören?
Nun, die 2018-Version davon ist KI-Pornografie und geht noch ein bisschen weiter. Und damit meinen wir viel zu weit.
Deepfakes sind pornografische Videos, bei denen das Gesicht der Schauspielerin durch eine Berühmtheit ersetzt wird. Ihnen ist ein ganzer Reddit-Thread mit 15.000 Abonnenten gewidmet.
Die fortgeschrittenen Face-Swap-Videos haben bereits Aufnahmen von Prominenten wie Daisy Ridley, Katy Perry und Taylor Swift und verwendet Algorithmen für maschinelles Lernen, maßgeschneiderte Software und eine Top-GPU, um das Leben zu schaffen Fälschungen.
Verbunden: Das neue VIRP-Tool von CamSoda wurde vorgestellt
Deepfakes, benannt nach dem Reddit-Profil des Urhebers, erweckt ein neues Leben, nachdem ein Poster FakeApp veröffentlicht hat, eine kostenlose und benutzerfreundliche Desktop-Anwendung.
Der Schöpfer der App sagte
Hauptplatine Sie planen, die App so zu verbessern, dass sie mit nur einem Knopfdruck funktioniert.![](/f/54160c81dc014089684b3d7728a106eb.gif)
"Ich denke, die aktuelle Version der App ist ein guter Anfang, aber ich hoffe, sie in den kommenden Tagen und Wochen noch weiter zu optimieren", sagten sie.
„Schließlich möchte ich es so weit verbessern, dass potenzielle Benutzer einfach ein Video auf ihrem Computer auswählen und eine neuronale Datei herunterladen können Das Netzwerk korrelierte mit einem bestimmten Gesicht aus einer öffentlich zugänglichen Bibliothek und tauschte das Video mit der Presse eines anderen gegen ein anderes Gesicht aus Taste."
Die Videos sind nicht auf Prominente beschränkt. Reddit-Poster fragen stattdessen nach, wie man die Fälschungen mit ihren Schwärmen erstellt.
Schwieriger, die Fälschungen zu erkennen
Besorgniserregend ist vielleicht, dass die Videos so gut werden, dass es immer schwieriger wird, den Unterschied zwischen gefälschten und echten Videos zu erkennen.
Deborah Johnson, emeritierte Professorin für Angewandte Ethik an der Universität von Virginia, sagte gegenüber Motherboard: "Man könnte argumentieren, dass das Neue das ist Inwieweit dies möglich ist oder glaubwürdig, kommen wir an einen Punkt, an dem wir nicht mehr unterscheiden können, was wirklich ist - aber dann haben wir es nicht getan Vor.
"Was neu ist, ist die Tatsache, dass es jetzt für alle verfügbar ist oder sein wird... Es ist destabilisierend. Das ganze Geschäft mit Vertrauen und Zuverlässigkeit wird durch dieses Zeug untergraben. “
Die möglichen Verwendungsmöglichkeiten des Tools sind beängstigend, weit über Pornografie hinaus. Es gibt Bedenken, ob es zur Erpressung oder zur Schaffung gefälschter Beweise gegen unschuldige Menschen verwendet werden könnte.
Wie sehen Sie Deepfakes? Teilen Sie es mit uns @TrustedReviews auf Twitter.