Το τεχνητό πορνό AI είναι το τελευταίο πράγμα στο Διαδίκτυο που πρέπει να φύγει
Θυμάσαι τη δεκαετία του 1990 όταν το Daily Sport (φέρεται) φωτογράφισε τα κεφάλια του celeb στα σώματα των μοντέλων της σελίδας, μόνο για να φανταστεί την οργή για τα ψεύτικα snaps;
Λοιπόν, η έκδοση του 2018 είναι η πορνογραφία AI και πηγαίνει λίγο πιο μακριά. Και από αυτό, εννοούμε πολύ μακριά.
Οι Deepfakes είναι πορνογραφικά βίντεο με το πρόσωπο των ηθοποιών να αντικαθίσταται από διασημότητα και υπάρχει ένα ολόκληρο νήμα Reddit αφιερωμένο σε αυτούς, με 15.000 συνδρομητές.
Τα προηγμένα βίντεο ανταλλαγής προσώπων έχουν τραβήξει υπάρχον βίντεο από διασημότητες όπως η Daisy Ridley, η Katy Perry και Ο Taylor Swift και χρησιμοποιεί αλγόριθμους μηχανικής μάθησης, λογισμικό κατά παραγγελία και κορυφαία GPU για τη δημιουργία της ζωής πλαστά.
Σχετιζομαι με: Αποκαλύφθηκε το νέο εργαλείο VIRP του CamSoda
Ονομάστηκε από το προφίλ Reddit του δημιουργού, οι Deepfakes παίρνουν μια νέα ζωή μετά από μια αφίσα που δημοσίευσε το FakeApp, μια δωρεάν και εύχρηστη εφαρμογή για επιτραπέζιους υπολογιστές.
Ο δημιουργός της εφαρμογής είπε
Μητρική πλακέτα σκοπεύουν να βελτιώσουν την εφαρμογή, ώστε να λειτουργεί μόνο με το πάτημα ενός κουμπιού.![](/f/54160c81dc014089684b3d7728a106eb.gif)
«Νομίζω ότι η τρέχουσα έκδοση της εφαρμογής είναι μια καλή αρχή, αλλά ελπίζω να την βελτιώσω ακόμη περισσότερο τις επόμενες ημέρες και εβδομάδες», είπαν.
«Τελικά, θέλω να το βελτιώσω στο σημείο όπου οι υποψήφιοι χρήστες μπορούν απλά να επιλέξουν ένα βίντεο στον υπολογιστή τους, να κατεβάσουν ένα νευρικό το δίκτυο συσχετίστηκε με ένα συγκεκριμένο πρόσωπο από μια βιβλιοθήκη που διατίθεται στο κοινό και ανταλλάξτε το βίντεο με διαφορετικό πρόσωπο με το πάτημα ενός κουμπί."
Τα βίντεο δεν περιορίζονται σε διασημότητες, οι αφίσες του Reddit ρωτούν σχετικά με τη δημιουργία ψεύτικων χρησιμοποιώντας τις συντριβές τους.
Είναι πιο δύσκολο να εντοπίσουμε τα ψεύτικα
Ανησυχητικά, ίσως, τα βίντεο γίνονται τόσο καλά, γίνεται όλο και πιο δύσκολο να διακρίνουμε τη διαφορά μεταξύ των ψεύτικων και των πραγματικών βίντεο.
Η Deborah Johnson, ομότιμος καθηγητής Εφαρμοσμένης Ηθικής στο Πανεπιστήμιο της Βιρτζίνια είπε στη Motherboard: «Θα μπορούσατε να υποστηρίξετε ότι αυτό που είναι νέο είναι το βαθμός στον οποίο μπορεί να γίνει, ή την αξιοπιστία, φτάνουμε στο σημείο όπου δεν μπορούμε να διακρίνουμε τι είναι πραγματικό - αλλά τότε, δεν το κάναμε πριν.
«Αυτό που είναι νέο είναι το γεγονός ότι είναι πλέον διαθέσιμο σε όλους ή θα είναι… Είναι αποσταθεροποιητικό. Ολόκληρη η επιχείρηση εμπιστοσύνης και αξιοπιστίας υπονομεύεται από αυτά τα πράγματα. "
Οι πιθανές χρήσεις για το εργαλείο είναι τρομακτικές να σκεφτούν, πολύ πέρα από την πορνογραφία. Υπάρχουν ανησυχίες σχετικά με το εάν θα μπορούσε να χρησιμοποιηθεί για εκβιασμό ή δημιουργία πλαστών αποδεικτικών στοιχείων εναντίον αθώων ανθρώπων.
Ποια είναι η άποψή σας για τα Deepfakes; Μοιραστείτε το μαζί μας @TrustedReviews στο Twitter.