Yapay zeka sahte porno internette kaybolması gereken en son şey
1990'larda Daily Sport'un (iddia edildiği gibi) ünlülerin sadece sahte çıtçıtlara karşı öfke uyandırmak için Page 3 modellerin vücutlarına gittiğini hatırlıyor musunuz?
Bunun 2018 versiyonu AI pornografisi ve biraz daha ileri gidiyor. Ve bununla, çok uzağı kastediyoruz.
Deepfake'ler, aktrislerin yüzünün bir ünlüyle değiştirildiği pornografik videolardır ve onlara adanmış 15.000 aboneye sahip bir Reddit dizisi vardır.
Gelişmiş yüz takas videoları, Daisy Ridley, Katy Perry ve Taylor Swift, gerçeğe yakın olanı yaratmak için makine öğrenimi algoritmalarını, ısmarlama yazılımları ve en iyi GPU'ları kullanıyor sahte.
İlişkili: CamSoda’nın yeni VIRP aracı ortaya çıktı
Oluşturanın Reddit profilinden adını alan Deepfakes, ücretsiz ve kullanımı kolay bir masaüstü uygulaması olan FakeApp'i yayınlayan bir posterin ardından yeni bir hayata başlıyor.
Uygulamanın yaratıcısı söyledi Anakart uygulamayı iyileştirmeyi planlıyorlar, böylece uygulama yalnızca tek bir düğmeye dokunarak çalışıyor.
![](/f/54160c81dc014089684b3d7728a106eb.gif)
"Uygulamanın mevcut sürümünün iyi bir başlangıç olduğunu düşünüyorum, ancak önümüzdeki günlerde ve haftalarda onu daha da düzene sokmayı umuyorum" dediler.
"Sonunda, potansiyel kullanıcıların bilgisayarlarında bir video seçip bir sinir sistemi indirebilecekleri noktaya kadar iyileştirmek istiyorum. ağ, halka açık bir kitaplıktaki belirli bir yüzle ilişkilendirilir ve videoyu tek bir dokunuşla farklı bir yüzle değiştirir buton."
Videolar ünlülerle sınırlı değil, Reddit posterleri bunun yerine aşklarını kullanarak sahtekarlıkları yaratmayı sorguluyor.
Sahte olanları tespit etmek daha zor
Endişe verici bir şekilde, belki de videolar o kadar iyi hale geliyor ki, sahte ve gerçek videolar arasındaki farkı söylemek gittikçe zorlaşıyor.
Virginia Üniversitesi Uygulamalı Etik Emeritus Profesörü Deborah Johnson, Motherboard'a şunları söyledi: "Yeni olanın, ne derece yapılabileceği veya inanılırlık derecesi, neyin gerçek olduğunu ayırt edemeyeceğimiz noktaya geliyoruz - ama sonra, yapmadık önce.
"Yeni olan, artık herkesin kullanımına açık olması veya olacağı gerçeğidir... Bu, istikrarı bozuyor. Bütün güven ve güvenilirlik işi bu şeyler yüzünden baltalanıyor. "
Aracın potansiyel kullanımları, pornografinin çok ötesinde düşünmek için korkutucu. Masum insanlara karşı şantaj yapmak veya sahte kanıt oluşturmak için kullanılıp kullanılamayacağı konusunda endişeler var.
Deepfake ile ilgili görüşünüz nedir? Twitter'da @TrustedReviews bizimle paylaşın.