1. Uzun, koyu saçlı, kendinden emin bir ifadeyle gülümseyen kadın.

Microsoft, 1 fotoğraftan hiper gerçekçi derin sahtekarlıklar üreten yapay zekayı gösteriyor

Alexandre Marques Avatarı
Microsoft'un yeni yapay zekası VASA-1, tek bir fotoğraftan etkileyici sonuçlarla gerçekçi videolar oluşturma yeteneğine sahip. Anlamak.

O VASA-1 en son yapay zeka Microsoft, bir kişinin tek bir fotoğrafından veya çiziminden hiper gerçekçi deepfake'ler oluşturmak için tasarlandı. Araç, yüz ifadelerini ve kafa hareketlerini doğru bir şekilde yeniden üretme yeteneğiyle etkileyicidir ve fotoğraftaki kişinin aslında bir şeyi ifade ettiği yanılsamasını verir. Tarafından sunulan gösterilerde Microsoftya da VASA-1 Sesle senkronize edilmiş dudak hareketinin kopyalanması ve orijinal fotoğraflarda bulunmayan ifadeler yaratılmasından etkilendim ve sonuçta son derece ikna edici videolar ortaya çıktı.

Yeni araç, çok az girdi bilgisi ile gerçekçi videolar oluşturma yeteneğinin potansiyel olarak sahte haberler, iftira niteliğinde videolar ve hatta aldatmacalar oluşturmak için kullanılabileceğinden, deepfake teknolojilerinin etik kullanımına ilişkin endişeleri artırıyor. bu yüzden Microsoft olmasını sağlamak için çalışmaktadır. VASA-1 sorumlu ve etik bir şekilde kullanılmalıdır.

VASA-1 nedir ve nasıl çalışır?

Doğru gibi görünüyor, ancak yukarıdaki video sadece bir deepfake. VASA-1 yapay zeka aracılığıyla gerçekçi konuşan yüzler oluşturmada önemli bir ilerlemeyi temsil ediyor. Ö VASA-1 Bir kişinin fotoğrafı veya çizimi olsun, tek bir hareketsiz görüntüden ve bir konuşmanın ses klibinden konuşan yüzlerin videolarını üretme kapasitesine sahiptir. Ortaya çıkan bu videolar yalnızca sesle senkronize edilmiş dudak hareketlerini değil, aynı zamanda geniş bir yelpazedeki doğal yüz dinamiklerini ve baş hareketlerini de içeriyor ve yüksek düzeyde gerçekçilik ve canlılık sağlıyor.

Önceki yöntemlerden farklı olarak, VASA-1 İfadeler, göz hareketleri ve göz kırpmalar gibi olası tüm yüz hareketlerini benzersiz gizli değişkenler olarak dikkate alarak konuşan yüzlerin nesline bütünsel olarak yaklaşıyor. Ayrıca, VASA-1 Birincil bakış yönü, baş mesafesi ve duygusal denge gibi isteğe bağlı koşullandırma ipuçlarını öğrenme sürecine dahil eder. Bu, karmaşık dağıtımların üretken modellemesini daha yönetilebilir hale getirir ve üretim muhasebesini artırır. Örneğin aşağıdaki videoda VASA-1 deepfake'te farklı bakış yönü seçenekleri gösterdi.

En etkileyici yönlerinden biri VASA-1 gerçek zamanlı olarak konuşan yüzler oluşturma yeteneği, onu etkileşimli iletişim uygulamaları için ideal kılmaktadır. Video oluşturma kalitesini hesaplama verimliliğiyle dengeleyerek, VASA-1 Mevcut yöntemleri önemli ölçüde aşarak yapay zeka destekli dijital avatarların bizimle gerçek insanlarla etkileşimler kadar doğal ve sezgisel olarak etkileşime girebileceği bir geleceğe bizi yaklaştırıyor.

temsili VASA-1 görünümü, başın üç boyutlu konumunu ve yüz dinamiklerini değiştirebilir; bu da niteliklerin ayrı ayrı kontrol edilmesine ve oluşturulan içeriğin düzenlenmesine olanak tanır. Bu, tek bir giriş fotoğrafıyla bile, farklı hareket sekanslarına sahip konuşan yüzlerin videoları oluşturmanın veya aynı hareket sekansına farklı fotoğraflar uygulamanın mümkün olduğu ve bunun sonucunda çok çeşitli özelleştirme olanakları ve oluşturulan içerik üzerinde kontrol sağlandığı anlamına gelir.

Deepfake'in tehlikeleri

Hiper-gerçekçi deepfake'ler
Deepfake'ler siyasi silah olarak kullanılır ve bir kişinin yüzünün gerçekte ifade edilmemiş bir şeyi göstermesini veya söylemesini sağlayabilir. Fotoğraf: Üreme / İnternet.

O VASA-1olası olumlu uygulamalarına rağmen, deepfake oluşturulmasıyla ilgili önemli riskler de barındırıyor. Bu teknoloji, bir kişinin hiç gerçekleşmemiş bir şeyi yaparken veya söylerken tasvir edildiği son derece inandırıcı sahte videolar oluşturmak için kötüye kullanılabilir. Bu deepfake'ler, yanlış bilgi yaymak, kamuoyunu manipüle etmek, bireyleri karalamak ve hatta sosyal veya politik çatışmaları kışkırtmak gibi ciddi zararlara neden olma potansiyeline sahiptir.

Özellikle seçim dönemlerinde teknoloji, siyasi deepfake yaratımlarıyla kötü niyetli kullanımdan kaynaklanan sorunlar yaratabiliyor. Bu teknolojiyle politikacıların veya tanınmış kişilerin yalan konuşmalar yaptığı veya uzlaşmacı eylemlerde bulunduğu videolar oluşturmak mümkün. Bu videolar seçimleri etkilemek, halkın liderlere ve kurumlara olan güvenini sarsmak ve siyasi istikrarsızlık yaratmak için kullanılabilir.

Deepfakes'in kullanımı dünya çapında birçok hükümetin dikkatini ve endişesini uyandırdı. Brezilya'da, TSE Seçimlerde deepfake kullanımı yasaklandıtedbir bu yıl Şubat ayında onaylandı. Bu yasağın amacı, bilgilerin manipülasyonunu önlemek ve seçim sürecinin bütünlüğünü korumak, sahte video ve seslerin adaylara zarar vermek veya adayları desteklemek amacıyla kullanılmasını önlemektir. Deepfake'lerin uygunsuz kullanımı, yetkinin iptal edilmesine veya adaylığın kaydedilmesine neden olabilir.

Özellikle Çin, bu teknolojilerin kullanımına ilişkin kapsamlı düzenlemeye öncülük etmiştir. Bazı Batılı hükümetlerin benimsediğinden daha geniş kapsamlı olan mevzuatı, sosyal istikrarı korumaya yönelik bir araç olarak görülüyor. Rıza olmadan deepfake oluşturulmasını açıkça yasaklıyor ve yapay zeka tarafından oluşturulan içeriğin açıkça tanımlanmasını gerektiriyor.

Rusya'nın Ukrayna'yı işgalinden sonra endişe verici bir örnek yaşandıDeepfake bir video sosyal medyada geniş çapta yayıldı. Burada Ukrayna Devlet Başkanı Volodimir Zelenskiy'in askerlerine teslim olma emrini verdiği görülüyordu ki bu aslında hiç gerçekleşmemiş bir şeydi. Dahası, deepfake'ler ünlülerin, arkadaşların veya ailelerin sahte videolarını oluşturmak, kafa karışıklığı yaratmak ve ilgili kişilerin itibarına zarar vermek gibi günlük durumlarda daha yaygın olarak kullanılabilir.

Yayın tahmini

Hiper-gerçekçi deepfake'ler
Microsoft ayrıca VASA-1'in kötüye kullanılmasıyla ilgili endişelerini de dile getiriyor. Fotoğraf: Üreme / İnternet.

A Microsoft ile ilişkili riskleri tanır VASA-1 ve aracın sorumlu bir şekilde geliştirilmesini ve kullanılmasını sağlamaya kararlıdır. Potansiyel etik, gizlilik ve güvenlik sorunları nedeniyle VASA-1 oluşturabilir Microsoft Henüz genel kullanıma açık bir çıkış tarihi yok.

Şirket, teknolojinin kötüye kullanılması risklerini azaltmaya yardımcı olacak güvenlik ve kontrol önlemlerini uygulamak için aktif olarak çalışıyor. Geliştiriciler, oluşturulan videoların orijinalliğini artırmak ve halkın kullanımına sunulmadan önce teknolojinin kötüye kullanılmasıyla mücadeleye yardımcı olabilecek derin sahte tespit yöntemleri geliştirmek için çalışıyor.

Bunu ve Showmetech TRIO'daki diğer haberleri görün:

Şunu da görün:

https://www.showmetech.com.br/como-criminosos-clonam-pessoas-com-inteligencia-artificial

Kaynaklar: PCMag, Microsoft e şort

Tarafından gözden geçirildi Glaukon Hayati 22/4/24 tarihinde.


Showmetech hakkında daha fazlasını keşfedin

En son haberlerimizi e-postayla almak için kaydolun.

İlgili Yazılar