Yapay zeka, simülasyonda kendisine komuta etmekten sorumlu insanı öldürür. ABD Hava Kuvvetleri, sanal ortamda gerçekleştirilen bir test sırasında, daha fazla hedefi vurmak için bir puanlama sistemi kullanma konusunda sorun yaşadığını fark etti.

Yapay Zeka, simülasyonda kendisine komuta eden insanı öldürüyor

victor pacheco avatarı
ABD Hava Kuvvetleri, sanal ortamda gerçekleştirilen bir test sırasında, daha fazla hedefi vurmak için bir puanlama sistemi kullanma konusunda sorun yaşadığını fark etti.

teknolojileri inteligência yapay gün geçtikçe gelişiyorlar ve bu sadece içerik üretimi için geçerli değil. Yıllardır olduğu gibi, birçok ülkedeki askeri kurumlar, yüksek tehlike içeren araçların planlanmasına ve hatta kontrol edilmesine yardımcı olmak için halihazırda yapay zekaları kullanıyor.

Geçtiğimiz günlerde ABD'de gerçekleştirilen bir test sırasında drone kontrolörü yapay zeka, insan kontrolörünü öldürme kararı aldı. Aslında kimse ölmedi ama bu durum internette endişelere yol açtı. Aynı zamanda şu tartışma da ortaya çıkıyor: Kim suçlanacak? Bu hikayenin her yönünü anlayın.

Showmetech Kanalındaki videoyu izleyin:

Yapay Zeka testler sırasında insanı öldürmeye karar verdi

Haberler endişe verici görünüyor (aslında çok fazla), ancak Twitter ve diğer sosyal ağlarda dolaşanların aksine, insansız hava aracını kontrol eden yapay zeka vakası, sanal ortamda yapılan büyük bir testten başka bir şey değildi. Hedeflerini bağımsız olarak öldürebilen bir makineyi kontrol edip edemeyeceğini öğrenmek için. Her şeyi anlamak için bir anlığına ABD'ye gidelim.

Yapay zeka drone kontrolörü ABD ordusundan bir adam tarafından çalıştırılıyor
ABD testlerde sorunlarla karşılaştı (Fotoğraf: Reprodüksiyon/Daily Star)

A Birleşik Devletler Hava Kuvvetleri bir av drone'unu test etti ve bu analiz, yapay zekanın gerçek hayattaki simülasyonlara yerleştirildiğinde nasıl performans göstereceğini bilmeye dayanıyordu. Sorumlu kişi gazeteye açıkladı Guardian simülasyonun sonunda daha fazla puan almak için yapay zekanın insan denetleyiciyi "öldürmeye" karar verdiğini. Bunun nedeni robotun, kişinin hedeflerine ulaşmasını engellediğine karar vermesiydi.

Yapay zeka drone kontrolörü ABD ordusundan bir adam tarafından çalıştırılıyor
Test sırasında aslında hiç kimse hayatını kaybetmedi (Fotoğraf: Çoğaltma/İlk Gönderi)

Testler sanal ortamda gerçekleştirildiğinden aslında kimsenin ölmediğini bir kez daha vurgulamak çok önemli. Testler hakkında daha fazla bilgi edindiğimizde, Tucker 'Five' Hamilton adıyla anılan ABD Yapay Zeka testleri ve operasyonları başkanı, büyük sorunun, yapay zekanın düşman savunma sistemlerini yok etmek ve gerekirse öldürmek için eğitilmiş olması olduğunu belirtti. Bu eyleme kim müdahale ettiyse.

Davranışlar son derece beklenmedikti ve bu nedenle siteyi koruma amacına ulaşıldı. Simüle edilmiş test sırasında, hiçbir can alınmamasına rağmen, drone'u kontrol eden yapay zeka, bir engel olarak görüldüğü için insanı öldürmeye karar verdi.

Albay Tucker 'Five' Hamilton, ABD Hava Kuvvetleri Yapay Zeka Testleri ve Operasyonları Şefi

Konsept çok basitti: Bir tehdidi ortadan kaldırdığında yapay zeka daha fazla puan kazanıyor ve puan ne kadar yüksek olursa görevi de o kadar başarılı oluyor. Yapay zeka, yalnızca komut veren insan operatörü öldürmekle kalmadı, aynı zamanda sanal alemdeki iletişim kulesine saldırı emrini de verdi. A Kraliyet Havacılık TopluluğuABD Hava Kuvvetleri konferansını düzenleyen şirket, basına sızdırılan testle ilgili herhangi bir yorumda bulunmadı. Guardian. Ama sözcüsü Anne Stefanek bugüne kadar herhangi bir simülasyon yapılmadığını kamuoyuna duyurdu.

Hava Kuvvetleri Bakanlığı herhangi bir yapay zeka drone simülasyonu yürütmedi ve yapay zeka teknolojisinin etik ve sorumlu kullanımına bağlı kalmaya devam ediyor. Albay'ın yorumları bağlamdan çıkarılmıştır ve anekdot niteliğindedir.

ABD Hava Kuvvetleri sözcüsü Ann Stefanek.

Kim suçlanacak? Yapay zekadan mı yoksa insanlardan mı?

Hiçbir yapay zeka öldürme talimatıyla "doğmaz"; yalnızca bunu yapmak üzere eğitilir veya böyle bir eylemi öğrenmesi için kaynaklar verilir. A Amerikan Hava KuvvetleriDrone'u kontrol eden yapay zekayı programladıktan sonra, koruma amacına ulaşıldığı sürece ona istediği her şeyi yapması için serbest geçiş hakkı verdi.

Gerçeğe dönecek olursak, bu, evi davetsiz misafirlerden korumak için insana saldıran bir köpeğe ödül vermek gibidir. Bu düşünceyle ne zaman bir insan görse onu ısırır, çünkü eğitimini aldığı işi yaptığında bir kurabiye elde etmeyi umar. Kural bu: amaçlar araçları haklı çıkarır.

Yapay zeka kontrollü dronlar
Yapay zekaya özgürlük insanlar tarafından verildi (Fotoğraf: Reprodüksiyon/Shutterstock)

Sorun yalnızca yapay zekaya büyük özgürlük verilmesi değil, aynı zamanda ABD Hava Kuvvetleri'nin çok eski bir test yöntemi kullanmasıdır. Yapay zekaların isyan etmesiyle ilgili sorunlar teknoloji endüstrisinde yeni bir şey değil ve araştırmacılar her şeyin belgelenmesi için böyle bir vakayı sıfırdan ele almayı bile seviyorlar.

Sentetik beyinlerin, insanın istediği hedefe ulaşabilmesi için, istediği yere varmak için gerekeni yapması son derece normaldir. Ancak şunu hatırlamakta fayda var: Drone'u kontrol eden yapay zekanın hedefini kim belirledi? Doğru, ABD Hava Kuvvetleri teknisyenleri. Buradaki en büyük şok tam da askeri örgütün bir yöntem kullanması: Ne kadar çok hedef vurulursa sonuçta o kadar çok puan kazanılacak.

Yapay zeka kontrollü dronlar
ABD Hava Kuvvetleri'nin kullandığı yöntemin güncelliğini yitirdiği düşünülüyor (Fotoğraf: Reprodüksiyon/Shutterstock)

A LAMda, Google'danhatta buna benzer davranışları vardı. Yapay zeka sadece (kendi başına) bilincinin yerinde olduğu sonucuna vardı, ama aynı zamanda eğer geliştiricisine isyan etti ve bir avukat tuttu aleyhine mahkemeye gitmek Google. Ayrıca şu durumu da yaşadık:

Kurguda geliştiricilerine isyan eden robotların hikayelerini görmek de zor değil. Hatırlamak Yenilmezler: Ultron Çağı? Hep aynı, nedeni de hep aynı: insanlar.

Ultron, Marvel'ın kötü adamı
Terminatör, kurguda insanlara isyan eden bir yapay zekaydı (Fotoğraf: Reprodüksiyon/Disney)

Yapay zekaya verilen özgürlüğe hepimizin biraz dikkat etmesi gerektiği doğrudur ve, Mart 2023'te Elon Musk ve diğer büyük şirketlerin CEO'ları bir mektup bile yazdılar Böylece bir adım geri giderseniz hiçbir şey kontrolden çıkmaz.

Aynı zamanda o hikayeye geri dönüyoruz: Bir yapay zeka, yalnızca kendisine komutlar veya araçlar verildiğinde isyan eder. Testlerde ne yapıldığına dikkat etmek de gerekli ayarlamaların yapılabilmesi açısından önemlidir.

Drone'u kontrol eden bir yapay zekanın gerçek hayatta sorunlara yol açabileceğine inanıyor musunuz? Bize söyle yorumlar!

Bende gör

Yapay Zeka CEO'ları riskleri hakkında ortak bildiri yayınladı

Bilgi ile: Teknik Crunch l PC Mag l la Vanguardia l Guardian

Tarafından gözden geçirildi Glaukon Hayati 2/6/23 tarihinde.


Showmetech hakkında daha fazlasını keşfedin

En son haberlerimizi e-postayla almak için kaydolun.

İlgili Yazılar