Teknoloji

ChatGPT sessizce kurallarını değiştirdi: Artık ABD ordusu bunu kullanabilir

ChatGPT’nin yapımcısı OpenAI, sessizce kurallarını değiştirdi ve araçlarının askeri amaçlarla kullanılması yasağını kaldırdı. Son olarak şirket şu anda Savunma Bakanlığı ile çalıştığını duyurdu.

Uzmanlar daha önce, herhangi bir insan müdahalesi olmadan öldürebilen ‘katil robotlar’ sayesinde yapay zekanın dünya çapında çatışmaları tırmandırabileceğine dair korkularını dile getirmişti.

‘Riskli faaliyetlerde kullanılamaz’ kuralı kaldırıldı

Geçtiğimiz hafta gerçekleşen kural değişikliğiyle birlikte, “Modellerimizin silah geliştirme, askeriye ve savaş dahil olmak üzere yüksek fiziksel zarar riski taşıyan faaliyetlerde kullanılmasına izin vermiyoruz.”cümle kaldırıldı.

OpenAI sözcüsü, 100 milyar dolarlık bir değerleme için para toplamak üzere görüşmelerde bulunan şirketin, siber güvenlik araçları konusunda Savunma Bakanlığı ile birlikte çalıştığını söyledi.

Tartışmalardan haberdar olduklarını söyleyen OpenAI sözcüsü şunları söyledi:

Politikamız, araçlarımızın insanlara zarar vermek, silah geliştirmek, irtibat gözetlemesi yapmak veya başkalarına zarar vermek veya mülkleri tahrip etmek için kullanılmasına izin vermiyordu. Ancak misyonumuzla uyumlu ulusal güvenlik kullanım durumları var.

Örneğin, kritik altyapı ve endüstrinin bağlı olduğu açık kaynaklı yazılımların güvenliğini sağlamak amacıyla yeni siber güvenlik araçlarının oluşturulmasını teşvik etmek amacıyla şu anda Savunma İleri Araştırma Projeleri Ajansı (DARPA) ile birlikte çalışıyoruz.

Önceki politikalarımız kapsamında bu faydalı kullanım örneklerine izin verilip verilmeyeceği açık değildi. Dolayısıyla politika güncellememizin amacı netlik sağlamak ve bu tartışmalara son vermektir.

Ülkelerden yapay zeka tedbirleri

Geçtiğimiz yılın ortalarında, aralarında ABD ve Çin’in de bulunduğu 60 ülke, yapay zekanın (AI) askeri amaçlarla kullanımını sınırlamak için bir ‘eylem çağrısı’ imzaladı.

Lahey’deki insan hakları uzmanları, ‘harekete geçme çağrısının’ yasal olarak bağlayıcı olmadığına ve ölümcül yapay zeka insansız hava araçlarının veya yapay zekanın mevcut çatışmaları tırmandırabileceği yönündeki endişelere değinmediğine dikkat çekti.

Yapay zekanın ‘Büyük Teknoloji’ kuruluşları tarafından askeri amaçlarla kullanılması daha önce de tartışmalara neden olmuştu.

2018’de binlerce Google çalışanı, şirketin yapay zeka araçlarının drone gözetleme görüntülerini analiz etmek için kullanılmasını öngören Pentagon sözleşmesini protesto etti.

Microsoft çalışanları, askerlere artırılmış gerçeklik kulaklıkları sağlanmasına yönelik 480 milyon dolarlık bir sözleşmeye tepki gösterdi.

Elon Musk uyardı

2017’de Elon Musk’un da aralarında bulunduğu teknoloji liderleri, BM’yi, kimyasal silahları ve kör insanlar için üretilen lazerleri yasaklayan yasalara benzer şekilde otonom silahları da yasaklamaya çağırmıştı.

Uzmanlar, tamamen otonom silahlarla dolu ‘Pandora’nın kutusu’ bir kez açıldığında onu tekrar kapatmanın imkansız olabileceği konusunda uyarıyor.

haber-adakli.com.tr

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu