OpenAI, Yapay Zekânın Askeri Amaçla Kullanımına İzin Vermeye Başladı
Yapay zeka alanında öncü bir şirket olan OpenAI, kullanım politikalarında yaptığı bir değişiklikle, yapay zeka araçlarının askeri ve savaş amaçlı kullanımını yasaklayan bir bölümü sayfadan kaldırdı. Bu değişiklik, şirketin yapay zeka teknolojisini kimlere ve nasıl sunduğu konusunda yeni bir tartışma başlattı.
OpenAI, son bir yıllık süreçte, geliştirdiği büyük dil modeli (LLM) GPT-4 ve herkesin kullanıma sunduğu yapay zeka destekli sohbet botu ChatGPT ile teknoloji dünyasını salladı. Şirket, yapay zeka teknolojisini daha geniş kitlelere ulaştırmak ve demokratikleştirmek için çeşitli girişimlerde bulundu. Ancak bu girişimler, aynı zamanda yapay zekanın olası kötüye kullanımı ve etik sorunları konusunda da endişeleri artırdı.
OpenAI, bu endişeleri gidermek için, kullanım politikalarında, yapay zeka araçlarının yüksek fiziksel zarar riski taşıyan faaliyetler için kullanımını yasaklayan bir bölüm eklemişti. Bu bölümde, silah geliştirme, askeri ve savaş, kritik altyapı hizmetleri ve intihar gibi konular yer alıyordu. Ancak şirket, 10 Ocak itibarıyla geçerli yeni “Kullanım Politikaları” sayfasında, bu bölümü kaldırdı. Şirket, bu değişikliği, kullanım politikalarını “daha net olacak ve hizmete özel daha fazla rehberlik sağlayacak şekilde güncelledik” diyerek açıkladı.
Yeni kullanım politikalarında, yapay zeka araçlarının silah geliştirmek ya da kullanmak için kullanılmasının yasak olduğu belirtiliyor. Ayrıca, yapay zeka araçlarının, insanlara zarar veren, teşvik eden veya tasvir eden içerik üretmesinin de yasak olduğu ifade ediliyor. Ancak askeri ve savaş kullanımı ile ilgili herhangi bir uyarı bulunmuyor. Bu da, şirketin yapay zeka teknolojisini askeri kurumlarla işbirliği yaparak sunabileceği anlamına geliyor.
Bu değişiklik, hem teknoloji hem de güvenlik açısından önemli bir değişiklik. Zira yapay zeka teknolojisi, günümüzde askeri alanda giderek daha fazla kullanılmaya başlandı. Örneğin, ABD Savunma Bakanlığı, yapay zeka teknolojisini, istihbarat, gözetim, tanıma, karar verme, siber savunma, lojistik ve silah sistemleri gibi alanlarda kullanmak için çeşitli projeler yürütüyor. ABD’nin yanı sıra, Çin, Rusya, İsrail, İngiltere, Fransa, Almanya, Türkiye gibi ülkeler de yapay zeka teknolojisini askeri alanda geliştirmek ve kullanmak için çalışmalar yapıyor.
ASKERİ ALANLARDA KULLANILMAYA KARAR VERİDİ
Yapay zeka teknolojisinin askeri alanda kullanımı, hem avantajlar hem de riskler taşıyor. Yapay zeka teknolojisi, askeri operasyonları daha hızlı, daha verimli, daha ucuz ve daha güvenli hale getirebilir. Ayrıca, yapay zeka teknolojisi, askeri personelin hayatını kurtarabilir, sivil kayıpları azaltabilir, insani yardım ve barışı koruma faaliyetlerine katkı sağlayabilir. Ancak yapay zeka teknolojisi, aynı zamanda, askeri rekabeti ve çatışmayı artırabilir, silahlanma yarışına yol açabilir, etik ve hukuki sorunlar yaratabilir, insan kontrolünü ve sorumluluğunu azaltabilir, siber saldırılara ve manipülasyonlara açık olabilir.
Bu nedenle, yapay zeka teknolojisinin askeri alanda kullanımı, uluslararası toplumun dikkatini çeken ve düzenlemeye ihtiyaç duyan bir konu. Birleşmiş Milletler, yapay zeka teknolojisinin askeri alanda kullanımı ile ilgili olarak, özellikle öldürücü otonom silah sistemleri (LAWS) konusunda çeşitli toplantılar ve raporlar yayınladı. Ancak bu konuda henüz bir uzlaşı sağlanabilmiş değil. Bazı ülkeler, yapay zeka teknolojisinin askeri alanda kullanımını yasaklamak veya sınırlandırmak için çağrıda bulunurken, bazı ülkeler ise bu teknolojiyi geliştirmek ve kullanmak için çaba gösteriyor.
OPENAL POLİTİKA DEĞİŞİKLİĞİ YAPTI
OpenAI’nın kullanım politikalarında yaptığı değişiklik, şirketin yapay zeka teknolojisini askeri alanda kullanımına izin verdiği veya en azından yasaklamadığı şeklinde yorumlanabilir. Bu da, şirketin yapay zeka teknolojisini kimlere ve nasıl sunduğu konusunda yeni bir tartışma başlattı. OpenAI, kurulduğu günden beri, yapay zeka teknolojisini insanlığın yararına kullanmak ve yapay zeka araştırmalarını açık ve şeffaf bir şekilde paylaşmak gibi misyonlarını vurguluyor. Ancak şirketin son zamanlarda yaptığı bazı hamleler, şirketin bu misyonlarına ne kadar bağlı olduğu konusunda soru işaretleri doğuruyor.
Örneğin, şirket, GPT-4 gibi büyük dil modellerini geliştirmek için milyarlarca dolarlık yatırımlar aldı. Bu yatırımlar, şirketin kar amacı güden bir şirkete dönüştüğü ve yapay zeka teknolojisini daha kısıtlı ve pahalı bir şekilde sunacağı endişelerini beraberinde getirdi. Ayrıca, şirket, GPT-4 gibi büyük dil modellerinin telif hakkı olan eserleri ücretsiz olarak kullanmasına izin verilmesini talep etti. Bu talep, şirketin yapay zeka teknolojisinin etik ve hukuki sorunlarını göz ardı ettiği eleştirilerine neden oldu.
OpenAI’nın kullanım politikalarında yaptığı değişiklik, şirketin yapay zeka teknolojisinin askeri alanda kullanımına izin verdiği veya en azından yasaklamadığı şeklinde yorumlanabilir. Bu da, şirketin yapay zeka teknolojisini kimlere ve nasıl sunduğu konusunda yeni bir tartışma başlattı.