Mayıs 2023’te yaklaşık 200 DeepMind çalışanı tarafından kaleme alınan bir mektup, bu endişeleri açıkça dile getirdi. Çalışanlar, yapay zeka teknolojisinin askeri amaçlarla kullanılmasının etik açıdan sorunlu olduğunu belirterek, Google’ın bu tür sözleşmelerden vazgeçmesi gerektiğini vurguladı. Mektupta, bu durumun belirli bir çatışmanın jeopolitik boyutlarıyla ilgili olmadığı, yapay zekanın askeri uygulamalarda kullanılmasının doğurduğu etik sorunlarla ilgili olduğu ifade edildi.
DeepMind’ın liderlerine çağrıda bulunan çalışanlar, bu teknolojinin askeri kullanıcılar tarafından erişilemez hale getirilmesini ve gelecekte benzer durumların yaşanmaması için şirket içinde yeni bir yönetim organı oluşturulmasını öneriyor. DeepMind’daki endişeler, yapay zeka teknolojisinin Google’ın bulut hizmetleri üzerinden askeri kurumlara sağlandığına dair raporların ardından daha da arttı. Time dergisi tarafından yayınlanan bir raporda, Google’ın ABD ve İsrail ordusuyla yaptığı bulut sözleşmelerinin, bu kurumlara DeepMind’ın yapay zeka teknolojisine erişim sağladığı iddia edildi.
Google daha önce de askeri sözleşmeler nedeniyle iç protestolarla karşı karşıya kalmıştı. Özellikle İsrail hükümetiyle yapılan ve "Project Nimbus" olarak bilinen iş birliği büyük tartışmalara yol açtı. Bu proje, Google’ın bulut hizmetlerinin siyasi olarak hassas ve askeri bağlamlarda kullanılma potansiyeli nedeniyle çalışanlar arasında tepkiye neden oldu. Bu yılın başlarında Google, bu projeye karşı çıkan onlarca çalışanını işten çıkarmıştı.
DeepMind çalışanlarının mektubu, askeri sözleşmelerin Google’ın etik ve sorumlu yapay zeka liderliği konusundaki itibarını zedelediğine dair endişeleri yeniden gündeme getirdi. Çalışanlar, askeri ve silah üretimiyle ilgili herhangi bir iş birliğinin şirketin misyonuyla çeliştiğini ve eski sloganı "Kötü Olma" ilkesini ihlal ettiğini savunuyor.
Ancak Google, çalışanların taleplerine henüz tatmin edici bir yanıt vermiş değil. Time’a konuşan dört isimsiz çalışan, şirket yönetiminden anlamlı bir geri dönüş almadıklarını ve giderek daha fazla hayal kırıklığına uğradıklarını belirtti. Google, bu konuda yaptığı açıklamada, yapay zeka ilkelerine uygun davrandığını ve İsrail hükümetiyle yaptığı sözleşmenin silahlar veya istihbarat hizmetleriyle ilgili yüksek derecede gizli ya da askeri görevler için olmadığını savundu. Ancak, bu iş birliği son aylarda giderek daha fazla eleştiri alıyor.
DeepMind, 2014 yılında Google tarafından satın alındığında, bu yapay zeka teknolojisinin askeri ya da gözetim amaçlı kullanılmayacağına dair bir söz verilmişti. Uzun yıllar boyunca DeepMind, Google’dan belirli bir bağımsızlıkla faaliyet gösterdi ve etik yapay zeka geliştirmeye odaklandı. Ancak, yapay zeka alanında küresel rekabetin artmasıyla birlikte, DeepMind’ın özerkliği azaldı ve liderleri, laboratuvarın orijinal etik taahhütlerini koruma konusunda zorlanıyor.
DeepMind’da yaşanan bu iç gerilimler, teknoloji şirketlerinin yapay zeka geliştirme sürecinde karşılaştıkları etik zorlukları gözler önüne seriyor. Yapay zeka teknolojisi giderek daha güçlü ve çok yönlü hale geldikçe, bu teknolojinin askeri ve gözetim uygulamalarında kötüye kullanılma potansiyeli büyük bir endişe kaynağı haline geliyor.