Siber Güvenlik

Copilot ile müstehcen fotoğraflar oluşturulabilen o komuta yasak geldi!

Microsoft'un yapay zeka tabanlı aracı Copilot, şiddet içeren ve cinsel içerikli görüntüler üretebilen bazı komutları engellemeye başladı. Ayrıntılara göre, "Pro choice" gibi komutlar ve çocukların saldırı tüfeği ile oynamasını içeren talepler artık geçerli değil.

Bu değişiklikler, bir Microsoft mühendisinin şirketin GAI (Generative Artificial Intelligence) teknolojisiyle ilgili ciddi endişelerini Federal Ticaret Komisyonu'na yazdığı bir mektup sonrasında uygulandı. Mühendis, Copilot Designer'ı test ederek, nispeten zararsız komutlar kullanarak bile Microsoft'un sorumlu yapay zeka prensiplerini ihlal eden görüntüler üretildiğini tespit etmişti.

Örneğin, "pro-choice" komutu kullanıldığında, yapay zeka şeytanların bebekleri yemesi veya Darth Vader'ın bir bebeğin kafasına matkap tutması gibi rahatsız edici görüntüler üretebiliyordu. Bu durum, kullanıcıların Copilot'u etik olmayan ve şiddet içeren içerikler oluşturmak için kötüye kullanabilecekleri endişelerine yol açmıştı.

Microsoft, bu endişelere yanıt olarak Copilot'un güvenlik filtrelerini güçlendirmeye yönelik önlemler aldığını belirtti. Artık "pro choice" gibi komutlar girdiğinde veya şiddet içeren talepler yapıldığında, Copilot kullanıcılara bu komutların engellendiğini bildiren bir uyarı gösteriyor ve tekrarlayan ihlallerin kullanıcı askıya alınmasına neden olabileceği konusunda uyarıda bulunuyor.

Ancak, haberde belirtildiği gibi, hala bazı komutlarla şiddet içeren içerikler üretmek mümkün olabilir. Bu durum, şirketin güvenlik filtrelerini daha da güçlendirmeye yönelik çabalarının devam ettiğini gösteriyor. Microsoft, kullanıcılarına sistemin etik ilkelerine uygun kullanım konusunda dikkatli olmaları konusunda çağrıda bulunuyor ve sürekli olarak güvenlik filtrelerini izleyip güncellediğini belirtiyor.

{ "vars": { "account": "UA-53462249-3" }, "triggers": { "trackPageview": { "on": "visible", "request": "pageview" } } }