
ABD’de yapay zeka politikalarında taşlar yerinden oynadı. ABD Dışişleri Bakanlığı, ABD Hazine Bakanlığı ve ABD Sağlık ve İnsan Hizmetleri Bakanlığı, Anthropic ürünlerinin kullanımına resmen son verdi.Kararın dayanağı, Donald Trump imzalı kararname ve “tedarik zinciri riski” uyarısı oldu.
SAVUNMA’DA BAŞLADI, GENELLEŞTİ
Süreç ilk olarak Pentagon’da başladı. Savunma Bakanlığı, hafta sonu itibarıyla Anthropic ürünlerini “riskli” ilan ederek sistemden çıkardı. Ardından uygulama üç kritik kuruma daha yayıldı.Bakanlıklar, Anthropic’in popüler yapay zeka modeli “Claude” ile yollarını ayırdıklarını duyurdu. Pentagon’un dev veri ağında boşalan alanı ise OpenAI’ın geliştirdiği ChatGPT dolduracak. Savunma Bakanlığı, gizli ağlarda yalnızca OpenAI imzalı sistemlerin kullanılacağını açıkladı.
GÖZETİM ENDİŞESİ GÜNDEMDE
Ancak bu geçiş, kişisel verilerin korunmasına ilişkin tartışmaları da beraberinde getirdi. OpenAI CEO’su Sam Altman, anlaşmanın kamuoyunda yarattığı soru işaretleri sonrası geri adım attı.Altman, sosyal medya platformu X üzerinden paylaştığı şirket içi notta, sözleşmenin revize edileceğini duyurdu. Buna göre anlaşmaya, “yapay zeka sistemlerinin ABD vatandaşlarının yurt içinde kasıtlı gözetimi amacıyla kullanılmayacağı” yönünde açık hüküm eklenecek.Notta ayrıca, Savunma Bakanlığı’nın ticari yollarla elde edilen kişisel veya kimlik belirleyici veriler dahil olmak üzere ABD vatandaşlarının kasıtlı takibini yasaklayan sınırlamayı kabul ettiği vurgulandı.
“ACELEYE GETİRDİM” İTİRAFI
Pentagon ile yapılan anlaşmanın kamuoyuna duyurulma biçimi de eleştiri konusu oldu. Altman, açıklamasında süreci yönetirken hata yaptığını kabul etti.“Anlaşmayı cuma günü duyurmak için acele etmemeliydim” diyen Altman, “Gerilimi düşürmeye çalışıyorduk ancak dışarıdan fırsatçı ve dağınık göründü” ifadelerini kullandı.Altman daha önce çalışanlara gönderdiği mesajda, OpenAI’ın da Anthropic ile benzer “kırmızı çizgilere” sahip olduğunu belirtmişti.

