Anthropic niçin ‘riskli’ ilan edildi?

ABD’nin Venezuela Devlet Başkanı Nicolas Maduro’yu kaçırdığı operasyonda Anthropic’in ‘Claude’ adlı yapay zeka modelini kullandığı ortaya çıkmış, ardından şirketle Pentagon arasında bir gerilim doğmuştu.

Pentagon, yapay zekayı askeri operasyonlarda hiçbir kısıtlama olmadan kullanmak isterken, Antropic savaş ve otonom silahlar gibi alanlarda Claude’un kullanımını kısıtlama niyetindeydi.

Öncesinde Pentagon’la Anthropic arasında bir işbirliği anlaşması olmasına rağmen Anthropic’in bu etik şartları üzerine taraflar anlaşmazlığa düşmüştü.

Pentagon’un ilk olarak ABD’li milyarder Elon Musk’ın sahibi olduğu X’e entegre Grok yapay zeka modeliyle, sonra da ChatGPT’nin üretici OpenAI’la anlaştığı yazılmıştı.

İran Meclis Başkanı: "Yerleşim merkezlerine saldırmanın sonuçları olur, pervasız ve acımasızca karşılık vereceğiz"
İran Meclis Başkanı: "Yerleşim merkezlerine saldırmanın sonuçları olur, pervasız ve acımasızca karşılık vereceğiz"
İçeriği Görüntüle

Ardından Pentagon, Anthropic’i ‘tedarik güvenliği açısından riskli’ sınıfına soktuğunu ilan etmişti.

Anthropic’den dava

Anthropic bu karara karşı biri California federal mahkemesi diğeri Washington federal temyiz mahkemesinde görülmek üzere iki ayrı dava açtı.

Bakanlığın adımının ‘daha önce görülmemiş ve yasadışı’ diye nitelendirildiği dava dilekçesinde ‘misilleme kampanyasını’ durdurmak için son çare olarak yargıya başvurulduğu belirtildi.