원본 기사
미 국방부, AI 기업 Anthropic 기술 '안보 위험' 지정… Anthropic 법적 대응 예고
미 국방부, Anthropic AI 기술에 '안보 위험' 딱지
미국 정부와 인공지능(AI) 기업 Anthropic 사이에 중대한 충돌이 발생했습니다. 미 국방부가 Anthropic의 기술을 국가 안보 위험으로 지정하는 결정을 내렸기 때문입니다. Anthropic CEO 다리오 아모데이는 펜타곤의 결정에 이의를 제기할 수밖에 없다고 밝혔습니다. 미 국방부는 Anthropic과 이들의 AI 모델 클로드를 잠재적인 공급망 위험으로 공식 지정했습니다.
Anthropic 법적 대응 천명, 제한적 영향 주장
미 국방부의 이번 조치로 미 군사 계약업체들은 펜타곤 관련 업무에 Anthropic의 AI를 사용할 수 없게 됩니다. 그러나 아모데이 CEO는 이 영향이 제한적이며 펜타곤 관련 계약에만 적용된다고 강조했습니다. Anthropic은 이번 결정의 법적 근거에 이의를 제기하며 법정에서 다툴 예정입니다. 마이크로소프트, 구글, 아마존 웹 서비스 등 주요 기술 파트너들은 미 군사 용도를 제외하고 기업들에게 Anthropic 기술을 계속 제공할 것이라고 밝혔습니다.
AI 윤리 논쟁과 Anthropic 앱 다운로드 급증
이번 분쟁은 Anthropic이 자사 기술을 대규모 감시 또는 완전 자율 무기 시스템에 사용해서는 안 된다고 밝히면서 시작되어 펜타곤의 불만을 샀습니다. 경쟁사 OpenAI는 한때 미 군사 계약에서 Anthropic을 대체하려 했으나, OpenAI CEO 샘 올트먼은 해당 거래를 '엉성하다'고 평하며 재검토 중이라고 밝혔습니다. 흥미롭게도 이 논란은 Anthropic의 가시성을 높여 클로드 앱 다운로드 수가 하루 100만 회 이상을 기록하고 유료 사용자 수가 연초부터 두 배로 늘어났습니다.
*출처: YouTube: WION (2026-03-07)*



