AI AI
속보
심층
이벤트
더보기
자금 조달 정보
특집
온체인 생태계
용어
팟캐스트
데이터
OPRR
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
XRP
$2.25
2.07%
DOGE
$0.325
2.23%
USDC
$0.999
3.05%

샘 알트만의 24시간: 펜타곤은 "아니"라고 두 번 말했지만 한 사람에 대해서만 진지했습니다

이 글을 읽으려면 19 분
실리콘밸리에서는 Altman의 이 미스テ리한 12시간 작전에 이름이 붙어 있습니다. 그것을 배신이라 부르는 게 아니라 timing이죠.

2 월 28 일 (중국 시간) 오전, Sam Altman은 트윗을 게시했습니다 : "오늘 밤, 우리는 미 육군과 협정을 맺어 우리의 모델을 그들의 기밀 네트워크에 배치했습니다."



시간을 약 12시간 되돌리면 중국 시간 2 월 27 일 밤으로 돌아갑니다. 똑같은 그는 CNBC의 Squawk Box 프로그램의 화면 앞에 앉아 차분한 목소리로 말했습니다 : "Anthropic에 대해서는 우리 사이에 많은 의견 차가 있음에도 불구하고, 나는 그 회사에 기본적으로 신뢰합니다. 그들이 안전을 정말 신경 쓰는 것 같다고 생각합니다." 그는 또 말했습니다 : "나는 국방생산법을 이용하여 국방성이 이러한 기업들을 위협해서는 안 된다고 생각합니다."


12시간도 채 되지 않아, 같은 입으로 전과 후의 두 가지 말씀을 하였습니다. 이 사이에 무슨 일이 벌어졌는지를 천천히 밝혀내는 것이 가치가 있습니다.


비슷한 두 계약, 다른 두 결과


먼저 두 계약의 핵심 내용을 나란히 두어 놓습니다.


Anthropic의 요구 : Claude는 대규모 미국 시민 감시에 사용되어서는 안 되며, 사람 간섭 없이 자율 무기 시스템에 사용되어서는 안 됩니다.


Altman이 협정을 발표할 때 인용한 두 가지 동일한 원칙 : "우리는 장기간 동안 AI가 대규모 감시나 자체적인 치명적 무기로 사용되서서는 안 되며, 인간은 고위험한 자동화 결정에서 항상 존재해야 합니다." 그는 또 "펜터곤이 이러한 원칙에 동의했고, 그것들을 법률과 정책에 반영했으며, 우리는 그것들을 계약에 기재했습니다."


텍스트는 거의 완벽히 같습니다.


한 회사는 차단되었고,"공급망 리스크"로 명시되었으며, 트럼프가 Truth Social에서 직접 "폭진적인 좌파 각성 기업"으로 비난한 회사가 되었습니다. 다른 한 회사는 계약을 받았고, 펜터곤 기밀 네트워크에 진입했으며, Sam Altman은 트윗에서 "합의에 이르렀다"는 말을 사용했습니다 - 차분하고 비즈니스적으로, 마치 보통의 B2B 거래가 완료된 것처럼.


이 글이 답할 문제는 다음과 같습니다 : 유사한 조항인데, 왜 결과가 전혀 달라지는 것일까요?


답은 조항 안에가 아닌, 조항 뒤의 논리에 있습니다.


먼저 밝혀야 하는 배경 사실 하나가 있습니다 : Anthropic은 이러한 네 개의 회사 (나머지 세 곳은 OpenAI, Google, xAI) 가운데 펜터곤 기밀 네트워크에 AI를 연결할 수 있도록 허용된 유일한 회사입니다. OpenAI의 원래 계약은 비기밀적인 일상 업무 환경만을 다루고 있었습니다. 이번 협상은 본질적으로 OpenAI가 기밀 네트워크에 진입하고자 하는 것이었고, 펜터곤이 제시한 진입 조건은 바로 논란이 되는 "합법적 용도" 조항이었습니다. Anthropic은 이미 안에 있는 상태였지만, 펜터곤은 그 안전문을 헤치고 들어올 때 세운 안전문을 제거할 것을 요구했습니다.


펜타곤은 무엇을 쓰는지가 중요한 게 아니라 누가 말하는지가 중요하다


이 문제를 이해하려면 Anthropic의 Dario Amodei가 공개 편지에서 정확히 무슨 말을 했는지를 먼저 이해해야 한다.



그는 다음과 같이 쓰여 있습니다: "Anthropic은 군사 결정이 개인 기업이 아니라 펜타곤에 의해 이루어진다는 것을 이해합니다. 우리는 특정 군사 작전에 이의를 제기한 적이 없으며, 또한 기술 이용을 임시적으로 제한하려고 시도한 적이 없습니다."


그런 다음 그는 이야기를 바꿔 말합니다: "그러나 극소수의 경우에, 우리는 AI가 민주주의 가치를 방어하는 것이 아니라 파괴할 수도 있다고 믿습니다. 이러한 위협은 우리의 입장을 변화시키지 않을 것입니다: 우리는 옳은 일을 하고 있으며, 그들의 요구를 받아들일 수 없습니다."


이 문장을 계약 용어로 번역하면 무엇을 의미합니까? Anthropic은 원칙을 계약 조항에 명시하고 이를 강제적으로 제한하는 것을 요구합니다. 상대방이 위반하면 서비스를 계속 제공하는 것을 거부할 권리가 있습니다.


펜타곤이 듣는 것은 무엇입니까? 개인 기업이 정부 군대에게 말하는 내용은 다음과 같습니다: 어떤 상황에서는 당신의 명령을 실행하지 않을 수 있으며, 경계는 저가 정의합니다.


모든 군대에게 이는 수용할 수 없는 것입니다. 그들이 진정으로 대규모 감시를 원하는 것이 아니라도, "어떤 것이 판단의 여지인가"에 대해선 군사 지휘 체계에서 가장 민감한 초점이 맞춰집니다. 군사 구매 책임자 Jerry McGinn은 명확하게 말했습니다: 군 부처의 계약사들은 일반적으로 자신들의 제품을 어떻게 사용해야 하고 사용해서는 안 된다고 통보할 권한이 없습니다. 그러면 매 계약에 대해 특정 사용 사례에 대해 협의해야 하므로 이는 현실적이지 않습니다.


OpenAI는 완전히 다른 대답을 제공했습니다.


Altman은 내부 메모에서 OpenAI가 펜타곤에게 자체 "안전 스택"을 제안하고 있음을 직원들에게 알렸습니다. 이 안전 스택은 기술 제어, 정책 프레임워크 및 인간 검토로 이루어진 AI 모델과 실제 사용 사이의 다층 방어 시스템으로, 비행체와 같은 가장자리 시스템에 모델이 직접 배포되지 않고 클라우드에만 배치됩니다. OpenAI는 또한 기밀 네트워크 내에 보안 허가를 받은 연구원을 파견하여 AI 행동을 계속 추적할 것이며, 문제가 발생하면 함께 책임질 것이라고 명시했습니다.


번역하면 다음과 같습니다: 너에게 관찰을 요청하고, 너에게 감독을 요청하며, 발생하는 모든 일을 너에게 보여줍니다. 문제가 발생하면 우리는 함께 책임질 것이며, 당신이 설명을 요청하지 않을 것입니다.


"규정을 명시하고, 나는 이를 실행할 것이다"와 "나는 임베드하고, 당신이 감독할 것이다"는 두 가지 완전히 다른 권력 관계이며, 펜타곤은 후자만 수용합니다.


OpenAI 가 가장 뛰어난 부분은 정확히 국방부가 원하는 것이었던


약간 불편한 풍자를 명확히 해야 할 필요가 있습니다.


OpenAI 가 국방부에 약속한 "기술적 투명성"과 "지속적 감시"는, OpenAI의 사용자에게 이미 실현되었습니다.


2025년 8월, OpenAI는 사용자의 정신 건강 위기에 관한 공식 블로그 게시물에서, 새로운 감시 메커니즘을 함께 소개했습니다: 시스템이 사용자가 "타인을 해치려는 계획"을 감지하면 대화가 전용 파이프라인으로 전환되어 훈련받은 인공 심사 팀이 처리하며, 이러한 심사자들은 상황을 당국에 신고할 권한을 가지고 있습니다. 이것은 OpenAI가 자발적으로 발표한 것이지만, 정신 건강에 대한 긴 글의 중간에 조용히 담겨 있었습니다.


2026년 2월, 즉이번 계약이 체결되기 직전, OpenAI는 광고 시스템을 출시하고 개인 정보 보호 정책을 업데이트하여 명확히 한 가지를 밝혔습니다: 무료 및 기본 유료 사용자가 ChatGPT를 사용할 때, 시스템은 "대화 내 문맥 분석"을 수행하고 대화 주제에 따라 사용자에게 관련 광고를 표시합니다. 예를 들어 요리법을 논의하고 있다면 배달 서비스 광고가 나올 수 있습니다. OpenAI는 대화 내용 자체가 광고 게시자에게 전송되지 않지만 분석은 실시간으로 이루어집니다. 광고는 2월 9일에 테스트가 시작되었습니다.


2025년 11월, OpenAI의 제3자 분석 서비스 업체인 Mixpanel이 침입을 당하고 일부 API 사용자의 이름, 이메일, 대략적인 지리적 위치, 운영 체제 및 브라우저 정보가 유출되었습니다. OpenAI는 그 후 Mixpanel과의 협업을 중단하고 현재 소송을 제기했습니다. 이 사건은 API 개발자 사용자에 주로 영향을 미치며, 일반 ChatGPT 사용자 중 영향을 받은 사람들은 도움말 센터에서 요청을 한 사람들입니다.


이것이 국방부에 "기술적 투명성, 지속적 감시, 모든 일어나는 것을 볼 수 있게 하는" 것을 약속한 그 회사 입니다.


그들이 가장 뛰어난 부분은 다름 아닌 다른 사람들이 안으로 들여다볼 수 있도록 하는 것입니다, 왜냐하면 그들은 이미 자신의 사용자를 그렇게 대하는 데 익숙했기 때문입니다.


Anthropic은 규칙이 사용자를 제약할 수 있다고 믿지만, OpenAI는 자신들의 사람들을 넣는 게 어떤 계약보다도 효과적이라고 믿습니다. 전자는 이상주의적인 규정 논리이고, 후자는 현실적인 영향 논리입니다. 국방부는 후자를 선택했습니다. 왜냐하면 그들에게 후자가 더 익숙하고 제어 가능하기 때문입니다.


중간 몇 시간 동안 무슨 일이 있었나요?


시간을 되돌립시다. 중국 시간으로 2월 28일 새벽, 미 동부 시간으로 2월 27일 오후 5:01.


Anthropic의 마지막 마감 시간이 도래했습니다. Dario는 타협하지 않았습니다. Trump은 Truth Social에서 금지 선언을 내렸고, Hegseth은 X에서 Anthropic을 "공급망 리스크"로 지목했으며, Anthropic은 법적 조치로 대응할 것을 발표했습니다.


Hegseth의 발언 가운데 한 문장이 주목할 만합니다: "Anthropic의 입장은 미국 원칙과 근본적으로 부합하지 않습니다." 그리고 같은 발언에서 그는 Anthropic이 "국방부에 최대 6개월 동안 서비스를 제공할 수 있도록하여 원활한 전환을 돕기"로 계속할 수 있다고 밝혔습니다. 즉, 그들은 방금 한 회사를 국가 안보 리스크로 규정했지만 여전히 이 회사의 제품을 사용하고 있습니다. 이 논리적 모순에 대해 아무도 명확히 설명하지 않았습니다.



몇 시간 후, Altman은 그 트윗을 올렸습니다.


그는 당일 조직 전체 회의에서 했던 발언을 다시 살펴보면서, OpenAI가 "상황을 냉각시키는 데 도움을 주기를 희망하며, 산업 전반에 프레임워크를 제시할 수 있는 해결책을 찾기를" 원했다고 말했습니다. 이는 기다리는 자세가 아닌 것 같습니다.


이는 실리콘밸리가 이런 종류의 작업을 처음 보는 것은 아닙니다.


2023년에는 OpenAI의 비영리 이사회가 Altman을 "너무 솔직하지 못하다"는 이유로 해고했는데, 그 이유는 그가 진행 속도가 너무 빨라 내부 커뮤니케이션이 문제가 있었기 때문이었습니다. 그로부터 5일 후, Altman은 직원들의 단체 지원 서한을 가지고 돌아와 이사회가 해산했습니다. 그 후, 그는 회사를 비영리 구조에서 영리 기업으로 재편하고, 회사에 제약력을 부여하던 비영리의 존재 목적을 새로운 법적 구조 안에 편입했습니다.


이번에는 "공통적인 프레임워크를 찾았다"고 합니다.


Dario가 무엇을 잃었을까요?


Jerry McGinn, 미국 전략 및 국제 연구센터 산업 기초 연구센터 소장은 이 문제에 대해 심사숙고한 평가를 제공했습니다: "이것은 Anthropic에 대한 훌륭한 홍보가 됩니다. 그들은 실제로 그 20억 달러가 전혀 필요하지 않습니다."


이 평가는 재무적으로 정확합니다. Anthropic은 2025년 연간 매출이 1400억 달러이며, 3800억 달러로 평가된 가치가 있으며, 최대 주주 인 아마존은 정부의 금지명령으로 투자 논리를 재검토하지 않을 것입니다. 법적 조치는 전환점을 가져올 수 있습니다. IPO 가치에는 본질적인 손실이 없을 것으로 예상됩니다. "정부 압력을 거부하고 안전 원칙을 지키기"는 이야기는 어떤 홍보 예산으로도 동등한 효과를 얻을 수 없을 것입니다.


하지만 Dario는 패배했습니다.


군사 분야에서 AI의 현실적인 사용 기준은 Anthrop은 아닌 OpenAI가 펜타곤 내에서 마련하며, 그 비밀 네트워크에 내장된 안전 스택, 안전 라이선스를 보유한 OpenAI 연구원, AI 행동을 지속적으로 추적하는 감시 시스템입니다. 이러한 것들은 앞으로의 몇 년 동안 실질적인 산업 표준으로 자리 잡게 될 것입니다.


Anthropic은 입장을 유지하기 위해 원칙을 지키지만, 규제 수립 과정에서 자리를 잃었습니다.


그 자리에 앉은 사람은, 단 불과 12시간 이내에 "지지"에서 "서명"으로의 변화를 완료한 같은 사람입니다.


가장 풍자적인 점은: AI 안전을 가장 진지하게 다루는 기업이, AI 안전을 가장 진지하게 다뤄야 하는 장소에서 쫓겨난 것입니다.


이를 대신한 회사는, 2주 전에 사용자 대화 주제를 광고 시스템으로 이식하는 메커니즘을 방금 온라인에 내놓았으며, 3개월 전에 외부 데이터 누출을 경험한 바 있고, 그 이전에는 사용자를 단속 당국에 제보할 수 있는 대화 스캔 시스템을 조용히 공개했습니다.


실리콘밸리에서, Altman의 이 12시간 미만의 행동에는 이름이 있습니다. 그것은 배신이 아니라 timing이라고 불립니다.


BlockBeats 공식 커뮤니티에 참여하세요:

Telegram 구독 그룹:https://t.me/theblockbeats

Telegram 토론 그룹:https://t.me/BlockBeats_App

Twitter 공식 계정:https://twitter.com/BlockBeatsAsia

举报 오류 신고/제보
문고 선택
새 문고 추가
취소
완료
새 문고 추가
자신만 보기
공개
저장
오류 신고/제보
제출