AI AI
속보
심층
이벤트
더보기
자금 조달 정보
특집
온체인 생태계
용어
팟캐스트
데이터
OPRR
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
XRP
$2.25
2.07%
DOGE
$0.325
2.23%
USDC
$0.999
3.05%

48시간 동안 계정이 정지되었던 후, Claude가 App Store 1위에 올랐습니다

이 글을 읽으려면 23 분
하루 전까지 ChatGPT는 여전히 그 자리에 앉아 있었습니다

토요일 아침, 오트먼이 X에서 내부 이메일 스크린샷을 전달했습니다.


해당 이메일은 그가 목요일 밤에 OpenAI 직원들에게 보낸 것으로, 회사가 국방부와 협상 중이며 그는 상황을 완화하고자 한다는 내용이 포함되어 있었습니다. 그는 해당 이메일을 전달하며 몇 줄의 설명을 첨부했는데, 요약하자면 이번 일주일 동안 무엇이 있었는지 공개적으로 설명하고자 했습니다.



이 트윗을 올린 당시, 클로드는 이미 미국 앱 스토어의 무료 순위에서 1위에 올라와 있었습니다. 하루 전에는 ChatGPT가 해당 위치에 있었던 것입니다.


Sensor Tower의 데이터는 이어지는 몇 시간 동안 발생한 일들을 기록했습니다: 토요일 하루 동안 ChatGPT의 미국 내 설치 해제량이 일반 날에 비해 295% 급증하고, 1점 평가가 775% 급증했습니다. 동시에 클로드의 다운로드 양은 하루 동안 51% 증가했습니다. Reddit에 "Cancel ChatGPT" (ChatGPT 보이콧)이라는 게시물이 등장했고, 사용자들은 구독 해지 스크린샷을 올리며, 댓글에 "fastest install of my life"라고 썼습니다. QuitGPT.org라는 웹사이트가 오픈되었는데, 150만 명이 이미 조치를 취했다고 주장했습니다.



월요일에는 사용자 급증으로 클로드가 대규모 다운되었습니다. 연방 정부가 "공급망 보안 위험"으로 지정한 그 회사는 사용자들의 대거 유입으로 서버가 강하게 압박을 받았습니다.


정확한 제품 반격


설치 해제 유입이 커지는 같은 날, Anthropic은 메모리 이전 도구를 출시했습니다.


기능 자체는 복잡하지 않습니다. 사용자는 ChatGPT에 저장된 모든 메모리와 선호도를 출력하도록 약어를 복사한 다음, 클로드에 붙여넣고 클로드에 받아들이도록 클릭하면, ChatGPT를 떠난 지점부터 계속됩니다. 공식 웹사이트 캡션은 단순히 "switch to Claude without starting over"입니다.



이 도구의 타이밍이 가장 중요한 속성입니다.


OpenAI 자체 데이터에 따르면, 2025년까지 ChatGPT 사용자 중 70%가 넘는 사용 시나리오는 비업무 관련이며, 일상적인 질문 응답, 글쓰기, 엔터테인먼트, 정보 탐색이 모두 포함됩니다. 이는 많은 사람들이 처음으로 접하는 AI로, 방대한 플러그인 생태계, 음성 모드 및 깊은 통합된 타사 응용 프로그램을 통해 일상생활에 통합되어 있습니다. 이러한 사용자들의 전환 비용은 "새로운 앱 다운로드"뿐만 아니라, 당신을 모르는 AI가 다시 처음부터 당신을 이해하도록 하는 것입니다. 기억의 축적은 지난과의 연결이라는 가장 강력한 이유였습니다.


Anthropic의 최근 연구 데이터에 따르면, Claude의 사용 사례는 매우 집중되어 있음이 밝혀졌습니다. 프로그래밍 및 수학 작업이 34%로 단일 가장 큰 범주를 차지하며, 교육 및 연구가 지난 1년 동안 가장 빠르게 성장한 영역이었습니다. 핵심 사용자는 개발자, 연구원 및 중견 작가로, 이 그룹은 더 이성적이며, 툴을 교체하는 뚜렷한 가치 판단 때문에 마이그레이션 비용이 충분히 낮다면 쉽게 바꿀 수 있습니다.


메모리 이관 도구가 이 비용을 최소화했습니다. 동시에 Anthropic은 메모리 기능을 무료 사용자에게 완전히 공개하겠다고 발표했는데, 이 기능은 이전에 유료 전용이었습니다.



그러나 이러한 쇄도한 사용자 중 상당수는 기존 Claude의 대상 사용자가 아니었습니다.


소셜 미디어의 피드백을 보면, ChatGPT에서 대규모로 이동한 일반 사용자들 중 일부가 Claude를 처음 사용할 때 말하는 반응은 종종: "이건 다르다"였습니다. 어떤 사람은 Claude의 답변이 더 깊다고 느끼고, 적극적으로 반격하며, 모든 것을 찬양하지 않습니다. 어떤 사람들은 그것이 더 깔끔한 쓰기를 지원하지만 이미지를 생성하지 않으며, Voice Mode와 같은 상호 작용 경험이 없다는 것을 발견했습니다.


어떤 사람들은 원래 "채팅형 GPT 대체품 중 더 순종적인 것"을 찾고 있었지만, Claude의 개성이 더 강하고, 적응하는 데 시간이 필요하다고 발견했습니다. TechRadar의 이주 가이드가 최근에 많이 공유되었습니다. 제목은 "처음에 누군가가 나에게 이러한 사실을 알려줬으면 좋겠어"였는데, 기사의 핵심 내용은 Claude와 ChatGPT의 사용 논리가 근본적으로 다르며, 전자가 더욱이 직접적인 업무 파트너와 같은 반면, 후자는 만능 보조 도우미와 같다는 것입니다.


이러한 차이점은 원래 각 제품의 위치로 인한 것이었지만, 이번 사건으로 인해 의도치 않게 확대되었습니다. 윤리적 입장 때문에 사용자들이 Claude로 몰려들었고, 그들은 예상과 다른 제품, 더욱 까다롭고, 더욱 구분된 감각을 가진 AI를 발견했습니다. 이것은 원래는 이탈의 이유가 될 수 있었지만, 이 특별한 시기에, 그것은 오히려 남아있는 이유가 되었습니다: 당신이 한 회사의 입장을 믿기 때문에, 해당 제품의 논리를 더 쉽게 받아 들입니다.


출시 후 며칠간, Anthropic은 데이터를 발표했습니다: 1월 대비 무료 활성 사용자가 60% 이상 증가했으며, 일일 등록 수는 네 배로 증가했습니다. Claude는 접속량이 너무 많아 강제 종료되었으며, 수천 명의 사용자가 로그인할 수 없다고 기고했지만, 수시간 내에 복구되었습니다.


계약에 담긴 세 가지 단어: OpenAI는 무엇을 말했고, 무엇을 했는가


Anthropic은 미국 군의 기밀 네트워크에 AI 모델을 처음으로 배포한 상업 회사로, 이 협력은 Palantir를 통해 이루어졌으며, 계약 가치는 약 2억 달러입니다. 그러나 지난 수개월간, 양측 관계는 계속 악화되었습니다. 논쟁의 핵심은 하나의 조항입니다: Pentagon이 AI 모델을 "모든 합법적 목적"으로 개방하는 것을 요구하면서 어떠한 조건도 부과하지 않아야 한다는 것입니다. Anthropic은 두 가지 예외 사항을 명시하는 것을 주장했는데, 그것은 대규모 미국 시민 감시나 완전 자율 무기 시스템에 사용해서는 안 된다고되었습니다.


2월 20일 경, 보고에 따르면 Anthropic의 임원 한 명이 1월 미군이 베네수엘라 대통령 매두로를 체포한 작전 중 Claude의 사용 방식에 대해 협력사 Palantir에 질문을 제기했으며, 군 당국은 이에 강하게 불만을 표명했습니다. 목요일에는 펜타곤이 마지노선을 발포하여 Dario Amodei에게 오후 5시까지 답변을 요청했습니다.


마감 전에 Amodei는 회사가 현재의 조항을 수용할 수 없음을 밝히며, "우리가 군사적 용도에 반대하는 것이 아니라, 소수의 경우에 우리는 AI가 민주가치를 옹호하는 것이 아닌 파괴하는 것으로 여길 수 있다고 믿기 때문"이라고 선언했습니다. 트럼프는 즉시 연방 기관이 6개월 내에 Anthropic 제품을 전면 중단할 것이라고 발표했으며, Hegseth는 이를 "공급망 안전 위험"으로 명명하였는데, 이 레이블은 일반적으로 외국 경쟁사에 사용됩니다. 계약은 이에 따라 해지되었습니다.


생긴 공백은 빠르게 메워졌습니다. 동일한 날 늦은 저녁에 OpenAI가 펜타곤과 계약을 체결했다고 발표했습니다. 오트만은 목요일 내부 메모에서 입장을 명확히 밝혔는데, 그는 이것이 이미 "전체 산업의 문제"라고 쓰며, OpenAI와 Anthropic이 동일한 "적십자선"을 가지고 있다고 언급하였으며, 대규모 감시와 자율 무기에 반대한다고 말했습니다. 금요일에 계약이 체결되었으며, 군 사이트 네트워크에 모델을 배치하고, 클라우드에서만 실행되도록 제한되며, 엔지니어가 감독하며, 동일한 두 가지 제한이 계약서에 명시되었다고 밝혔습니다.


이후 오트만은 X에서 몇 시간 동안 질문을 받으며 답변했습니다. 어떤 사람이 "왜 펜타곤이 OpenAI를 받아들이고 Anthropic을 금지했습니까?"라고 물었고, 그의 대답은 "Anthropic은 계약 내용의 구체적인 금지 조항에 더 중점을 둔 것으로 보이며, 적용 가능한 법률을 인용하는 대신 우리는 법률을 인용하여 만족합니다."였습니다.


이 문장은 방법론적 차이를 언급하지만, 이는이 문제의 진정한 논란을 열었습니다.


Anthropic가 붕괴한 핵심은 군이 쓴 구절 중 하나인데, AI 시스템은 "모든 합법적인 목적"으로 사용할 수 있다는 것이었습니다. Anthropic이 거부한 이유는이 구절이 국가 안보 맥락에서 고정된 경계가 아니라고 생각했기 때문입니다. 현행 법률은 AI 기술을 많은 측면에서 따라가지 못하고 있으며, "합법"의 범위는 정부 자체의 해석에 따라 결정될 것입니다. OpenAI는이 구절을 서명하였으며, 동시에 동일한 보호가 계약서에 명시되었다고 주장했습니다.


이후 법률 전문가들은 OpenAI가 공개한 계약 조항을 분석하여 두 가지 구체적인 표현 문제를 지적했습니다.



감시 조항에는 시스템이 미국 시민의 개인 정보에 대한 "무제약" 감시에 사용되어서는 안 된다고 명시되어 있습니다. 민주주의와 기술 센터 정책 수석 부사장인 Samir Jain은 여기서의 구어의 의미는 "제약이 있는" 감시 버전이 허용된다는 것을 의미합니다. 현재의 법적 논평에 따르면, 정부는 데이터 브로커로부터 시민의 위치 기록, 브라우징 히스토리 및 금융 데이터를 합법적으로 구입하여 AI가 이러한 데이터를 분석하도록 할 수 있으며 기술적으로 "불법 감시"로 간주되지 않습니다. Amodei는 후속 CBS 인터뷰에서 이 예를 인용했습니다.


무기 조항에는 시스템이 "법률, 규정 또는 부서 정책에 의해 인간의 통제가 필요한 경우" 자율 무기에 사용되어서는 안 된다고 명시되어 있습니다. 이 한정부사항은, 제한이 다른 규정에서 이미 인간의 통제를 요구한 경우에만 적용되며,이는 완전히 기존 정책에 의존하고 있습니다. 펜타곤은 내부 정책을 언제든지 수정할 수 있는 권한이 있습니다. 법학자인 Charles Bullock은 X에서, 무기 조항의 계약은 DoD 지침 3000.09에 의존하며,이 지침은 지휘관이 "적절한 수준의 인간 판단"을 유지하도록 요구하며 이 "적절한 수준"은 유연하게 해석 가능한 기준입니다.


OpenAI는 이러한 의문에 대한 응답으로 모델이 클라우드에서만 실행될 수 있으며, 이로써 직접 무기 시스템에 통합될 가능성이 배제된다고 설명했습니다. 계약에는 구체적인 법적 근거가 명시되어 있으며, 텍스트 기반 금지 조항보다 더 강력한 효력이 있습니다. 왜냐하면 법은 이미 검증된 프레임워크이기 때문입니다. Amodei 자신도 "우리가 앞으로 이 싸움을 치러야 한다면, 우리는 싸우겠지만, 분명히 우리에게는 몇 가지 위험을 안겨줄 것입니다"라고 인정했습니다.


이것은 양사가 원활하게 합의할 의사가 있는 회사와 원칙을 지키는 회사의 문제가 아니라, 두 가지 근본적으로 다른 보안 철학의 문제입니다. OpenAI의 근본 원칙은: 불법적인 일은 하지 않겠다는 것입니다. Anthropic의 근본 원칙은: 아직 금지되지 않았지만 하지 말아야 할 일은 내가 하지 않겠다는 것입니다.


이 갈등은 OpenAI 내부에도 갈등을 남겼습니다. 지난 주에 OpenAI 직원들이 Anthropic의 입장을 지지하고 그를 공급망 리스크로 지정하는 반대 서한에 서명했습니다. 연구원인 Leo Gao는 회사 계약이 충분한 보호를 제공하는지에 대해 공개적으로 의문을 제기했습니다. OpenAI 샌프란시스코 사무실 외부 인도에는 분필로 쓰인 비판적인 그래피티가 나타났습니다. 반면 Anthropic 사무실 외부에는 지지하는 글귀가 있었습니다. Amodei의 수시간에 걸친 X 질의응답 세션은 상당 부분 회사 내에서 원래 Anthropic 편에 서 있던 사람들을 대상으로 진행되었습니다.


동일한 이야기의 두 가지 결과


Anthropic는 이러한 안전 미션을 틀어짜고 오랫동안 "문명에 대한 위험 방지"로 사용해왔으며, 선도적 AI의 잠재적 위협을 핵무기와 동등시하여 자신을 이 방어선 상의 수문장으로 위치시켰습니다. 이 이야기는 그의 브랜드의 핵심이며, 자본 시장에서 신뢰를 얻는 방식입니다.


기술 코멘테이터 Packy McCormick은 이 사안의 재발 기간 동안 Ben Thompson의 개념인 Hype Tax를 인용했습니다. 이는 극단적인 서술을 사용하여 자신의 영향력을 구축한다면,이 서술이 실질적인 권력과 마주칠 때 그에 대가를 치뤄야 한다는 것을 의미합니다. AI 기술을 핵무기에 비유하면, 정부는 당신을 핵무기 취급할 것입니다.



Anthropic는 이 서술에 대해 대가를 치뤘습니다: 계약 하나를 잃었고, 안전 위험 목록에 올라갔으며, 대통령이 직접 언급했고, 소유한 모든 제품이 연방 시스템에서 6개월 내에 제거되어야 합니다.


그러나 같은 주말에, 같은 서술은 다른 차원에서 완전히 반대의 효과를 나타냈습니다.


일반 사용자들이 보는 것은 계약 조항이 아니며, 법률 해석이 아니며, 안전 철학 논쟁이 아닙니다. 그들이 본 것은 다음과 같습니다: 한 회사는 거부하고, 정부에 쫓겨났습니다. 다른 회사는 수락하고, 계약을 획득했습니다. 그들은 자신의 심사 기준을 사용하여 선택을 했고, 295%의 삭제 비율, 앱 스토어 1위, 다운된 서버가 있었습니다.


이는 AI 산업 역사상 드문 소비자 집단의 도덕적 입장표명입니다.


Anthropic은이 문제에 대해 PR 예산 한 푼도 쓰지 않았습니다. Amodei의 진술은 자제적이었으며, 사용자 지원을 요구하지 않았으며, OpenAI를 언급하지 않았으며, 자신을 자처하지 않았습니다. 그러나 결과는 일어났습니다.


여기에 주목할 점이 하나 있습니다: 사용자들이 Claude로 몰려간 이벤트는 본질적으로 OpenAI가 업계에서 완전히 타당한 일을 했습니다. 경쟁사가 차단되고, 계약이 불확실할 때 협정을 체결하고, 동일한 보호 조항이 포함되었다고 주장했습니다. Ultraman은 또한 제세 효과를 도와서 Anthropic에 대한 추가적인 피해를 막기 위해 이런 행동의 일부임을 명확히했습니다.


동기가 무엇이든, 결과는 OpenAI가 계약을 따낸 것이며, Anthropic의 사용자가 증가했습니다. 양쪽 다 대가가 있고, 양쪽 다 혜택이 있으며, 단지 측정 단위가 다를 뿐입니다.


여기서 강조해야 할 한 가지 사실이 더 있습니다.


Anthropic이 잃어버린 Pentagon 계약은 약 20억 달러의 가치가 있었습니다.


Anthropic의 현재 연간 수익은 140억 달러이며, 2026년까지 260억 달러에 이르기를 목표로 합니다.


Anthropic는 지난 달에 막 3000억 달러의 E 라운드 투자를 마무리하고 3800억 달러의 평가액을 받았습니다.


이 계산은 지금 어렵지 않습니다. 그러나 답이 없는 다른 문제가 하나 있습니다: AI가 실제로 대규모 군사 의사 결정에 사용될 때, 계약에 명시된 '기술적 장벽' 및 배치된 엔지니어는 정말 효과적일까요, OpenAI나 Anthropic이 요구한 그것들 모두에 대해서도요.


이 질문은 어떤 이미 공개된 계약에도 없습니다.


BlockBeats 공식 커뮤니티에 참여하세요:

Telegram 구독 그룹:https://t.me/theblockbeats

Telegram 토론 그룹:https://t.me/BlockBeats_App

Twitter 공식 계정:https://twitter.com/BlockBeatsAsia

举报 오류 신고/제보
문고 선택
새 문고 추가
취소
완료
새 문고 추가
자신만 보기
공개
저장
오류 신고/제보
제출