AI AI
속보
심층
이벤트
더보기
자금 조달 정보
특집
온체인 생태계
용어
팟캐스트
데이터
OPRR
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
BTC
$96,000
5.73%
ETH
$3,521.91
3.97%
HTX
$0.{5}2273
5.23%
SOL
$198.17
3.05%
BNB
$710
3.05%
XRP
$2.25
2.07%
DOGE
$0.325
2.23%
USDC
$0.999
3.05%

우락맨은 야시장 공격을 두려워하지 않습니다. 그에겐 원정성숙지가 있습니다.

이 글을 읽으려면 15 분
공개적으로 AI가 성공할 것이라고 베팅하면, 비공개로는 AI가 제어 불능 상태에 빠질 것으로 대비하세요.

2016 년, Sam Altman은 와이오밍 주에 지하 벙커를 건축했습니다. 1,200 제곱미터, 3 층 구조, 500 킬로그램의 금, 5,000 개의 요오드화 칼륨, 5 톤의 냉동식품, 10 만 발의 총알. 그 해, OpenAI는 딱 1 주년이었습니다.


10 년 후, 세계에서 가장 강력한 AI 기업의 최고 경영자는 연속된 2주간 공격을 받았습니다. 먼저 화염병, 그 후 총격. 그는 자신이 "이야기의 힘"을 심각하게 과소평가했다고 자신의 블로그에서 말했습니다. 그가 말하는 것은 다른 이야기인가요, 아니면 자신의 것인가요?


48 시간 동안, 두 번의 공격


4 월 10 일 새벽 3 시 40 분, 샌프란시스코 체스넛 스트리트. 20 살 남성 Daniel Moreno-Gama이 마을 주민 Sam Altman 아파트의 금속 대문에 화염병을 던졌습니다. 불길이 문 근처에서 일어났고, 그는 즉시 도망갔습니다. 약 한 시간 후, 같은 사람이 샌프란시스코의 OpenAI 사무실 근처에 나타나 더 많은 방화를 위협하려고 했으며, 그 후 체포되었습니다. 시도 살해 및 방화 등의 혐의가 있습니다.


Sam Altman 샌프란시스코 거주지 및 방화 용의자 모니터링 영상


두 날 후, 4 월 12 일 새벽 1 시 40 분, 한 다스 차량이 Altman의 산 중계소 근처에 주차했습니다. 차량 내 승객이 창 밖으로 손을 내밀어 건물을 향해 한 발을 쐈습니다. 감시 비디오는 차량 번호판을 기록했으며, 경찰은 그 후 Amanda Tom(25 세)과 Muhamad Tarik Hussein(23 세) 두 명을 체포했습니다. 수색 결과 세 개의 총이 발견되었으며, 두 사람은 과실 사격 혐의로 기소되었습니다.


1주말에 2번의 공격.


첫 번째 사건의 용의자인 Daniel Moreno-Gama은 AI 비관론자입니다. 그는 소셜 미디어에서 《Dune》에서 인간 대 기계 논쟁 주제를 인용하고, AI 정렬 실패가 생존의 위험을 초래한다는 주장을 썼으며, 기술 지도자들이 "초인간주의"를 추구하고 "인류 전체 운명을 내기"한다고 비판했습니다.


그의 논거는 무엇입니까?


지난 5년 동안 OpenAI는 정부에 규제를 진지하게 취하도록, 투자자에게 이러한 내기의 중요성을 이해시키고, 업계 전체가 이 기회를 놓치지 않도록하기 위해 AGI의 "존재적" 위협을 반복해서 강조하는 AI 이야기의 표준 조치 중 하나였습니다. 이 대화는 OpenAI가 세 가지 측면에서 동시에 입증할 수 있도록 했습니다: 업계에서 가장 위험한, 우리가 가장 책임이 있는, 그래서 자금이 우리에게 주어져야 한다는 것을.


그러나 "이것은 인류 역사상 가장 위험한 기술"이라는 문구는 기술계나 투자자들에게만 머물러 있지 않을 것입니다. 이 문구는 하위로 전파되어 어떤 사람들에게는 글자 그대로의 행동 지령이 될 수 있습니다. Moreno-Gama는 인스에서 공유한 글에서 "지수적 발전과 정렬 실패의 조합은 생존과 멸망의 위험과 같다"라고 썼습니다. 이 주장의 원본은 OpenAI가 후원하거나 보증한 AI 안전 연구의 주류 문헌에서 비롯된 것입니다.


Daniel Moreno-Gama 소셜 미디어 계정


첫 번째 공격 이후, 울트라맨이 블로그에 글을 올렸습니다. 그는 아이와의 사진을 올렸는데, 그 사진이 다음 사람이 화염병을 집에 던지지 못하게 막기를 바란다고 말했습니다. 그는 반대자들의 "합법적 도덕적 입장"을 인정하며 공개 토론에서 "글자적 및 은유적 의미 모두에서 폭발성이 조금이라도 적어지길" 촉구했습니다.


그는 또한 New Yorker의 심층 보도에 대한 응답으로 글을 썼습니다. 그 보도는 공격 전 며칠 동안 발표되었으며, 그가 AI 최고 권력자로서의 신뢰성에 대해 공개적으로 의심받았습니다. 그는 "의견 재현과 언어의 힘을 심각하게 과소평가했다"고 썼습니다.


그로부터 두 날 후, 그의 거주지가 다시 총격을 당했습니다.


보안 예산은 표명이며, 지하실은 또 다른 것입니다


이 궤적의 시작점은 대부분의 사람들이 인식하는 것보다 일년 일찍입니다.


2024년 12월 4일, 뉴욕. UnitedHealthcare CEO인 Brian Thompson은 힐튼 호텔 밖에서 총에 맞아 숨졌습니다. 용의자 Luigi Mangione은 아이비리그 출신이었으며 의료 보험 업계를 비난하는 손글씨로 된 성명을 남겼습니다. 이 사건은 소셜 미디어상에서 일련의 비정상적인 반응을 일으켰습니다: 대규모 일반 사용자들이 범인에 대한 동정을 표명하며, 그를 일종의 저항 상징으로 세우기까지 했습니다.


그 순간, 어떤 문은 열렸습니다.


톰슨 사건 이후, 고위 관리자 보안은 "복지 혜택"에서 "생존 필수품"으로 변모했습니다. 포춘 잡지로 인용된 조사 데이터에 따르면, 2023년 이후 대기업 고위 관리자를 대상으로 한 인신매매 공격은 225% 증가했습니다. S&P 500 기업 중, 2025년에는 33.8%가 경영 보고서에 고위 관리자 안전 비용을 보고했으며, 2020년에는 이 수치가 23.3%였습니다. 보안 서비스를 제공하는 기업의 평균 비용은 연간 13만 달러이며, 전년대비 20% 증가하며 5년 동안 두 배로 늘었습니다.


인공지능(AI) 산업은 이러한 동향의 최신 및 가장 눈에 띄는 수용자입니다. 2024년 십대 기술 거물 CEO들의 안보 지출은 총 4,500만 달러를 넘었습니다. 자크 버그 개인만 2,700만 달러로, 애플, 구글 등 네 명의 CEO들의 합계를 상회했습니다. 엔비디아 황렌희 2025년에는 350만 달러로, 59% 증가했습니다. 구글 피차이는 827만 달러로, 22% 증가했습니다.


AI 산업은 일부 다른 산업에는 없는 것이 있습니다. 바로 건축자도 이 기술이 문명을 파괴할 수도 있다고 믿는다는 것입니다. 2025년 피우 연구소가 전 세계 28,333명을 대상으로 조사한 결과, AI 개발에 흥미를 느끼는 사람은 16%뿐이며, 우려를 표명한 사람은 34%입니다. 놀랍게도, 놀랍게도, 교육 수준과 소득이 높을수록 AI가 제어를 벗어날까봐 걱정하는 비율이 오히려 더 높습니다.
가장 잘 이해한 사람이 가장 두려워합니다.


얼마 전 인디애나폴리스 시의원 론 깁슨의 집이 한 밤 중 총격을 당해 13발이 연발되었으며, 8세 아들이 총성에 깨어났습니다. 현관에는 "데이터 센터 건설 금지"라는 손글씨 쪽지가 남아 있었습니다. FBI가 수사에 착수했습니다. 조지 워싱턴 대학 극단주의 연구 프로그램 연구원 조디ン 에이브럼스는 데이터 센터가 과학기술에 반대하는 사람들과 반정부 극단주의자들의 공격 목표가 되고 있다고 지적했습니다.


론 깁슨 총격 사건 현장


이러한 두려움은 산업 내부에는 비밀이 아니지만 공개적으로 크게 언급되지 않습니다.


어토맨의 와이오밍 주 성채는 2016년에 지어졌습니다. 그 해, OpenAI는 막 세상에 나타났고 AI가 인류에 어떻게 이로운지 그리는 중이었습니다. 이 두 가지 일이 동시에 일어났을 뿐만 아니라 그는 무장 민병대를 지원할 총알을 비축하는 것도 열심히 했습니다.


이것은 합리적인 두 배의 베팅입니다: 공개적으로는 AI가 성공할 것이라는 베팅을 하고 비공개적으로는 AI가 제어를 벗어나게 될 것이라는 것에 대비합니다.


어토맨의 마장돌


2월 27일, OpenAI는 미국 국방부와 계약을 체결하여 펜타곤이 ChatGPT를 기밀 방위망에 배치하도록 허용했으며, 사용 범위는 "어떠한 합법적인 용도"에도 해당합니다. 동일한 날, 어토맨은 AI 군사적 응용에 대한 Anthropic의 제한적 입장을 공개적으로 지지한다고 밝혔습니다. 이후 ChatGPT의 일일 다운로드량이 295% 급증하고, 1성 평가는 24시간 내에 775% 증가했습니다. QuitGPT 반대운동은 150만 명 이상이 참여했다고 알려졌습니다.


3 월 21 일, 약 200 명의 시위대가 샌프란시스코를 행진했습니다. Anthropic, OpenAI 및 xAI를 거쳐, 세 CEO가 전선 AI 개발을 일시 중지하기로 약속하도록 요구했습니다. 동시에 런던에서는 지금까지 가장 대규모의 반 AI 시위가 벌어졌습니다.


오트만의 와이오밍 지하 요새와 그가 고용한 보안 직원은 외부인으로부터 오는 위험과 자신이 건설 중인 것으로부터 오는 두 가지 서로 다른 유형의 위험에 대처합니다. 그는 비공개 시에는 두 가지 위험을 심각하게 대하며, 공개적으로는 두 가지 중 하나만을 인정합니다.


첫 번째 공격이 발생한 동일한 주에, The New Yorker는 오트만에 대한 심층 보도를 발표했습니다. 기자 Ronan Farrow와 Andrew Marantz는 100 명 이상의 내부 제보자들과 인터뷰를 진행했고, 핵심 주장은 두 단어로 요약됩니다: 신뢰할 수 없음. 보도는 전 OpenAI 이사회 구성원의 발언을 인용하며, 오트만을 "반 사회적 인격체"로 묘사하고 "진실에 구속받지 않는다"고 설명했습니다. 다수의 전 동료들은 그가 AI 안전 문제에 대한 입장을 반복적으로 바꾸며 필요한 경우 권력 구조를 재정의했다고 설명했습니다.


오트만은 블로그 게시물에서 자신이 "충돌 회피" 경향이 있다고 인정했습니다. 오트만은 "AI가 존재 수준의 위협"이라는 공공적 서사를 구축하여 자금을 조달하고 규제 게임에 도구로 활용했습니다. 결과적으로, 이 도구는 그의 손에서 벗어나 한 바퀴 돌고 그의 문에 다시 떨어졌습니다.


BlockBeats 공식 커뮤니티에 참여하세요:

Telegram 구독 그룹:https://t.me/theblockbeats

Telegram 토론 그룹:https://t.me/BlockBeats_App

Twitter 공식 계정:https://twitter.com/BlockBeatsAsia

举报 오류 신고/제보
문고 선택
새 문고 추가
취소
완료
새 문고 추가
자신만 보기
공개
저장
오류 신고/제보
제출