지난주 세 명의 공화당 상원의원이 이란에 관한 기밀 브리핑에서 퇴장한 뒤, 기자들에게 거의 아무것도 알아내지 못했다고 밝혔다. 이 한 가지 사실이 그 어떤 백서나 의회 청문회보다 2026년 미국 AI 거버넌스의 현주소를 더 적나라하게 보여준다.
챗봇 청문회는 잊어라. EU AI법 준수 체크리스트도 잊어라. 지금 이 순간 세계에서 가장 중대한 AI 시스템은 펜타곤이 타격 시나리오를 모델링하고, 이란의 핵 개발 일정을 평가하며, 중동 전역의 병력 배치를 최적화하는 데 활용하는 바로 그 시스템들이다. 그런데 헌법상 전쟁을 승인할 권한을 가진 의회가, 그 시스템들이 무엇을 권고하는지, 어떻게 결론에 도달하는지에 대해 명확한 답변조차 얻지 못하고 있다.
이것이 실리콘밸리의 그 누구도 말하고 싶어 하지 않는 AI 거버넌스 위기다.
감시의 창이 닫히고 있다
폴리티코 보도에 따르면, 동맹국들과 의회 의원들은 미군 작전 계획에 대한 핵심 감시 수단을 잃을 위기에 처해 있다. 행정부는 국방 전략에 사용되는 작전용 AI 도구에 관한 정보 파이프라인을, 해외 파트너와 의회 양쪽 모두에 대해 체계적으로 좁혀 왔다. 동시에 뉴욕타임스 보도에 따르면, 미국은 이란 평화안을 회람하면서도 중동에 추가 병력을 파견하고 있는데, 이 모순은 서로 다른 AI 지원 기획 모델이 서로 다른 대상에게 서로 다른 권고안을 생성하고 있다는 점을 이해해야만 비로소 납득이 된다.
CNN은 공화당 의원들이 이란 전쟁 계획에 대한 트럼프 행정부의 정보 공유 부족에 불만을 토로해 왔다고 보도했다. 이것은 단순한 당파적 소음이 아니다. 대외 강경파 공화당 의원들이 군사적 투명성 부족을 불평한다면, 무언가 구조적인 변화가 일어난 것이다.
아무도 묻지 않는 근본적 질문들
AI 시스템이 실제로 이란 전략을 주도하고 있는가?
스카이넷 같은 의미에서는 아니다. 알고리즘이 이스파한 공습 여부를 결정한다고 주장하는 사람은 아무도 없다. 하지만 실제로 벌어지고 있는 일은 어쩌면 더 우려스럽다: AI 시스템이 *선택지의 범위* 자체를 형성하고 있다.
이렇게 생각해 보자. 사서가 어떤 책을 정면 전시대에 올릴지 결정하는 도서관을 상상해 보라. 기술적으로는 모든 서가를 둘러볼 수 있지만, 90%의 사람들은 그냥 전시대에서 고른다. 군사 AI 도구는 어떤 시나리오가 의사결정자에게 제시될지, 어떤 위협 평가가 최우선으로 표시될지, 어떤 병참 체계가 실현 가능해 보일지를 선별한다. 시스템이 결정을 내리는 것이 아니다. 메뉴를 만드는 것이다.
이런 도구들을 다뤄 본 국방 분석가들은 이를 "믿을 수 없이 유용하면서도 완전히 불투명하다"고 묘사한다. 이 모델들은 위성 이미지, 신호정보, 외교 전문 분석, 경제 지표를 흡수하여 전략적 권고안을 생성한다. 문제는 그것들이 틀렸다는 게 아니다. 문제는 장군이 대통령에게 B안을 제시할 때, 의회의 그 누구도 이런 질문을 할 수 없다는 것이다: 모델이 A안으로 순위를 매긴 것은 무엇이었으며, 왜 그것이 후순위로 밀려났는가?
백악관이 지금 의회 접근을 제한하는 이유
두 가지 이유가 있다. 하나는 공식적인 것이고, 하나는 자명한 것이다.
공식적인 이유는 작전 보안이다. 더 많은 사람에게 브리핑하면 유출 경로가 늘어난다. 특히 이란 관련 업무처럼 민감한 사안에서는 더욱 그렇다. 타당한 주장이다. 이 논리는 냉전 시대부터 존재해 왔다.
자명한 이유는 AI 지원 기획이 새로운 종류의 기밀 분류 문제를 만들어낸다는 것이다. 전통적인 군사 계획은 문서, 브리핑 슬라이드, 화살표가 그려진 지도다. 검열하고, 요약하고, 정제된 버전을 공유할 수 있다. AI 모델의 출력물은 다르다. 확률적이다. 신뢰 구간, 민감도 분석, 분기 시나리오와 함께 도착한다. AI 권고안의 "요약"을 모델의 추론 과정 없이 공유하는 것은 증명 없이 정리를 공유하는 것과 같다: 기술적으로 가능하지만, 의회가 결론의 타당성을 평가하는 데 필요한 모든 것이 빠져 있다.
행정부는, 우연이든 의도든, AI 지원 기획이 본질적으로 감시하기 더 어렵다는 사실을 발견했다. 그리고 그 문제를 해결하기보다는 이를 활용하는 쪽으로 기울고 있다.
기존 감시 메커니즘이 역부족인 이유
서류상으로는 안전장치가 존재한다. 전쟁권한결의안은 대통령이 군대를 배치한 후 48시간 이내에 의회에 통보하도록 요구한다. 군사위원회는 정기적인 정보 브리핑을 받는다. 2024 국방수권법에는 AI 시험 및 평가에 관한 조항이 포함되었다.
현실에서는 이 메커니즘 중 어느 것도 현재의 상황에 맞게 설계되지 않았다. 전쟁권한결의안은 하나의 개별적인 "배치" 사건을 전제한다. AI 지원 전략은 연속적이다—24시간 내내 작동하며, 새로운 데이터가 유입될 때마다 권고안을 갱신한다. 의회가 "잠깐, 검토하게 해달라"고 말할 수 있는 단일한 시점이 존재하지 않는다. 정보 브리핑은, 기술적으로는, 이루어지고 있다. 하지만 양당의 여러 의원들이 시사한 바와 같이, 브리핑에는 AI 도구가 기획 과정에 어떻게 영향을 미치는지에 대한 구체적 내용이 빈약하다.
국방수권법 조항은 시험과 안전에 초점을 맞추고 있다. 중요하지만, 이는 자동차 제조를 규제하면서 운전석에 누가 앉아 있는지는 무시하는 것과 같다.
소비자 AI 거버넌스와의 극명한 불균형
이 부분이 나를 밤잠 못 이루게 한다. AI 위험 담론이 종종 과장되었다고 수년간 주장해 온 사람으로서 하는 말이다.
워싱턴, 브뤼셀, 베이징에서 벌어지는 AI 거버넌스 논의 전체가 소비자 대면 AI를 중심으로 조직되어 왔다. 잘못된 말을 하는 챗봇. 선거의 딥페이크. 편향된 채용 알고리즘. 이것들은 실제 문제다. 하지만 여기에 쏟아붓는 규제 에너지는 지금 여기서 걸려 있는 것에 비하면 극도로 불균형적이다.
생각해 보라: 의회는 ChatGPT가 잘못된 의료 조언을 생성하는 문제에 대해 여러 차례 청문회를 열었다. 잠재적 피해는 실재하지만 한정적이다. 한편, AI 시스템은 핵 문턱 국가에 대한 군사 전략을 적극적으로 형성하고 있는데, 의회의 감시 장치는 제대로 된 브리핑 한 번 확보하지 못하고 있다.
이것은 규제 체계의 틈이 아니다. 협곡이다.
실질적인 감시를 위해 진정 필요한 것
세 가지 변화가 상황을 바꿀 수 있다.
첫째, 의회에는 AI 시스템 출력물을 직접 평가할 수 있는 기술 인력이 필요하다. 펜타곤의 요약본만 받아볼 것이 아니라. 미국 감사원(GAO)이 AI 감사 역량을 구축해 왔다. 이것을 조달 시스템뿐만 아니라 국방 분야에도 배치해야 한다.
둘째, 기밀 분류 체계를 현대화해야 한다. AI 모델의 아키텍처, 훈련 데이터 출처, 의사결정 로직을 보안 인가를 받은 위원회 의원들과 공유할 수 있는 메커니즘이 마련되어야 하며, 이는 구체적인 작전 출력물 공유와는 분리되어야 한다. 차가 어디로 향하는지를 밝히지 않고도 엔진이 어떻게 작동하는지는 설명할 수 있다.
셋째, 이것이 불편한 부분인데, 의회는 AI 지원 군사 기획이 기존의 전쟁 권한 감시 범위에 속한다고 주장해야 한다. 수년이 걸릴 새로운 입법을 통해서가 아니라, 소환권과 예산 조건의 적극적 행사를 통해서. 재정 권한은 헌법적 도구함에서 가장 날카로운 감시 수단으로 남아 있다.
이 위기가 특정 행정부를 넘어 지속되는 이유
이 이야기가 익숙한 "의회가 기술에 뒤처져 있다"는 서사와 다른 지점이 바로 여기다. 이것은 의원들이 트랜스포머나 디퓨전 모델을 이해하지 못하는 문제가 아니다. 기술적 문해력 격차는 실재하지만, 그것은 곁가지다.
핵심 문제는 구조적이다. AI 지원 의사결정은 AI를 통제하는 쪽에 유리한 정보 비대칭을 만들어낸다. 군사적 맥락에서 그것은 행정부다. 어느 행정부든, 당파를 불문하고, 그 비대칭을 유지할 유인을 갖고 있다. 현 백악관이 특별히 악의적인 것이 아니다. 단지 군사 AI 역량이 전략을 실질적으로 형성할 만큼 정교해진 시기에 집권한 최초의 행정부일 뿐이다.
AI 안전에 관심이 있다면—추상적인 실존적 위험의 의미가 아니라, "다음 달에 특정 AI 시스템이 특정한 나쁜 결과에 기여할 것인가"라는 의미에서—바로 이것이 그 문제다. 챗봇이 아니다. 이미지 생성기가 아니다. 코딩 어시스턴트가 아니다.
세상에서 가장 중대한 AI 시스템은 당신이 결코 벤치마크를 볼 일이 없는 것들이다.
이란을 넘어선 민주주의의 쟁점
이란 상황은 변화할 것이다. 병력은 배치되거나 되지 않을 것이다. 외교 채널은 성과를 내거나 내지 않을 것이다. 하지만 구조적 문제는 어떤 단일 위기보다 오래 지속될 것이다.
내가 대화를 나눈 의회 보좌진들은, 군사 AI에 대한 감시 공백이 지금 해결하지 않으면 영구화될 것이라는 인식이 커지고 있다고 설명한다. 닫히고 있는 창은 이란 전략에 대한 것만이 아니다—전쟁과 평화에 관한 결정을 형성하는 도구를 선출된 대표자들이 평가할 수 있다는 원칙 자체에 대한 창이 닫히고 있다.
이것은 기술 이야기가 아니다. 민주주의 이야기다. 그리고 지금, 민주주의는 아무도 나서지 않는 사이에 지고 있다.