미국도 못 끊은 ‘군(軍) AI’…공급망 위험 지정이 던진 질문, 한국형 AI는 답할까

이번 기사 핵심

  • KBS ‘시사기획 창’은 “AI의 국적을 묻기 전에, 누가 만들고 누가 통제하느냐부터 따져야 한다”는 현실을 전쟁 사례로 보여줬다. 보도에 따르면 미국 정부는 이란 전쟁 시작 직전 앤트로픽을 ‘공급망 위험 기업’으로 지정했지만, 이미 국방망에 통합된 AI ‘클로드’는 즉시 배제되지 못했고 공습 과정에 활용됐다. ‘지정’과 ‘차단’ 사이의 간극은 AI가 단순 소프트웨어가 아니라 운영·조달·권한·대체 체계까지 포함한 시스템이라는 점을 드러낸다. 한국도 2025년 말부터 5,300억 원을 투입해 독자 파운데이션 모델(한국형 AI)을 추진 중이며, LG·SKT·업스테이지·모티프 4팀이 경쟁 중이다. 결국 승부는 개발 자체가 아니라 공개 이후 실제 도입과 활용 확산, 그리고 위기 시 분리·대체가 가능한 통제 구조를 만들 수 있느냐에 달려 있다.
  • 공급망 위험 지정 같은 ‘정책 이벤트’가 발생했을 때, 이미 통합된 AI를 얼마나 빠르게 분리·대체할 수 있는가(기술·계약·운영의 결합 문제).
  • 한국형(소버린) AI가 공개된 뒤 ‘다운받아 쓰는 수준’에서 실제 업무·산업에 얼마나 깊게 들어가는지(도입 지표가 성패를 가를 가능성).
미국도 못 끊은 ‘군(軍) AI’…공급망 위험 지정이 던진 질문, 한국형 AI는 답할까 illustration

전쟁 직전 ‘공급망 위험’ 지정에도 못 끊은 군 AI…KBS가 던진 질문, 한국형 AI는 무엇을 바꿀까

‘AI 국적’ 논쟁이 갑자기 실무가 되는 순간

미국도 못 끊은 ‘군(軍) AI’…공급망 위험 지정이 던진 질문, 한국형 AI는 답할까 supporting image

KBS ‘시사기획 창’은 질문을 단순하게 꺼낸다. “한국인이 쓰는 AI는 누가 만들었습니까. 그리고 누가 통제합니까.” 겉보기엔 윤리나 산업정책 토론처럼 들리지만, 군사·안보·공공 시스템에선 곧바로 운영 리스크가 된다. 왜냐하면 그 AI가 한 번 업무 흐름 속에 들어가면, 정책이 바뀌거나 리스크가 발견돼도 ‘지금 당장 끊는 일’이 생각만큼 쉽지 않기 때문이다.

보도에 따르면 미국 정부는 이란 전쟁 시작 직전, AI 모델 ‘클로드(Claude)’를 만든 앤트로픽을 ‘공급망 위험 기업’으로 지정했다. 하지만 이미 국방망에 통합된 클로드는 즉시 배제되지 못했고, 이란 공습 과정에 활용됐다고 한다. ‘위험하니 줄이자’는 판단과 ‘현장에서 바로 빼자’는 실행 사이에 큰 간극이 생긴 장면이다.

핵심은 “누가 만들었나”보다 “통합된 뒤 누가 쥐고 있나”

공급망 위험 지정은 분명한 신호다. 조달과 사용을 줄이거나 끊어야 한다는 의미다. 그런데 현실의 시스템은 “이 서비스 계정만 막으면 끝”처럼 단순하지 않다. AI가 업무 시스템에 ‘통합’되는 순간부터는 호출 경로(API), 권한, 데이터 흐름, 로그, 장애 대응, 대체 체계까지 한꺼번에 얽힌다. 그래서 정책 결단이 내려와도 현장은 즉시 멈추지 못하거나, 멈추면 다른 기능이 함께 멈추는 상황을 맞을 수 있다.

KBS가 짚은 “모호한 통제권”은 바로 이런 구간에서 커진다. 누가 버튼을 눌러 끊을 수 있는지, 끊었을 때 무엇으로 대체할지, 대체 과정에서 데이터와 기록을 어떻게 다룰지까지 정리돼 있지 않으면 ‘리스크를 인지했는데도 계속 쓰는’ 상황이 벌어진다. 보도는 또 앤트로픽이 자사 AI의 동원을 막지 못했다고 전한다. 기술 제공자(민간)와 운용자(국가 시스템) 사이에서 책임과 통제의 경계가 흐려질 수 있다는 점을, 전쟁이라는 극단적 환경이 드러낸 셈이다.

한국형 AI가 답해야 하는 건 ‘개발’만이 아니다

이 대목에서 한국의 ‘독자 파운데이션 모델(한국형 AI)’ 추진이 연결된다. KBS는 정부가 2025년 말부터 5,300억 원을 투입해 개발을 추진 중이라고 전했다. 지난해 12월 네이버와 NC AI가 탈락했고, 현재는 LG·SKT·업스테이지·모티프 4팀이 경쟁 중이라는 구도도 보도에 담겼다.

하지만 보도 속 개발자들의 말은 낭만과 거리가 있다. “이번 2차수가 제일 보릿고개 같아요.” 인터넷 데이터는 이미 고갈됐고 GPU는 부족한데, 비교 대상은 세계 최고 수준의 모델들이라는 현실이 깔려 있다. 결국 ‘국산이냐 외산이냐’의 구호만으로는 해결되지 않는다. 파운데이션 모델은 코드만이 아니라 데이터·연산자원·현장 실험이 동시에 굴러가야 하고, 그중 하나만 흔들려도 속도가 떨어진다.

취재진이 음성 데이터를 모으는 현장, 100명이 게임을 하며 행동 데이터를 쌓는 PC방, 로봇 연구실까지 따라간 이유도 여기서 설득력을 얻는다. ‘대규모 모델’이라는 말은 거창하지만, 실제론 데이터를 만들고 검증하고 반복하는 노동이 쌓여서 나온다. 이 과정이 흔들리면 모델은 빨리 늙고, 현장에선 결국 외부 서비스에 다시 기대게 된다.

승부처는 공개 이후: 사람들이 “정말로” 쓰게 만들 수 있나

KBS 보도가 날카로운 지점은 마지막에 있다. 소버린 AI 참여사가 시연한 국방 AI는 “이란 전장을 누비는 AI와는 거리가 있었다”고 했고, “아직은 챗봇 수준”이라는 평가도 전했다. 여기서 논쟁은 두 갈래로 갈린다. 지금 투자를 하지 않으면 기술 종속이 더 심해질 거라는 주장과, “다운받아 쓰면 아무도 모르는데 굳이 왜 만들어야 하느냐”는 회의가 동시에 존재한다.

그런데 이 둘을 가르는 기준은 의외로 단순하다. 한국형 AI가 공개된 뒤, 국민과 기업이 실제로 ‘도입’하고 ‘반복적으로 호출’하느냐이다. 한 번 시연하고 끝나는 모델과, 조직의 업무 흐름 안에서 매일 쓰이는 모델은 완전히 다른 생태계를 만든다. 보도의 진단처럼 성패는 결국 ‘활용’에서 갈린다. 국적은 명분일 수 있지만, 지속 가능성은 성능과 쓰임새, 그리고 운영 체계에서 나온다.

다만 국적(주권) 논점이 사라지는 건 아니다. 앞서 미국 사례가 보여주듯, 외부 벤더의 모델이 내부망에 통합된 순간부터는 정책·전쟁·규제의 급변이 곧바로 운영 리스크로 돌아온다. 한국형 AI 논의는 ‘자체 개발’의 상징성을 넘어, 통제 가능한 기술 스택과 전환 가능성(대체 가능한 구조)을 어디까지 확보할지의 문제로 읽어야 한다.

지금 점검할 것: “끊을 수 있는 구조”가 있는가

이 이슈에서 다음으로 확인해야 할 건 화려한 데모보다 운영의 디테일이다. 첫째, 내부망·업무 핵심 시스템에 연결된 AI가 무엇인지 한눈에 볼 수 있는지(연동 관계가 문서로 남아 있는지). 둘째, 공급망 리스크 같은 이벤트가 발생했을 때 실제로 분리·차단·대체가 가능한지(대체 모델과 절차가 준비돼 있는지). 셋째, 전환 과정에서 데이터와 로그를 어떻게 처리할지 기준이 있는지다.

한 번 연결된 AI는 생각보다 쉽게 끊기지 않는다. KBS 보도가 남긴 가장 실용적인 교훈은 바로 그 점이다. ‘국적’ 논쟁이 다시 뜨거워질수록, 조직이 가져야 할 답은 구호가 아니라 구조—위기 때도 작동하는 통제와 대체의 설계다.

확인한 기사: news.kbs.co.kr

코멘트

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다