[아주사설 | 기본·원칙·상식] 젠슨 황의 선택, AI 시대 국가와 기업의 새로운 계약

젠슨 황의 발언은 단순한 기업인의 정치적 의견 표명이 아니었다. 그것은 AI 시대에 국가와 빅테크 기업이 어떤 관계를 맺게 될 것인지를 보여주는 상징적 선언에 가까웠다. 그는 최근 미국 로스앤젤레스에서 열린 밀컨 글로벌 콘퍼런스에서 “정부가 기술을 올바르게 사용할 것이라고 전적으로 믿는다”고 말했다. 또 “국가가 가족을 보호하기 위해 기술을 사용하는데 방해하지 않을 것”이라고 강조했다.


이 발언은 미국 기술업계를 흔들고 있는 논쟁 한가운데를 정면으로 건드린다. AI 기업은 국가안보 요구 앞에서 어디까지 협조해야 하는가. 그리고 민간 기술기업은 정부 권력과 어떤 거리를 유지해야 하는가.

찰스 영국 국왕이 4월 28일 미국 워싱턴 DC 블레어하우스에서 열린 기술업계 최고경영자들과의 회동에서 젠슨 황 엔비디아 CEO 제프 베조스 아마존 창업자와 대화를 나누고 있다 사진로이터연합뉴스
찰스3세 영국 국왕이 4월 28일 미국 워싱턴 D.C. 블레어하우스에서 열린 기술업계 최고경영자들과의 회동에서 젠슨 황 엔비디아 CEO, 제프 베조스 아마존 창업자와 대화를 나누고 있다. [사진=로이터 연합뉴스]



논쟁의 중심에는 앤스록픽이 있다. 앤트로픽은 미국 국방부와 협력하면서도 “미국인을 대상으로 한 대규모 감시”와 “완전 자율무기”에는 자사 AI 모델 사용을 제한해야 한다는 입장을 유지해 왔다. 기술의 윤리적 경계선을 설정해야 한다는 주장이다. 그러나 미국 정부는 이를 국가안보 리스크로 받아들였다. 결국 국방부는 앤트로픽을 “공급망 위험 기업”으로 지정했고, 트럼프 대통령과 헤그세스 국방장관까지 공개 비판에 나섰다.


반면 앤비디아는 다른 길을 택했다. 엔비디아는 OpenAI, 구글,  마이크로소프트, 아마존웹서비스 등과 함께 국방부 기밀 업무 협약에 참여했다. 미국 정부가 자사 기술을 “합법적 목적”으로 사용하는 데 동의한 것이다.


여기서 중요한 것은 미국이 AI를 더 이상 단순 산업 기술로 보지 않는다는 점이다. AI는 이제 반도체처럼 국가 전략자산이 됐다. 냉전 시대 핵기술이 패권 경쟁 중심이었다면, 지금은 AI 경쟁이 군사·경제·외교 질서를 바꾸고 있다. 미국 정부가 AI 기업들에 강한 협조를 요구하는 이유도 여기에 있다.


문제는 이 지점부터 시작된다. 국가안보는 중요하다. 그러나 국가안보라는 이름 아래 정부와 빅테크가 지나치게 밀착할 경우 또 다른 위험이 발생한다. AI는 단순 무기가 아니다. 감시와 정보 분석, 행동 예측, 여론 통제까지 가능한 기술이다. 민주주의 사회에서 가장 민감한 영역과 직접 연결된다.


앤트로픽의 우려 역시 이 지점에 있다. 완전 자율무기와 대규모 감시 체계는 인간 통제를 벗어날 위험이 있다. 실제로 세계 각국에서는 AI 기반 무기 체계를 둘러싼 윤리 논쟁이 빠르게 확산하고 있다. 사람이 최종 판단을 하지 않는 무기 시스템을 어디까지 허용할 것인지 국제 기준도 아직 명확하지 않다.


하지만 그렇다고 현실을 외면할 수도 없다. 중국과 러시아가 AI 군사화를 가속하는 상황에서 미국만 손을 묶고 있을 수 없다는 논리도 강력하다. 젠슨 황의 발언은 결국 “민간 기업이 국가안보를 최종적으로 거부할 수는 없다”는 현실론에 가깝다.


실제 역사에서도 전쟁과 기술은 늘 함께 움직였다. 인터넷은 미 국방부 프로젝트에서 출발했고 GPS 역시 군사용 기술이었다. 오늘날 시민 생활 전체를 지배하는 핵심 인프라 상당수가 원래는 안보 목적 기술이었다. AI 역시 같은 흐름 속에 들어가고 있다.


다만 AI가 이전 기술과 다른 점도 있다. 인터넷과 GPS가 연결과 위치 정보를 제공하는 인프라였다면, AI는 인간의 판단 과정 자체에 개입한다. 인간의 선택을 예측하고, 행동을 유도하며, 정보를 조합해 새로운 결론을 만든다. 바로 이 지점 때문에 AI는 이전 군사 기술보다 훨씬 더 정치적이고 사회적인 기술이 된다.


그래서 필요한 것은 단순한 찬반 논리가 아니라 기준과 원칙이다.


우선 인간 통제 원칙은 유지돼야 한다. 물론 현대 전장은 이미 초고속화 단계에 들어섰다. 극초음속 미사일과 드론 스웜, 실시간 사이버전 환경에서는 인간이 모든 전술 판단을 직접 승인하기 어렵다. 그렇다고 인간을 완전히 배제한 자율무기를 무제한 허용하는 것도 위험하다. 따라서 최소한 대량 살상이나 전략 무기 영역만큼은 인간 책임 체계를 유지해야 한다는 국제적 공감대가 필요하다.


둘째, 민주적 통제 역시 중요하다. 국가안보의 본질이 기밀성이라는 점은 부인할 수 없다. 군사 작전과 정보 활동을 모두 공개할 수는 없다. 그러나 그렇다고 정부와 빅테크의 협력이 완전한 비밀주의 속에 놓이는 것도 민주주의 원칙과 충돌한다. 결국 의회와 사법기관, 독립 감독 체계 같은 제한적 민주 통제가 필요하다. 완전 공개도, 완전 비밀도 답이 될 수 없다.


셋째, 국제 규범 논의 역시 시작해야 한다. 물론 현실은 냉혹하다. 미국과 중국, 러시아가 AI 패권 경쟁을 벌이는 상황에서 완전한 국제 합의는 쉽지 않다. 그러나 냉전 시기 미국과 소련도 핵무기 경쟁을 하면서 동시에 핵확산금지조약과 전략무기 제한 협정을 추진했다. 경쟁과 규범은 서로 배타적인 것이 아니라 위험이 커질수록 최소한의 통제선을 만들려는 시도와 함께 움직였다. AI 역시 마찬가지다. 완전 자율 핵 공격 시스템 금지 같은 제한적 영역부터라도 국제 기준 논의가 시작돼야 한다.


한국 역시 남의 일이 아니다. AI와 반도체는 이미 국가안보 산업이 됐다. 삼성전자와 SK 하이닉스 같은 기업들은 글로벌 AI 공급망 핵심 축이다. 앞으로 한국 기업들도 미국과 중국 사이에서 선택 압박을 받을 가능성이 크다. 단순한 수출 문제가 아니다. 외교와 안보, 기술 주권이 동시에 연결되는 문제다.


젠슨 황의 발언은 그래서 단순한 기업인의 소신 발언이 아니다. AI 시대에는 기술기업도 더 이상 순수한 민간 영역에 머물기 어렵다는 현실을 보여준다. 동시에 국가 역시 “안보”라는 이름 아래 모든 기술 활용을 정당화할 수는 없다는 경고도 함께 던진다.


결국 AI 시대의 핵심 과제는 하나다. 국가안보와 기술 윤리, 군사 효율과 민주주의 통제 사이의 균형점을 어디에 둘 것인가 하는 문제다. 그리고 세계는 지금, 그 새로운 기준선을 놓고 본격적인 경쟁과 논쟁에 들어가기 시작했다.


©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

2026_외국인걷기대회
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기