중국산 생성형 AI 모델 ‘딥시크’ 사용자가 증가하고 있는 가운데 정부가 AI모델을 통한 정보 유출 단속에 나섰다. 사용자 질문을 통해서도 학습하는 AI 챗봇이 국가 기밀 등 주요 정보 유출 경로가 될 수 있다는 경각심에 따라 주요 부처는 물론 공기업에도 AI 도구 사용을 자제하도록 지시하고 있다.
5일 아주경제 취재에 따르면 국가정보원과 행정안전부는 지난 4일 산업통상자원부, 과학기술정보통신부, 방송통신위원회를 비롯한 전 부처에 ‘AI 관련 보안 가이드라인’을 전달했다.
해당 지침은 부처 공무원들에게 공지됐으며 AI 도구 사용 시 보안 유의 사항을 철저히 준수하라는 내용을 담고 있다. 특히 딥시크를 포함한 AI 챗봇이 보안 검증을 거치지 않은 만큼 비공개 내부정보나 개인정보 입력을 금지하도록 강조했다.
이번 조치는 국정원 측 판단에 따른 것으로 전해진다. 검증 없는 중국산 AI모델이 국가 안보를 위협할 수 있다는 우려에서다. 정부 관계자에 따르면 전 부처에 긴급하게 전달된 만큼 실질적인 업무에서는 AI 도구 사용을 완전히 배제하는 방향으로 진행되고 있다.
국정원과 행안부 권고를 받은 정부 부처는 즉시 산하기관에도 한층 강화된 AI 도구 활용 가이드라인을 전달했다. 산업부는 한국중부발전, 한국동서발전 등 에너지 공기업에 딥시크를 비롯한 AI 챗봇 접속에 주의하라는 공문을 보낸 것으로 파악됐다.
한국전력공사, 한국가스공사, 한국서부발전 등 보안이 중요한 에너지 공기업은 국정원 지침에 앞서 설 연휴 직후 AI 도구 접속 차단 조치를 시행했다. 이 밖에 다른 공기업들도 딥시크에 의한 정보 유출 우려가 제기된 직후 순차적으로 생성형 AI 접속을 차단한 것으로 전해진다.
가스공사 관계자는 “국가 에너지 가격과 수급 등 민감한 정보를 다루는 만큼 AI 챗봇을 통한 정보 유출을 우려할 수밖에 없다”며 “현재 사내망과 사외망을 분리해 운영하고 있으며, 모든 종류의 AI 도구는 원천 차단된 상태”라고 말했다.
국정원과 행안부는 2023년 챗GPT가 출시됐을 당시에도 보안 준수사항을 담은 지침을 전 부처에 배포한 바 있다. 다만 이번에는 중국산 AI 챗봇이 보안 위협 요소로 지목된 만큼 2023년보다 더욱 강화된 지침이 내려진 것으로 분석된다.
정부가 AI 모델에 의한 정보 유출 우려에 대응해 사실상 AI 도구 사용금지 조치를 내놓으면서 국가 차원의 AI 전환도 당분간 중단될 것으로 전망된다. 대안으로는 외부 네트워크와 연결되지 않은 ‘폐쇄형 AI 모델’이 거론되지만 개발·관리 예산과 인력 운용 방안 결정에는 시간이 걸릴 것으로 전해진다.
과기부 관계자는 “AI기본법 제정에 따른 시행령이 완성된 후에야 국가 기관에서 사용할 수 있는 AI 모델 가이드라인도 마련될 것으로 보인다”며 “현재는 AI 모델에 대한 명확한 보안 규정이 없어 사용을 자제하는 분위기”라고 말했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지