올해 국감 화두로 'AI' 떠오를듯…거버넌스·예산·이용자 보호 등 논의 가능성

기자정보, 기사등록일
윤선훈 기자
입력 2024-08-29 14:53
    도구모음
  • AI 기사요약
  • * AI기술로 자동 요약된 내용입니다. 전체 맥락과 내용을 이해하기 위해서는 기사 본문 전체를 보시길 권장합니다

    오는 10월부터 진행되는 22대 국회 첫 국정감사에서 인공지능(AI)이 주요 화두로 떠오를 전망이다.

    29일 국회 입법조사처가 발간한 '2024 국정감사 이슈 분석' 보고서는 AI 관련 논의 사항으로 △국가 AI 정책 거버넌스 내실화 △AI 연구개발 예산 균형적 재편 △AI 이용자 보호 방안 구체성 강화 △AI 개발을 위한 공개 개인정보 활용 기준 등을 꼽았다.

    보고서는 '국가 AI 정책 거버넌스 내실화'를 국정감사 주요 정책 이슈 중 하나로 짚었다.

  • 글자크기 설정
  • 정부 차원서 'AI G3' 기치 내걸어…관련 정책 논의 나올 전망

  • 국가인공지능위원회 운영 내실화, AI R&D 예산 문제 등 쟁점

  • AI 이용자 보호와 AI 데이터 학습기준에 대한 쟁점도

최민희 국회 과방위원장이 지난 28일 국회에서 열린 전체회의에서 의사봉을 두드리고 있다 과방위는 이번 국정감사에서 AI 관련 주요 논의가 이뤄질 것으로 예상되는 상임위원회다 사진연합뉴스
최민희 국회 과방위원장(오른쪽)이 지난 28일 국회에서 열린 전체회의에서 의사봉을 두드리고 있다. 과방위는 이번 국정감사에서 AI 관련 주요 논의가 이뤄질 것으로 예상되는 상임위원회다. [사진=연합뉴스]
오는 10월부터 진행되는 22대 국회 첫 국정감사에서 인공지능(AI)이 주요 화두로 떠오를 전망이다. 정부가 한국의 세계 AI 3대 강국 등극 전략인 'AI G3'를 내세우고 있는 가운데 이를 뒷받침하기 위한 각종 정책 점검이 예상된다.

29일 국회 입법조사처가 발간한 '2024 국정감사 이슈 분석' 보고서는 AI 관련 논의 사항으로 △국가 AI 정책 거버넌스 내실화 △AI 연구개발 예산 균형적 재편 △AI 이용자 보호 방안 구체성 강화 △AI 개발을 위한 공개 개인정보 활용 기준 등을 꼽았다.

보고서는 '국가 AI 정책 거버넌스 내실화'를 국정감사 주요 정책 이슈 중 하나로 짚었다. 현재 AI 정책 거버넌스 역할을 할 국가인공지능위원회가 출범을 앞뒀다. 다만 보고서는 위원회의 위상과 기능·기한 등에 제약이 있다는 점을 들며 정책 추진 과정에 한계가 있다는 점을 우려했다. 국가인공지능위원회가 행정위원회가 아닌 자문위원회이며, 존속 기한도 2027년 6월 30일까지기 때문이다.

이에 위원회 운영을 내실화하는 방안을 모색해야 한다는 주장이다. 의결 시 각 부처·기관의 역할과 소요·확보 예산 등을 명확히 밝히고, 추진 상황을 점검·평가토록 해야 한다고 보고서는 강조했다. 또 상정된 안건뿐만 아니라 필요하다고 여겨지는 의제를 발굴해 논의해야 한다고 짚었다. 장기적으로는 독임제 기관에 비해 의사결정 속도가 느린 위원회의 단점을 보완할 수 있는 운영 전략도 필요하다고 언급했다.

내년 1조원으로 편성된 AI 연구개발(R&D) 예산에 대해서는 "반도체 개발에 초점을 둬 범위가 제한적"이라고 짚었다. 보고서는 "AI의 경쟁력이 단순 알고리즘 성능보다는 여러 분야와 다수 사용자로부터의 이용 경험이 축적된 데이터에서 나온다"고 지적했다. 또 자체적인 데이터와 인프라 등을 중심으로 자국의 언어·문화·사회적 맥락·가치관 등을 반영한 AI 서비스가 중심이 돼야 한다는 점을 짚었다. 이에 보고서는 인프라뿐만 아니라 서비스를 키우는 방향으로 예산을 편성해야 한다고 봤다.

AI의 부작용으로부터 이용자를 보호하는 정책에 대해서도 세부 논의가 필요하다고 지적했다. 현재 정부 차원에서 AI 윤리·신뢰성 원칙을 담은 'AI 윤리기준'을 수립했고, 지난해 'AI 윤리·신뢰성 확보 추진 계획'도 이행키로 했지만 포괄적인 논의 중심이었다는 평가다. 이에 보고서는 구체적으로 어떻게 이용자의 안전과 재산을 보호할 것인지, 윤리 기준을 위반한 AI 기술·서비스를 규제할 것인지에 대한 방안을 마련해야 한다고 봤다. 다만 이것이 AI 규제로 이어질 수 있는 만큼 관련한 충분한 논의가 필요하다는 점도 짚었다.

AI 학습 과정에서 '공개된 개인정보'를 어디까지 활용할 수 있느냐도 쟁점이 될 수 있다고 봤다. 최근 개인정보보호위원회가 관련 가이드라인을 담은 'AI 개발·서비스를 위한 공개된 개인정보 처리 안내서'를 발간했지만, 보고서는 안내서상 기준의 법적 근거나 해석에 논쟁이 있을 수 있다고 봤다. 개인정보 처리의 법적 근거를 개인정보보호법에서 제시하는 '이익형량' 기준에 기초하는데, 이에 따르면 개인정보 처리 범위가 매우 좁을 수 있다는 점에서다. 이에 장기적으로 법적 근거 보완의 필요성에 대해 검토할 필요가 있다고 강조했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기