메타 챗봇서 '사생활 침해' 정황 발견...확산하는 'AI 투명성' 논란

메타 로고 사진로이터 연합뉴스
메타 로고 [사진=로이터 연합뉴스]

인공지능(AI) 챗봇 이용자들이 AI에 건넨 민감한 질문들이 동의 없이 공개된 사례가 발생했다. 성 정체성과 관련된 질문, 정치성향, 음란물 생성을 유도하는 질문 등이 여과 없이 공개되며 프라이버시 침해 논란이 불거졌다. 글로벌 시민단체와 일부 사용자는 법적 대응을 예고하며 AI 기업에 대해 투명성 강화를 촉구하고 있다.
 
15일 미국 보안회사 소셜프루프시큐리티에 따르면 메타AI 이용자 일부의 사용자 검색 프롬프트가 공개 피드에 게시된 사례가 발생한 것으로 알려졌다. 내용은 다양하다. 시험 문제 답변을 요청한 간단한 질문부터 지극히 개인적인 질문까지 공개되며 프라이버시 침해 논란이 본격화하고 있다.
 
메타 측은 “AI와 대화한 내용은 기본적으로 비공개이며 공개 여부는 사용자가 선택한다”고 밝혔다. 메타 측 설명대로 공개·비공개 여부를 사용자가 결정할 수 있지만 별도 경고 메시지가 불충분해 사용자가 공개 설정을 간과해 의도치 않게 비밀스러운 본인 대화를 유출한 것으로 알려졌다. 

국내에서는 메타 AI 챗봇 서비스가 제공되지 않아 관련 피해는 없는 것으로 나타났다. 

글로벌 시민단체들은 공개·비공개 여부와 별도로 메타가 이용자의 AI 검색 프롬프트를 데이터베이스화해 갖고 있다는 점이 문제라고 지적한다. AI와 대화한 내용이 외부에 유출될 수 있다는 위험성을 인지하지 못한 채 사용하고 있다는 얘기다. 

실제 주요 AI 서비스를 제공하는 빅테크들은 이용자의 검색 프롬프트를 다양한 방식으로 활용하고 있다. 오픈AI의 챗GPT는 사용자 데이터를 모델 학습에 활용한 것으로 논란이 됐다. 아마존은 알렉사로 수집한 음성 데이터를 무단으로 이용하기도 했다. 

개인 비서형 AI 챗봇이 발달하면서 사생활 침해 문제는 더 커질 것으로 전망된다. 일부 AI 기업들은 무료 사용자에게는 검색 프롬프트를 비공개 상태로 유지하는 '옵트아웃' 기능을 공지하지 않거나 기능 자체를 제공하지 않는 방안을 검토하고 있다. 무료로 사용하는 대신 검색 프롬프트를 활용하겠다는 의도다. 

AI 업체들의 이 같은 움직임에 대해 글로벌 시민단체는 유럽연합의 GDPR(일반 데이터 보호 규정) 및 미국 캘리포니아주의 CCPA(소비자 프라이버시법)를 위반할 가능성이 있다고 주장하며 조사 요청에 나섰다.
 
프라이버시 논란은 AI 윤리, 규제에 관한 논의로 이어지고 있다. 유럽연합은 AI 규제법(AI Act)을 통해 고위험 AI 시스템에 대한 엄격한 기준을 마련하고 있다. 미국과 아시아 국가들도 유사한 규제 도입을 검토 중이다.
 
국내 역시 AI 개발과 활용을 촉진하면서도 개인정보 보호법을 강화해야 한다는 목소리가 높아지고 있다. AI 업체 관계자는 “과도한 규제가 AI 산업 경쟁력을 저해할 수 있지만 AI로 인한 프라이버시 논란이 벌어지지 않도록 개인정보 보호법을 강화할 필요가 있다”고 지적했다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기