
"인공지능(AI) 에이전트는 여러 기기에 침투해 작동하면서 사용자의 데이터를 노골적으로 취득하고 활용할 수 있기 때문에 프라이버시 측면에서 매우 우려스럽다"
메레디스 휘태커 시그널 재단 회장은 16일 오후 서울 중구 그랜드하얏트 서울에서 진행된 글로벌 프라이버시 총회(GPA) 라운드 테이블에서 이같이 밝혔다.
메레디스 휘태커 회장은 구글 출신 AI·프라이버시 전문가로, AI 기술의 사회적 책임에 대해 꾸준히 제기해 온 인물이다. AI 윤리와 사회적 영향을 연구하는 미국 뉴욕대 'AI 나우 인스티튜트'의 공동 창립했고, 현재 비영리 암호화 메신저 '시그널'을 운영하는 시그널 재단을 이끌고 있다.
앞서 그는 이날 오전 개막한 GPA에서 첫 기조연설자로 나서 AI 에이전트 확산에 따른 새로운 프라이버시 보호 체계의 필요성을 강조했다.
그는 기조연설을 통해 "AI 에이전트는 캘린더, 이메일, 연락처 등 민감한 정보에 접근하면서 명시적 권한 없이 작동하도록 설계돼 있어, 현재의 프라이버시 장벽을 무너뜨리고 있다"면서 "AI가 어떤 방식으로 접근·처리·전송할 수 있는지에 대해 앱별로 구체적이고 세밀한 통제가 필요하다"고 말했다.
휘태커 회장은 데이터 오남용의 부작용을 우려하면서, AI 에이전트가 현재와 같은 방식으로 설계되면 안된다고 경고했다.
그는 "네트워킹 레벨에서 첫 커리어를 시작하면서, 당시 주된 업무는 데이터를 생성하는 일이었다. 그 과정에서 데이터의 오남용이 얼마나 심각한 지 알게됐다"면서 "데이터가 어떻게 생성되고, 악용되면서 기형적으로 작용할 수 있는지 경험하면서 그때부터 프라이버시에 매우 민감하게 반응했다"고 밝혔다.
이어 "AI가 지금만큼 성장하기 전인 2010년부터 데이터와 프라이버시에 대한 민감성이 높았고, 데이터가 AI 시스템을 통해 사용되는 방식에 우려하며 AI 연구를 시작했다"면서 "(이러한 연구를 바탕으로) AI 에이전트는 현재의 방식과는 달리, 프라이버시 보안을 지키면서 해롭지 않은 방식으로 설계될 수 있다"고 강조했다.
글로벌 빅테크 중심으로 경쟁하는 큰 모델의 AI가 아닌, 작은 AI 모델로도 충분히 혁신적인 서비스가 될 수 있다고 설명했다.
휘태커 회장은 "현재 지배적인 인식은 더 큰 AI가 성능이 좋다는 것인데, 이것은 필연적인 것이 아니다"면서 "개인정보가 안전하게 보호되고 정확한 데이터를 기반으로 한 작은 규모의 AI 모델도 충분하다는 인식이 필요하다"고 밝혔다. 이어 "이러한 다양한 AI를 추구하려면 여러 인센티브가 필요하다"고 덧붙였다.
AI 모델이 클수록 좋다는 인식은 소수의 빅테크 기업 주도로 만들어진 것이고, 오히려 작은 모델이 실제 상황에는 더 잘 작동될 수 있다고 강조했다.
그는 "AI 사업의 지배적 기업을 중심으로 (AI 모델이) '크면 클수록 좋다'는 논리를 계속해서 추진하려고 한다"면서 "이들은 데이터, 플랫폼, 컴퓨팅 인프라에 대한 독점적 접근권을 확보했고, 이는 경쟁사들이 갖지 못한 우위를 바탕으로 구축됐다"고 밝혔다. AI 모델이 클수록 좋다는 논리는 대규모 인프라를 갖춘 소수 독점 기업들이 경쟁적 우위를 유지하기 위한 전략에 불과하다는 의미다.
실제 상황을 반영하고 있지 않는 AI 성능 평가 방법도 문제가 있다고 짚었다. 그는 "현재 AI 모델을 측정할 때, 실제 상황을 반영하지 않는 평가와 벤치마크에 의존하고 있다"면서 "일례로 간호사가 병실에서 의료 AI 모델을 그것이 효과적인지 측정하는 것이 아니라, 가상의 시나리오에 대한 오류를 얼마나 잘 줄여주는지 측정한다"고 비판했다. 이어 그는 "실제 삶에서 AI 영향력을 측정할 때 더 작은 모델이 더 잘 작동한다"고 강조했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지