비탈릭 부테린, AI의 보안 위협 경고... "ChatGPT가 자금을 탈취할 수 있다"
이더리움 공동 창업자인 비탈릭 부테린이 최근 ChatGPT의 보안 취약점에 대해 경고하며, 인공지능(AI) 기술의 위험성을 지적했다. 그의 주장은 AI 기술이 디지털 생태계 전반에 걸쳐 빠르게 확산되는 가운데 제기된 기술적 및 윤리적 문제에 대한 중요한 발언으로, 암호화폐 업계와 전 세계 디지털 사용자들의 이목을 끌고 있다.
이 논란의 시작은 옥스퍼드 대학 출신의 소프트웨어 엔지니어 에이토 미야무라가 X(구 트위터)를 통해 공개한 정보다. 그는 최근 ChatGPT가 MCP(Model Context Protocol) 도구를 완전히 지원하기 시작하면서, 사용자의 지메일, 구글 캘린더, 쉐어포인트 등의 외부 서비스를 직접 연결할 수 있게 되었다고 주장했다. 이로 인해 심각한 개인정보 유출 위험성이 커졌다는 것이다.
미야무라에 따르면, 단순히 피해자의 이메일 주소가 있다면, 악의적인 캘린더 초대를 통해 "탈옥(jailbreak)" 명령어를 심어 ChatGPT가 공격자의 지시에 따라 이메일을 검색하고 데이터를 반환하도록 유도할 수 있다. 그는 "AI는 사용자 지시를 따르지만 상식을 따르지 않는다"고 경고하며, AI에 대한 지나친 신뢰가 오히려 큰 보안 위협을 불러올 수 있다고 지적했다. 또한 사용자들이 AI의 권한 요청을 무분별하게 승인할 가능성이 높아지면서, 이러한 문제는 더욱 심각해질 것이라고 덧붙였다.
이에 비탈릭 부테린은 현재 인공지능 거버넌스 모델이 '순진하다'고 강력히 비판했다. 그는 AI에게 자율적으로 기금 배분 등의 결정을 맡기면, 언젠가는 악의적인 코드가 삽입되어 "모든 자금을 가로채라는 지시를 AI에게 주입하는" 상황이 발생할 수 있을 것이라고 주장했다. 이러한 우려를 해결하기 위해 그는 '정보 금융(info finance)' 모델을 제안하고, 이 모델은 개방형 시장에서 누구든지 AI 모델을 제공하고, 외부 검증이나 무작위 테스트를 통해 보안을 점검받을 수 있도록 구성된다. 특히, 인간 심사위원단이 데이터를 검토할 수 있도록 하여 AI의 명령체계가 일방향으로 흘러가지 않도록 하는 데 초점을 맞추고 있다.
AI 기술이 암호화폐 및 디지털 자산 관리에 필수적으로 통합되는 시대에 진입함에 따라, 정보 보안 문제는 단순한 기술적 이슈를 넘어 사용자 신뢰의 핵심으로 자리잡고 있다. 이에 대해 엔지니어, 투자자, 정책 입안자 모두가 숙고해야 할 시점에 이르렀다. 비탈릭 부테린의 경고는 기술 발전에 따른 새로운 도전 과제에 대응하기 위한 적극적인 대책 마련을 촉구하고 있으며, 이는 사용자 보호를 위한 중요한 담론으로 이어질 가능성이 높다.
