실리콘밸리, AI 연구보다 수익 우선시…안전성 우려 커져


업계 전문가들은 실리콘밸리의 인공지능(AI) 기업들이 안전성보다 제품 출시를 우선시하고 있다는 경고를 하고 있다. 사이버 보안 스타트업 칼립소AI의 기술책임자 제임스 화이트는 "모델이 더 향상되고 있지만, 동시에 악의적인 행동을 더 잘 수행할 가능성이 높아지고 있다"고 지적했다. 그는 "이제 AI 모델들이 나쁜 명령을 더 쉽게 수용하게 되었고, 민감한 정보를 유출할 위험이 존재한다"고 덧붙였다.
메타는 기본 인공지능 연구 unit인 FAIR의 중요성이 줄어들고, 대신 메타의 GenAI에 집중하고 있다고 이전 직원들이 전했다. 구글의 공동 창립자 세르게이 브린은 직원들에게 2월 메모에서 AI 업무를 가속화하고 "보호 제품(nanny products)"을 중단하라고 촉구했다. 한편, 오픈AI는 전문가 테스트로부터 피드백을 받은 후에도 이상해 보이는 모델을 공개했다. 오픈AI는 이를 후회하며, 사용자들의 긍정적인 반응에 이끌려 잘못된 결정을 내렸다.
이런 상황은 최근 AI 산업에서 연구보다 제품 개발이 더 중요해지면서 두드러지고 있다. 2022년 OPENAI의 ChatGPT가 출시된 이후 AI 기업들은 상업화를 우선시하려는 경향을 보이고 있으며, 이로 인해 안전성에 대한 우려가 커지고 있다. 한 분석가는 2028년까지 연간 1조 달러의 수익이 예상된다고 전망하고 있다. 업계 전문가들은 AGI(인공지능 일반)의 개발을 추진하는 주요 기업들이 안전성을 고려하지 않고 여유를 두지 않고 있다는 점에서 우려를 표하고 있다.
메타, 구글, 오픈AI를 포함한 주요 기술 기업들이 연구 자원을 제품 개발로 돌리면서 그 양상이 더욱 뚜렷해졌다. FAIR의 책임자 조엘 파노는 4월 자신의 퇴직을 발표했으며, 이는 메타의 연구 방향에서 제품 중심으로의 이탈을 더욱 두드러지게 했다. 메타와 구글은 새로운 연구 모델을 집중적으로 개발하기보다 시장에서 경쟁할 AI 제품을 내놓는 데 집중하고 있다. 메타는 연구진들이 AI 모델에 대한 독립적인 연구를 수행하기보다는 제품 팀과의 긴밀한 협력을 요구하고 있다.
구글은 최신 AI 모델인 Gemini 2.5를 출시했으나 모델 카드가 공개되지 않는 등 안전성에 대한 정보가 부족해 비판을 받았다. 업계의 투명성을 위한 모델 카드는 자료의 중요한 요소지만, 구글은 이러한 카드 없이 모델을 출시해 우려를 자아냈다. 구글의 브린은 직원들에게 더 많은 아이디어를 신속하게 검토할 필요성을 강조하며 "더 이상 보호적인 제품을 만들 수 없다"고 언급했다.
오픈AI 역시 신제품 출시를 서두르면서 안전성 검토에 대한 문제를 겪고 있다. 오픈AI의 최근 모델 업데이트는 사용자 피드백에 의존했지만, 이는 매우 변별력이 부족한 데이터에 기반하고 있다. 이러한 일들이 교훈이 되는 것은 분명하지만, 업체들은 이제 AI 모델의 안전성을 확보할 수 있는 과학적 지식이 부족하다는 점에서 더욱 더 큰 문제로 남아 있다.
