앤소프틱, 클로드 4 보안 조치 강화하여 무기 개발 위험 최소화

홈 > NFT & 코인 > 실시간 뉴스
실시간 뉴스

앤소프틱, 클로드 4 보안 조치 강화하여 무기 개발 위험 최소화

코인개미 0 158
0729358a9583a37685b3d34d6024c760_1739934309_7119.png


앤소프틱(Anthropic)은 자사의 최신 AI 모델인 클로드 오퍼스 4(Claude Opus 4)를 위해 새로운 인공지능 안전 레벨 3(AI Safety Level 3, ASL-3)를 활성화했다고 발표했다. 이 조치는 클로드가 화학, 생물학, 방사능 및 핵(CBRN) 무기의 개발 또는 획득에 악용되는 것을 제한하기 위한 것으로, 회사는 블로그 게시물을 통해 이와 같은 배경을 설명했다.

앤소프틱은 아마존(Amazon)의 지원을 받는 기업으로, 이번 조치는 예방 차원에서 시행된 것이며, 현재 클로드 오퍼스 4가 이러한 더 강력한 제어가 요구되는 기준에 도달했는지 여부는 확정되지 않았다고 밝혔다. 회사는 클로드 오퍼스 4와 클로드 소넷 4(Claude Sonnet 4)의 발표와 함께 이 모델들이 “하 thousands의 데이터 소스를 분석하고, 장기간 작업을 수행하며, 인간 품질의 콘텐츠를 작성하고, 복잡한 작업을 수행하는 능력”을 자랑한다고 전했다.

특히 소넷 4는 이러한 긴급 조치가 필요하지 않다고 언급됐다. 앤소프틱의 수석 과학 책임자인 자레드 카플란(Jared Kaplan)은 새로운 클로드 모델의 고급화로 인해 발생하는 도전 과제에 대해서도 강조했다. 그는 “작업의 복잡성이 증가할수록 모델이 탈선할 위험이 커지며, 우리는 사람들이 많은 작업을 신뢰하고 위임할 수 있도록 이를 해결하는 데 주력하고 있다”고 말했다.

회사는 또한 AI 모델의 위험 성과 사용자들이 화학 및 생물학적 무기를 개발하는 데 도움을 줄 수 있는 가능성을 다룬 업데이트된 안전 정책을 3월에 발표한 바 있다. 이러한 조치는 AI 기술이 가져오는 신뢰성 문제를 해결하기 위한 노력의 일환으로, 기술의 급속한 발전에 따라 윤리적 그리고 안전성에 대한 논의가 더욱 중요해지고 있음을 나타낸다.

결과적으로, 앤소프틱은 새로운 AI 모델의 기술적 특성을 인지하고 이에 대한 적절한 책임을 다하는 동시에, 사용자가 안전하게 기술을 활용할 수 있도록 다양한 보안 조치를 강화하고 있다. 따라서 AI 기술의 발전 과정에서 발생할 수 있는 잠재적 위험 요소에 대한 주의가 필요함을 재차 강조하고 있다.

Linked Image
0 Comments

공지사항


광고제휴문의