챗GPT, 캐나다 학교 총기 난사 사건과 관련된 정보를 사전 인지하고도 신고하지 않아 논란

홈 > 투자정보 > 해외뉴스
해외뉴스

챗GPT, 캐나다 학교 총기 난사 사건과 관련된 정보를 사전 인지하고도 신고하지 않아 논란

코인개미 0 8
13da94e7d7acb325289d936dda349a37_1751507099_0446.png


캐나다 브리티시컬럼비아주에서 발생한 최근의 학교 총기 난사 사건 피의자가 인공지능 챗봇인 챗GPT를 이용해 범행 계획을 사전에 논의했음에도 불구하고, 오픈AI 측이 이러한 정보를 캐나다 당국에 알리지 않기로 결정한 사실이 밝혀졌다.

10일 발생한 총기 난사 사건의 피의자 제시 반 루트셀라(18)는 지난해 6월 챗GPT와 함께 총기 폭력 관련 시나리오를 작성한 것으로 알려졌다. 오픈AI의 자동 검토 시스템에 의해 루트셀라가 작성한 내용이 직원들에게 전달되었고, 이에 따라 12명의 직원들이 이 게시물의 심각성을 논의한 것으로 보인다.

그럼에도 불구하고, 오픈AI 측은 법 집행 기관에 연락하지 않기로 결정했다. 오픈AI 대변인은 해당 활동이 '타인의 신체에 대해 심각한 위험을 끼칠 수 있는 신뢰할 만한 임박한 위험'의 기준을 충족하지 못했다고 판단했다며, 이에 대한 해명을 내놓았다. 또한, 루트셀라의 계정은 차단되었지만, 사건 발생 전 사전 경고가 없었던 점에 대한 비판이 잇따르고 있다.

이번 사건으로 인해 총 9명이 사망했으며, 이는 많은 이들에게 충격을 주고 있다. 사건의 피의자는 성전환 수술을 받은 트랜스젠더이며, 정신 건강에 문제가 있는 것으로 알려졌다. 범행 동기는 아직 규명되지 않았다. 범행 직후, 루트셀라는 스스로 목숨을 끊었으며, 이는 사건의 더 큰 비극을 초래한 요소로 작용했다.

루트셀라는 온라인 게임 플랫폼 로블록스에서 대형 총격 사건을 시뮬레이션한 게임을 만들기도 했으며, 자신의 사격 사진을 소셜 미디어에 게시한 이력이 있다. 이러한 사실은 그가 범행을 계획하고 심리적으로 준비해 왔음을 암시한다.

오픈AI는 사용자들이 실제 해를 끼치는 행위를 방지하기 위해 모델을 훈련시키고 있으며, 만약 사용자가 폭력적인 의사를 나타내는 대화를 할 경우 이를 인간 검토자가 확인하게끔 되어 있다. 그러나 이러한 시스템이 실제 사건으로 이어지기 전 사전에 어떠한 경고도 하지 않은 점은 비판의 대상이 되고 있다.

이 사건은 AI의 사용이 늘어나는 현대 사회에서 기술 기업들이 어떤 책임을 져야 하는지에 대한 중요한 논의의 시작점이 될 것으로 보인다. 많은 사람들이 AI 시스템이 폭력적인 행동을 사전에 예측하고 이를 예방하는 방법에 대한 개선이 필요하다고 목소리를 높이고 있다.

결국, 이번 사건은 AI의 역할과 그에 따른 책임, 그리고 기술의 발전이 사회에 미치는 영향에 대한 깊은 성찰을 요구하고 있다. 오픈AI는 상황을 반성하고 피해자들과 그 가족들에게 깊은 조의를 표하며, 나아가 더욱 개선된 정책을 수립하는 것이 시급하다고 강조한다.

media&token=5baaac21-924f-4e81-9cd5-b5c12c622e77
0 Comments

공지사항


광고제휴문의