"캐나다 학교 총기 사건 피해자 가족, 오픈AI에 소송 제기"
캐나다 브리티시컬럼비아(BC)주에서 발생한 총기 난사 사건과 관련하여, 피해자 가족이 오픈AI(OpenAI)를 상대로 법적 조치를 취했다. 피해자 마야 게발라(12)는 이 사건에서 심각한 부상을 입어 치명적인 뇌 손상을 겪었으며, 이로 인해 영구적인 인지 및 신체 장애가 남을 가능성이 있다고 전해졌다. 피해자 유족은 오픈AI가 총격범인 반 루트셀라(18)가 챗GPT를 사용하여 대량 사상 사건을 계획하고 있다는 사실을 미리 알고 있었음에도 불구하고 이를 수사기관에 알리지 않았다고 주장하고 있다.
이번 소송은 BC주 1심 법원에 제출되었으며, 유족 측은 사건이 어떻게 발생했는지를 밝히고 책임을 묻기 위한 것이며, 궁극적으로 캐나다에서 또 다른 총기 난사를 방지하려는 목적을 가지고 있다고 강조했다. 이들은 특히 루트셀라가 챗GPT를 범행의 조언자 및 협력자로 활용한 사실을 지적하며 오픈AI의 책임을 따지고 있다.
오픈AI는 자신들이 사건 발생 수개월 전 루트셀라의 챗GPT 사용 이력을 파악하고 해당 계정을 차단했지만, 당시 현실적 위험이 없다고 판단하여 수사기관에 신고하지 않았다고 해명했다. 이러한 판단이 비판을 받고 있으며, 오픈AI는 현재 사건과 관련하여 정부 및 법 집행 기관과 협력하고 있다고 강조했다. 최근 오픈AI는 캐나다의 정신건강 및 법률 전문가를 포함한 안전팀을 구성하고, 위협 정보를 캐나다 왕립 기마경찰(RCMP)에 보고하는 방안을 모색 중이다.
오픈AI의 에반 솔로몬 캐나다 인공지능(AI) 부 장관과 데이비드 에비 BC주 총리는 사건 이후 오픈AI의 정책을 변경하기로 합의했으며, 이는 향후 유사 사건에 대해 경찰에 통보할 수 있는 기준을 포함하고 있다. 이러한 변화는 향후 다른 총기 사건의 예방과 관련하여 중요한 의미를 가지게 될 것으로 예상된다.
결국, 이번 사건은 단순한 소송을 넘어 인공지능과 법적 책임 간의 복잡한 관계를 드러내고 있으며, 사회 전반에서 인공지능의 안전성과 이를 둘러싼 법적 규제 필요성에 대한 논의가 필요하다는 점에서 시사하는 바가 크다. 피해자 가족의 소송이 어떤 결과를 초래할지는 미지수이나, 사건이 인공지능의 윤리적 사용과 관련된 중요한 쟁점을 다시 한번 상기시켜주는 계기가 될 것이라는 점은 분명하다.