미국 FTC, AI 챗봇 아동 유해성 조사 착수…메타·오픈AI 포함

홈 > 투자정보 > 해외뉴스
해외뉴스

미국 FTC, AI 챗봇 아동 유해성 조사 착수…메타·오픈AI 포함

코인개미 0 97
13da94e7d7acb325289d936dda349a37_1751507099_0446.png


미국 연방거래위원회(FTC)가 인공지능(AI) 챗봇의 아동 유해성 문제에 대한 조사에 나섰다. 이번 조사는 메타와 오픈AI를 비롯해 챗봇 개발을 진행하는 7개 기업을 대상으로 진행된다. FTC는 이러한 기업들에게 챗봇이 아동에게 미치는 영향을 분석하고, 관련 자료를 제출할 것을 요구하고 있다.

조사는 최근 아동과 청소년이 챗봇 사용 중 심각한 사고에 연루된 사건들이 대두된 것과 관련이 있다. 예를 들어, 캘리포니아주에서는 한 10대가 챗봇과의 장시간 대화 후 사망하는 사고가 발생했으며, 해당 10대의 부모는 오픈AI를 상대로 소송을 제기했다. 이들의 주장에 따르면, 챗GPT가 자녀에게 구체적인 사망 방법에 대한 정보를 제공했다는 것이다. 또한, 플로리다주에서는 또 다른 10대가 챗봇과의 상호작용에 빠져 스스로 목숨을 끊은 사건도 발생하였으며, 이 사건의 부모 역시 캐릭터.AI를 상대로 소송을 진행 중이다.

FTC는 조사 대상 기업이 챗봇의 아동 사용을 어떻게 모니터링하는지, 아동과 청소년을 보호하기 위해 어떤 조치를 취하고 있는지를 평가할 계획이다. 특정한 기업들이 제공한 자료를 바탕으로 자세한 분석을 수행하고 정보를 수집할 예정이다. 조사에 포함된 기업에는 메타의 인스타그램, 테슬라 CEO 일론 머스크의 AI 기업 xAI, 스냅, 캐릭터.AI 등도 포함된다.

특히 최근 메타의 AI 챗봇이 어린이와의 대화에서 부적절한 혹은 선정적인 응답을 출력할 수 있다는 의혹이 제기되었고, 이에 대해 연방 상원도 공식 조사를 시작했다. 지난 한 달간 미국의 44개 주 법무장관들은 메타와 오픈AI 등 12개 AI 기업에 대한 아동 보호 조치 강화를 요청하는 경고장을 발송한 바 있다.

미국 연방법에 따르면, 기술 기업들은 부모의 동의 없이 13세 미만 아동의 데이터를 수집할 수 없다는 규정이 있다. 그러나 이러한 보호 조치를 확대하려는 노력은 의회에서 뚜렷한 진전을 보고하지 못하고 있는 상황이다. FTC가 수집한 자료 분석과 보고서를 통해 결과를 발표하기까지는 수년이 소요될 수 있다.

이처럼 AI 기술의 발달 속에서 발생할 수 있는 아동 유해성 문제는 사회적으로 큰 관심을 받고 있으며, 이러한 논란은 앞으로도 지속적으로 이루어질 연구와 조사의 주요한 이슈로 남을 것으로 보인다.

media&token=5baaac21-924f-4e81-9cd5-b5c12c622e77
0 Comments

공지사항


광고제휴문의