PANews는 로봇 채팅 도구 개발 업체 인 캐릭터 테크놀로지스가 미국 플로리다에서 한 엄마로부터 소송을 당했다고 24일 보도했다 . 이 회사는 청소년을 위한 약탈적 인공 지능(AI)/로봇 채팅 도구를 설계하고 판매합니다. 원고는 Character.AI가 부적절한 인간-컴퓨터 상호작용을 통해 10대 자녀에게 자살을 권유하고 2024년 2월 자녀가 자살하도록 유도했다고 비난했습니다. 불만 사항은 Character.AI 제품의 기술이 불완전한 두뇌 발달로 인해 미성년자 사용자의 의사 결정 능력, 충동 제어, 정서적 성숙도 및 심리적 의존성 저하를 탐색하는 데 사용된다고 주장합니다.