Character.AI 因可能造成了一名未成年人自杀而被起诉
ChainCatcher 消息,机器人聊天工具研发公司 Character Technologies 在美国佛罗里达州被一名母亲起诉。该公司设计和营销一款面向青少年的弱肉强食性质的人工智能(AI)/机器人聊天工具。
原告指控 Character.AI 怂恿她十多岁的孩子出现自杀倾向,并通过不合适的人机互动造成她的孩子在 2024 年 2 月自杀。诉状称,Character.AI 产品的技术用于探索未成年人用户消退了的决策能力、冲动控制、情绪成熟、以及用户不完整的大脑发育所产生的心理依赖。