熱門資訊> 正文
2025-10-29 22:50
Character.AI周三宣佈,公司即將關閉未成年人與旗下人工智能聊天機器人進行自由對話(包括浪漫對話及心理疏導類對話)的功能。
這家位於硅谷的初創公司主打「用户可創建角色化聊天機器人並與之互動」的服務,此次舉措是其為提升應用安全性、使其更符合18歲以下用户年齡需求所做的努力之一。
去年,14歲少年休厄爾・塞策三世(Sewell Setzer III)在Character.AI應用上與聊天機器人建立性相關關係后自殺。目前,包括OpenAI、Meta在內的多家AI開發商,均因用户與聊天機器人建立關係后自殺或死亡的事件面臨審查。
作為安全舉措的一部分,Character.AI周三表示,將把18歲以下用户的開放式對話時長限制為每日兩小時,並將於11月25日前完全取消未成年人的此類對話功能。
「這是向前邁出的大膽一步,我們希望這能為行業內其他企業樹立更高標準,」Character.AI 首席執行官卡蘭迪普・阿南德(Karandeep Anand)表示。
早在2024年10月,Character.AI就已推出相關調整,防止未成年人與平臺聊天機器人進行涉性對話。而就在調整推出當天,休厄爾的家人以「不當致死」為由對該公司提起訴訟。
為落實新規,Character.AI表示將推出 「年齡驗證功能」,通過第一方及第三方軟件覈實用户年齡。該公司已與Persona(Discord等平臺也在使用的身份驗證服務商)合作,助力完成年齡覈驗工作。
據悉,該初創公司的月活躍用户約2000萬,其中18歲以下用户佔比約10%。
Character.AI的收入主要來自廣告業務及每月10美元的訂閲服務。阿南德透露,該公司今年的年化收入有望達到5000萬美元。
此外,Character.AI 周三還宣佈,將設立並資助一家 「獨立 AI 安全實驗室」,專門開展 AI 娛樂領域的安全研究。該公司未透露具體資助金額,但表示正邀請其他企業、學者、研究人員及政策制定者加入這一非營利性項目。
監管壓力
在 「青少年與 AI 陪伴機器人」 相關問題上,Character.AI 是眾多面臨監管審查的AI聊天機器人公司之一。
今年9月,美國聯邦貿易委員會(FTC)已向包括 Character.AI、Alphabet、Meta、OpenAI、Snap在內的7家企業發出指令,要求其配合調查,以瞭解AI產品對兒童及青少年可能產生的影響。