Character.AI 为青少年用户实施新安全措施
realtime news Oct 29, 2025 22:50
Character.AI 宣布了一系列重大变革,以提高平台对18岁以下用户的安全性,包括移除开放式聊天功能以及引入年龄验证工具。
Character.AI 提升青少年用户安全
根据 Character.AI 博客的消息,Character.AI 宣布了一系列旨在提高其平台对18岁以下用户安全性的重大变革。这些变革包括移除开放式聊天功能和引入新的年龄验证功能,计划于2025年11月25日实施。
用户安全新举措
为了保持安全的环境,Character.AI 将限制18岁以下的用户在其平台上与AI进行开放式对话。这一决定是确保青少年能够在安全环境中创造性地与AI互动的更广泛策略的一部分。此外,平台将限制未成年用户的聊天时间为每天两小时,并在全面实施日期之前逐步减少这一限制。
Character.AI 还推出了一种自主开发的年龄验证模型,结合第三方工具如Persona,以确保用户获得符合其年龄的体验。该模型是公司保护年轻用户在与AI互动时确保安全的承诺的核心组成部分。
AI安全实验室的建立
进一步强调其对安全的承诺,Character.AI 宣布成立AI安全实验室,一个独立的非营利性组织。该实验室将专注于推进AI娱乐功能的安全技术。通过与包括技术公司和研究人员在内的各方合作,该实验室旨在促进下一代AI应用的安全一致性创新。
变革背后的理由
实施这些变革的决定,是对青少年如何与AI互动的日益关注的回应。近期的报告和来自监管机构及安全专家的反馈,突显了与开放式AI聊天相关的潜在风险。Character.AI 的主动措施旨在解决这些问题,并在快速发展的AI领域中设定优先考虑安全的先例。
Character.AI 的方法明显比一些同行更为保守,这反映了其对为青少年用户提供安全和创造性环境的承诺。公司计划继续与专家和监管机构合作,确保其平台始终是一个安全的创造和发现空间。
Image source: Shutterstock