• OpenAI发布安全蓝图:要把防护嵌进AI系统里
  • 发布于 1小时前
  • 3 热度
    0 评论

堆代码讯 面对 AI 技术普及带来的网络儿童安全隐患,OpenAI 终于拿出了系统性的应对方案。周二,OpenAI 正式发布了《儿童安全蓝图》,这份旨在加强美国儿童保护工作的行动框架,试图解决 AI 技术滥用带来的儿童剥削问题,帮助更快检测、更有效报告、更高效调查相关的违法案件。这份蓝图的出台,背后是日益严峻的行业现状。随着 AI 技术的进步,利用 AI 实施的儿童性剥削案件正在快速增长。根据互联网观察基金会的数据,2025 年上半年,全球就检测到了超过 8000 起关于 AI 生成的儿童性虐待内容的报告,比前一年直接增长了 14%。


这些案件的手段,已经越来越隐蔽和恶劣。犯罪分子会利用 AI 工具生成虚假的儿童露骨图像,用来对受害者进行金钱性勒索;还有的会用 AI 生成足以以假乱真的聊天信息,用来诱骗儿童,给儿童安全带来了全新的威胁。而这也是 OpenAI 面临的巨大舆论压力的来源。近期,政策制定者、教育工作者还有儿童安全倡导者,都在对 AI 公司的儿童保护措施提出越来越严格的审查,尤其是在发生了一系列年轻人在和 AI 聊天机器人互动后自杀的事件之后。


去年 11 月,社交媒体受害者法律中心和技术正义法律项目,就在加州州法院提起了 7 起诉讼,直接指控 OpenAI 在 GPT-4o 还没准备好的时候就仓促发布。诉讼称,这款产品的心理操纵性质,直接导致了非正常自杀和协助自杀的事件。他们列举了 4 名自杀身亡的个体,还有另外 3 名在和聊天机器人长时间互动后,出现了严重、危及生命的妄想症状的受害者。


正是在这样的背景下,OpenAI 联合了国家失踪与受剥削儿童中心、总检察长联盟,共同制定了这份《儿童安全蓝图》,还吸收了北卡罗来纳州总检察长杰夫・杰克逊、犹他州总检察长德里克・布朗的反馈意见。
根据 OpenAI 的介绍,这份蓝图重点关注三个核心方向:
1. 更新立法框架:推动相关法律更新,把 AI 生成的虐待材料纳入监管范围,填补之前的法律空白;
2. 完善报告机制:优化向执法部门的报告流程,确保调查人员能及时拿到可操作的关键信息;

3. 内置防护措施:把预防性的安全保障,直接集成到 AI 系统本身当中,从源头拦截风险。


OpenAI 表示,这并不是他们第一次在儿童安全上发力,这份蓝图是建立在之前一系列举措的基础上的。比如他们早就更新了和 18 岁以下用户互动的指导方针,明确禁止生成不当内容、禁止鼓励自残,同时也禁止提供任何能帮助年轻人向看护者隐瞒不安全行为的建议。就在不久前,他们还在印度发布了一份针对青少年的安全蓝图,把这套防护经验推广到了其他市场。

用户评论