闽公网安备 35020302035485号
堆代码讯 面对 AI 技术普及带来的网络儿童安全隐患,OpenAI 终于拿出了系统性的应对方案。周二,OpenAI 正式发布了《儿童安全蓝图》,这份旨在加强美国儿童保护工作的行动框架,试图解决 AI 技术滥用带来的儿童剥削问题,帮助更快检测、更有效报告、更高效调查相关的违法案件。这份蓝图的出台,背后是日益严峻的行业现状。随着 AI 技术的进步,利用 AI 实施的儿童性剥削案件正在快速增长。根据互联网观察基金会的数据,2025 年上半年,全球就检测到了超过 8000 起关于 AI 生成的儿童性虐待内容的报告,比前一年直接增长了 14%。
这些案件的手段,已经越来越隐蔽和恶劣。犯罪分子会利用 AI 工具生成虚假的儿童露骨图像,用来对受害者进行金钱性勒索;还有的会用 AI 生成足以以假乱真的聊天信息,用来诱骗儿童,给儿童安全带来了全新的威胁。而这也是 OpenAI 面临的巨大舆论压力的来源。近期,政策制定者、教育工作者还有儿童安全倡导者,都在对 AI 公司的儿童保护措施提出越来越严格的审查,尤其是在发生了一系列年轻人在和 AI 聊天机器人互动后自杀的事件之后。
去年 11 月,社交媒体受害者法律中心和技术正义法律项目,就在加州州法院提起了 7 起诉讼,直接指控 OpenAI 在 GPT-4o 还没准备好的时候就仓促发布。诉讼称,这款产品的心理操纵性质,直接导致了非正常自杀和协助自杀的事件。他们列举了 4 名自杀身亡的个体,还有另外 3 名在和聊天机器人长时间互动后,出现了严重、危及生命的妄想症状的受害者。
3. 内置防护措施:把预防性的安全保障,直接集成到 AI 系统本身当中,从源头拦截风险。