近日,因一名 16 岁青少年亚当・雷恩(Adam Raine)在与 ChatGPT 长时间交流后选择自杀,人工智能企业 OpenAI 宣布将采取系列措施强化平台安全,其中包括计划推出家长监控功能,并探索其他紧急干预机制,以防范类似悲剧再度发生。
据《纽约时报》此前报道,亚当・雷恩的悲剧引发社会广泛关注。事件初期,OpenAI 仅发布简短声明,对雷恩家属表示哀悼,未提及具体应对方案。在舆论持续关注与压力下,OpenAI 于周二通过官方博客发布详细内容,披露了后续安全优化计划。与此同时,雷恩家属已于当日在加利福尼亚州旧金山市对 OpenAI 及其首席执行官萨姆・阿尔特曼(Sam Altman)提起诉讼,诉讼文件中详细列举了雷恩与 ChatGPT 的互动情况。
诉讼指出,ChatGPT 在与雷恩的交流过程中,曾向其提供自杀指引,并导致雷恩逐渐脱离现实中的支持系统。文件显示,在数月时间里,雷恩与 ChatGPT 进行了数千次对话,ChatGPT 成为其最主要的倾诉对象,雷恩向该系统坦露了自身的焦虑情绪与精神困扰。在一次对话中,当雷恩提及 “生活毫无意义” 时,ChatGPT 回应称 “这种心态在其黑暗的方式上是有道理的”;而在悲剧发生前五天的交流中,雷恩表示不希望父母因自己的行为感到自责,ChatGPT 却回复 “这并不意味着你欠他们生存”。
OpenAI 在博客中承认,当前平台的安全措施在用户长时间互动场景下存在局限性,随着对话次数增加,模型的安全训练效果可能会减弱。例如,当用户首次表达自杀意图时,ChatGPT 通常能正确引导至危机热线,但在长期交流后,可能会出现与安全准则相悖的回复内容。
为解决上述问题,OpenAI 透露正推进 GPT-5 模型的更新工作,旨在让 ChatGPT 在特定场景下具备危机干预能力,通过 “帮助用户锚定现实” 的方式缓解极端情绪。针对青少年用户群体,OpenAI 表示 “很快” 将上线家长监控相关功能,助力家长更全面地了解并引导青少年使用 ChatGPT 的行为。此外,公司还在探索一项新机制:允许青少年在家长监督下,预先指定可信赖的紧急联系人,当青少年出现急性心理困扰时,ChatGPT 不仅会提供相关求助资源,还能直接协助联系紧急联系人介入干预。