奥特曼发长文解释隐私政策 承诺ChatGPT不再与青少年谈论自杀

小小MT4 来源:环球市场播报 °C 栏目:MT4下载

  当地时间周二,OpenAI首席执行官萨姆·奥特曼(Sam Altman)发布博客文章称,该公司正试图在青少年安全、自由和隐私之间寻找平衡,并承认这些原则是相互冲突的。

  奥特曼发布这篇文章的当天,美国参议院举行了一场听证会,重点是审查AI聊天机器人的危害,该听证会由参议院犯罪和反恐小组委员会举行,一些在与聊天机器人交谈后自杀身亡的孩子的父母出席了这次听证会。

  奥特曼在帖子中写道:“我们必须将未满18岁的用户与不是未满18岁的用户区分开来。”他补充说,该公司正在建立一个“年龄预测系统,根据人们使用ChatGPT的方式来估计年龄。如果有疑问,我们会谨慎行事,默认使用未满18岁的体验。在某些情况下或国家,我们可能还会要求提供身份证。”

  奥特曼还表示,该公司计划对青少年用户实施不同的规定,包括避免调情式的对话或参与有关自杀或自残的对话,“即使是在创意写作环境中”,“如果18岁以下的用户有自杀念头,我们将尝试联系用户的父母,如果无法联系,我们将联系当局,以防迫在眉睫的伤害。”

  奥特曼在社交平台X上公布了这篇博客的全文,并表示“我不指望每个人都会同意这些权衡,但考虑到冲突,解释我们的决策是很重要的。”

  以下是奥特曼博客文章的全文:

  我们的一些原则是冲突的,我们想解释一下我们围绕青少年安全、自由和隐私之间的紧张关系所做的决定

  保护使用AI的隐私权对我们和社会来说都是极其重要的。人们与人工智能谈论越来越私人的事情;它与前几代的技术不同,我们相信它们可能是你拥有的最敏感的个人账号之一。如果你和医生谈论你的病史,或者和律师谈论法律情况,我们认为,对这些信息保密并提供更高水平的保护符合社会的最大利益。我们认为,与AI的对话需要同样程度的保护,因为人们越来越多地求助于敏感问题和私人担忧。我们正在与政策制定者一起倡导这一点。

  我们正在开发先进的安全功能,以确保您的数据是私密的,即使是对OpenAI员工。就像其他类别的特权一样,也会有一些例外:例如,自动化系统将监控潜在的严重滥用,而最关键的风险——对某人生命的威胁、伤害他人的计划或潜在的大规模网络安全事件等社会规模的危害——可能会升级到人工审核。

  第二个原则是关于自由。我们希望用户能够以他们想要的方式使用我们的工具,在非常广泛的安全范围内。随着我们的模型变得更加可操控,我们一直在努力增加用户的自由度。例如,我们模型的默认行为不会导致很多调情的谈话,但如果一个成年用户要求,他们应该得到它。对于一个更困难的例子,默认情况下,模型不应该提供关于如何自杀的说明,但如果一个成年用户要求帮助编写一个描述自杀的虚构故事,模型应该帮助该请求。“像对待成年人一样对待我们的成年用户”是我们内部的说法,在不造成伤害或损害他人自由的情况下尽可能地扩展自由。

  第三个原则是关于保护青少年。我们把青少年的安全放在隐私和自由之前;这是一项强大的新技术,我们认为未成年人需要得到严格的保护。

  首先,我们必须将未满18岁的用户与不是未满18岁的用户区分开来(ChatGPT适用于13岁及以上的用户)。我们正在建立一个年龄预测系统,根据人们使用ChatGPT的方式来估计年龄。如果有疑问,我们会谨慎行事,默认使用未满18岁的体验。在某些情况下或国家,我们也可能要求提供身份证件;我们知道这是对成年人隐私的妥协,但我们相信这是值得的。

  我们将对使用我们服务的青少年适用不同的规则。例如,ChatGPT将被训练,如果被要求,不要做上述调情的谈话,或者参与有关自杀或自残的讨论,即使是在创意写作环境中。如果未满18岁的用户有自杀念头,我们将尝试联系用户的父母,如果无法联系,我们将联系当局,以防迫在眉睫的伤害。今天我们分享了更多关于我们如何建立年龄预测系统和新的家长控制来实现这一切。

  我们意识到这些原则是相互冲突的,并不是每个人都会同意我们解决这一冲突的方式。这些都是艰难的决定,但在与专家交谈后,我们认为这是最好的,并希望在我们的意图中保持透明。