0°

你的ChatGPT数据能不被拿去训练模型了!代价是「只聊天不记录」

  ChatGPT出新规了。

  似乎是为了应对数据隐私方面的争议,OpenAI最新blog宣布了ChatGPT数据使用的新规则:

  用户可以通过关闭聊天记录功能,来避免自己的个人数据被官方拿去训练。

  现在在用户个人管理中,已经出现了一个关闭“Chat history&training”的选项。

  只要点击取消,历史记录就被禁用了,新的对话也不会再存入聊天记录里。

  但新的对话还是会在官方系统里留存30天,OpenAI解释说:

  只有在监控是否存在数据滥用时才会审查这些数据,30天后将永久删除。

  同时还上线了一个导出聊天记录的Export功能,方便用户自己保存数据。

  同样是出于数据保护方面的考虑,OpenAI还表示将推出ChatGPT企业版(ChatGPT Business)。

  这种版本面向的是对数据保护有更高要求的用户们,相关规则会和API用户的一致,也就是数据完全不会被拿去训练。

  官方表示,预计这一版本将会在未来几个月内上线。

  网友:这不极限二选一?

  如上提到的用户数据被拿去训练,是ChatGPT对话能力提升的途径之一。

  数据越多意味着模型能被训练地越精准、聪明。

  但它同样牵扯到了用户的隐私安全保护问题。OpenAI声明他们不会滥用收集到的数据,可还是在全球范围内引发了不小的担忧。

  由此这次用户数据安全新规推出,不少人都点赞了。

  表示这确实能在更大程度上保护个人隐私,同时又不会免费为新模型训练提供数据。

  还有一部分人想着“既要又要”:

  为什么不能既保留聊天记录,又不拿数据训练?

  也有人表示,自己之前就填写了表单,表示不愿意被ChatGPT使用数据,那么现在这部分人会受到什么影响吗?

  官方表示他们还会尊重之前申请用户的意愿,新的方法只是将关于训练数据这个过程变得更简单了些。

  此前OpenAI开放了一个表单,供不愿意个人数据被拿去训练的用户填写申请。

  与此同时他们也提醒用户,如果自己使用了一些插件/软件恶意抓取用户数据,新功能是干预不了的。

  有人就发现当自己关闭数据训练后,一些插件也消失了。这可能就是OpenAI为了避免数据在其他地方泄露采取的应对策略。

  值得一提的是,这不是OpenAI第一次调整ChatGPT隐私数据使用规则了。

  3月1日开始,所有调用API接口的用户数据,将不再被用于模型训练,除非用户自愿提供。

  在此之前,如果用户没有特殊要求,默认数据也是会被拿去训练的。

  调整后,API接口用户发出的数据同样会被放在系统内保存30天,应对一些监测审查。

  调用API后的数据传输是加密的,但数据都会在美国保存和处理。

「点点赞赏,手留余香」

    还没有人赞赏,快来当第一个赞赏的人吧!
0 条回复 A 作者 M 管理员
    所有的伟大,都源于一个勇敢的开始!
欢迎您,新朋友,感谢参与互动!欢迎您 {{author}},您在本站有{{commentsCount}}条评论