LinkedIn正在使用你的数据来训练人工智能(但你可以阻止它)

2025-11-25 13:29来源:本站

  

  

  生成式AI模型并不是凭空产生的。从某种意义上说,这些系统是使用大量的训练数据一块一块地构建起来的,并且总是需要越来越多的信息来不断改进。随着人工智能竞赛的白热化,公司正在尽其所能地为他们的模型提供更多数据——许多公司正在使用我们的数据来这样做,有时没有事先征得我们的明确许可。

  linkedIn显然是这种做法的最新作案者:似乎每个人“最喜欢的”以职业为重点的社交媒体平台一直在使用我们的数据来训练他们的人工智能模型,而没有事先征求许可或披露这种做法。404Media的约瑟夫·考克斯最初报道了这个故事,但你不需要成为一名记者来亲自调查。

  去领英,点击你的个人资料,进入设置和隐私。在这里,你会注意到一个有趣的领域:生成式人工智能改进数据。这个设置问道:“linkedIn及其附属公司能否使用你在linkedIn上创建的个人数据和内容来训练生成式人工智能模型来创建内容?”哦,这是什么?默认设置为开启?谢谢你的提问,领英。

  如果你点击“了解更多”链接,你会看到linkedIn对你的数据所做的解释。启用后,你的个人资料数据和帖子内容可用于训练或“微调”领英及其附属公司的生成式人工智能模型。这些附属机构是谁?linkedIn表示,他们的一些模型是由微软的Azure OpenAI提供的,但据我所知,他们没有详细说明。

  该公司在这一解释中指出,只有经过训练生成内容的人工智能模型(比如它的人工智能写作助手)才会使用你的数据,而负责为每个用户个性化linkedIn的人工智能模型或用于安全的人工智能模型则不会。该公司还表示,它的目标是“尽量减少”用于训练集的个人数据,包括使用“隐私增强技术”来模糊或从这些数据库中删除个人数据,但没有说它是如何做到的,也没有说到什么程度。也就是说,他们提供了一个表单,可以选择不将您的数据用于“非内容生成GAI模型”。那么,到底是哪个,linkedIn?

  有趣的是,当用户抱怨Adobe使用用户的工作来训练人工智能模型的政策时,Adobe采取了相反的方法:他们坚持认为用户数据不会用于生成人工智能模型,而是用于其他类型的人工智能模型。不管怎样,这些公司似乎没有意识到,人们更希望自己的数据从所有人工智能训练集中被忽略——尤其是当他们一开始就没有被问到这个问题的时候。

  领英表示,它会像你一样保存你的数据:如果你从领英上删除你的数据,无论是通过删除帖子还是通过领英的数据访问工具,公司都会从他们的端删除这些数据,从而停止使用这些数据来训练人工智能。该公司还澄清说,它不使用欧盟、欧洲经济区或瑞士用户的数据。

  在我看来,这种做法是荒谬的。我认为,在用户使用自己的数据训练人工智能模型时,甚至在更新服务条款之前都不向他们提供选择,这是不合理的。我不在乎薄弱的数据隐私法律允许像linkedIn这样的公司存储我们在他们的平台上发布或上传的所有内容:如果你想利用某人的帖子来提高你的写作技巧,先问问他们。

  我已经联系了领英,特别询问了其政策中的一些不一致之处,并了解这一过程持续了多久。就上下文而言,我在本文中引用的支持文章在撰写本文时已经更新了7天。

  要继续使用linkedIn而不交出你的数据来训练它的人工智能模型,请回到设置和隐私>生成式人工智能改进数据。在这里,您可以单击切换到关闭以选择退出。您还可以使用此表单“反对或请求限制”为“非内容生成GAI模型”处理您的数据。

  这不是追溯性的:任何已经发生的训练都不能撤销,所以linkedIn不会从你的数据和模型中删除训练的影响。

  当你选择退出时,你的数据仍然可以用于处理人工智能,但仅限于当你与人工智能模型交互时:linkedIn表示,它可以使用你的输入来处理你的请求,并将输入中的任何数据包含在人工智能的输出中,但这只是人工智能模型的工作方式。如果linkedIn在你选择退出后无法访问这些数据,那么这个模型在很大程度上就没用了。

打卡网声明:未经许可,不得转载。