2026-05-02 18:29来源:本站

【编者按】在信息爆炸的时代,人工智能技术如同一把双刃剑,既能创造奇迹,也可能成为误导公众的工具。近期,社交媒体平台X宣布将严惩未标注AI生成的武装冲突视频创作者,引发广泛关注。这一举措不仅是对虚假信息的重拳出击,更是对网络信息真实性的一次重要捍卫。然而,在AI技术日益普及的今天,仅靠平台自律能否彻底遏制虚假内容的泛滥?这背后又折射出哪些深层次的信息伦理问题?让我们一同探讨这场技术与真相的博弈。
X平台宣布,将对那些发布未标注AI生成的武装冲突视频的创作者采取行动。周二,X的产品负责人尼基塔·比尔宣布,凡利用AI技术以此方式误导他人的用户,将被暂停参与该平台的创作者收益共享计划三个月(90天)。
若在暂停期结束后继续发布误导性AI内容,他们将永久被踢出该计划。
比尔在X上写道:”在战争时期,人们获取真实信息至关重要。借助当今的AI技术,制造误导性内容易如反掌。即日起,凡发布未标注AI生成的武装冲突视频的用户,将被暂停创作者收益共享资格90天。”
X表示,将通过结合检测生成式AI内容的工具及众包事实核查系统”社区笔记”来识别这些误导性帖子。
X的创作者收益共享计划允许创作者通过在平台发帖并分享广告收入来获利。虽然该计划旨在增加平台上的互动内容,但批评者指出,它变相鼓励创作者发布煽动性内容,如点击诱饵或旨在引发愤怒的帖子。也有人批评其内容管控松散,且要求创作者必须是付费订阅用户才能参与。
鉴于AI极易被用于制作误导性图片和视频,X禁止为此类内容提供经济奖励的措施只是权宜之计。在战争之外,AI媒体常被用于制造政治虚假信息或在网红经济中推广欺诈产品——而所有这些在新政策下仍被允许。
本文由万更网原创发布,未经许可,不得转载!
本文链接:https://m.fdsil.com/n/123864.html