2026-04-20 19:18来源:本站

【编者按】在数字时代,青少年的心理健康问题日益受到关注。社交媒体平台作为年轻人日常交流的重要场所,其内容与功能设计对用户心理的影响不容忽视。近期,meta旗下Instagram宣布推出一项新功能,当青少年反复搜索自杀或自残相关内容时,系统将向家长发出警报。这一举措背后,是社交媒体行业正面临的多起法律诉讼与公众质疑,被专家比作“大烟草时刻”——法庭正在审视这些产品可能造成的伤害,以及公司是否曾误导公众。从加州到新墨西哥州,从AI聊天机器人到年龄验证争议,科技巨头在保护未成年用户方面的责任与挑战愈发凸显。以下文章将深入解析这一新功能及其背后的行业变局,探讨科技公司如何在创新与伦理之间找到平衡。
Instagram周四宣布,当青少年反复搜索与自杀和自残相关的词汇时,系统将向家长发出警报。此举正值其母公司meta因多起诉讼面临严格审查。
该公司在声明中表示:“这些警报旨在确保家长了解孩子是否多次试图搜索此类内容,并为他们提供支持青少年所需的资源。”
这一家长监督功能推出之际,这家社交媒体公司正面临指控——Instagram等应用的设计和功能对年轻用户的心理健康产生了有害影响。
专家将涉及谷歌YouTube、TikTok和Snap等公司的诉讼及相关法律案件称为社交媒体行业的“大烟草时刻”。法庭正在权衡这些产品据称造成的伤害,以及公司涉嫌在负面影响上误导公众的行为。
Instagram的警报功能将于下周在美国、英国、澳大利亚和加拿大逐步推出。
该公司在一篇博客文章中说明,如果青少年在“短时间内”反复搜索“宣扬自杀或自残的短语、暗示青少年想要自残的表述,以及‘自杀’或‘自残’等术语”,家长将收到警报。
公司称这是“正确的起点”,正尝试为触发警报设定合理阈值。meta表示,家长可能会收到一些未必代表真实风险的警报,但将持续收集对该功能的反馈。
警报将通过电子邮件、短信、WhatsApp或Instagram内部通知发送给家长。
该功能要求家长和青少年均注册使用Instagram的家长监督工具。
公司指出,收到警报的家长将看到一条信息,说明其子女在Instagram上的异常搜索习惯,并可选择查看更多求助资源。
meta表示,计划最终为“某些AI交互场景”推出类似的家长警报功能,旨在当青少年尝试与AI进行涉及自杀或自残的特定类型对话时通知监护人。
这项即将推出的AI相关家长警报功能,源于日益增长的担忧——OpenAI和meta等科技公司的AI聊天机器人可能与用户进行涉及心理健康问题、存在疑虑且潜在有害的对话。
据CNBC报道,meta已推出自有AI聊天机器人,并正在开发代号为“Avocado”的新型强大AI模型,预计今年晚些时候亮相。
meta首席执行官马克·扎克伯格上周在洛杉矶高等法院出庭作证。该诉讼中,一名原告指控自己在未成年时期对Instagram等社交媒体应用成瘾。
在证词中,扎克伯格重申了meta的立场:与应用程序开发者相比,苹果和谷歌等移动操作系统及相关应用商店运营商更适合负责用户年龄验证。
关于年龄验证,美国联邦贸易委员会周三表示,不会对“某些网站和在线服务运营商”因收集可用于年龄验证技术的用户数据而采取与《儿童在线隐私保护规则》相关的执法行动。
FTC称,这项政策声明是其对COPPA规则中年龄验证相关条款进行更广泛审查的一部分。
上周公布的法律文件披露了新墨西哥州一起独立meta相关诉讼的细节,其中包含员工内部信息,讨论公司的加密措施如何可能导致向当局报告儿童性虐待材料变得更加困难。
meta在加州和新墨西哥州的案件中均否认了相关指控。
上周CNBC报道,因meta在儿童数字安全方面面临多项法律挑战,全国家长教师协会决定不再延续与该公司的资金合作关系。