Meta、YouTube因“成瘾机制”被追责,网络平台“设计”合规红线的展望讨论——中国法视野下的平台设计与算法治理责任
日期:2026-04-02
前言
据媒体报道,美国加州当地时间2026年3月25日,洛杉矶高等法院陪审团裁定,Meta与YouTube应就一名女性用户自9岁以来长期使用平台后所遭受的心理健康损害承担法律责任。陪审团认为,两平台在产品设计上存在过失,其通过“无限滚动”等机制持续吸引青少年用户停留、增加使用黏性的做法,具有明显的沉浸诱导特征,甚至存在不良意图,最终建议判令原告获赔600万美元,其中Meta承担420万美元、YouTube承担180万美元。(下称“Meta案”)

(相似情形的家属在洛杉矶高等法院门口)
当前,两家公司均已表示将提起上诉。
严格而言,该案尚未最终生效,相关裁判结论能否稳定维持,仍有待后续程序观察。但无论案件最终结果如何,其所释放出的一个信号已经非常明确:平台责任的审查重点,正在从“内容是否合法”,逐步延伸至“产品设计是否有害”“算法机制是否具有诱导沉迷的风险”。即从“表层”走向“内核”,算法之箱在被要求逐步打开。
这一变化,尤其值得中国互联网平台以及面向未成年人具有显著影响力的各类应用高度关注。
一、案件简析:平台责任正在从“内容审查”走向“设计探究”
从公开信息看,本案原告为一名20岁女性,姓名首字母为K.G.M.,其主张自己从9岁起即注册并长期使用Meta、Youtube、Snap等平台(Snap诉前和解了),平台通过“无限滚动”等功能设计不断诱导用户“成瘾”,持续浏览平台内容。
K.G.M.认为上述设计加重其抑郁、自杀倾向等心理健康问题。
(少女困在算法中,图为AIGC生成)
案件中,被告曾尝试援引美国《通信规范法》第230条进行抗辩,主张平台对用户生成内容不承担责任;同时亦提出心理健康损害成因复杂、平台功能本身不构成“成瘾”等抗辩理由。但陪审团、法官最终并未采纳前述主张,而是依据加州消费者保护法及人身损害相关法律规则认定平台存在可归责空间。
从法律观察角度看,本案的关键意义至少体现在三个层面:
(一)平台风险不再仅限于“有害内容”本身
传统的平台治理逻辑,更多聚焦于“内容违法与否”,即重点对违法违规内容(如毒品)、侵权内容(如著作权)、低俗内容或危害未成年人内容的识别、删除和处置。但本案提示,即便平台不直接生产违法内容,其通过产品机制、交互设计、排序逻辑和推荐路径形成的“行为诱导”本身,也可能成为责任审查对象。
换言之,未来平台被审查的对象,可能不只是“内容”,还包括:
◆ 是否采用无限滚动、自动播放等高沉浸设计;
◆ 是否通过高频推送、夜间提醒持续唤醒用户;
◆ 是否利用社交比较、热度排名、点赞反馈等机制强化依赖;
◆ 是否通过算法不断向特定脆弱群体推送刺激性内容;
是否在已知未成年人高频使用的情况下,仍默认维持高强度推荐和高刺激交互。
(二)“成瘾性设计”开始进入可诉、可归责的视野
本案特别值得注意的是,其责任基础并不完全建立在平台“发布违法内容”之上,而更多指向产品设计与算法机制本身的可归责性。
这意味着,平台产品经理、算法团队、市场团队以往被视为纯商业决策的问题,未来可能直接进入监管、诉讼乃至侵权责任的判断范围。
(三)未成年人场景将成为平台治理的高风险区域
Meta案的原告自9岁起即使用平台。无论中国抑或美国,未成年人在数字环境、网络世界显然是相对缺乏自控能力中的脆弱群体,应当予以重点保护。
一旦平台对未成年人长期实施高刺激、高黏性的机制设计,却未提供有效限制措施、监护工具和分级治理方案,其法律风险将显著升高。
二、中国法下的启示:存在可问责的法律基础
尽管中美法系不同、审判机制不同、证据规则不同等,故Meta案不太可能“原封不动”地在中国发生,但这并不意味着中国平台企业就可以高枕无忧,尤其是目前中国对于数据合规、算法伦理的监管日益加强。在同类问题上,中国企业将面临着潜在的行政监管、民事争议。
从中国的现有法律规范看,对未成年人保护、个人信息处理、算法推荐治理和平台产品设计的规制已有基础,如作为追责依据,并非不可能。

(中国具有相应的监管和问责法律基础,图为AIGC生成)
(一)《个人信息保护法》已将未满十四周岁的未成年人信息定义为敏感个人信息
《个人信息保护法》第二十八条明确规定,不满十四周岁未成年人的个人信息属于敏感个人信息;第三十一条进一步要求,处理不满十四周岁未成年人个人信息应取得监护人同意,并制定专门的处理规则。
违反上述规定,情节严重的,可以招致五千万元以下或上一年度营业额5%以下的罚款。即便仅是一般违法的,也面临着行政警告、没收违法所得、暂停服务等有损商誉(或股价)的行为。
(二)《未成年人保护法》:不得提供诱导沉迷的产品和服务
《未成年人保护法》第五章专设网络保护。其中,第七十四条明确要求网络产品和服务提供者不得向未成年人提供诱导其沉迷的产品和服务,并应当针对未成年人使用其服务设置时间管理、权限管理、消费管理等功能;第七十五条则要求相关服务依法开展真实身份信息认证。上述内容是在2020年修订时予以添加的。
可见在《未成年人保护法》(2024年修正)这部专门法项下,早已就未成年人沉迷网络作出了一些规定,其中,“不能通过产品设计和运营机制使未成年人沉迷”也为适用AI时代下所涉及的“算法”“个性化推荐”预留了解释的路径。
(三)《未成年人网络保护条例》:设计、研发、运营阶段的前置性义务
《未成年人网络保护条例》是前述两部上位法更为有机结合、细化后的行政法规,进一步将未成年人保护要求从运营层面前置到设计、研发、上线和迭代阶段。
其中,第二十条明确要求,对未成年人用户数量巨大或者对未成年人群体具有显著影响的网络平台服务提供者,应当在网络平台服务的设计、研发、运营等阶段,充分考虑未成年人身心健康发展特点,定期开展未成年人网络保护影响评估。第三十七条更是规定,个人信息处理者应自行或委托专业机构每年对其处理未成年个人信息的情况进行合规审计,并向网信部门报送相关情况。
这些规定非常重要,因为它已经不再只是要求“出了问题后整改”,而是要求企业在产品设计之初就承担风险评估义务。也就是说,企业如果在设计阶段已知某类功能可能导致未成年人长期沉浸、冲动消费或心理依赖,却未开展影响评估、未设置限制条件、未留存决策依据,未来一旦发生争议,其抗辩空间会明显缩小。
(四)《互联网信息服务算法推荐管理规定》:不得利用算法诱导未成年人沉迷
《互联网信息服务算法推荐管理规定》已较为明确地建立起“算法不得诱导沉迷”的监管框架。
其中,第十八条第一款要求算法推荐服务提供者向未成年人提供服务的,应通过开发适合未成年人使用的模式、提供适合未成年人特点的服务等方式,便利未成年人获取有益身心健康的信息;第二款进一步明确规定,不得利用算法推荐服务诱导未成年人沉迷网络。
(五)《生成式人工智能服务管理暂行办法》
如今AI时代下,AIGC(人工智能生成内容)也愈加热闹,未成年人对于这种具有自主创造、无限可能的内容更容易具有成瘾性。该《暂行办法》是对此情形的有限规制。
其中第十条规定:提供者应当具有指导用户科学理性使用的义务,尤其是要采取有效措施防范未成年人用户沉迷AIGC。
此外,对于大型平台而言,若其持续掌握未成年人的使用习惯、社交关系、内容偏好、情绪偏好和消费轨迹,则相关问题已不仅仅是个人信息保护问题,也可能进一步延伸至数据安全、网络安全以及平台整体治理义务。特别是当企业同时具备大规模、连续性、可回溯的用户行为数据分析能力时,其对于风险识别、控制和证明自身已尽注意义务的要求也会更高。
三、目前中国企业的常见问题:不在“没有制度”,而在“制度失效”
从实务经验看,很多企业并非完全没有规范,而是存在诸如:操作流程规范未制度化、制度与产品现实脱节、制度“大体落地”但设计逻辑未留痕、未评估等问题。

(在“未成年人成瘾保护”方面,企业的一些问题,图为AIGC生成)
就未成年人保护、成瘾性设计及算法推荐治理而言,当前中国企业常见问题至少包括以下几个方面:
(一)仍以“内容审核”替代“设计治理”
许多平台仍停留在内容审核、违规信息删除、关键词过滤和人工巡查等传统路径上。但成瘾性设计的风险,并不当然体现在某条内容是否违法,而往往体现在产品机制是否持续制造停留、依赖和强化反馈。如果企业只审内容,不审功能、不审交互、不审算法目标,就很难真正覆盖此类日后将逐渐敞开的监管风险。
实践中,平台的风险往往并不只在于“是否采集了明示的敏感信息”,而在于企业的数据处理活动中,其是否基于浏览、点击、停留、点赞、评论、分享、关注、消费等行为数据(Cookies、SDK等),持续构建未成年人画像并用于推荐优化、广告投放或商业转化。此类处理活动可能涉及以下问题:
◆ 是否存在超出必要范围的数据收集;
◆ 是否对未成年人进行了过度画像和精细化标签管理;
◆ 是否将兴趣偏好、情绪倾向、消费能力等推断结果用于商业用途;
◆ 是否设置了真实、可理解、可执行的选择退出机制;
◆ 是否对高敏感推断信息采取了额外保护措施。
尤其需要强调的是,平台即使未直接收集“心理健康”“精神状态”等明确敏感信息,也并不意味着没有风险。若平台通过行为轨迹、互动模式、夜间活跃规律、搜索与浏览偏好等数据,推断出用户存在情绪脆弱、容貌焦虑、极端减肥倾向、强烈社交依赖等特征,并在此基础上继续强化内容推送或商业化转化,同样可能落入高风险处理范畴。
(二)算法备案完成了,但算法治理没有完成
很多企业已经完成或正在推进算法备案,但备案只是外部监管要求的一部分,并不等于企业内部已经建立起完整的算法合规体系。实践中较为常见的问题是:
◆ 备案材料与实际模型逻辑脱节(常见于委外办理);
◆ 推荐目标仍高度依赖时长、点击和转化;
◆ 缺乏对未成年人内容分发的专门阈值;
◆ 缺乏高风险内容识别与“连续追投”控制;
◆ 缺乏可审计、可回溯、可证明的内控留痕。
(三)年龄识别与分层治理不足
不少平台虽然形式上开展实名或年龄识别,但在实际治理中仍存在识别精度不足、年龄分层过粗、不同年龄段保护策略未真正分化的问题。
对平台而言,未成年人并非一个同质群体,低龄儿童、初中生、高中生在内容接受能力、消费判断能力、社交风险承受能力方面存在明显差异,比如《民法典》《未成年人保护法》《个人信息保护法》对于不同年龄段的未成年人法益保护便有所不同。若企业未进行细分治理,而是一套规则“一刀切”,往往既难以证明尽责,也难以实现有效保护。
(四)法务和合规介入过晚
在许多企业内部,法务和合规团队往往只在产品上线前做最后一轮审查,甚至只是审核用户协议、隐私政策和对外文案,而未真正进入产品需求评审、机制设计、指标设定和算法优化目标讨论阶段。
结果是,当产品的核心增长逻辑、互动路径、留存机制都已确定后,法务再介入,能够调整的空间极为有限。
(五)缺乏“可证明已尽责”的证据链
监管、诉讼和舆情事件发生后,平台往往不仅需要“事实上做过控制”,更需要“能够证明自己做过控制”。但现实中,不少企业缺乏以下关键留痕:
◆ 风险评估报告或PIA;
◆ 产品设计审查记录;
◆ 高风险功能整改记录;
◆ 算法抽样审计与复盘记录;
◆ 用户投诉与风险信号处置记录;
◆ 版本迭代前后的控制措施对比记录。
一旦发生争议,企业容易陷入“口头上说重视,但文件上证明不了”的被动状态。
四、对中国类似企业的合规建议:注意“设计可控、算法可证、责任可留痕”
如果说Meta案带来的最重要启示是什么,我们的判断是:在未来,平台合规的核心工作,正在从“内容审核”进一步升级为“设计治理+算法治理+未成年人专项治理”(也许未来还会针对老年人等)。

(未来的防范“未成年人成瘾”治理模块,图为AIGC生成)
对于中国企业而言,以下建议相对更具操作性。
建议1:建立未成年人专项影响评估机制,并前置到产品设计阶段
企业应将未成年人影响评估从“出了问题后补材料”转变为上线前的刚性流程。对于具有较高未成年人触达率或对未成年人群体具有显著影响的产品、功能和算法机制,建议在设计和上线前至少评估以下内容:
◆ 是否存在显著诱导沉迷的交互设计;
◆ 是否对未成年人进行过度画像或其他自动化决策行为;
◆ 是否存在持续强化情绪刺激、外貌焦虑、社交比较的内容分发路径;
◆ 是否涉及高风险商业化转化,如打赏、充值、导流、直播消费;
◆ 是否对夜间使用、长时连续使用、异常高频互动设置限制;
◆ 是否已设置可行的家长监护、退出机制、人工干预措施;
◆ 是否存在其他违反前述法律法规或规范性文件的情况。
在实务中,这类评估不宜只由法务单独完成,而应由法务、合规、产品、算法、运营、未保、安全团队共同参与,并形成可留档的会议纪要、评估表和结论意见。
建议2:把算法合规从“备案导向”升级为“可审计、可干预、可证明”
在中国法下,算法推荐合规不能仅停留于“是否完成备案”“是否公示规则”“是否形式上提供关闭选项”,而必须进一步审查:
◆ 推荐模型的优化目标是否过度偏向时长、频次、互动量;
◆ 推荐算法的透明度:应尽量充分保障未成年人及其监护人对算法推荐的知情权,尤其是应当简单、易懂;
◆ 是否进行风险标签识别:识别高刺激、高沉浸、高商业化转化内容并进行分级分类,应有效将其剔除出、弱化于未成年用户使用范围;
◆ 在前述基础上,是否对未成年人施加高刺激、高反馈、高强化的内容分发;
◆ 青少年模式是否真实有效,而非形式化存在;
◆ 是否对异常沉浸、深夜高活跃、极端内容偏好等风险信号进行治理。如及时的人工干预机制:对高风险账户、高风险内容、高风险推荐链路进行人工纠偏;
◆ 紧急下线机制:一旦发现某项机制存在显著未成年人风险,可快速暂停或回滚,并对监护人予以及时提示。
从争议应对角度看,企业未来最重要的不是证明“算法没有问题”,而是证明自己已建立识别、干预和纠偏的治理体系、制度、操作流程,并在发现风险后及时采取了措施。
建议3:建立“尽责证据链”,为监管和争议应对预作准备
在行政监管、民事争议乃至舆情事件中,平台是否已尽到合理注意义务,越来越依赖可核验的内部文件和留痕。建议企业建立至少以下文档体系:
◆ 未成年人专项个人信息保护影响评估报告;
◆ 产品设计审查意见及整改记录;
◆ 算法模型和分发规则的风险审查记录;
◆ 用户投诉、风险事件和异常行为的处置制度及日志、台账;
◆ 内部培训、问责和审批流程记录。
这些材料不仅在发生争议时构成抗辩基础,也是企业向监管机构证明“已建立治理能力”的重要依据。
五、结语:未来平台的竞争,不只是技术和流量的竞争,更是治理能力的竞争
Meta与YouTube案的真正意义,不仅在于赔偿金额本身,更在于它提示了一个越来越清晰的监管方向:平台责任的重心,正在从内容边界,走向设计边界与算法边界。
(内容边界走向设计边界与算法边界,图为AIGC)
对于中国企业而言,国外的监管趋势并不与我国现行法律体系冲突。相反,无论是《个人信息保护法》《未成年人保护法》,还是《未成年人网络保护条例》《互联网信息服务算法推荐管理规定》,都已经为未成年人保护、平台设计治理和算法责任建立了相对明确的规范基础。
当然未成年人的保护是社会性问题,各方均有相关责任,不能偏废。从企业端而言,真正需要重新思考的,不只是“哪些内容不能上”,而是“哪些产品机制不能默认继续存在”“哪些增长逻辑需要与保护义务取得合理平衡”。
平台毫无疑问具有商业性、逐利性,但这不应当是企业文化的底色。在AI如火如荼、“个体化”趋势愈演愈烈的今天,我们仍然认为,最好的商业不应只是最沉迷的生意,真正的长期主义,仍应当是对向善的孜孜不倦。
业务领域:民商事行政争议解决、公司证券、合规与监管
邮箱: yangyangx@sundiallawfirm.com
审稿人:欧阳劲松





























