Meta眼镜曝隐私黑洞 700万用户数据流向非洲标注厂 谁担责?

发布时间:2026-03-04 02:30  浏览量:1

2026年2月,瑞典两家主流媒体联合调查揭开Meta智能眼镜的隐秘链条:肯尼亚的标注员正日复一日审看全球用户的私密视频,从卧室换衣到浴室场景,这些画面多数未经当事人知情同意。

这次调查的核心主角是旧金山外包商Sama,它在内罗毕的交付中心雇佣了数千名标注员。这些员工在布满摄像头的办公室工作,签有严格保密协议,一旦违规就可能失去工作,退回贫民窟。

他们审看的内容远超想象:用户放在床头柜的眼镜拍下的妻子换衣画面、佩戴者拍摄的性爱场景,还有完全不知情的裸体第三者。这并非Sama首次陷入争议,此前它就因给OpenAI和Meta做内容审核时的低薪、恶劣环境被多方批评。

这背后是科技行业的隐性剥削逻辑:巨头将高风险、高压力的数据处理工作外包到人力成本更低的地区,既降低自身运营成本,又能在出问题时通过外包协议规避直接责任,底层劳工和用户成了最终的代价承担者。

Meta Ray-Ban智能眼镜正处于商业爆发期,2025年全年销量突破700万副,是2023至2024两年总和的三倍多,厂商还计划在2026年底前将年产能扩大至2000万副。

在2025年的Meta Connect大会上,扎克伯格亲自佩戴眼镜展示第一人称视角功能,将其定位为“全能助手”,拥有实时翻译、AI问答等多种功能,未来还计划加入人脸识别。但用户不知道的是,每一次AI交互都可能产生私密数据,流入标注工厂。

智能硬件的“便利陷阱”已成为行业通病:厂商不断强化功能吸引力,却将隐私保护的成本转嫁给用户和底层劳工,比如早期的智能家居摄像头泄露、网约车数据滥用等,都是这种模式的复刻。

欧盟的GDPR要求个人数据处理透明化并告知处理地点,但Meta显然未达标。瑞典记者测试发现,即使用户选择不分享额外数据,眼镜的AI功能仍需联网传输数据,且零售店员对数据流向一无所知,甚至误导用户说“数据完全由用户掌控”。

即将生效的欧盟AI法案可能将Meta眼镜的生物识别功能归类为“高风险”,要求更严格的透明度措施,但监管速度远跟不上商业扩张节奏。目前欧盟尚未认定肯尼亚为数据保护“充分水平”国家,用户数据跨境传输缺乏有效保障。

这种监管错位的根源在于,全球数字经济治理规则仍由少数科技巨头主导,发展中国家的劳工权益和用户隐私往往被忽视,监管机构的反应总是慢一拍,难以形成有效约束。

面对智能硬件的隐私风险,用户并非完全被动。首先,购买前要仔细阅读隐私政策,尤其是数据收集和共享条款,不要轻信销售人员的口头承诺,毕竟多数店员对数据流向也一无所知。

其次,使用时关闭不必要的功能,比如自动录制、人脸识别等,减少私密数据的产生。此外,还可以使用第三方工具,比如德国开发者开发的“Nearby Glasses”应用,探测附近的Meta智能眼镜,避免被偷拍。

更重要的是,用户要建立“隐私付费”认知:当你享受免费或低价智能服务时,你的数据可能就是商品。只有当足够多的用户重视隐私,厂商才会真正投入资源改善隐私保护,打破“便利碾压隐私”的行业惯性。