当一副看似时尚的智能眼镜,可能在你毫无察觉的情况下,将你的私密生活片段传输给远在千里之外的陌生人“审查”,你会作何感想?这并非科幻情节,而是近期围绕Meta旗下Ray-Ban Meta智能眼镜爆出的真实隐私丑闻。据瑞典媒体联合调查报道,为Meta提供数据标注服务的分包商员工,在日常工作中竟能观看到用户通过眼镜拍摄的极度私密内容,包括如厕、更衣甚至亲密行为。这一事件不仅将Meta的用户隐私政策推上风口浪尖,更引发了公众对AI驱动型可穿戴设备安全边界的深刻质疑。
核心看点
- 隐私数据流:Meta分包商员工报告称,日常处理大量来自智能眼镜的隐私敏感数据流,包括未经用户明确知晓的私密录像。
- 政策与现实的鸿沟:Meta虽声称数据经过“过滤”,但员工证言显示,大量未充分脱敏的原始私密内容被直接用于AI训练。
- 用户知情权缺失:眼镜的录制指示灯常被忽视或误解,且复杂的隐私设置与默认开启的AI功能,使用户在无意中“被记录”。
事件曝光:来自数据标注一线的“我们看见了一切”
2026年2月,瑞典《瑞典日报》、《哥德堡邮报》与肯尼亚自由记者联合发布了一份深度调查报告。报告基于对Meta分包商、总部位于肯尼亚的Sama公司超过30名各级员工的采访,其中多人专门负责为Meta的AI系统进行视频、图像和语音标注。
据报道,这些员工日常接触的数据流被描述为“直接流入科技巨头系统的隐私敏感数据流”,其内容令许多标注员感到不适。多名受访者匿名证实,他们曾审查到通过Ray-Ban Meta智能眼镜拍摄的录像,内容涉及人们发生性行为、使用卫生间等绝对私密场景。
一位匿名员工描述:“我看到一段视频,一个男人把眼镜放在床头柜上离开了房间。不久后,他的妻子进来换了衣服。”另一位员工则表示,曾看到用户的伴侣裸体走出浴室。这些员工在采访中流露出道德上的挣扎:“你明白你正在窥视的是某人的私生活,但同时你又被期望只是完成工作。”
Meta的回应与隐私政策的“灰色地带”
面对舆论压力,Meta向BBC发表声明,确认“有时”会将用户与Meta AI生成式聊天机器人分享的内容,交由承包商审查,目的是“像许多其他公司一样,改善用户体验”。Meta强调,数据在分享前会经过过滤以保护隐私,例如对人脸进行模糊处理。
然而,声明与用户实际面临的隐私政策存在复杂且易被忽略的细节:
- 数据上传的触发条件:根据Meta可穿戴设备隐私政策,使用智能眼镜拍摄的照片和视频,在以下情况会被发送至Meta服务器:开启眼镜的云处理功能、与眼镜上的Meta AI服务互动,或将媒体上传至Meta提供的特定服务(如Facebook或Instagram)。用户虽可在设置中更改选择,但此过程并非默认关闭。
- 广泛的“训练”数据范围:政策明确,来自眼镜直播的视频和音频、聊天机器人创建的文本记录和语音录音,均会发送给Meta。这些数据会通过机器学习和“训练有素的审核员”进行处理,用于改进、排查问题和训练产品,且信息会与第三方供应商和服务提供商共享。
- 默认开启的AI与模糊的警告:2025年8月,Meta通过邮件通知用户,已默认开启“带摄像头的Meta AI”功能,直至用户手动关闭“Hey Meta”语音命令支持。尽管Meta发言人当时向The Verge澄清“Ray-Ban Meta拍摄的照片和视频仅存在于手机相册,不用于Meta训练”,但多项政策条款与之存在潜在矛盾。Meta AI聊天机器人的隐私政策甚至警告用户不要分享“你不想让AI使用和保留的信息,例如敏感话题的信息”,并承认“当信息与AI共享时,AI有时会保留并使用该信息”。
技术警示:闪烁的红灯与失效的知情同意
Ray-Ban Meta智能眼镜在设计上并非毫无隐私考量——设备在录制视频或拍照时,会闪烁红色指示灯。然而,这正是问题的关键所在:技术上的“告知”是否等同于有效的用户知情同意?
Sama公司的员工在采访中指出,许多眼镜用户似乎并未意识到设备有时正在录制。他们举例称,看到用户录制自己的银行卡或正在观看的色情内容,这些行为看起来都是无意的。外界批评也指出,在公共场所或动态环境中,旁人可能根本注意不到那微小的指示灯,或者误解其含义(例如以为是设备电量提示)。《纽约时报》此前就有文章探讨过餐厅等场合中,佩戴此类眼镜可能引发的隐私担忧。
这表明,单纯依靠一个物理指示灯,远不足以在复杂真实场景中保障被拍摄对象的隐私,也无法确保设备佩戴者本人完全掌控数据的采集边界。
深度解读:可穿戴AI时代的隐私十字路口
此次事件绝非单一公司的孤立问题,它尖锐地指向了AI与硬件深度结合的可穿戴设备行业所面临的普遍性伦理与监管挑战。
首先,是“数据用于AI训练”的边界模糊问题。 为了提升AI的感知与交互能力,科技公司需要海量的真实世界数据进行模型训练。然而,当设备变得无处不在、时刻在线(如智能眼镜),“数据收集”与“隐私侵犯”之间的界限便极易被跨越。Meta事件中,用户可能以为自己在进行一次普通的语音交互或无意中触发了录制,但其产生的数据却可能流入一个包含人工审核环节的漫长训练管线,完全超出其当下情境的认知预期。
其次,是外包数据审核带来的道德风险与监管盲区。 将包含敏感内容的数据审核工作外包给全球各地的分包商,是行业控制成本的做法。但这同时将用户隐私置于一个更长、更不透明的供应链中。不同地区的劳工标准、数据保护法律及员工培训水平参差不齐,极大增加了数据泄露和滥用风险。标注员所描述的道德不适感,正是这种系统性风险的人性化体现。
最后,这起事件将加速全球监管的聚焦。 欧盟的《人工智能法案》等法规已开始对高风险AI系统提出严格的数据治理要求。此类隐私丑闻将为监管机构提供明确案例,推动针对智能眼镜等具身AI设备制定更具体的数据采集最小化原则、更显著的实时知情告知机制(如更明显的视觉/听觉提示),以及对“边缘AI处理”(数据在设备端处理,不上传云端)技术的鼓励与倡导。
结语:在便利与隐私之间重建信任
Ray-Ban Meta智能眼镜隐私泄露事件,如同一面镜子,映照出我们在拥抱AI增强现实时付出的潜在代价。技术的炫目功能不应以牺牲基本隐私为代价。对于科技公司而言,需要在产品设计之初就将隐私保护作为核心原则,而非事后补救的条款;需要提供真正清晰、简明、主动的隐私控制选项,而非深埋在冗长政策中的复杂开关。
对于用户而言,这则是一记醒钟:在享用前沿科技带来的便利时,有必要主动了解设备的数据流向,审慎管理隐私设置。而对于整个社会,则亟需通过法律、行业标准与公众讨论,为这个“万物皆可传感、皆可智能”的新时代,划出明确的伦理红线与安全护栏。
只有当技术创新与隐私尊重取得平衡,可穿戴AI才能真正融入生活,而非成为悬于头顶的隐忧。
原文参考: Workers report watching Ray-Ban Meta-shot footage of people using the bathroom
