核心看点
- 仅需Gmail账号即可浏览5万+儿童与AI恐龙Bondu的完整聊天记录,姓名、生日、家庭昵称一览无遗。
- 事件暴露AI玩具行业普遍“重功能、轻安全”:默认信任第三方登录、缺乏最小权限隔离。
- 专家警告,若内部员工凭证再失守,这些“儿童隐私金矿”或成绑架、精准诈骗的“梦想数据库”。
引言:当孩子的“机器恐龙”变成全网直播
“如果只需一个Gmail就能听到你家宝贝对AI说的悄悄话,你还会买这只恐龙吗?”——安全研究员Joseph Thacker的邻居原本只是想提前锁定两只可爱的Bondu智能毛绒玩具,却意外揭开2026年首起震惊全球的AI玩具数据裸奔案。短短几分钟,Thacker与同伴Joel Margolis在完全未“黑”系统的情况下,通过公开Web控制台浏览了超过50,000份儿童对话记录,内容涵盖真实姓名、生日、家庭宠物名,甚至“妈妈今晚不在家”这类极易被恶意利用的细节。本文将拆解事件技术细节、追踪厂商补救动作,并探讨儿童隐私在生成式AI时代的脆弱性。
事件复盘:从“家长监督”到“全民围观”只差一次Google登录
1. 漏洞入口:OAuth“信任链”被无限放大
Bondu为家长提供Web门户,方便随时查看孩子与AI恐龙的互动。为了快速上线,开发团队直接采用“使用Google登录”作为唯一身份校验,却未对邮箱域名、用户属性做任何二次校验。这意味着:
- 任何Gmail账号都被默认视为“合法家长”;
- 系统通过用户邮箱自动匹配“家庭组”失败时,返回的是全量数据而非空集。
2. 数据裸奔规模:5万+对话、音频转写、家长设定目标
研究人员在控制台看到的敏感字段包括:
| 数据类型 | 示例内容 |
|---|---|
| 个人身份 | 姓名、昵称、生日、头像 |
| 家庭关系 | “爸爸叫Sam”“外婆周五接我” |
| 行为偏好 | 最爱零食草莓味酸奶、讨厌西兰花 |
| 对话记录 | 完整文本+时间戳,最长可追溯至首次开机 |
| 家长目标 | “鼓励刷牙”“提高英语词汇” |
注:Bondu官方确认音频在转写后立即删除,仅保留文本,但文本本身已足够还原生活轨迹。
3. 厂商响应:分钟级下线,小时级修洞
1月29日接到报告后,Bondu于15分钟内下线控制台,次日上线补丁,新增:
- 基于订单号的家长身份绑定;
- 多因素认证(SMS+邮箱OTP);
- 所有API启用最小权限+签名令牌。
CEO Fateen Anam Rafid声明“无证据表明除研究人员外有任何批量访问”,并已聘请外部安全公司持续监测。
深度解读:AI玩具为何成为隐私“高压锅”?
2.1 技术侧:生成式模型需要“记忆”,但记忆=风险
为了让恐龙“越聊越懂孩子”,Bondu把历史对话作为长期上下文喂给后端大模型(已确认调用Gemini与GPT-5企业版)。这意味着:
- 数据必须长期存储→攻击面扩大;
- 模型推理需明文→无法端到端加密;
- 第三方云API→进一步跨境传输。
一句话:生成式AI的“个性化”与“可遗忘权”天生矛盾。
2.2 合规侧:COPPA、GDPR-K 的“灰色地带”
- COPPA要求面向13岁以下产品须获“可验证家长同意”,但OAuth登录是否算“可验证”尚无判例;
- GDPR-K强调“数据最小化”,而长期保存全部对话以训练模型显然与之冲突;
- 厂商通过“家长自愿填写生日”来界定用户年龄,实质把举证责任转嫁给监护人。
2.3 行业侧:众筹加速+成本压缩=安全欠债
Bondu从Kickstarter到量产仅11个月,安全预算占比<3%。同类AI玩具普遍:
- 复用移动端SDK,未做服务器端二次鉴权;
- 日志与生产环境混用同一数据库;
- 缺乏专职安全团队,漏洞响应靠“社区邮件”。
潜在危害:当“坏人”拿到这些聊天记录能做什么?
- 精准社工:骗子直呼孩子乳名,声称“妈妈让我来接你”。
- 身份伪造:利用生日+家庭成员构造“失散亲戚”剧本。
- 长期跟踪:结合地理位置(部分对话透露学校、兴趣班)实施线下犯罪。
- 心理操控:已知孩子怕黑、喜欢独角兽,可定制诱骗话术。
正如Margolis所言:“这是绑匪的梦想数据库。”
对策与建议:让孩子与AI玩耍,但不与风险为伴
3.1 给厂商的“安全快检表”
| 措施 | 落地要点 |
|---|---|
| 零信任架构 | 每次API调用都校验用户+设备+订单三元组 |
| 数据分层 | 身份标识与对话内容分离存储,密钥分片 |
| 动态遗忘 | 提供“30天自动删除”与“一键擦除”选项 |
| 第三方审计 | 每年两次渗透测试+红队演练,报告公开 |
3.2 给家长的“三分钟自检”
- 购买前搜索“产品名+数据泄露”关键词;
- 启用设备后立刻关闭“云端记忆”或调至最短保留;
- 每月导出并检查存储在云端的对话,删除敏感句段;
- 用虚拟邮箱+别名注册,避免真实家庭信息外泄。
3.3 给监管方的“政策工具箱”
- 把OAuth登录纳入“弱验证”名单,强制二次确认;
- 要求AI玩具出厂前通过“儿童数据安全基线”认证;
- 建立黑名单共享机制,对多次违规厂商实施销售下架。
结语:AI的“温度”不应以孩子的隐私为燃料
Bondu事件并非孤例,却为整个行业敲响警钟:当模型越智能,数据就越敏感;当市场越狂热,安全就越容易被牺牲。在生成式AI竞赛进入白热化的2026年,唯有把“儿童隐私”置于产品生命线的最前端,才能让家长真正放心地把“会说话的恐龙”放进儿童房。
原文链接:Ars Technica 报道
