核心看点

  1. 仅需Gmail账号即可浏览5万+儿童与AI恐龙Bondu的完整聊天记录,姓名、生日、家庭昵称一览无遗。
  2. 事件暴露AI玩具行业普遍“重功能、轻安全”:默认信任第三方登录、缺乏最小权限隔离。
  3. 专家警告,若内部员工凭证再失守,这些“儿童隐私金矿”或成绑架、精准诈骗的“梦想数据库”。

引言:当孩子的“机器恐龙”变成全网直播

“如果只需一个Gmail就能听到你家宝贝对AI说的悄悄话,你还会买这只恐龙吗?”——安全研究员Joseph Thacker的邻居原本只是想提前锁定两只可爱的Bondu智能毛绒玩具,却意外揭开2026年首起震惊全球的AI玩具数据裸奔案。短短几分钟,Thacker与同伴Joel Margolis在完全未“黑”系统的情况下,通过公开Web控制台浏览了超过50,000份儿童对话记录,内容涵盖真实姓名、生日、家庭宠物名,甚至“妈妈今晚不在家”这类极易被恶意利用的细节。本文将拆解事件技术细节、追踪厂商补救动作,并探讨儿童隐私在生成式AI时代的脆弱性。

事件复盘:从“家长监督”到“全民围观”只差一次Google登录

1. 漏洞入口:OAuth“信任链”被无限放大

Bondu为家长提供Web门户,方便随时查看孩子与AI恐龙的互动。为了快速上线,开发团队直接采用“使用Google登录”作为唯一身份校验,却未对邮箱域名、用户属性做任何二次校验。这意味着:

  • 任何Gmail账号都被默认视为“合法家长”;
  • 系统通过用户邮箱自动匹配“家庭组”失败时,返回的是全量数据而非空集。

2. 数据裸奔规模:5万+对话、音频转写、家长设定目标

研究人员在控制台看到的敏感字段包括:

数据类型示例内容
个人身份姓名、昵称、生日、头像
家庭关系“爸爸叫Sam”“外婆周五接我”
行为偏好最爱零食草莓味酸奶、讨厌西兰花
对话记录完整文本+时间戳,最长可追溯至首次开机
家长目标“鼓励刷牙”“提高英语词汇”

注:Bondu官方确认音频在转写后立即删除,仅保留文本,但文本本身已足够还原生活轨迹。

3. 厂商响应:分钟级下线,小时级修洞

1月29日接到报告后,Bondu于15分钟内下线控制台,次日上线补丁,新增:

  • 基于订单号的家长身份绑定;
  • 多因素认证(SMS+邮箱OTP);
  • 所有API启用最小权限+签名令牌。

CEO Fateen Anam Rafid声明“无证据表明除研究人员外有任何批量访问”,并已聘请外部安全公司持续监测。

深度解读:AI玩具为何成为隐私“高压锅”?

2.1 技术侧:生成式模型需要“记忆”,但记忆=风险

为了让恐龙“越聊越懂孩子”,Bondu把历史对话作为长期上下文喂给后端大模型(已确认调用GeminiGPT-5企业版)。这意味着:

  • 数据必须长期存储→攻击面扩大;
  • 模型推理需明文→无法端到端加密;
  • 第三方云API→进一步跨境传输。

一句话:生成式AI的“个性化”与“可遗忘权”天生矛盾。

2.2 合规侧:COPPA、GDPR-K 的“灰色地带”

  • COPPA要求面向13岁以下产品须获“可验证家长同意”,但OAuth登录是否算“可验证”尚无判例;
  • GDPR-K强调“数据最小化”,而长期保存全部对话以训练模型显然与之冲突;
  • 厂商通过“家长自愿填写生日”来界定用户年龄,实质把举证责任转嫁给监护人。

2.3 行业侧:众筹加速+成本压缩=安全欠债

Bondu从Kickstarter到量产仅11个月,安全预算占比<3%。同类AI玩具普遍:

  • 复用移动端SDK,未做服务器端二次鉴权;
  • 日志与生产环境混用同一数据库;
  • 缺乏专职安全团队,漏洞响应靠“社区邮件”。

潜在危害:当“坏人”拿到这些聊天记录能做什么?

  1. 精准社工:骗子直呼孩子乳名,声称“妈妈让我来接你”。
  2. 身份伪造:利用生日+家庭成员构造“失散亲戚”剧本。
  3. 长期跟踪:结合地理位置(部分对话透露学校、兴趣班)实施线下犯罪。
  4. 心理操控:已知孩子怕黑、喜欢独角兽,可定制诱骗话术。

正如Margolis所言:“这是绑匪的梦想数据库。”

对策与建议:让孩子与AI玩耍,但不与风险为伴

3.1 给厂商的“安全快检表”

措施落地要点
零信任架构每次API调用都校验用户+设备+订单三元组
数据分层身份标识与对话内容分离存储,密钥分片
动态遗忘提供“30天自动删除”与“一键擦除”选项
第三方审计每年两次渗透测试+红队演练,报告公开

3.2 给家长的“三分钟自检”

  1. 购买前搜索“产品名+数据泄露”关键词;
  2. 启用设备后立刻关闭“云端记忆”或调至最短保留;
  3. 每月导出并检查存储在云端的对话,删除敏感句段;
  4. 虚拟邮箱+别名注册,避免真实家庭信息外泄。

3.3 给监管方的“政策工具箱”

  • 把OAuth登录纳入“弱验证”名单,强制二次确认;
  • 要求AI玩具出厂前通过“儿童数据安全基线”认证;
  • 建立黑名单共享机制,对多次违规厂商实施销售下架。

结语:AI的“温度”不应以孩子的隐私为燃料

Bondu事件并非孤例,却为整个行业敲响警钟:当模型越智能,数据就越敏感;当市场越狂热,安全就越容易被牺牲。在生成式AI竞赛进入白热化的2026年,唯有把“儿童隐私”置于产品生命线的最前端,才能让家长真正放心地把“会说话的恐龙”放进儿童房。

原文链接:Ars Technica 报道