您当前位置:首页 > 消费 > 正文

给AI玩具设隐私防火墙

随着生成式人工智能技术的突破性进展,会“说话”的AI玩偶层出不穷。但当孩子们兴高采烈地与AI玩具互动时,可能正不知不觉地暴露着自己的隐私信息。更令人担忧的是,许多家长对这些潜在风险毫无察觉。(据央视网报道)

从能讲故事的智能玩偶,到可情感交互的陪伴机器人,AI玩具市场正迎来爆发式增长,曾经只存在于童话和动画中的会“说话”的玩具,正随着生成式AI技术的突破而走进现实。然而,在孩子们与这些“智能伙伴”亲密互动的同时,他们的声音、图像、行为、家庭信息等隐私数据,可能正被悄无声息地采集、上传,甚至遭到非法盗用、滥用。

当前的AI玩具不再是简单的电子发声装置,而是集成了高敏麦克风、广角摄像头、毫米波雷达等传感器的高科技产品,能感知儿童的呼吸频率、记录对话内容,甚至分析情绪变化,并可通过与儿童的对话、交流,采集各种敏感信息。许多AI玩具在用户协议中默认勾选“同意数据用于商业研究”,甚至要求开放家庭Wi-Fi权限,亦使家庭网络暴露于潜在风险之中。

目前,AI玩具主要为儿童提供陪伴功能,但是儿童年龄幼小,缺乏足够的认知能力去辨别哪些信息会被收集,更无法理解复杂的隐私协议。而且,部分厂商在数据存储和传输环节缺乏严格的安全措施,一旦遭遇黑客攻击或内部泄露,儿童的敏感信息可能被用于精准广告投放,甚至更为恶劣的用途。

面对这一新兴领域的隐私风险,仅靠家长的个人警惕远远不够,亟须未雨绸缪,从立法、行业标准和技术设计等层面构建系统性的防护机制,筑起一道严密的隐私防火墙。

从监管层面来看,应尽快完善相关法律法规,明确AI玩具在数据收集、存储、使用、传输等各个环节的规范,应坚持最小化原则,非必要不开放权限、不采集敏感信息,并规定相关数据的存储期限和销毁机制。

行业需建立统一的安全标准。当前,市场上AI玩具质量参差不齐,部分产品甚至只是套壳版智能音箱,缺乏基本的数据加密措施。行业协会可牵头制定技术规范,要求厂商采用端到端加密、本地化数据处理等技术,并设立独立的数据安全审计机制。

在产品设计方面,应赋予家长可控权,厂商可参考手机APP的未成年人模式,在AI玩具中嵌入家长控制模式,允许监护人设定儿童使用权限,自主选择数据采集范围、实时监控数据流向,并在异常访问时触发预警,提醒注意安全防范。

https://www.ccn.com.cn/Content/2025/06-13/1737477364.html

编辑:萧培  审编:益审核

【版权及免责声明】
1、凡本网来源注明“今日中国网”(域名ChinaTodays.CN)的所有文章和图片作品,版权均属于今日中国网(ChinaTodays.CN),未经本网授权,任何单位及个人不得转载、摘编或以其它方式使用上述作品。已经本网授权使用新闻稿件和图片作品的,应在授权范围内使用,并注明“来源:今日中国网(ChinaTodays.CN)”。违反上述声明者,本网将追究其相关法律责任。
2、凡本网注明 “来源:XXX(非今日中国网CPUCN.CN)”的文章和图片作品,系我方转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因新闻稿件和图片作品的内容、版权和其它问题需要同本网联系的,请在15个工作日内告知我方。
4、联系方式:今日中国网(ChinaTodays.CN) 电子邮件:china-gy@foxmail.com
最热文章
最新文章