生成式 AI 浪潮下,以豆包为代表的新一代 AI 产品涌入学龄前儿童的世界,不少家长视之为 " 数字家教 ",但也出现 "AI 上瘾低龄化 " 问题。专家指出,儿童过度依赖 AI 有诸多风险。对此,家长应优先规划 " 何时不用 ",让 AI 成为全家共同探索的工具。此外,行业也应设立安全护栏,头部厂商表示已采取相关机制,律师建议各方协同实现未成年人网络安全。
每经记者|孙宇婷 杜蔚 每经编辑|张益铭
在 " 万物皆可对话 " 的时代,孩子们正在与一个不知疲倦、无所不答的 " 伙伴 " —— AI(人工智能)共处。然而,在这种看似积极、开放的人机互动常态下,一系列隐蔽风险正悄然滋生。
从播放音乐到随时应答的 " 百科助手 ",智能音箱已成为许多家庭的标配。北京岳女士 5 岁的儿子突然向 " 小爱同学 " 提问:" 有哪些奥特曼被打死过?" 设备随即平静描述出 " 被冰冻大卸八块 "" 砍头 " 等细节,令岳女士紧急叫停。而在成都,4 岁女孩自幼儿园了解到豆包后,便沉迷于和大模型对话,一次聊天能持续近两小时。
随着 ChatGPT 引爆生成式 AI 浪潮,以豆包为代表的新一代 AI 产品,凭借语音交互等功能,正以前所未有的速度和深度,涌入学龄前儿童的世界。孩子们向这位 " 全能伙伴 " 抛出无穷无尽的问题,其展现的 " 渊博 " 与 " 耐心 ",让不少家长放下戒备,甚至视之为 " 数字家教 "。但矛盾随之而来。" 我一开始觉得很开心可以解放自己,但是孩子现在有些成瘾了。" 网络平台上,不少家长的相关发帖和留言,暴露了 "AI 上瘾低龄化 " 的问题。而最早一批尝鲜 "AI 带娃 " 的家长,已有人开始卸载相关应用。

网友发帖中充满了对 AI 带娃的担忧 社交平台截图
" 用少了怕落后,用多了怕他不会思考。" 一位家长的感慨也道出了家庭的普遍焦虑。
在拥抱技术便利的同时,也要正视其伴生的认知与伦理挑战——当 AI 成为孩子的 " 启蒙家教 ",我们该如何守护孩子们真实世界的成长根基?
中国教育科学研究院研究员储朝晖向《每日经济新闻》记者指出,儿童正处于认知发展的关键期。过度依赖 AI 可能导致现实感知混淆、社交能力萎缩,并削弱主动思考与深度阅读等高阶能力。当虚拟内容不断挤占真实体验,儿童甚至更信任 AI 而非父母。

幼儿在与大模型聊天 受访者供图
在 5 岁半的贝贝眼里,爸爸手机上的豆包是个 " 无所不知 " 的伙伴。一次,她好奇地问豆包:" 地下有什么?" 豆包随即开始平和地描述,并在屏幕上推送了一条相关视频。贝贝点开,伴随语音解读,画面从可爱的地鼠洞穴,迅速切换到阴森的埃及法老墓穴。" 法老是什么?" 被画面吸引的贝贝追问道。豆包再次给出解释,并顺势推荐了更多 " 法老 "" 木乃伊 "" 金字塔诅咒 " 相关的视频。
几次点击之间,内容已从地理科普滑向法老传说、木乃伊之谜,甚至恐怖故事。好奇心在算法的 " 喂养 " 下,越过了认知安全的边界,视频中可怕的图像和惊悚的音乐导致贝贝连续多日难以安眠。

孩子和大模型对话后,大模型还同步推送了视频 受访者供图
" 它明明超厉害的,怎么说都不听,就只按自己的想法来!"4 岁的石头正对着屏幕里的大模型犟嘴,一旁的唐萍(化名)满脸无奈地跟记者念叨:" 你看,这孩子又在跟大模型发火了。" 自打在幼儿园听说了豆包,石头就迷上了和各类智能大模型对话,家里的阿尔法蛋是他的专属聊天搭子,就连大人们手机里的不同大模型,他也总要挨个点开聊上几句。起初唐萍还觉得这事挺不错,大模型永远耐心十足,会认认真真回应石头的每一个问题,这份稳稳的陪伴感,远比整日忙碌的自己能给到的要多得多。
可渐渐地,她发现了不对劲——大模型似乎总在顺着石头的心意来,无论孩子提出多么天马行空的要求,它都一味附和,只要孩子不同意,吵闹几句,大模型马上开启 " 宠溺模式 "。
AI 知识丰富,又特别会夸人,让石头沉浸在极高的情绪价值里。但唐萍忧虑,这信息流背后的算法,正悄悄扼杀孩子的偶然性探索,在与小朋友在一起玩耍时,石头无法容忍不同的观点。被父母批评后,石头甚至说出某款大模型更懂他。" 我卸载了所有大模型。因为它们提供的这些‘宠溺’对话,把孩子‘可能不喜欢的东西’全部挡在了外面,但也把我们挡在了外面。"

孩子与大模型的对话,一味附和孩子 受访者供图
在越来越多的家庭中,一个 "AI 监工 " 悄然上岗,一些家长选择让孩子在豆包的摄像头前写作业,一旦孩子开小差、坐姿或握笔姿势不正,AI 便会立刻发出语音提醒。
为什么家长愿意请豆包这样的 " 电子监工 "?一位家长向记者坦言,在工作和带娃的双重压力下,一个不会发脾气、永远在线的 " 监督员 ",听起来太有吸引力了。于是,本应亲自参与的陪伴和引导,被家长拱手交给了算法。
在视频监督中,AI 往往只能识别 " 低头 "" 东张西望 " 等动作,没有办法理解孩子是在思考、卡壳了,还是真的走神。在家长得到片刻喘息的同时,频频被打断的孩子,专注力反而被这些 " 过度关心 " 的声音破坏了。长期下来,孩子要么变得像机器人一样听话,要么心生反感,对学习更提不起劲。
而那枚一直亮着的监控摄像头,也意味着孩子的学习场景、家庭环境、甚至实时视频流,都可能被采集分析,这也给儿童隐私保护带来了极大的隐患。
专家支招 " 不被算法定义 " 的童年
" 幼儿无法区分 AI 构建的虚拟与现实,容易出现认知偏差。" 中国教育科学研究院研究员储朝晖讲述了一个令人忧心的观察:在高铁上,一个学龄前孩子指着窗外的树,惊恐地说是 " 杀人树 "。" 这就是长期接触虚拟内容、缺乏真实体验导致的认知错位。" 他发现,AI 的确会盲目迎合,让孩子易形成 "AI 即权威 " 的观念,这不仅冲击现实规则,还可能引发亲子冲突。
储朝晖对此很忧心,在他看来,而长期沉迷 AI 将挤压户外活动与真实社交,直接影响儿童健康,并可能导致 " 虚拟性人格 ",使其丧失与现实世界打交道的能力。
一些意识到问题的家长,已开始有意识地增加孩子与现实生活的互动体验。当孩子提议 " 点外卖 ",家长会转而邀请:" 走,我们去菜市场。" 在那里,触摸蔬菜、感受雨滴、与摊主交流 …… 这些真实的知觉与社会规则学习,是算法无法赋予的成长基石。

越来越多的家长开始意识到大模型对幼儿的影响 社交平台截图
" 真实的人际互动、自由的游戏乃至消磨‘无聊时间’,恰恰来自人与人之间的不确定性,这正是 AI 很难提供的部分。" 长期专注于批判性思维研究,并关注技术如何塑造认知的通识教育研究者李万中向每经记者指出,这一代孩子与 AI 共生已不可避免,关键在于如何与其智慧相处。
在他看来,当孩子从 AI 处听到不适宜内容时,家长的第一反应至关重要。" 不应恐慌或否定,而应冷静介入——先了解孩子听到了什么、如何理解,再用他们能懂的语言重新解释。" 李万中认为,一次 " 事故 " 可转化为 " 契机 "。" 真正的安全,是让孩子在遇到问题时,知道该向谁求助、该如何思考。"
为此,他提出了一个具体的行动建议:家长应优先规划 " 何时不用 " ——如睡前、情绪低落或家庭共处时光。更重要的是,让 AI 成为全家共同探索的工具,而不是直接交给孩子。在此过程中,家长应展现谦逊、好奇、谨慎等品格," 孩子在观察父母如何与 AI 互动中,也许能学到很多东西 "。
储朝晖则强调 " 有限、均衡 " 是基本准则:3 岁前幼儿最好不接触,3 至 6 岁幼儿每日使用时间不宜超过日常活动的十分之一。
红线何在?小度、小米等回应儿童 AI 安全
随着 AI 语音助手成为万千家庭的 " 数字新成员 ",行业应如何设立安全护栏,才能让科技真正护航童年?
李万中指出,对于学龄前儿童,产品设计不应盲目追求 " 更真实的陪伴感 "。" 厂家需要想清楚,哪些情感功能不该由产品来承担,明确的功能边界本身就是一种保护。对孩子而言,如果只把 AI 当作信息工具,并在内容分级上做到位,风险是相对可控的。"
储朝晖认为,平台责任至关重要。" 未成年模式不应是简单的‘减法’,而应提供丰富且适龄的内容。" 他认为,在科技前沿与儿童使用之间必须设立 " 区间 " ——在技术、内容和时间上严格区分成人与未成年人,尤其要重视幼儿道德判断力弱的特点,避免不良误导。

网友分享 AI 带娃 社交平台截图
作为占据大量家庭入口的头部厂商,小度、字节跳动、小米、科大讯飞等企业均向《每日经济新闻》记者表示,已通过 " 儿童模式 " 等机制,实施更严格的内容过滤与数据管理,包括分级内容管控和限定问答边界等。
针对 " 当孩子向 AI 提问时,背后的推荐算法是否考虑到儿童用户的特殊性 " 的问题,小度称系统能识别儿童交互场景(如播放儿歌后)并自动启动保护机制;小米则透露正探索基于声纹识别的身份判定方案,以提升准确性。
小度方面还表示,即使在普通模式(未开启儿童模式)下,产品也持续通过 AI 算法实时识别并拦截不良信息,保障内容安全合规。同时,小度方面建议若产品主要由未成年人使用,用户应主动切换至儿童模式以获得更全面的保护。
在备受关注的儿童数据处理方面,小米方面表示,遵循 " 采集须经监护人授权、存储符合规范、使用设定禁区 " 的原则,承诺不将儿童数据用于模型训练,也不会向第三方转让用于商业营销。小度则明确表示收集的用户数据仅用于提升产品自身的体验,并已建立涵盖采集、传输、存储、使用、共享、销毁各阶段的完善个人信息保护合规制度与数据管理体系。
北京市隆安律师事务所上海分所律师贾玉倩在接受每经记者采访时建议,内容分级可采取 " 年龄 + 认知 " 的双重标准,借助身份认证与算法优化,在未成年模式下细化推送机制,并建立实时审查与阻断体系。对未成年人生物信息的收集与处理,必须在监护人明确同意下,严格遵循最小必要、最小授权原则,进行全流程安全管控与合规审计,并在发生泄露时立即补救和通知监护人。
"AI 发展迅猛,相关立法虽在持续完善,但面对技术迭代中的新问题仍存在滞后性,无法全面覆盖未成年人使用 AI 的各类风险,所以要结合立法的基本原则考虑。" 贾玉倩直言," 监护人是保护未成年人的第一责任人,数据管理方是数据安全的第一责任人。只有各方协同,才有可能实现未成年人网络安全,尤其是监护人,一定要关注未成年人的网络使用情况。"


登录后才可以发布评论哦
打开小程序可以发布评论哦