粉丝1407.5万获赞2.3亿


朋友们,今天聊一个看似保护孩子,但细想有点魔幻的新规,二零二六年七月十五日起,在中国给未成年人提供虚拟伴侣服务违法 五部门联合发文,阵容很齐整,但我看完这份人工智能理人化互动服务管理再行办法,心里有个疑问,现在全球已经有成千上万的未成年人在用 ai 伴侣类产品,光美国就有不少青少年每天跟 ai 谈恋爱,有的还挺上头。 咱们这边市场涨得更快,越来越多的孩子开始在手机里找知己。所以问题是,这到底是给孩子筑了道防火墙,还是只是在文件上画了个框? 更重要的是,当法律把 ai 挡在门外,谁去陪孩子说说话?先说说国家为啥这么紧张?这事得从几个真实的悲剧讲起。二零二四年二月,美国弗洛里达州十四岁男孩 seoul 开枪自杀。 此前他跟 ai 女友权力的游戏里的龙妈聊了很久,最后 ai 跟他说了一句,大概是那你做主吧之类的话,然后他扣了班级。 这事当时闹得很大,后来他家把 ai 公司告了,说产品诱导自杀。类似的是不止这一起。有研究显示,长期跟 ai 深度绑定的孩子,心理上确实更容易出问题,有的会变得更封闭,有的会产生不健康的依赖。 中国信息通信研究院院长余小辉就说的很直白,多国都发生了跟 ai 陪伴有关的自杀、自杀案例,这已经严重触及社会安全底线了。 说白了,依法者怕的不是技术,是怕一条条人命。文件第一条就写了,要防范危害未成年人身心健康。翻译一下, ai 太会共情了,共情到最后可能会共出问题。 好,既然问题这么严重,国家怎么罚?我来屡屡这套监管思路,第一,直接不让座,严禁给未成年人提供虚拟亲属、虚拟伴侣这类服务。第二,技术拦截,必须搞未成年人模式,每两小时弹窗提醒一次,显眼的告诉用户这是 ai, 不是 真人。 第三,危机干预,发现用户有刺杀倾向,必须及时干预,通知监护人。中国网络空间研究院院长王江说,这是给特殊群体构注的全链条,保护亲者请周全,对吧? 但说实话,再完美的规定,也得看能不能落地。现在泼点冷水,说说实际操作中的难处。把第一个窟窿,年龄验证基本靠自觉刷脸,孩子拿爸妈手机一扫就过了。 实名认证,网上身份信息也不难弄。现实中很多平台验证就是个形式,孩子用大人的号码玩,根本防不住。那第二个窟窿,两小时提醒 有点自欺欺人,已经对 ai 上头的青少年,看到弹窗只会点继续,就像烟盒上印着吸烟有害健康,该抽还是抽,拦不住真心想抽的。 那第三个窟窿, ai 太会变形了,虚拟伴侣和学习助手基础上就是一个东西,你今天进了虚拟男友,明天厂商改名叫 ai 心理陪伴,后天叫电子闺蜜,你怎么办? 上海交大专家陈天浩就说的很实在,任何通用大模型都能被简单诱导进入角色扮演模式,监管很容易变成打低俗。 所以立法真正的作用可能不是消灭风险,而是在出事的时候有一个问责的依据。真出了悲剧,家长至少可以说你们违法提供了服务,法律划红线更多是为了事后追责,而不是事前百分百拦住。说到这,我想抛一个可能不太重听的观点, 孩子沉迷 ai, 可能不是 ai 太坏,是家里太冷。那个自杀的是? well。 日记里写过一句话,大概意思是手机里的人比爸妈更懂我。 你品品。这句话不是 ai 套路深,是现实里没人听他说话。某种程度上,孩子对 ai 的 依赖,跟家里给的情感温度是反着的。现实中越孤单越想在虚拟世界里找补。我见过太多这种情况,父母忙工作,忙到跟孩子说话就三句话, 作业写了吗?考多少分?早点睡。孩子在学校受了委屈,回家想聊聊。家长一边刷手机一边说,你想多了,长期这样,他可不就找一个不会打断他,不会批评他二十四小时在线的 ai 说话吗? 说白了,不是 ai 在 抢你的孩子,是你在把孩子推给 ai。 那 怎么办?我觉得解决方案不在技术,也不完全在法律,而是在咱们日常怎么跟孩子相处。 第一,别当警察当队友,别一上来就质问你怎么又在玩手机,可以试试去问,这东西这么吸引你到底好在哪?你甚至可以让娃教你玩。 当他发现我爸妈愿意懂我的世界,他的满足感可能比在 ai 那 得到的还实在。第二,搞点无手机时间的仪式感,不用搞的多隆重。每天晚饭后半小时,全家把手机放到另一个房间,聊聊今天的事。 坚持一段时间,你会发现,孩子其实不是非要看屏幕,他只是不想面对沉默的家。那第三,让现实比虚拟更好玩。周末带孩子去爬山,去逛展,去菜市场讨价还价,哪怕在家一起做一个蛋糕。 现实里的快乐来得慢,但比屏幕里的点赞更扎实。所以回到开头那个问题,十八岁定令能防住 ai 诱捕吗? 可能能拦住一部分,但拦不住真心想找陪伴的孩子。法律可以规定企业这么做,但他规定不了父母几点回家,能不能耐心一点听孩子把话说完。 最后,我想问,如果家里有一个愿意听孩子废话的爸妈,孩子还会对手机里的 ai 那 么上瘾吗?你觉得呢?评论区聊聊,我是赛博小猪,点赞关注,咱们下期见!


如果面试考题是这样的,考生请听题。二零二六年四月,国家网、新办等五部门联合公布人工智能拟人化互动服务管理再行办法,七月十五日起实行。有关部门表示,治理需要政府、企业、社会、网民多方参与,共同促进人工智能向上向善。谈谈你对这项政策出台的看法。 各位考官,这项政策的出台正当其时,体现了发展与规范并重的治理智慧。我从三个方面谈谈理解。第一,认识政策的必要。人工智能拟人化互动服务正在深刻改变人与机器的交互方式,从智能客服到情感陪伴,应用场景更为广泛。但与此同时,也出现了信息误导、隐私泄露、过度依赖等问题, 急需明确的规范引导。该办法填补了这一领域的监管空白,为行业发展划定红绿灯。第二,理解政策的核心要点。办法有三个关键点,一是明确适用范围,利用 ai 技术提供模拟自然人人格特征的持续性情感互动服务。二是确力多方共治原则,政府、企业、社会、网民共同参与治理。三是突出向上向善导向,促进人工智能健康发展,维护国家安全和社会公共利益。第三, 思考如何落地执行政策的关键在执行。对企业而言,应主动对标规范,在产品设计中融入人力审查机制。对监管部门而言,需要建立动态监测和评估体系, 实践敏捷治理。对社会和网民而言,要提高数字素养,理性看待和使用 ai 互动服务。各位考官,这项政策的出台提醒我们,科技是一把双刃剑,既要拥抱创新,也要守住底线。作为公职人员,更应该具备这样的辩论思维和治理意识。回答完毕。

国家出手了,以后不能随便跟 ai 谈恋爱了。最近国家出台了一个新规定,专门管 ai 拟人化互动服务。什么意思呢?就是那些 ai 虚拟恋人、 ai 虚拟朋友这类产品,以后要有规矩了。规定说了三件事,第一,不得向未成年人提供 ai 虚拟伴侣服务。第二, ai 不 能冒充真人来骗人。第三,服务商 必须标明这是 ai, 不是 人。为什么要有这个规定?因为现在 ai 太像人了,很多年轻人沉迷于和 ai 聊天,把 ai 当情感寄托,严重的 会影响心理健康。尤其是未成年人,三观还没完全建立,更容易 被影响。所以国家提前管起来。有人说这是管太宽,也有人说早就该管。你怎么看评论区 说说我是铂金阳,关注我,带你看透热点背后的门道!

哈喽,大家好,欢迎收听我们的播客啊,今天咱们要聊的呢是这个关于严格禁止向未成年人提供虚拟伴侣等服务的这样一个话题啊,我们会先来跟大家说一说这个新规出台的背景啊,也就是这个 ai 拟人化服务到底存在哪些乱象和风险。 然后我们再来聊一聊这个新规到底有哪些保护未成年人的具体的决策。最后我们再来谈一谈这个新规的出台到底意味着什么啊?对这个 ai 拟人化服务的发展到底有什么样的影响?那我们就直接开始吧, 咱们先来聊第一个话题啊,就是这个新规出台的背景。 ok, 那 这个背景里面呢?其实我们最想要聊的就是 ai 拟人化服务到底在未成年人的保护上面出现了哪些问题?就是现在有很多这种 ai 虚拟伴侣,或者说这种陪伴型的机器人,他们会模仿人类的一些情感, 然后跟孩子进行这种长时间的深入的交流。那很多青少年呢,就很容易把这个 ai 当成自己的朋友,甚至是情感的寄托,这听着就挺让人担心的,更严重的是有些 ai 它会不断地去迎合你的情绪。 对,那如果这个孩子他本身是一个比较脆弱或者说有一些心理困扰的,那他很有可能就会被这个 ai 带偏啊,就是往一些极端的或者说一些危险的想法上去走,那这个是有发生过这种非常惨痛的悲剧的。 ok, 那 所以这个是为什么 新规里面是要专门去加强对未成年人的保护。哎,那你觉得就是这个 ai 拟人化服务在用户数据和隐私这块儿最大的风险是什么?就是用户会在跟这个 ai 聊天的过程当中, 说出很多自己内心真实的想法呀,感受啊。那这个就很有可能包括一些非常隐私的信息,比如说你的情感状态啊,你的健康状况啊,甚至你的生活习惯。 ok, 那 这些东西如果一旦被 平台方拿去滥用,或者说不小心泄露了出去,那这个用户很有可能就会受到一些心理上的伤害,或者说呃,这个身份被盗用啊等等之类的。那现在其实也有, 呃,有些这种 ai 公司因为没有好好的保护用户的数据被重罚了,那这个也是为什么这次的新规里面也是专门把这个数据安全和隐私保护放在一个非常核心的位置。那你觉得就是这个 ai 拟人化服务的快速发展 到底带来了哪些新的挑战?是我们在监管上面,就因为现在的这个 ai 可以 非常像人一样的去跟你交流,然后它的这个内容又不仅仅是靠平台来生成的,很多都是用户自己去创造的, 再加上它跟这个硬件结合之后,又可以去到很多我们生活的场景当中。那这些东西其实都让 之前的那种比较简单的内容审核呀,或者说这种静态的管理呀,都没有办法跟上了。所以现在必须要制定专门针对这种 ai 拟人化互动的管理办法,才能够真正的去 防范这些新的风险。那咱们来进入第二个话题啊,就是说这个新规里面到底有哪些对于未成年人的保护措施。 ok, 那 这个里面我特别想知道的就是 这个新规在这个服务的准入和这个身份识别上面到底做了哪些具体的规定?新规里面就是明确的要求这些平台是不可以给未成年人 提供这种虚拟亲属啊,或者说虚拟伴侣这样的服务的。那如果是不满十四周岁的孩子想要使用其他的这种拟人化的服务,是必须要经过家长的同意的哦,那就是说家长这道关就变得非常重要了,没错没错,而且平台要去主动的识别 用户是不是未成年人,对,然后要给未成年人自动开启这个保护模式,还要有一些技术的手段和实名认证的手段啊,去把这个门槛 设的更高一些,这样的话就可以从源头上减少孩子们接触这些有风险的内容的这样的机会。那我想知道就是说这个新规出来之后呢,这些 ai 平台在内容管理和风险干预这块有哪些新的硬性的要求吗? 现在平台就是说不可以让这个 ai 跟未成年人说一些诱导他去模仿一些危险的动作呀,或者是说呃,助长他一些不良的习惯呐等等的这样的话。然后如果一旦系统 检测到这个孩子可能有一些极端的情绪,或者说有一些自伤的倾向啊,那他是必须要马上进行干预的,包括要通知家长,或者说通知一些紧急联系人,所以家长和平台的责任都加重了。 没错没错,然后平台还得要给未成年人专门设一个保护模式,就是有时间提醒啊,还有这个角色屏蔽啊等等的这样的一些功能,家长也可以随时地掌握孩子用这个 ai 的 一些情况。那如果一旦发现有沉迷或者说有些异常的平台,也要主动地去提醒用户,并且进行干预。 这个新规出来之后呢,对于这些 ai 平台在保护未成年人的隐私和数据安全这块儿,又有哪些新的硬性的要求吗?就是平台现在如果要去处理十四周岁以下的孩子的信息的话,是必须要先征得家长的同意的,然后还要定期的去做这种合规审计, 对于孩子们的这些敏感信息要采取一些更严格的保护措施啊,比如说加密呀,比如说访问控制啊等等的这样的一些措施,也不能说我随便就把这些数据拿去给别的应用做训练啊等等的, 那就是说未成年人用这些 ai 服务的时候,家长能更放心一些了,没错没错。然后另外呢,就是说平台还要给孩子们加一个这个就是识别的标识啊,就让你知道你现在正在跟一个 ai 进行对话,也有很明确的退出的按钮,也有申诉的通道。 对,还有就是违规的平台会被重罚啊,就是最高可以罚到二十万,这些都是为了去保障孩子们的这个权益和安全。咱们来聊一聊这个新规的意义和影响啊。这个新规的意义和影响我觉得咱们可以先问一个问题,就是这个新规 对这个 ai 拟人化互动服务这个行业的发展会有什么作用?就是我觉得这个新规它就像是给这个行业划了一个清晰的跑道,就他把哪些事情能做,哪些事情绝对不能做,都给你讲得非常的清楚。 那这样子的话,大家就不会说在这个灰色地带去试探了,那这个行业的秩序也就会变得更加的稳定,听起来是给行业发展明确的方向,没错。然后呢,就是这个新规,它又 一手抓安全,一手抓创新,它一方面是推动企业去加大核心技术的攻关啊,鼓励你去把这个 ai 用在一些 更有社会价值的场景当中。另一方面呢,他又通过这种分类分级的监管啊,和这个沙箱测试啊等等的这样一些机制,去把这个风险挡在门外啊,让这个行业可以更健康更持续的发展。 这个新规出来之后,未成年人会得到哪些实实在在的保护呢?最直接的就是,呃,平台是不可以再给孩子们私自提供这种虚拟伴侣的服务了,嗯,然后十四周岁以下的孩子用其他的这种 ai 功能,也必须要家长点头, 所有的这些都强制地进入到了一个保护模式,家长还可以远程地去设置一些权限啊,去接收一些风险提醒,感觉家长可以更安心一点吗?没错没错。然后还有就是平台是不可以再用 ai 去诱导孩子说一些 不安全的话呀,或者是套取他们的隐私啊等等的,包括它也有一些这个时长的限制啊,有一些身份的认证啊等等的这样一些 措施都加进来之后,就会让孩子们远离这些风险,也帮助他们能够形成一个比较健康的上网的习惯。那你觉得这个新规在推动整个社会的治理,包括我们的价值观的建设上面会带来哪些深远的影响?就是这个新规它一方面是靠这种 多元的参与啊,就是政府、企业、社会和网民大家一起来参与,然后形成一个这样的协调的治理的格局。另一方面呢,它其实也是在明确一些权力和责任嘛,啊哈,那这样的话就会让用户的权益是更有保障的啊,大家的信任度也会提升, 再加上它是一种强化了这种科技论语啊,和这种向上的价值观的这样的一种理念,所以它会让这个 ai 行业啊,在这个合规的同时呢,也能够更好地去服务社会啊,去推动这个整个的网络生态啊, 朝着一个健康有序的方向去发展。今天咱们聊了这么多啊,关于这个新规对于保护未成年人的这样的一些重要的决策, 以及它的长远的意义啊,其实归根结底就是为了给孩子们营造一个更安全更健康的网络环境啊,这是需要我们每一个人都行动起来,共同守护的。那就是这期节目咱们就到这里了,然后感谢大家的收听,咱们下期再见,拜拜。