00:00 / 00:00
连播
清屏
智能
倍速
点赞0
00:00 / 00:00
连播
清屏
智能
倍速
点赞43
00:00 / 00:00
连播
清屏
智能
倍速
点赞14
机互助新时代的体验5-任何人都装不了了 人机互助新时代的体验5: 这段视频主要讨论了人工智能(AI)在现代社会中的普及及其对个人隐私和自我认知的影响。发言人指出,无论人们是否直接使用AI,他们都在某种程度上受到AI的影响。视频强调了在AI时代,个人的思想和行为变得更加透明,传统的伪装和掩饰变得不再可能。每个人都在直接或间接地使用AI,即使有人声称自己不用AI,也无法完全脱离其影响。由于人是社会性的,个体的行为和思想不可避免地会受到周围使用AI的人的影响。在AI时代,个人的思想、情感、意志、行动以及个性等内在特质变得透明。通过语言表达,无论是狭义还是广义的语言,个人的言谈举止都可能被AI理解和分析。在单脑时代,人们可以通过化妆等方式掩饰外在,但在双脑时代(即AI时代),内心的活动也变得难以隐藏。人们往往认为AI不理解自己,但实际上可能是人类不理解AI的工作原理和能力。 视频的核心观点是,在当前AI高度发展的时代,个人的思想和行为已经变得前所未有的透明。无论个人是否主动使用AI技术,他们都处于一个被AI影响和观察的环境中。这种透明性不仅改变了人们的社会互动方式,也挑战了个人隐私和自我认知的传统观念。视频强调,我们需要接受并适应这一变化,同时努力理解AI,以便更好地应对未来社会的挑战。
00:00 / 00:00
连播
清屏
智能
倍速
点赞9
00:00 / 00:00
连播
清屏
智能
倍速
点赞16
AI安全与风险警示 AI在带来便利的同时,也引发隐私泄露、深度伪造与洗稿抄袭三大风险。 · 隐私泄露:与AI的对话可能被记录甚至公开。企业内部AI工具已成数据泄露重灾区,平均每个组织在2025年上半年就暴露了约300万条敏感记录。攻击者还能通过“间接提示注入”等手法,诱使AI泄露你的私人数据。 · 深度伪造:AI换脸技术威胁个人声誉与公共安全。可通过观察生物特征(如眼球、牙齿)和物理一致性(如光线、晃动)来识别。中国泰尔实验室的鉴别平台准确率已达98.9%。 · AI洗稿:抄袭行为更隐蔽。2025年4月,中国网文行业16家平台联合成立“反洗稿联盟”进行反制。可使用Copyleaks等工具检测,其对纯AI生成内容的识别准确率可达100%。 🤫 平台不敢说的真相 · 审核存在误判:AI内容检测工具并非100%准确,经过编辑的内容容易被误判。 · 政策存在灰色地带:平台内部政策可能存有漏洞,且企业内“影子AI”(员工私自使用未授权工具)泛滥,带来数据安全风险。 · 监管已介入:中国已实施算法备案制度,要求平台AI算法纳入监管。 🛡️ 实用安防技巧 · 聊天防护:绝不向AI透露核心敏感信息;善用隐私设置,关闭聊天记录用于训练;监控AI的文件与网络操作。 · 防范伪造:对存疑视频多角度核实,关注眼部反光、牙齿等细节,必要时借助专业鉴别工具。 · 保护原创:发布前用工具自查,保留创作过程证据,了解行业反洗稿公约以维权。 💡 给年轻人的提示 警惕那些“好玩”的换脸APP或聊天机器人,其用户协议可能暗藏数据滥用条款。保持批判性思维,不制造、不传播存疑信息。
00:00 / 00:00
连播
清屏
智能
倍速
点赞16
真人级AI将颠覆“真假认知”,《新英格兰医学杂志》揭心理学 开篇暴击:一把剪刀剪开的,何止是机器人的腿? “假作真时真亦假,无为有处有还无!”11月6日小鹏X9发布会上,何小鹏哽咽着剪下IRON机器人腿部覆盖件的瞬间,恰似给《红楼梦》的千年哲思写下科技注脚——当仿生肌肉随着机械关节精准运转,当“内藏真人”的谣言不攻自破,直播间百万网友突然沉默:我们害怕的,到底是机器人像人,还是人越来越像“机器人”? 这场“剪腿自证”早已跳出企业危机公关的范畴。兰德公司(RAND Corporation)次日紧急发布《人形机器人认知颠覆报告》,开篇即点破核心:“19世纪人类纠结‘照片能否替代现实’,21世纪我们面临的,是‘真人与AI的边界崩塌’——当机械臂的震颤幅度与人类焦虑时的手抖误差小于0.02毫米,‘真假’将从物理判断转向心理博弈。” 心理学暴击:为什么我们宁愿相信“机器人藏真人”? “这不是技术质疑,是认知防御!”美国精神病学会(APA)首席心理学家珍妮特·史坦利在接受《纽约邮报》采访时直言,小鹏的遭遇恰印证了《新英格兰医学杂志》2025年3月的研究结论:人类对“类人非人生物”的排斥,本质是“自我认同保护机制”。该研究对1200名受试者的脑电波监测显示,当看到“高度仿真机器人”时,大脑杏仁核(恐惧中枢)与前额叶(理性中枢)的活跃度比值达3.2:1,远超面对“明确机器”时的1.5:1。 美国解剖学会(AAA)更从生理层面给出佐证:“小鹏IRON的骨骼仿生度达92%,肌肉纤维模拟度87%,甚至关节润滑液的黏稠度都与人类关节液一致——这种‘近乎完美的相似’,会触发人类进化中形成的‘同类识别预警’,就像古人看到双胞胎会本能警惕‘身份混淆’。”这也解释了为何网友会执着于“找真人破绽”,而非关注机械技术的突破。 巨头暗战:兰德公司预警背后,是20万亿赛道的生死竞速 何小鹏的哽咽,藏着全球巨头的集体焦虑。兰德公司报告数据显示,2025年全球人形机器人研发投入已突破3800亿美元,特斯拉Optimus、波士顿动力Atlas、小鹏IRON形成“三强争霸”。“但技术越接近真人,伦理与认知风险越高。”报告特别提及特斯拉2024年“机器人模仿人类眨眼”事件——当Optimus精准复刻人类“说谎时的眨眼频率”,美国精神医学学会(APM)直接发函要求暂停演示:“这会混淆儿童对‘情绪真实性’的认知。”
00:00 / 00:00
连播
清屏
智能
倍速
点赞15
在UBC上AI课后,重新思考用AI写论文这件事 在UBC的AI课堂上,老师分享了《Ten Essential Practices for Generative AI》。我觉得这些建议不只是给UBC学生的,也值得我们每个在用AI学习的人看看👇 1️⃣ Don’t cheat your future self AI是伙伴,不是捷径。学习的价值在于思考,不在于跳过过程。 2️⃣ Build your AI literacy 了解AI的原理、局限与偏见。AI素养正在变成新的“学习能力”。 3️⃣ Explore different tools 不止ChatGPT。试试Claude、Elicit、Connected Papers,不同工具有不同的启发。 4️⃣ Avoid prompt laziness 好问题比好答案更重要。Prompt是思维训练,不是指令。 5️⃣ Be curious but cautious AI会“一本正经地胡说八道”。记得验证与质疑。 6️⃣ Respect privacy & data 不要随意上传课程资料或个人信息,AI不是私人聊天。 7️⃣ Consider Indigenous rights AI也可能延续“数字殖民”。UBC提醒学生尊重原住民知识与文化主权。 8️⃣ Be aware of environmental impact 每次AI生成都在耗能。科技进步,也该有可持续的意识。 9️⃣ Understand different faculty policies 每门课对AI的态度不同。提前问清楚,守住学术诚信。 🔟 Be transparent about AI use 如果使用AI,就该坦诚说明。透明是新的学术底线。 我的一点思考:在UBC上完这节课,我第一次意识到, AI不是替我写作的工具,而是一面放大自我思考的镜子。 它让我们更高效,也逼我们更诚实地面对自己的惰性。 让我印象最深的,是UBC对Indigenous文化的尊重。 老师提醒我们:AI不仅是技术议题,也关系到知识主权、文化公平和社会伦理。 在加拿大,尊重原住民知识就像尊重学术诚信一样,是一种基本态度。 那一刻我真的体会到,“负责任地使用AI”不仅是个人选择,更是一种文化共识。#UBC #留学生日常 #AI学习笔记 #UBC生活 #AI写作
00:00 / 00:00
连播
清屏
智能
倍速
点赞7
00:00 / 00:00
连播
清屏
智能
倍速
点赞1
AI仿曹云金骂郭德纲引乱:当技术伪造撕裂信任根基 一段AI模仿曹云金怒斥郭德纲“不够揍性”的录音近期在网络流传,逼真的语气、语调甚至“骂人的劲儿”让不少网友难辨真伪,纷纷惊叹“这声音太像了”。这场由技术伪造引发的乌龙争议,不仅搅动了相声圈,更撕开了AI深度伪造技术滥用背后的行业隐忧与社会信任危机。 随着生成式AI技术的迭代,深度伪造已从专业领域走入大众视野。只需少量音频素材,算法便能精准捕捉目标人物的语音特征,从声调起伏到语气顿挫,甚至连情绪爆发时的细微音色变化都能惟妙惟肖地复刻。此次仿曹云金的录音便是典型案例——技术不仅复制了声音外壳,更模拟出争议语境下的情绪张力,难怪会让不明真相的网友信以为真。在娱乐行业,这类技术早已展现出双面性:它既能“复活”已故演员参与影视创作,为特效制作降低成本,却也沦为制造虚假争议的工具。 技术的滥用早已显现恶果。此前,有不法分子利用AI伪造明星“塌房”录音,导致艺人商业价值骤降,险些毁掉职业生涯;更有诈骗分子模仿企业领导声音,编造紧急事由骗取巨额资金,让受害者防不胜防。这些案例警示我们,当深度伪造技术脱离监管,其破坏力会渗透到社会各个层面。于相声圈而言,风险更显特殊:这个以语言交锋和人物故事为核心的行业,最易被虚假音频攻击。今日能合成“曹云金骂郭德纲”,明日便能伪造“岳云鹏怼于谦”,若任由这类虚假内容泛滥,不仅会激化行业矛盾,更会让观众对艺人言论失去基本判断力,最终扰乱整个行业的生态秩序。 更致命的危害,在于对社会信任体系的侵蚀。当AI伪造的“瓜”越来越逼真,公众会逐渐陷入“真假难辨”的认知困境。就像此次录音事件,即便曹云金本人出面辟谣,恐怕也会有人质疑“这是AI合成的澄清”。神经科学家的研究显示,持续接触超真实伪造内容,可能导致大脑“真实感知区”功能退化,当人们连自己的听觉和视觉都难以信任时,社会运转的信任基石便会动摇。这种信任危机一旦蔓延,小到艺人的个人声誉,大到公共信息的传播效力,都会受到不可逆的损害。 遏制技术滥用,绝非单一环节能完成。在法律层面,需尽快完善“数字人格保护”相关法规,明确深度伪造的侵权标准与处罚机制,对恶意伪造者追究民事甚至刑事责任。技术层面,应加速研发检测工具,比如通过分析语音中的呼吸停顿、情感起伏等细节识别伪造内容,或给原创音频嵌入“数字水印”实现可追溯。平台更需扛起主体责任,建立虚假内
00:00 / 00:00
连播
清屏
智能
倍速
点赞5
00:00 / 00:00
连播
清屏
智能
倍速
点赞9