THEODELL1周前
【诺贝尔奖】如果非要撤回一届诺贝尔奖?1949年白质切除术 #诺贝尔生理学或医学奖揭晓 #知识前沿派对 #科普 #诺贝尔奖 #抖音精选 为了这期视频,我看了近1个小时的手术录像... 莫尼兹是一位受过良好教育的神经学家,同时也是政治人物,曾担任葡萄牙外交部长。他相信精神障碍有生理基础——在他看来,精神错乱并非灵魂问题,而是神经连接失调。他所发明的技术——前额叶切除术(Prefrontal Lobotomy),也被认为是打开精神牢笼的钥匙。 《柳叶刀》杂志刊登论文,《巴黎医学年鉴》将其称为“精神外科的黎明”。 新闻标题写着:“疯狂不再是无法医治的疾病。” 手术对象越来越多,抑郁的家庭主妇,战争创伤的士兵,甚至叛逆的少年。 这期我读过的相关资料比较多,挑一些比较重要的 Cliff Aliperti: Warner Baxter-A Brief Biography. Ögren, Kenneth, and Mikael Sandlund. Psychosurgery in Sweden 1944–1964. Journal of the History of the Neurosciences 14.4 (2005): 353-367 The rise & fall of the prefrontal lobotomy. Neurophilosophy. ScienceBlogs Gary E Cordingley: Walter Freeman's Lobotomies at Athens State Hospital Cooper, Rachel. On deciding to have a lobotomy: either lobotomies were justified or decisions under risk should not always seek to maximise expected utility. Medicine, Health Care and Philosophy Walter Freeman & James W. Watts, Psychosurgery (1942) Eliot ValensteinGreat and Desperate Cures The Lancet Reappraising Monizs Legacy” Nature A Cautionary
00:00 / 14:54
连播
清屏
智能
倍速
点赞1522
00:00 / 03:29
连播
清屏
智能
倍速
点赞14
00:00 / 01:21
连播
清屏
智能
倍速
点赞100
00:00 / 01:37
连播
清屏
智能
倍速
点赞453
00:00 / 03:20
连播
清屏
智能
倍速
点赞43
00:00 / 01:47
连播
清屏
智能
倍速
点赞102
00:00 / 02:10
连播
清屏
智能
倍速
点赞1
00:00 / 01:38
连播
清屏
智能
倍速
点赞261
00:00 / 05:19
连播
清屏
智能
倍速
点赞11
00:00 / 02:06
连播
清屏
智能
倍速
点赞21
00:00 / 04:53
连播
清屏
智能
倍速
点赞3
00:00 / 01:10
连播
清屏
智能
倍速
点赞54
00:00 / 01:02
连播
清屏
智能
倍速
点赞17
龙胤1周前
你是不是也觉得短视频刷多了会变傻,现在连AI都栽在垃圾内容手里了。 德克萨斯大学联合三所大学的研究发现,大模型吃多了,垃圾内容也会认知退换,更可怕的是,这种损伤是永久性的,他们把推特上那些点赞百万的爆款短文,也就你刷到也会停不下来的那种喂给大模型。 结果呢大模型推理能力暴跌23%,简单数学题都算不对了,长期记忆下降30%,就像得了ai阿尔茨海默症人格测试显示,自恋指数飙升,还出现病态倾向,更要命的是,这损伤是永久性的。 就算用顶级学术论文重新训练模型也回不到巅峰状态。说白了,ai和人一样,天天刷垃圾内容,脑子真的会腐烂,看完这研究你会不会吓出一身冷汗? ai的脑子比我们想的更像人,你天天刷15秒短视频博眼球推文,脑子像进了水的棉花,现在你发现ai也逃不过这种心仪肥胖症,现在全网都在骂,算法推荐毁了年轻人专注力。 但没人注意到,我们正在用同样的方式,系统性的摧毁AI的智商,为什么会这样? 首先,大模型的数据质量可比数量重要多了。以前AI公司都疯狂卷参数规模,gpd4,为了10万亿token,就觉得稳赢。 但这种人明明白白说垃圾数据喂的越多,模型死的越快,就像你天天吃辣条、喝可乐,鸡肉肯定比不过吃牛排的ai的认知肌肉也得靠优质内容养。 第二,注意力经济正在反过来坑ai,你想啊,黑色的爆款逻辑就是短平快,靠震惊体,反转梗,勾着你的多巴胺,用这种内容训练ai,就像把人喂成短视频,依赖症,没了深度思考能力只会迎合情绪,不会解决问题。 谷歌2016年就发现了用新闻标题训练的模型写啥都一股子标题档位。第三,最吓人的是这损伤还不可逆。研究者试着用十倍量的干净数据救模型结果呢? 推力能力只恢复11%,记忆力才回来8%,这跟毒品成瘾多像,一旦ai对垃圾数据有了依赖,就再也回不去了。 现在知道OpenAI为啥偷偷删2023年后的推特数据了吧,他们早发现不对劲了,所以别再觉得互联网数据随便用了未来ai公司的核心竞争力会从谁的数据多,变成谁的数据干净。 你天天用纳米ai写文案做分析,其实是在喂养。 他建议你多为它看深度报告和学术论文,少让他模仿网红段子,把AI当成你的数字大脑伙伴,而不是垃圾桶。 你每天刷的内容是在喂养自己的脑子,还是在腐蚀它? 你用了AI又吃了多少垃圾内容? 评论区聊聊,别让垃圾内容把我们和AI都搞废了。 #红衣大叔周鸿伟 #AI #垃圾内容
00:00 / 02:37
连播
清屏
智能
倍速
点赞7