00:00 / 06:52
连播
清屏
智能
倍速
点赞273
应用统计 应用统计数学是现代科学研究和实际决策中的重要工具,它通过数据的收集、整理、分析和解释,帮助人们从复杂的信息中提取规律,为科学决策提供依据。 统计数学的基础理论主要包括概率论和数理统计。概率论研究随机现象的规律性,为数理统计提供了理论基础;而数理统计则侧重于如何利用样本数据对总体进行推断和预测。在实际应用中,统计方法通常分为描述性统计和推断性统计两大类。描述性统计通过图表和数值指标对数据进行概括和呈现,帮助人们直观理解数据的分布特征。推断性统计则通过抽样分析,利用参数估计、假设检验、回归分析等方法,从样本数据推断总体特征,并对结论的可靠性进行评估。 回归分析是应用统计数学中的重要方法之一,它用于研究变量之间的依赖关系。线性回归是最基础的回归模型,通过拟合一条直线来描述自变量和因变量之间的线性关系。在实际问题中,变量之间的关系往往是非线性的,因此非线性回归模型也得到了广泛应用。此外,多元回归分析可以同时考察多个自变量对因变量的影响,应用广泛。 时间序列分析是另一个重要的统计分支,专门用于处理按时间顺序收集的数据。时间序列数据广泛存在于经济、金融、气象、工业生产等领域。通过时间序列分析,可以识别数据的趋势性、季节性和周期性,并建立预测模型。常见的模型包括移动平均模型、自回归模型以及两者的结合——自回归移动平均模型。实验设计是统计数学在实际应用中的另一个关键领域。它通过科学地安排实验,控制干扰因素,确保实验结果的可靠性和有效性。完全随机设计、随机区组设计、因子设计等都是常用的实验设计方法 统计质量控制是统计方法在工业生产中的典型应用。它通过控制图、过程能力分析等工具,监控生产过程的稳定性,及时发现并消除异常因素,确保产品质量的一致性。在医学和生物学领域,统计方法的应用同样至关重要。生存分析用于研究患者的生存时间及其影响因素,广泛应用于癌症研究、药物疗效评估等。 统计方法在经济学和金融学中的应用尤为广泛。计量经济学将统计方法与经济理论相结合,用于建立和验证经济模型。时间序列分析、面板数据分析、协整分析等都是计量经济学中的重要工具。在金融领域,统计方法被用于资产定价、风险管理、投资组合优化等。随着计算机技术的发展,统计计算和统计软件的应用极大地推动了统计数学的普及和发展。大数据时代的到来为统计数学带来了新的机遇和挑战。传统统计方法通常基于样本数据,而大数据分析则能够处理全量数据
00:00 / 03:02
连播
清屏
智能
倍速
点赞4
00:00 / 08:47
连播
清屏
智能
倍速
点赞6
随机试验法 随机试验法作为一种科学研究的核心方法,在统计学、医学、工程学乃至社会科学等领域发挥着不可替代的作用。其本质是通过可控条件下的重复操作,观察结果的变化规律,从而揭示事物之间的因果关系或概率分布特征。 随机试验法的理论基础。随机试验法的数学根基源于概率论。随机试验需满足三个基本特征:可重复性(在相同条件下能多次实施)、结果明确性(每次试验有且仅有一个确定结果)、不可预测性(单次试验结果具有不确定性)。例如投掷硬币,虽然每次结果非正即反,但具体哪一面朝上无法提前预知。这种不确定性恰恰是概率研究的起点。 法国数学家拉普拉斯提出的古典概型,为随机试验提供了早期量化工具。当试验所有可能结果构成有限且等概率的样本空间时,事件概率可通过有利结果数与总结果数的比值计算。而随着伯努利大数定律的发现,人们认识到当试验次数趋近无穷时,事件频率会稳定收敛于理论概率,这为通过有限试验逼近真实规律提供了理论保障。 方法实施的关键步骤。规范的随机试验需遵循严格的流程设计。首先需要明确定义研究目标,如验证新药疗效或测试材料强度。接着构建试验环境,确保除目标变量外其他条件完全受控——这是区分因果性与相关性的关键。样本量计算是另一核心环节。根据中心极限定理,当样本量足够大时(通常n≥30),样本均值分布近似正态分布,这使得统计推断成为可能。实践中可采用功效分析确定最小样本量,以保证检测到预期效应。 随机试验法并非万能钥匙。当研究对象涉及复杂系统(如气候变化研究)时,难以构建完全受控的试验环境。此时需要结合观测性研究和计算机模拟进行三角验证。此外,量子力学中的贝尔实验证明,在微观粒子层面存在超越经典概率的关联性,这提示我们概率论本身也可能需要范式革新。 随着物联网技术的发展,连续随机试验成为可能。智能设备能实时采集个体行为数据,通过强化学习算法动态调整干预策略。这种"始终在线"的试验模式正在重塑消费品优化、健康管理等领域的研发流程。但随之而来的隐私保护和算法透明度问题,也需要建立新的伦理框架加以规范。 从抛硬币到基因编辑疗效验证,随机试验法历经三个世纪的演进,始终保持着"用不确定性理解确定性"的哲学智慧。在可预见的未来,它仍将是人类探索未知世界最可靠的罗盘之一,而其本身也将随着科学实践的发展不断丰富方法论内涵。正如统计学家费希尔所言:"试验的本质,就是带着问题去观察自然,但必须让自然以它自己的语言作答。"
00:00 / 02:23
连播
清屏
智能
倍速
点赞2
统计推断 统计推断是现代统计学中的核心概念,它通过样本数据对总体特征进行科学推断,广泛应用于科学研究、经济分析、社会调查等领域。统计推断主要包括参数估计和假设检验两大部分,其理论基础建立在概率论之上,通过随机样本的观察结果,对总体参数或分布形式作出合理推断。 参数估计是统计推断的重要组成部分,分为点估计和区间估计两种方法。点估计通过构造统计量来估计总体参数,如样本均值作为总体均值的估计。常用的点估计方法包括矩估计法和极大似然估计法。矩估计法通过样本矩与总体矩相等的原理建立方程求解参数估计值,计算简便但效率有时较低。极大似然法则通过最大化似然函数寻找最可能产生观测数据的参数值,具有优良的统计性质,在大样本情况下尤为有效。区间估计则给出参数可能取值的一个范围,如置信区间,反映了估计的精确度和可靠程度。95%的置信区间意味着在重复抽样中有95%的区间会包含真实参数值。区间估计不仅给出参数的可能取值,还提供了估计的精确程度,比点估计包含更多信息。 假设检验是统计推断的另一重要分支,其基本思想是小概率反证法。先提出原假设和备择假设,然后构造检验统计量并根据抽样分布确定拒绝域。当检验统计量落入拒绝域时,就拒绝原假设。假设检验过程中可能犯两类错误:第一类错误是原假设为真时拒绝原假设,第二类错误是原假设为假时接受原假设。显著性水平α控制第一类错误的概率,而检验功效反映正确拒绝错误原假设的能力。常见的假设检验包括t检验、F检验、卡方检验等,适用于不同数据类型和研究问题。在实际应用中,p值是一个重要指标,表示在原假设成立的情况下,观察到当前样本或更极端情况的概率。p值越小,反对原假设的证据越强。 统计推断的有效性依赖于若干基本假设,其中最重要的是随机抽样。只有当样本是总体的随机代表时,推断结果才具有普遍意义。此外,样本量的大小直接影响推断的精确度,大样本通常能提供更可靠的结论。 随着计算机技术的发展,统计推断方法也在不断创新。Bootstrap方法通过重复抽样模拟抽样分布,适用于复杂模型的统计推断。贝叶斯统计推断将先验信息与样本信息结合,通过后验分布进行统计决策。这些新方法丰富了传统统计推断的内容,提高了处理复杂数据的能力。在大数据环境下,高维数据推断、分布式计算等成为研究热点,统计学家正在开发适应新时代需求的推断方法。同时,统计推断也面临数据质量、算法偏差等挑战,需要不断完善方法论体系。
00:00 / 02:52
连播
清屏
智能
倍速
点赞1
袁岚峰3天前
锚点 | 从0到99%,中国科学家怎么做到的? 袁岚峰:你们的核心指标叫单光子探测效率 这个指标到底是什么意思 尤立星:效率是这样一个定义 我们可以假设 有一百个光子一个一个过来 我能够探测到多少个 比如我能探测到九十个 那我的效率就是百分之九十 我们这个领域的发展 就是从刚开始 可能百分之几的探测效率 然后想办法 就是搞清楚 为什么那些光子没有被探测到 然后我们在探测器端 我们怎么样来把这些问题 把这个原因 一个一个找到 一个一个去解决 我们是从2007年开始相关的研究 花了差不多十几年的时间 在2017年左右我们几乎做到了 百分之九十这样的效率 后面我们再持续努力 在光通讯的1550纳米这个波段 我们现在最好的效率 能做到百分之九十九 这也就意味着 一百个光子一个一个来了 我只漏掉了一个 袁岚峰:那这个算是在国际上最先进的吗 尤立星:对 这是现在国际上报道的一个 最好的结果 袁岚峰:那其他国家的水平怎么样 尤立星:我们在达到(百分之)九十九的 这个测量结果之前 其实一个重要的里程碑 是在2020年 2020年我们首次实现了 百分之九十八的 这样一个探测效率 我们的文章发表了之后 大概两三个月 一个是美国的报道 美国的NIST(国家标准与技术研究院) 的结果 然后还有一个是荷兰的团队 结果是基本上同期 大家都达到同样的水平 差不多都是百分之九十八的 这样一个效率 袁岚峰:所以从2020年以来 你们的进步就是从百分之九十八 提升到百分之九十九 尤立星:对 就是花了很多年 其实只提升一个点 但往往很多时候一个点也很重要 袁岚峰:那当然 因为到了最后这几个(百分点) 难度就是指数级的增长 一束光最弱能弱到什么程度?答案是一个光子。因为光是由光子组成的,如果连一个光子都没有,就没有光了。 中国科学技术大学潘建伟院士团队2020年发布的“九章”光量子计算机,对“玻色子取样”问题超越最强的经典计算机,其中的核心技术之一就是大量的单光子探测器。 中国科学院上海微系统与信息技术研究所副所长尤立星博士,就是九章单光子探测器的提供者,他们在低温电子学与超导纳米线单光子探测方面达到了国际领先。 《锚点》节目中国科学技术大学科技传播系副主任袁岚峰对话尤立星研究员,东方卫视10月15日播出。本片为精彩片段之一。#知识前沿派对 #光子 #单光子探测 #探测效率 #超导
00:00 / 03:33
连播
清屏
智能
倍速
点赞333
00:00 / 02:27
连播
清屏
智能
倍速
点赞21
00:00 / 40:21
连播
清屏
智能
倍速
点赞1
00:00 / 18:35
连播
清屏
智能
倍速
点赞14
格上拓扑学 格上拓扑学是数学中一个新兴的研究领域,它结合了格论与拓扑学的基本概念,为研究不确定特征的形式化提供了新的工具。这一理论不仅在数学基础研究中具有重要意义,还在计算机科学、逻辑学以及人工智能等领域展现出广泛的应用前景。 格上拓扑学的基本概念。格是一种特殊的偏序集,其中任意两个元素都有唯一的最小上界(并)和最大下界(交)。格论在数学的多个分支中都有重要应用,如代数、逻辑和计算机科学。而拓扑学则研究空间的性质,特别是那些在连续变形下保持不变的性质,如开集、闭集、连通性和紧致性等。格上拓扑学将这两种理论结合起来,研究如何在格结构上定义拓扑,并探讨其性质。具体来说,格上拓扑是指在格上赋予某种开集结构,使得格中的运算与拓扑结构相容。例如,斯科特拓扑就是一种重要的格上拓扑,它在计算机科学的域理论中有重要应用。斯科特拓扑关注的是格的定向完备性,即任何有向子集都有上确界,并且开集对定向并运算封闭。 格上拓扑学的应用。一、不确定特征的形式化研究。在现实世界中,许多现象具有不确定性,如模糊性、随机性或部分信息缺失。传统的集合论和经典拓扑学难以精确描述这些不确定特征。格上拓扑学通过引入更灵活的格结构,使得我们可以用更一般化的方式刻画不确定性。例如,模糊拓扑学可以视为格上拓扑学的一个特例,其中格的结构由模糊集的隶属度决定。二、计算机科学与域理论,在计算机科学的语义分析中,程序的行为往往涉及部分信息或无限计算。斯科特拓扑提供了一种描述程序近似计算的方式,使得我们可以研究递归定义和不动点语义。例如,在λ演算和函数式编程语言的理论中,斯科特拓扑帮助建立了程序的指称语义模型。 三、逻辑与人工智能,在非经典逻辑(如直觉逻辑、模态逻辑)中,格上拓扑学为语义解释提供了新的框架。例如,在直觉逻辑中,命题的真值可以看作格中的元素,而拓扑结构则用于刻画逻辑推理的连续性。在人工智能的不确定性推理中,格上拓扑学可以帮助建立更灵活的推理模型,以处理不完全或矛盾的信息。 格上拓扑学作为一门新兴的交叉学科,不仅丰富了数学理论,也为其他学科提供了新的研究工具。随着研究的深入,它有望在不确定性建模、计算理论和智能系统等领域发挥更大的作用。未来,数学家、计算机科学家和逻辑学家的合作将进一步推动这一领域的发展,使其成为现代数学与应用科学的重要支柱之一。
00:00 / 02:34
连播
清屏
智能
倍速
点赞17