00:00 / 01:24
连播
清屏
智能
倍速
点赞5
00:00 / 03:47
连播
清屏
智能
倍速
点赞77
00:00 / 09:16
连播
清屏
智能
倍速
点赞6
00:00 / 01:42
连播
清屏
智能
倍速
点赞0
00:00 / 02:08
连播
清屏
智能
倍速
点赞15
00:00 / 05:18
连播
清屏
智能
倍速
点赞2
00:00 / 03:09
连播
清屏
智能
倍速
点赞4318
00:00 / 04:31
连播
清屏
智能
倍速
点赞8243
任火土2周前
当人工智能的发展方向被权力和资本过度主导,以至于可能损害公共利益时,这确实是一个严峻的挑战。要破解这一困局,需要一套结合价值引领、制度约束、技术赋能和社会协同的系统化方案。 🧭 确立以人为本的治理原则 破解困局的首要前提,是必须在全社会层面确立并坚守“以人为本、智能向善”的核心原则。 * 价值归正:必须明确,人工智能是服务于人的工具,而非相反。这意味着在技术设计中就应嵌入伦理底线,例如“最小伤害原则”,并建立可追溯的伦理影响评估机制。在数据采集和使用上,必须保障个体的知情权、同意权和数据主权。 * 明确伦理底线:为人工智能的研发和应用划定清晰的禁区至关重要。例如,在自动驾驶领域,应通过算法预设“生命权优先”准则;在任何情况下,都必须确保人类拥有对人工智能决策的最终审核权和干预权,防止出现“决策黑箱”或“算法暴力”。 ⚖️ 构建刚柔并济的监管体系 良法是善治的前提。要防止资本无序扩张和技术滥用,必须建立严密且灵活的法律与监管框架。 * 完善法律法规:我国正在这方面持续发力,例如新修改的《网络安全法》就明确要求完善人工智能伦理规范并加强安全监管。未来,可以考虑制定专门的人工智能法,明确各相关方的权利、义务和责任。针对算法歧视、“大数据杀熟”等具体问题,需要完善算法公开、透明和问责机制。 * 实施敏捷与分级治理:监管不应“一刀切”,而应采取“敏捷治理”和“分级分类”的思路。对于医疗、自动驾驶等高风险场景,需实施严格的准入和持续监测;对于中低风险场景,则可采取“监管沙盒”等模式,在可控环境中鼓励创新。同时,建立动态监管和事后响应机制,为技术发展预留空间。 🤖 推动技术本身的向善设计 技术自身也应朝着更透明、可信、可控的方向演进,从底层架构上规避风险。 * 破解“黑箱”难题:需要大力发展可解释人工智能(XAI),让算法的决策逻辑变得可追溯、可理解。同时,建立独立的算法审计和风险评估机制,对人工智能系统进行全生命周期监控。 * 赋能微观个体:普通人也可以提升自身的技术素养,学习基础的算法原理,了解数据如何被收集和使用,从而打破对技术“中立性”的迷思。在面对不公时,可以积极利用现有法律工具(如《个人信息保护法》)维护自身权益。 🤝 鼓励多元主体的协同共治 有效的治理不能仅靠政府,更需要构建政府、企业、行业组织、科研机构和社会公众共同参与的多元协同治理体
00:00 / 03:32
连播
清屏
智能
倍速
点赞1225
00:00 / 01:18
连播
清屏
智能
倍速
点赞8
00:00 / 00:28
连播
清屏
智能
倍速
点赞51
00:00 / 03:48
连播
清屏
智能
倍速
点赞124
00:00 / 00:47
连播
清屏
智能
倍速
点赞NaN