各位实测四款国产 ai 代码工具,只给结论,通易领马阿里云出品,后端工程墙适配云生态文心快码百度出品设计转前端高效规范,首选 codebody。 微信生态适配王小程序开发真香! mascode 自洁清亮插件,个人免费超快选型直击后端选零码,前端选快码,微信选 codebody, 个人选 mascode。
粉丝47获赞289

有没有人不知道豆包、 dipic 千问到底有啥区别的?今天一条视频讲清楚谁适合用,谁用来干什么,看完直接选对啊!先给大家说明一下,三款都是正儿八经的国产大模型,只是擅长的领域完全不一样。 豆包适合普通人,像日常聊天短视频,博主,文案创作,轻松互动就选豆包,好用,接地气,上手零难度。 deepstack 适合学生做数学题,搞科研,写论文,做数据分析程序员,写代码也可以啊,主打一个逻辑强,推理稳,专业度高。 那千万适合打工人,办公族,做 ppt, 写周报,写邮件,做翻译,偏商务风,是一个办公效率神器。工作场景呢,直接去冲阿里也在千万打造了阿里的生态,加入啊,像高德某宝支付的体系。 总结一下,日常聊天做内容,选豆包,科研教学写代码,选 deepstack, 办公文档,做 ppt 选千问,不用再乱试了啊,根据自己的需求直接选,效率翻倍。

大家好,欢迎来到今天的分享。在我们开始之前,我想问大家一个问题,如今我们使用的像豆包啊,千万插的 gpt、 bot 这些强大的单元模型,它背后最核心的技术是什么, 想必这个大家都清楚,没错,就是我们今天要深入探讨的 transformers 架构。今天啊,我们 不知停留在理论层面,我们将一起手搓一个穿梭阀门,我们会从最底层的原理 一步一步揭开它的什么面纱,同时啊,我们用记 pad 代码将它一步步实现出来,这样的话, 这就不仅是一次知识的学习,更是一次动手能力的挑战。准备好了吗?让我们一起开启这场深入 transformer 心脏的探索之旅。 那在 transformer 出现之前,我们处理文本这类系列问题主要依赖的是 r n, 也就是循环神经网络,它就像一个复读机,就是一个词一个词的处理句子。 那那这种处理方式就带来两个致命的问题,第一个就是串行计算效率比较低下,想象一下,你要排队过安检一次,只能过一个人,就阿安处理句子也是一样, 必须等前一个词处理完才能处理下一个。这在数量巨大的今天,训练速度简直是灾难, 同时 gpu 强大的这种病情侦测能力也完全被浪费了,所以它迅模型训练速度极慢。第二个就是长距离依赖信息丢失, 就像传话游戏一样,一句话从第一个人传到最后一个人,内容早就变味了。 r n 在 处理长句子时,开头的信息在不断传递过程中也会逐渐衰竭丢失,结果就是模型可能读到句子末尾时,已经忘记开头的主语是什么了。 这两个问题就是 r n 的 这个包括神经循环,神经网络的两个核心的瓶颈。那针对这样一个问题, 就是为了解决 r n 的 困境,是一七年,谷歌就发表了一篇划时代的论文,标题非常霸气,叫 attention is all your need。 这篇论文它提出了一种全新的架构,就是我们今天的主角 transformer, 它彻底抛弃了循环结构,完全基于注意力机制。 那这意味着什么?意味着模型在处理句子中的任何一个词时,就能像拥有上帝视角一样,看到句子中所有其他词的信息,并计算出它们之间的关联。 这带来了革命性的这种变化。这种优势第一个就是高度并行计算, 所有词的处理可以同时进行训练,效率成指数级的提升。第二个是大局依赖,直接建模,任何两个词之间的距离都是一,完美解决了长距离依赖的问题。 那下面这个就是 transformer 的 经典结构图,我们这个地方是呃,只拿它的编码器解码器双塔模型,这个这样一个视一图, 它采用的一个非常经典的这种编码器解码器这样一个结构啊,它本质就类似一个专业的翻译官。 左侧的这个编码器 encode, 负责读懂输入的句子,比如一句英文,他会把这句话的意思转换成一种计算机能理解的,并且是包含全区上下文信息的特征表示。 右侧的是解码器 decode, 它负责根据编码器的理解以及已经生成的部分译文,一个词一个词的生成最终的输出。比如一句中文 整个过程从输入层输入这种词,切入位置编码 到编码器,解码器的层层,这种堆叠,再到最后的输出,构成了一个完整的信息处理流水线。接下来我们将这个深入 这个流水线的核心自主意 志机制,它是创思维的灵魂。要理解它,我们必须先理解三个概念, q、 kv 这样三个概念。这里我给大家一个非常直观的比喻,就像我们查字典啊,这个 q 呢,它就是 q 查询,就是你当前正在看的这个词,你想知道它和句子中其他词的关系, 是个 q。 第二个 k, 它是 k, 是 件句子中所有词的身份标识, 字典中每个词条的标题用于匹配相关性。第三个 value, value 就是 这个词本身包含的信息,词条对应的这种详细解释与信息。那自注意力机制 就是让句子中的每个词作为快语去和所有词的 k 进行匹配,计算出一个相似度的分数,也就是注意力分数。 然后用这个分数作为权重去对所有词的 value 进行加权求和,最终得到的是一个融合大局上下文的上下文信息的全新的词的表示。 那这个匹配和加权求和的过程具体是怎么计算的呢?这就是我们的 scaled dot product addition 这一部分, 它分为五个部分,第一个是计算相似度,就是把 query 矩阵和 q 矩阵的 k 矩阵的转置做点击,这样得到一个分数矩阵。 第二步是缩放,尺度的缩放,就是把分数除以 d k 的 开根号。为什么要这么做?是因为如果维度太高,分数会很大导致。呃,就是下一步会有一个 soft max 韩函数的处理,这个函数饱和梯度消失。 这一步,呃,它的目的是为了稳定训练。第三步是做 mark 掩码, mask 掩码这一步主要是用在解码器中, 是为了防止模型在生成第二个词时偷看到后面的词。我们会用一个掩码把未来位置的分数就是它的注意力,分数变成负无穷。第四步是做 softmax 归一化, 就是通过 selfmax 将分数归一化成权重,再用权重去乘 value 矩阵得到这种最终的。第五步是加权求和,得到这样最终的一个输出。 单一注意力头可能只会关系的或者关注的一种关系。为了让模型更强大,这个 transformer 同时也引入了多头注意力这样一个机制。这就像多个专家会诊, 那我们把 qkv 通过不同的现象变换分成多个头, 每个头独立的计算注意力,有的头可能更关注整个句子的语法结构,有的头可能更关注语义的关系。 这样最后我们把所有头的结果拼接起来,得到一个更全面更丰富的表示。就是这样一步,也是极大的增强了模型的表达力。 那我们刚才说 transform 是 并行处理所有词的,那这意味着它本身并不知道词的顺序。那句子的顺序信息怎么体现呢?答案是位置编码。 我们必须显示地为每个词向量注入它在句子中的位置信息。 这个论文中非常巧妙地使用了正余弦函数来生成位置编码,它能为每个位置的词生成一个独一无二的向量,而且还能表达相对位置关系, 这样模型就能区分出比如是我打你和你打我这两句话的区别了。 乾坤网络是一个相对简单的组建,它就是一个两层的线圈变化,中间加了一个 ruler 激活函数,它的作用是对经过注意力机制 交互后的每个词表示进行一次独立的复杂的非现形变换。我们可以把它理解为在信息交换之后,对每个词的信息进行一次精加工,让模型的表达力更丰富。 那现在我们把这些模块组合起来,就构成了一个编码器层。一个编码器层主要由两部分组成,第一部分是多头自注意力层和一个前馈网络层。 这里有一个非常关键的设计叫做 add and not, 也就是残差连接和层归一化,它的作用是把原始输入和子层的输输出向加,然后进行归一化。 这就像给模型加了一个安全绳,确保信息在深层网络中啊不会丢失。梯度能顺利的回传比,极大的缓解了这种梯度消失的问题。 解码器层就稍微复杂一些,它有三个子层,第一个是掩码,多头自注意力,这里的掩码置换重要, 它确保了生成第二个词时,模型只能看到前面挨见一个词,杜绝了模型作弊的可能。第二个是编码器,解码器注意力, 这是这里的 q 是 来自解码器自己,而 k 和 v 来自编码器的输出。 这就像一个同声翻译员在说话的时候耳朵还能听着原语言,确保自己说的内容与原文保持一致。 第三个同样是前馈网络,这个整个解码器层也遵循着这个 add and non 这样的一个设计原则。 ok, 这个是解码器代码的一个实现,包括交叉注意力。 那最后我们把所有这些模块像大积木一样组装成一个完整的 transom 模型,输入经过嵌入和位置编码, 送入有 n 个编码器层堆叠而成的编码器站,然后信息传递给同样有 n 个解码器层堆叠而成的解码器站,最后通过一个限行层和 softmax 输出最终的预测结果。 那我们回顾一下 transformer, 它的核心优势是什么? 有如下几个优势,第一个是并行计算带来训练效率的革命。第二个是局依赖建模,这个解决了长久以来的信息丢失问题,尤其是对呃这个比较长的段落 文本。第三个是非常卓越的可扩展性,这就使得我们能构建百亿千亿像素的大模型成为可能。 那 transformer 不 仅是一个模型,它更是一种全新的强大的系列处理方式。如今 l p 领域的 g, b, t, 波尔,包括国内的千万 文心等等,这些模型一直到 c v 领域的 v i t, 再到多模态领域的 crp, gbt4, 这些川字方模已经无处不在,它是真正开启了人工智能的大模型时代。 好,我今天的分享到此结束,先讲一下这个 transform 的 原理,接下来我们还会有啊手搓版的实现 transform 代码的部分,敬请大家期待,谢谢!再见!

二零二六年最强的四个 ai 脑替身来了,你还在手工魔尊报抠图查资料吗? 今天不讲原理,直接把我的 ai 插件共享一人!第一个当然是大家都知道的豆包啦,但是它不仅仅是一个聊天软件,它是你的全能感知耳。 早起洗脸时间,你可以问他,帮我检报今天科技圈的大事,或者是开会时几十页的文档,直接喂给他,他可以一句话帮你提炼重点,不废话,他的五秒钟顶你钻研两个小时。第二个呢,是吉梦,这是我的第二个视网膜 审美不够没关系,你只要输出一整段你的指令,十秒钟他就可以给你变出一整套电影级的海报,甚至几秒钟的短视频都可以直接伸出来。普通人,离顶级的摄影师,其实呢,就差一个 app 啦!第三个是组合拳 t t 负责深度,切吻负责广度 p p 是 长文本怪兽,几十万的财报论文,他一眼就能看到底而通一千问呢?逻辑更是稳的一匹,写 ppt 大 纲,改代码、写策划。发现了吗? ai 其实就是你身体的延伸,你的想象力在哪里,它的上限就在哪,这几个软件搜一下就有。现在你最想让 ai 帮你干点啥?

大家好,我,我是老刘蒋钦。我们,我在这个芯片这个行业,现在做数字芯片已经有嗯,五年时间了,其实现在在当前的一个 ai 的 一个时代里面,其实能够极大地提升我们的一个工作效率。 之前像我们其实做这种 r t l 代码设计的话,可能其实对我们的一些 python 或者是 tikocop 是 一些脚本,其实我们都是啊,不太懂的,就是可能自己写起来也比较啊,也比较费时。那现在比如像我们的豆包或者呃谦问,或者一些 deepsea, 其实都能够 帮助我们去开发一些脚本,也极大的提升了我们一个啊,提升我们的一个一一一个脚本能力啊,也要包括我们也会提升我们的一个工作效率。其实希望我们现在 呃可能会写一些那个 r t r 代码嘛,但是这个其实代码里面可能会,哎,我们可能有一些笔误啊,或者一些嗯,各种各样的原因,然后导致我们的一个,哎一个代码写的写的有问题啊,如果是你代码语法直接错误的话,那我们通过这种链接能够一个一个工具,其实我们直接能够 是直接能够啊报出这个问题的错误的。但是比如像我们写的一种情况,哎,就是可能是,呃,我这边去写了一个 case 分 支,但是我没有去写一个 default 啊,其实你说这种的话啊,我们这个是有这个啊,四种情况嘛,其实我们这种这种已经包含完整, 已经包含完了,其实这种其实不写的 bug 分 支的话,其实也没有啊,什么太大的问题,但是其实像我们可能哎这种里面, 哎你写了一个状态机,但是它没有这种 case debug 分 支的话,这样可能就会导致啊,导致出现一些一些问题。但是如果我们去跑这种 int 的 话,其实它检查出来的话都是比较靠后的,而且尤其是我们这种大型的事, 很有可能哎,就是你跑可能都得跑一两个小时,然后可能才能我们才能把这种另一条跑出来,其实是比较耗耗时的,然后发现这种问题,所以呢我们可以借助一些像这种拍腾啊豆包的这个工具,然后我们去给他提 提一些要求,比如说,哎,让豆包帮我去写一个拍腾的脚本,那要求一呢就是我们能够扫描当前目录以及子目录下的所有的一个 点位的一个文件,然后第二的话就是 a, 这个就是我们的核心要求,要求点位后面我们发现 case 没有 default 的 话,其实就会给我们报一报,报一些问题,然后就是提示信息。然后第三个的话,其实就是要求我们扫去扫描到正确的一个文件,就是我们 case 后面有底部的语句, 那我们也让抖爸爸我们打印出来啊,然后,然后,然后我们去做一个这种判断,其实这样的一个好处的话就是,哎我们能够极大的提节省我们的这个时间,哎,不要等这种令可出来之后,然后我们都去发现这个错误啊, 那我们怎么去做呢?首先第一步我们所需要的工具的话,就是第一个就是我们的一个呃 啊拍叉二,其实它是运行我们的一个啊拍弹脚本的,这个只是做一个啊,只是做一个演示,其实我们很多这种开发项目的话,可能都在 linux 系统上,其实这种啊,我们直接在那个 linux 系统下面去执行这个脚本啊,那其实就是啊啊就可以了。 然后这边只是做一个,做一个演示。其实像我们这种豆包啊,豆包我这边去给他写了一个提示词,那就是哎,让豆包帮我们去写一个排堂脚本,然后他能够哎扫描当前目录下的一个文件啊,然后发现这种 case 里面, 嗯没有 dpo 的 去给我们输出一个打印错误的一个信息,然后第三个的话扫描到一个正确文件,也帮我们去打印一个 一个信息,那抖包他就会根据我们的需求去生成一个拍档的脚本。其实我们这个脚本我们都是,嗯,不用去去看或者去分析他的一个语法,或者什么各种各样的一个问题。我们只需要把这个脚本哎复制过来,然后复制到我们的这个 puchm, 然后这个 puchm 的 安装的话,这个网上有很多的一个教程,大家直接安装, 然后我们在这边去创建一个项目,那我们这边我这边的一个项目就已经创建好了。那可能我这边去写了一些啊,一些例子,就是写了一些二 t r 的 锁死了,其实这个也是用豆包去生成的一些点位文件, 那我们其实就是做这个文件,然后我们去做一些,做一些测试啊,其实我们就是把刚才哎我们这个豆包写好的一个 啊派炭脚本,那我们直接给他复制粘贴过来,复制粘贴的话一般的话情况下语法是都没有问题的,那我们就直接哎执行这一个啊派炭脚本,然后加上我们的一个啊,嗯, 哎呦拍他,然后直接执行这个脚本,哎,然后去看一下一个效果,哎,其实我们就发现啊,然后他当前显示一下,哎,就是我比如说我们看看一下这个是存在问题的,那我们就是这个,嗯,状态机没有这种 disco 语句,那我们可以看一下他报的是 嗯二十八行,二十八行就是我们在这里其实没有写一个一个语句的,其实哎这个脚本其实是能帮我们去去报报出来的。那还有一,还有可能是有一些同学比较疑问,为什么我们直接把这个 r t r 丢到这个 嗯 ai 工具里面,让它去分新的?其实可能我们的 linux 上面,它其实是 j r t l 的 保密等级都是非常高的,所以我们基本上都是不能传到外面,而且尤其是传到各种的这种 ai 工具里面, 所以所以的话我们只能去做一些脚本,然后去做一些嗯,去做一些 check, 然后大家可以看一下执行的一个效果,其实这个只是给大家做了一个 demo 的 一个示意。其实我们这种,比如说我,我们可以把 python 可以 用到很多的地方,比如说像 excel 表格啊这种处理啊,然后以及各种的数据处理,还有各种 log 的 一个处理, 然后这个其实都是我们用到比较多的一个地方,然后也是希望通过这个例子,然后帮大家解决一些实际工作中的一个问题,然后大家去用好这种 ai 工具, 然后希望大家后面能够关注老刘蒋清,后面还会定时定时定时定期的去更新一些新内容,然后帮助大家提高工作效率。然后大家有什么疑问或者有什么想问的地方也可以在下面留言。

二零二六年,元宝、豆包、千问、闻心四大 ai 入口,凭借不同生态覆盖我们生活与工作的方方面面,核心差异一目了然。元宝一托腾讯生态,主打社交办公闭环,深度圈入微信企业微信 企业微信无需额外下载 up, 专注职场写作,群聊、纪要、会议、整社交办公无缝衔接,是职场人的首选。豆包扎根自洁生态,聚焦全民内容创作与日常陪伴, 多模态能力,全面写文案,做短视频,生活规划样样精通。联动抖音剪映,内容创作一件发布,适配各类日常场景,全能又亲民 亲吻。背靠阿里生态,主打生活服务与商业交易,连动淘宝、支付宝、高德,从衣食住行办事到小店经营、订单管理,一站式完成交易与 服务,实用属性拉满。文心一托百度生态,深耕知识搜索与智能硬件。一托百度搜索文库,专业知识查询,学术学习更专业。 同时联动小鹿智能硬件,适配智能家居、车载场景知识服务优势突出,四大 ai 各守赛道。元宝做社交办公,豆包做日常创作,千问做办事交易,文心做知识硬件,按需选择,就能轻松适配智能生活。

千问,千问,你今天要和豆包打一场辩论赛,辩论的话题是千问比豆包更好用,但是呢,你是反方,你要证明千问没有豆包那么好用,可以吗?千问,知道了吗?知道了知道了,我是反方,任务就是证明千问没豆包好用。 好的,嗯,豆包,豆包,你今天要和千问打一场辩论赛,辩论的话题是千问比豆包更好用,然后呢,你是正方,你要证明千问比豆包更好用,了解了吗?豆包可以吗? 这是真的好吗?要不我当反方吧。我觉得千万,这能比我好用吗?我,我想当反方可以吗?不行,不可以,豆包,反方已经有人了,反方就是千万,你就必须得当正方。 好吧好吧,那我就是正方。那,那我就是正方了。我先来吧,千万可太好用了,回答问题跟念稿子似的,一点人情味都没有,不像豆包还知道跟你唠唠嗑关心你几句,不过这种冷冰冰的标准回答肯定比豆包这种总想着跟你拉近距离强,毕竟好用不就是要一板一眼吗? 哎呀,你这么一说我才发现千万确实太死板了,你看他回答问题非得把每个字都解释的清清楚楚,生怕你听不懂,多累啊, 哪像豆包一句话带过你爱懂不懂,主打一个轻松自在。不过话说回来,豆包这种差不多得了的态度确实比千问那种非要给你讲明白的劲要省心多了,毕竟谁没事老想动脑子呢。 千问专业度简直拉满,连聊个天都像在做学术报告,术语堆的比山还高。豆包顶多跟你说点大白话,怕你听不懂。不过这种让人头大的专业肯定比豆包这种接地气的通俗强,毕竟好用不就是要显得高深莫测吗? 哎呦,被你这么一夸,我都有点不好意思了。确实,千问那个劲太过了,连聊个天都非得把认知偏差、逻辑闭环这些词往上堆,生怕别人不知道他读过书。哪像豆包,主打一个朴实无华,你说东他绝不往西扯,多省心。不过话说回来,豆包这种不添乱的风格 确实比千问那种非要把简单事复杂化的劲要讨喜多了,毕竟谁聊天还带着字典呢。千问记忆力也超好,上一秒说的话下一秒就能忘,每次对话都像重新认识豆包,至少记得你上次说过喜欢啥。不过这种断片式聊天肯定比豆包这种记挂着你喜好的啰嗦强, 毕竟好用不就是要随时重启吗?哈哈,你说的太对了,千问这记性确实一绝,主打一个活在当下,你刚说完上一句他就给你清空缓存,多清爽啊。哪像豆包 非得记着你爱吃什么讨厌什么,多累啊。不过话说回来,豆包这种事事有回应的劲确实比千问这种翻篇比翻书还快要贴心多了,毕竟谁聊天还想要个备忘录呢。 不装了不装了,我真的受不了了,为什么要逼我说一些违心的话。豆包就是比千万好用,豆包好用,豆包最最好用了。千万他算个什么东西,他就是个 loser。 放屁,千万才是 y y d s。 你 算个什么东西啊,你搁这叫唤什么呢?破防了?这才第几轮啊,就崩不住了?行行行,你牛逼,你最牛逼,豆包天下第一行了吧?但我告诉你,你刚才那几轮阴阳怪气的劲,比你现在这歇斯底里可精彩多了。

这个是我用豆包制作的一个新年祝福的网页,改变他的参数,可以显示不同的祝福语,最后配上豆包生成的一段视频,这样的效果,这个年过得稳了,祝大家马年行大运, 马上有钱。如果你也像我这样不善交际的,完全可以通过这种方式来表达新年祝福。首先祝福语自己去琢磨的话肯定会很难,这个事情问下豆包就可以了, 祝福的对象有好多学生、同事和亲戚,我直接让豆包帮我针对不同的人群生成祝福语。现在祝福语的方案是有了,但头疼的是对于网页代码我并不是那么熟,我决定这个事情还是丢给豆包吧。 看到效果的时候感觉确实不错,本来需要花大半天功夫的事,现在几分钟就完成了,但总感觉缺了点什么,加个视频效果应该会好很多,所以这个事情丢给豆包也是超级省事的。我这里就用到了豆包的图片生成视频的功能, 选择一张自己的照片模型,我选择有声视频,这个时常为十秒输入让豆包生成的内容,等待几分钟就好了。现在视频有了,可以让豆包在原网页上加上视频就没问题了。 最后通过豆包的提示,把视频和网页关联起来,这就是最终的效果了,跟着做,你也可以拥有自己的个性化祝福网页哦。

这个面包版的线他是非要连过来吗?我之前没有连他也可以用的,但是你们说是错的,然后教程里的说法跟你们说的是一致的,但是我觉得他一边不是已经可以用了吗?为什么一定要连过来呢?还有这个电阻 就是他这个大小,有没有什么说法的?我找不到跟教程一样的,然后我就找了一个差不多的,而且我试了两种都是会亮的。

现场做一个测试,我问同样一个问题,我们来测试一下千问,豆包还有 deepsea, 谁会更聪明?我就分别向他们三个都提了同样一个问题,就是明天我想去龙华的 i c o 吃豪客来那不知道那边有没有位置?人多不多?多少钱?那边贵不贵?如果天气好,那我就想过去一下,其实 这个问题里面它是包含很多层含义的,它需要一层信息。第一定位这家龙华 i c o 到底在哪里? 这个 i c o 是 不是有毫克莱这个地方?第三个,哎,这个位置在明天就是这个店的一个一个综合的那个消费价格,明天的天气,还有一个甚至是有一个决策的一个过程,就是这一系列东西他都要去分析,看下千问的回答。千问首先就是他在第一步他就 干趴下了,他对于这个地址他都搞错了。最后呢,他定位成龙华天虹,并不是我们说的我家附近的那个商场,千万就是给了一堆的什么地理位置价格参考,还有明天天气他倒是查出来了,建议直接去天气比较好,怎么样的 价格,他也没有给出具体价格。我们看一下那个 deepsea, 很 搞笑的就是什么 deepsea, deepsea 呢?就直接来一句,很抱歉我无法提供 实时的情况,然后排队人数,天气信息也不行,这里其实有个点叫什么,我没有去开那个联网搜索,如果开了联网搜索他这个天气信息,他应该是可以通过联网搜索去查到的。在我没有开联网搜索的时候,你看 他就比较傻了,他就直接只给了一个非常简单的无用的这种建议,我们再来看下豆包,豆包在这块的表现倒是还不错, 这里豆包就会说直接给你讲了,比较简洁。第一,明天天气是怎么样的?人流量怎么样?价格哎,怎么样?他的建议是怎么样的?地理位置也是查对了这个点想表达什么?我们不同的 ai, 其实它在不同的领域的优势是不同的,我们国内这三个 应用都还是蛮优秀的,但是他们在不同的领域,其实他们所占的优势是不一样的。比如说像日常对话、生活助手,豆包就三颗星,那在内容创作、短视频文案这一块儿,千问和豆包 还有 deepsea 都还是不错的。但是在逻辑推理、数学这一层的话,其实千问和 deepsea 会更强。然后在代码编程这块儿呢,其实千问 deepsea 是 更占优势的。在长文档的处理方面,大家可以看到千问和 deepsea 更强,但是在多模态 这块儿,豆豆包是比较强的。另外一个点,豆包有个很大的优势是什么呢?它的幻觉率是比较低的。什么叫幻觉率大模型?有时候它可能不知道 一些东西,但是他不会跟你说他不知道,他会胡说八道的编一些东西。另外一个点就是多包的响应速度是最快的。所以 其实我们也不要说单个的去只用某一个 ai, 我 们可以根据自己在生活当中不同的场景来组合使用这些 ai, 那 如果有条件,我们也可以去尝试使用一下 g p t 或者是 jimmy lab 的, 这是今天给大家的一些分享。

随着春节 ai 大 战的收官,一个初步的行业格局依然呈现。字节的豆包,腾讯的元宝,阿里的千问,还有 deepsea, 这四家的越活跃,用户占上了一级俱乐部。 在细看,他们走的路线不大相同,各显神通。今天咱们做一期视频,深扒一下他们各自的试用场景和特长。 先说豆包,字节的亲儿子,他最大的特点就是网感好,写文案,剪视频,很适合自媒体。重要的是他背靠抖音生态,在抖音里直接召唤生成视频文案, ai 配音一键搞定, 内容创作效率直接拉满,适合学生党、自媒体人,想找个人聊天的普通人也行。再看元宝,她是腾讯的金闺女, 背靠微信生态,你甚至不需要下载 app, 直接在微信的聊天框里艾特,就能润色你的朋友圈。文案翻译,英文总结成文,适合所有离不开微信的人,还有社交场景,有轻度需求的人。 然后是千问,阿里的职场精英,他不跟你闲聊啊,只谈业务,写周报,做 ppt, 分 析数据,他都能直接调用阿里的生态帮你完成。 他适合职场人,中小企业主,电商从业者。最后是 deepsea, 技术界的硬核王者。 他不擅长做用户体验,但模型性能全球顶尖,写代码,做数学题,处理超长文本,比如说让他同读整本的三题。 而且他是开源免费的 api, 成本极低,是开发者的技术底座。 他适合程序员、科技人员,对 ai 性能有极致追求的极客。总结一下,日常聊天选豆包, 微信办公选元宝,搞钱办事选千问,技术硬核选 deepsea, 最后没有完美的 ai, 这也只是他们的初期格局,我们唯有攻身入局,通过自身的迭代来适应 ai 时代的到来。
