粉丝5844获赞3.5万

消息称,台机电自言聊天 aitgnie 已投入运营,上线半年节省一亿新台币外包翻译费用。该 ai 基于英伟达芯片平台打造,未来多家代工厂也有望跟随台机电步伐,将此类声称是 ai 带入生产环节。 此外,台机电还计划利用 ai 降低精源制成成本,提升不同厂区的制成,实时监控同步检测上百万张制成管制图的异常行为,并通过 ai 比对找到原因,快速进行机台修复。

现在你看到的这个二 d 游戏画面,全是机器 ai 搞出来的,还能实时控制游戏里的角色动作,跟玩真的游戏似的。 更牛的是,这 ai 能不停的创造,搞出来的游戏画面无穷无尽。这技术是谷歌旗下的 dip mind 研究所推出的,叫 gimi 模型,声称是第一个能生成互动环境的模型。 他是通过观察大量没有标签的互联网视频自学成才的,你给他什么提示,他就能创造出各种你能控制动作的虚拟世界。 我们可以输入的提示包括文字合成图像、照片,甚至是草图。比如说用 imagine 二生成的图像, j 内能给他们加上生命或者是人手画的草图,又或者是真实世界的图片当 输入。那这能生成各种游戏画面的 ai 模型是怎么做到的呢?今天的视频,我们就来聊聊这篇论文之谜。首先,处理视频的基础网络并不是常见的 transformer 模型, 因为他的注意力机制要处理视频的宽高还有时间,这至少三个维度,内存占用太大了。因此 jenny 用的是 straight transformer, 就是空间的 special 宽高自己处理注意力, temporal 时间维度自己处理注意力, 这样一合并就是 statio temporal block。 所以处理视频帧数时,他的效率是线性增长的,对视频生成更高效。接下来模型主要有几个部分, video tokenezer 视频编码器,负责把视频 x 从一到 t 编码成像文字 剧烈一样的东西,方便后续处理。然后 dynamics model 动态模型,就是根据以前的画面和动作预测,从一到 t 杠一预测下一针视频内容 z t 最后 latent action model 潜在动作模型则是根据过去和下一针的画面预测当前的控制操作 t, 这是能够实现交互操作的关键, 这个我们待会详细说。训练分两步,先训练视频编码器用在动态模型上,然后再同时训练 latent action model, 直接从视频的像素层面学习和 dynamics model。 这项目用了超过二十万小时的公开互联网游戏视频, 虽然数据多,但网上的视频通常没有标出正在进行哪种操作的标签。如何 和学习识别不同的操作,这显然是一个挑战。 jenny 是通过纯粹的无监督学习,也就是完全自学,学会了对 latent action 潜在动作的理解能力。首先, 一个编码器把之前所有的游戏画面针从一道和下一针加一当做输入,然后输出一系列对应的连续潜在动作一道 t, 接着一个解码器会把所有之前的针和潜在动作作为输入来预测或者说恢复下一个针加一的内容。这里的关键是 action 值,也就是 a 的取值是离散有限个的,比如我们可以说八种 对应玩家的八种游戏操作,这样就强迫模型学习如何从视频中获取相应的控制操作了。训练完后,使用时整个 action model 钱在动作模型被扔掉,直接换成用户的操作之内。在整个 inference 推理过程中是这样的,提示的图像被编码后,和用户操作产生的动作结合起来传给动态模型进行迭代生成。 然后预测的针通过解码器解码回图像,这样我们就能看到后续预测的游戏画面了。除此之外,还有一个难点就是一致性, 也就是说相同的 latin action 潜在动作在不同的提示图像中需要产生相似的预测行为。这次之内要根据机械臂的拍摄画面来预测未来机械手臂的动作。输入一个开头,提示 不同的操作,比如看第一行,首先是往下,然后是往上,最后是往左。尽管没有 动作标签的训练,但是每个都有对应的羽翼,就是方向控制。另外,不同的提示作为开头,相同的动作往下在不同的提示针中是一致的, 说明对动作的理解具有通用性。作为一个拥有一杯脸参数的大模型, jenny 可以被视为一个基础的世界模型。尽管没有任何动作标签的训练, jenny 还是能够从大量公开的互联网视频中学习。 虽然之内项目主要关注二 d 平台游戏和机器人领域,但他们的方法是通用的,适用于任何类型的图像领域,并且能够处理更大的互联网数据。及好了,本期视频就到这里,我们下期见。

你是不是经常羡慕别人家的员工,为什么人家工作热情那么的高,每天像打了鸡血一样?那我今天其实要跟大家分享的就是,作为一个老板或者是 hr 一号位,你到底应该怎么样做,才能真正的提高你员工的工作热情?打造一个自驱型的组织, 内容有点长,但是干货很多,请认真做好笔记啊。打造自驱型组织,大家首先想到的就是设置一个奖金包,或者是一个基金的提成制度, 这个策略我告诉你是错的,而且大错特错。早在上个世纪六十年代开始,就有不断的各种研究表明, 绩效奖金或者是计件工资,他不但没有好处,而且有很多的坏处。美国有位学者叫埃菲尔科恩,他有一本书呢,叫啊奖励的恶果,这里面就充充分论证了为什么 用奖励来强化行为,他不是一个好的制度。因为人的动力呢,他是分为内在动力和外在动力两种的。有的时候咱们做一件事,喜是因为喜欢这件事情,比如说那个我完成一项超高的挑战,去做一个数学题,或者是啊玩魔方,这个都叫内在动力。 而为了奖励而去做一件事情,这就是外在动力。所有的研究结果都表明,让人长期做一件事情,做好一件事情,主动做一件事情,必须得是内在动力。 当我们过分强调外在这种奖励的时候,他不仅无效,还会伤害到内在动力。因为奖励呢,其实就是对人的一种操控,拿不到奖励就是一种变相的惩罚,他不仅呢会破坏团队的合作,还鼓励了那种简单不动脑的行动,因为他让人为了奖励 没有精力去深入研究工作的本质了,他还迅速降低了人对工作本身的兴趣,说白了就是奖励他异化了人的行为。 那么,嗯,是不是所有的工作用绩效奖励都是无效的呢?也不是,有些工作它是有一定的效果的,比如说工作任务是简单的那种体力活,或者是流水线操作。 工作表现呢,他可以直接量化,他比的不是质量,而是比的是谁做的多,做的快的这种,这种是有一定的效果的。但现在的这个社会,其实这种工作越来越少了, 因为你的工作稍微有一点复杂度,稍微追求一定的质量,直接的金钱刺激,就完全没有好的效果了。但往往我们大家不愿意承认这一点哈,因为这太反直觉了,我们直觉上认为奖励是有效的,而且是想着对别人有效。典型 内心独白就是,我工作是因为我喜欢这个工作,是我享受工作本身,这是内在驱动。但是呢,奖励制度还是必不可少的,毕竟别人工作都是为了钱。其实别人也是这么想你的。这就是我之前说过的一个 啊,特别有意思的认知偏悟,那就是我们自己都是处于马斯洛需求的金字塔的顶层,而别人都是在中下层。那么说了这么多,既然奖金包和激励制度没有效果的话,那我们应该到底怎么做呢? 不谈钱吗?只谈情怀,那当然也不行,钱虽然不是万能的,但没有钱是万万不能的。首先我们应该做的就是应该慷慨而公平的支付报酬,尽量确保让大家不要觉得受到了剥削,然后呢,接近 全力的帮助他们忘记金钱。有没有觉得很熟悉?熟悉的 hr 或者是资深的 hr 可能都会想到麦菲,因为他是一个很好的践行者,一方给足钱,另一方挣够钱,然后在工作的过程中呢,双方默契的不谈钱,那有些老板可能也会觉得说, 哎呀,那我们公司还处于早期,现在真的没有太多的钱去给大家,给不了足够的钱,那也没关系,那你就去找到合适的人,找到当前经济压力没有那么大的人吧, 你跟他达成一致对不对?但是就算人家当前经济压力没那么大,时刻给你提钱,你也一定要把对方的利益放在你的心上, 一定要时刻记得,未来有一天公司真的有钱了,要第一时间去补偿他,并且要让大家知道你心里是装着他的利益的。这样做呢,其实就 既有利于保持对工作本身的兴趣和热情,还更容易塑造一个充满凝聚力的团队。有的时候你帮一下别人,然后别人帮一下你。有的时候你工作状态好的时候多做一点,状态不好的时候少做一点,这样大家才能合作愉快,不计较得失。 那要是工作中的所有的一举一动都精明计算,然后利弊得失,那其实是一件很可怕的事。然后第二点呢,就是你要塑造使命感和意义感。 很多人可能会觉得使命这个东西很虚,如果作为老板或者是 hr 一号位你也这么觉得的话,那我很遗憾的告诉你,这说明你还没有找到你自己,或者你公司真正的使命是什么? 使命这个东西他一定是真实的,一定是你能清晰的感知到他的存在,你内心强烈的希望他改变 的东西就是你要坦诚,你要对自己坦诚,要对你的小伙伴坦诚,完全没有必要骗自己,骗小伙伴,或者是骗媒体,说一句自己都不相信的漂亮。话说这是我们公司的使命, 因为只有我们内心无比坚信的东西,我们才容易去感染别人,才容易让别人相信这个东西,为这个东西而奋斗, 对不对?因为人他不是机器,他是有情感的,他每时每刻都在接收信息,而在内心呢,默默地去处理信息。作为一个管理者,我们必须要敞开心扉去拥抱他们, 只有这样,咱们才能有一个不纠结的组织,才能一起去消化挫折,消化成败,然后不断的去向前。第三点呢,你要做的就是多询问,为什么呢?因为我们关心一个人的时候,我们才会 会去关注他,然后我们关注他了呢,我们才会去问他问题。那你应该怎么问呢?你就问他们,你本周的优先事项是什么?你希望我给你提供怎么样子的帮助?记住一点,就是这个时候你问的频率比那个问的质量要更重要 啊。而相反的一种做法就是负面的例子,就是有些管理者也不关心员工的死活,也不关注他,然后每天就只知道给他定任务,定图图,累死他,然后监督他执行,这样只会得到反面作用。 为什么呢?因为人其实他都是有两面的,他有善恶两面,他有勤奋的一面,也有懒惰的一面。只有我们怀着美好的期望去无条件的去信任一个人,去接纳他的时候,他才能表现出善的那一面。说白了就是优秀的管理者会用技巧 去激发别人心中的善,而不是恶。这也就是心理学中常说的那个期望理论皮革马力翁效应。总结下来就是,如果你想要真正打造一个自驱型的组织,那你给员工讲目标,不如多给他讲使命,你给他定计划,不如你给他提供支持 啊。我也希望大家特别记住一点,就是一个伟大的组织,他不可能是一群奴隶创造出来的,你一定要把决策权交给那个能听见炮火的人, 当然这个人首先得是一个合适的人。哈,今天就先说到这,以后有机会我们可以再谈一下怎么样去找到这个合适的人。

科大讯飞支持 aip 改作业功能,这靠谱吗?今天豆爸带你亲测一下!首先,我们看一下关注度比较高的 ai 作业批改功能,我手上有一份三年级的期末数学卷啊,大家来看一下。点开 ai 作业诊断, 大概八秒钟,膝盖结果就出来了, nice! 我们看到诊断的结果都是正确的。本着严谨的态度,豆瓣又生了两次, 发现结果都是和第一次相同。为了从多角度了解这个功能, 豆棒又准备了两份三年级的试卷真题,分别是来自三年级同步课本的习题,还有一份是来自三年级教辅的习题。按照之前的流程, 我们每份习题测试三遍,结果发现在课本习题中,诊断都是正确的。在同步教辅题目中,有一道题目未被识别,其名六道题分段正确。有些家长可能会问,其实在面对更复杂的题目时,效果究竟怎么样?为此,豆爸早有准备。豆爸准备了三份七年级的数学题目,分别是 课本原题、教辅习题和试卷真题。和之前一样,我们对这三份习题分别测试三遍, 结果发现,期中试题这份第五题和第六题的第一问被误判错了,其余没有出错。徒步练习这份全部没有出错。教辅题这份 有一道题未识别,其余五道没有出错。除此以外,我们还测试了三份高一的习题。遗憾的是, ai 作业诊断对这三份习题无可奈何,只能手工批改,我太难了。这一圈测试下来,豆爸觉得七十的 ai 诊断功能,在针对能识别的题目上面,准确率还是挺高的。但不足的有一点, 如果一个题目有多个小问,如果有一道小问题目做错,那 ai 就会判断整道题目全部错误。而且年级越高,题目越复杂, ai 的识别和诊断效率就会大大下降。特别是到了高中阶段,甚至会出现连一道题目都无法识别的情况。我们都把识别的行业经验来看,这是由于 ai 对于线下作业的识别率不高,以及题目数量不足导致的。 接下来我们试试七十的作文批改功能。我找了一篇初中语文作文,给大家看一下批改效果。这篇作文有三页,我们依次把三页纸放在 决心之前,点击批改,大约两三秒后就批改完了。我们看批改结果,分为四个标签,展现 在详细批改这个标签内。他会逐字逐句指出作文的错别字,并去加剧,也会标出一些语句的写作方法。但动画发现,在错别字识别方面,他还略有欠缺,比如文章第四段的将字,就没有被判判断为错别字。 有些家长可能会问,如果孩子字写的差,系统会不会识别不出来,进而影响作文的批改效果呢?关于这个问题,我们准备了一份内容完全相同,但字迹更加潦草的一份,给大家来继续批改一次 可以看到皱纹评分相差不大,但具体到每一处的批改结果还是差别挺大的。因为自己潦草, ai 识别出了问题,许多字未被识别出来,从而被判断为错别字。豆瓣又反复示范两次,发现 字迹潦草的这份每次批改结果都不一样,可见字迹潦草对批改结果的影响还是挺大的。另外,他对作文的标题的诊断可以说几乎没有。我们把作文的原标题分别改为江南三思和洋葱错字标题已经无关,标题 ai 都没有诊断出来。豆瓣总结,功能虽好, 但如果样本量不够大,识别率不够高,体验起来依然也无法达到预期效果。用 ai 代替人工批赶依然有很长一段路要走。

最近很多同学都在问,如果 ai 的时代到来了,那么设计师是不是再也不需要画图了?如果 ai 和手绘相结合,会发生什么样的结果?今天我们就来看一下 ai 智能到底 行不行。平时都是讲平板手绘,今天我们就用 viga ai 自动生成效果图,先用手绘呢,准备一个基础的参考,画一个大概的空间意向,等会我们一起来用 ai 生成效果图,这里我想把它生成一个挂画, 然后是一个窗户,随便画一下。好,接着我们点击小扳手,点击分享,点击 gpg, 把图片导出到相册, 然后我们打开自带的浏览器,登录 vgai, 点击上传图片,找到图片之后点击使用。接着我们输入一个生成效果图的描述,这里我们点击生, 生成需要一分钟的时间,还真是生成了,但这是什么?完全垃圾到不能看了。现在我们让 ai 学习风格,然后我们调整参数,基础模型,我们改成真实影像,选择高清点击生成。 这次呢,我们需要三分钟的时间,嗯,结果明显是好多了,但依然没有办法直接使用,窗户也变成了柜子, 点击图片呢,我们还可以把这张图片呢进行保存,不过目前我们也只是玩个新鲜,那么到底是 ai 做不到呢?还是我们没有让 ai 精准的理解我们的意图呢?有人说未来以来 ai 的普及对设计的影响巨大,你怎么看?评论区告诉我吧。

大家有没有体验过传说中的人工智能面试?你们知道人工智能面试是怎么评分的吗?我们如何在人工智能面试中获得高分呢?这期干货满满,请一定好好看完! 人工智能面试又称哎呀面试,从一四年开始就已经有公司开始采用这种全新的面试方式,面试者只需要在机器面前回答问题,人工智能就是根据面试者的表现打出一个相对公寓的分数,可以有效降低面试官对面试者主观印象产生的影响。 现在很多行业如银行、会计、快销的一些大企业都已经用上了 ai 面试的代表, high view 面试、 higle 面试不只是对你的表达评分,还要关注你的语气、眼神、表情、肢体语言等等。根据这些细节可以判断出你说的是真话还是假话。 判断出你有没有在读稿子,判断出你的情绪状态,你是从容还是紧张等等等等。对你来说,有以下五点需要注意,第一个,如果你盯着屏幕看,而不是盯着摄像头, 会被扣分。眼睛重视的屏幕会有独稿的嫌疑,所以千万不要盯着屏幕,在面试的时候要看着摄像机的位置。 第二,如果你表情僵硬或者夸张,皱眉和目光下移会被扣分。主要就是说最好表情不要僵硬,更不要是负面情绪,建议放松微笑。 第三,如果你穿着不正式会被扣分。千万不要穿着短背心就开始面试,好好找一套看上去正式一点的衣服,收拾好之后再面试。第四,如果你的声音听起来不连贯,有比较多的呃嗯啊,这样的词语言语调不 自然会被扣分,同学们可以平时多多练习,掐一个表,限定时间之内把想说的表达出来,培养出完整表达观点的能力,这样对通过面试的帮助是很大的。 第五,有些同学说,既然哎呀要识别我的表情,那我就把光线调暗一点,看不清我,那岂不是分析不出来了? 这就引起我要讲的最后一点,在进行嗨六、面试的时候,只要你的关键条件、收音条件、网络条件不好,背景杂乱也会被扣分,所以要选一个光线好的,背景干净的地方,不要耍小聪明。 好了,这就是本期的视频内容,希望你能顺利通过 ar 面试,拿到想要的 offer。 我是鲍鱼哥,关注我,陪你老粉。

哈喽,大家好啊,今天我给大家介绍一个通易明码,这是阿里出的一个代码辅助工具,作用呢跟 get up 的 copilot 是一模一样的。那之前呢,我一直在用这个 call the thinks, 这玩意效果真的一般,没什么大用,但是这个通易灵马我用了一下感觉还可以,虽然说比不上 copyloze, 但是我觉得起码比刚才那个要好很多。那我们也来测试一下,编写一个飞不那去, 哎,出来了,速度还可以啊,并不是非常慢。那我们这里再用 view 文件做个例子, view viv, 然后这里呢,我们写一个 data, 嗯,剪个竖笔吧,哎,回车。再比如说,这样 我们写写一二,他会自动生成一些内容,我们要在这点 v, 哎, we got four, 还有会自动生成一些内容, 开通还行,要比 costeins 要好一点。这个通信密码我看了一下,他在这里你可以选择他的本地不全模型,还有云端模型,你可以自己自定义。那如果没有买 copelt 的同学回去可以试一下这个插件,就在这个 vs code 里面扩展就可以搜,我们下期再见。