人工智能前沿

一手AI资讯|计算机视觉|自然语言|机器学习|深度学习
首个单设备模拟神经元出现:忆阻器突破登上Nature

首个单设备模拟神经元出现:忆阻器突破登上Nature 6

知行编程网 1年前 (2022-07-02) 3 0

报道 | 机器之心 作者 | 泽南、小舟基于晶体管的模拟神经元效率低下,全新的电子元件设计可以完成神经形态人工智能的极高效实现。使用模拟神经元的设备进行计算可以有效解决传统计算机无法解决的问题,然而理论上,在电路元件中生成神经形态动作电位需要至少三阶复杂度,此前甚至很少有二阶神经形态元件的案例。通过一系列试验和建模,研究人员找到了执行布尔运算三阶元素的简单无晶体管网络,并找到了计算困难的图分区问题...

哈佛CS50撕书教授在家录了一套4K网课,你准备好电话簿了吗?

哈佛CS50撕书教授在家录了一套4K网课,你准备好电话簿了吗? 12

知行编程网 1年前 (2022-06-15) 18 0

转自 | 机器之心编辑 | 蛋酱、杜伟、小舟哈佛大学 CS50 2020 秋季课程即将面世,在家也可以共享「撕书教授」David Malan 的 4k 超高清神课了。提到美国 CS 四大名校,很多人都知道:斯坦福(Stanford)、加州伯克利(UC-Berkeley)、麻省理工(MIT)、卡内基梅隆(CMU)。但是,全美最著名的一门计算机课程,却出自以人文学科见长的哈佛大学。许多美国大学的计算机...

15分钟入门蒙特卡洛 Monte Carlo

15分钟入门蒙特卡洛 Monte Carlo 63

知行编程网 1年前 (2022-06-30) 4 0

来自 | 知乎 作者 |薛定豆链接 |https://zhuanlan.zhihu.com/p/223042372编辑 | 深度学习这件小事本文仅作学术交流,如有侵权,请联系后台删除。20世纪40年代,蒙特卡洛(Monte Carlo, 位于摩纳哥的赌城,如上图)方法由John von Neumann,Stanislaw Ulam和 Nicholas Metropolis 在 Los Alamos...

深入理解图注意力机制

深入理解图注意力机制 18

知行编程网 1年前 (2022-06-17) 19 0

作者丨张昊、李牧非、王敏捷、张峥来源丨https://zhuanlan.zhihu.com/p/57168713编辑 |极市平台图卷积网络(GCN)告诉我们,将局部的图结构和节点特征结合可以在节点分类任务中获得不错的表现。美中不足的是GCN结合邻近节点特征的方式和图的结构依依相关,这局限了训练所得模型在其他图结构上的泛化能力。Graph Attention Network (GAT)提出了用注意力...

一般化机器学习与神经网络

一般化机器学习与神经网络 16

知行编程网 2年前 (2021-12-29) 1 0

0 前言 机器学习的初学者很容易被各种模型搞得晕头转向。如果扎进各种模型的细节无法自拔的话,可能很难发现一般化的框架。   如果你觉得神经网络是非常不同的机器学习模型,如果你觉得神经网络的各种新名词让你觉得这完全就是一片新天地,那么可能你已经陷入到这些细节里啦。所以小夕希望通过本文将这些同学拔出来,重新审视一下学过的东西。 1 一般化机器学习 至此,小夕已经或多或少的讲解了逻辑回归模型、朴素贝叶斯...

港大和商汤等提出 PolarMask:一阶段实例分割新思路

港大和商汤等提出 PolarMask:一阶段实例分割新思路 15

知行编程网 2年前 (2022-04-12) 8 0

作者:谢恩泽https://zhuanlan.zhihu.com/p/84890413本文已由原作者授权,不得擅自二次转载转载自CVer今天介绍一下我们的PolarMask, 一种single shot的实例分割框架arXiv:https://arxiv.org/abs/1909.13226代码最近在整理中,即将在下述链接中开源,请大家多多关注。https://github.com/xieenze...

“谷歌你变了”,老员工痛别谷歌:透明开放不复往昔,公司文化“面目全非”

“谷歌你变了”,老员工痛别谷歌:透明开放不复往昔,公司文化“面目全非” 9

知行编程网 2年前 (2022-05-01) 9 0

转自 | 量子位站在2020的开头回顾2019年的谷歌,或许会发现,这是谷歌人才流失愈发明显的一年。在19年的最后一个月,谷歌创始人佩奇布林双双卸任谷歌母公司Alphabet职务,宣告一个时代的终结。而据CNBC报道,在这一年里告别谷歌的,其实还有更多老员工。这样的变化,连外界都开始注意到。曾投资twitter的超级天使投资人Martin Casado就曾发推文说:发生了什么?目前谷歌的人才流失令...

自动化数据增强:实践、理论和新方向

自动化数据增强:实践、理论和新方向 9

知行编程网 1年前 (2022-05-30) 12 0

选自 | Stanford AI Lab Blog作者 | Sharon Y. Li转自 | 机器之心 参与 | Panda对当今需要大量数据的机器学习模型而言,数据增强是一种具有显著价值的技术——既可用于缓解数据量不足的问题,也可用于提升模型的稳健性。常规的数据增强技术往往依赖相关领域的专家,耗时耗力成本高昂,因此研究者开始探索自动化数据增强技术。近日,斯坦福大学 AI 实验室(SAIL)发表了...

12.6%!IJCAI 2020接收率断崖式下跌,但还是有华人大佬中了三篇

12.6%!IJCAI 2020接收率断崖式下跌,但还是有华人大佬中了三篇 8

知行编程网 1年前 (2022-05-24) 78 0

转自 | 机器之心参与 | 泽南、张倩、蛋酱人工智能顶会 IJCAI 2020 论文接收结果出炉了,但大部分小伙伴却高兴不起来。北京时间 4 月 20 日晚,IJCAI 2020 接收结果出炉了:在 4717 份有效投稿中,最终仅有 592 篇被接收,接收率为 12.6%,这也是 IJCAI 史上最低的接收率。消息一出,立即引来人们的关注:讨论论文审稿的较多,宣传「论文被接收了」的目前还比较少。在...

同样都是调参,为什么人家的神经网络比我牛逼 100 倍?

同样都是调参,为什么人家的神经网络比我牛逼 100 倍?

知行编程网 2年前 (2022-05-04) 63 0

转自 | 计算机视觉lifeNo.1总结一下在旷视实习两年来的炼丹经验,我主要做了一些 RL,图像质量,图像分类,GAN 相关的任务,日常大概占用 5 - 10 张卡。可复现性和一致性有的同学在打比赛的时候,从头到尾只维护若干份丹方(代码),每次载入前一次的训练参数,调一下丹方再炼,俗称老丹。这样会有几个问题:某次引入一个 bug,过了很久才发现,然后不知道影响范围;炼出一个金丹,但是不知道它是怎...

扫一扫二维码分享