https://i.ancii.com/kuojunlin/
KuoJunLin kuojunlin
新智元导读】早在 1948 年,图灵就写了一篇题为《智能机器》的论文,描绘了现在成为人工智能核心的许多概念,包括遗传算法、神经网络、强化学习等。在没有电子计算机的年代,图灵用纸和铅笔做出了这项开创性的研究,在今天引发热议。这篇论文是图灵在伦敦国家物理实验室
但现在,可以把权重抛诸脑后了。谷歌大脑最新研究提出“权重无关神经网络”,通过不再强调权重来搜索网络结构,所搜索的网络无需权重训练即可执行任务!前不久,新智元报道了谷歌给出首个神经网络训练理论的证明。这一研究在训练深度神经网络被戏谑为 “调参炼丹” 的当下,
MIT的研究人员开发出一种新型 “光子” 芯片,它使用光而不是电,并且在此过程中消耗相对较少的功率。该芯片用于处理大规模神经网络的效率比现有的计算机高出数百万倍。模拟结果表明,光子芯片运行光神经网络的效率是其电子芯片的1000万倍。神经网络是一种机器学习模
当你花了几个星期构建一个数据集、编码一个神经网络并训练好了模型,然后发现结果并不理想,接下来你会怎么做?在这篇文章中,我将会介绍一些我们在 Cardiogram 中调试 DeepHeart 时用到的技术,DeepHeart 是使用来自 Apple Wat
Yann LeCun今天在采访中确认Facebook正在自研AI芯片,追求更高能效,以支持其AI应用。Facebook也在寻找新的神经网络架构,大力投入于“自我监督”系统,致力于赋予机器“常识”。人工智能研究的进展将与硬件创新密切相关。今天,在2019国际
昨天,谷歌大脑研究科学家、生成对抗网络GAN的提出者Ian Goodfellow在Twitter推荐了他最喜欢的两个机器学习的Theory Hacks,利用这两个技巧,他在著名的GAN论文中推导了公式。很多时候,我们想用代数/微积分来分析神经网络的最优行为
在昨天举行的2018京东人工智能创新峰会上,南京大学计算机系主任、人工智能学院院长周志华教授进行了题为《关于深度学习的思考》的主题演讲。周志华教授提出,人工智能时代最缺的就是人才,因为对这个行业来说,你有多好的人才,才可能有多好的人工智能。昨天,2018京
两篇新的论文表明,神经网络可以在不需要平行文本的情况下学习翻译,这是一个令人惊讶的进步,它将可以让人们可以读懂更多语言的文档。计算机首先进行猜测,然后接收正确的答案,并相应地调整其处理过程。在北京,微软的计算机科学家Di He说:“即使在没有人类监督的情
神经网络的基本思想是模拟计算机“大脑”中多个相互连接的细胞,这样它就能从环境中学习,识别不同的模式,进而做出与人类相似的决定。典型的神经网络是由数千互连的人工神经元组成,神经元是构成神经网络的基本单位。这些神经元按顺序堆叠在一起,以称为层的形式形成数百万个
在过去十年中,人们对机器学习的兴趣激增。几乎每天,我们都可以在各种各样的计算机科学课程、行业会议、华尔街日报等等看到有关机器学习的讨论。在所有关于机器学习的讨论中,许多人把机器学习能做的事情和他们希望机器学习做的事情混为一谈。从根本上讲,机器学习是使用算法
我相信,对于任何有理想的数据科学家而言,理解神经网络内部的运作方式都非常重要。本文涵盖了我学到的所有东西,希望你也能从中获益!许多有关神经网络的介绍资料会将神经网络与大脑进行类比。但我发现,将神经网络简单地描述为一个从输入映射到输出的数学函数理解起来更容易
本质上,深度学习提供了一套技术和算法,这些技术和算法可以帮助我们对深层神经网络结构进行参数化——人工神经网络中有很多隐含层数和参数。深度学习背后的一个关键思想是从给定的数据集中提取高层次的特征。因此,深度学习的目标是克服单调乏味的特征工程任务的挑战,并帮助
标志型事件,阿尔法围棋战胜李世石。2015年10月阿尔法围棋以5:0完胜欧洲围棋冠军、职业二段选手樊麾;2016年3月对战世界围棋冠军、职业九段选手李世石,并以4:1的总比分获胜。alphago 核心用到了”深度卷积神经网络”和“MCTS,蒙特卡洛搜索树”
0 关注 0 粉丝 0 动态
Copyright © 2013 - 2019 Ancii.com
京ICP备18063983号-5 京公网安备11010802014868号