https://i.ancii.com/86357811/
86357811
本文转自雷锋网,如需转载请至雷锋网官网申请授权。躺尸接近三个月的OpenAI博客终于有了更新,这次它为AI研究者带来的作品是“OpenAI Microscope”,中文译名OpenAI 显微镜。意为可以像实验室中的显微镜一样工作,帮助AI研究人员更好地理解
OpenAI 在 2 月发布了小型 1.24 亿参数模型 GPT-2 后,在今天宣布发布 7.74 亿参数 GPT-2 模型。5 月份中型 3.55亿 模型分阶段发布,OpenAI 随后与合作伙伴和 AI 社区一起研究该模型的误用和潜在可能性、社会福利,还
据betanews报道,微软正投资 10 亿美元,与 OpenAI 建立重要的合作伙伴关系,这一合作伙伴关系将使微软和 OpenAI 合作开发新的 Azure AI 超级计算技术,而微软将成为 OpenAI 唯一的云提供商。微软表示,它将致力于建立一个平台
全文共3359字,预计学习时长7分钟数据科学是一个不断发展的领域。一个合格的数据科学家,必须要了解社会中出现的最新算法和框架,而GitHub绝对称得上是宝藏。作为这一领域极佳的知识渠道,GitHub可以帮助你了解趋势数据科学主题,提供优秀的代码。因此,对于
基于深度神经网络进行语音合成、音乐风格迁移,正成为不少致力于“让人人成为音乐家”的研究人员所追求的事情。像此前我们报道的微软小冰作词又作曲,AI帮清华博士写说唱歌词晋级,甚至不久前中央音乐学院招音乐AI方向博士生。不久前,为了纪念著名作曲家巴赫诞辰,Goo
OpenAI提出新的神经网络模型“稀疏Transformer”,能够预测文本、图像和声音等序列的后续内容,该模型是对注意力机制的一个改进,预测长度达到之前最佳水平的30倍。稀疏Transformer降低了传统注意力机制模型的计算复杂度,将其直接应用于不同的
接下来几个月,我们将发布算法;今天发布的是 DQN 和它的三个变体。重现强化学习结果非常复杂:性能非常嘈杂,算法有很多活动部分,因此会有微妙漏洞,而且很多论文都没有报告所有必要的技巧。强化学习算法的正确实现正面临着挑战;好结果通常只来自对貌似不重要的漏洞的
上周,OpenAI 推出的新通用语言模型 GPT 2.0 引起了一场风暴。该模型被称为“史上最强通用 NLP 模型”,可以生成连贯的文本段落,刷新了 7 大数据集基准,并且能在未经预训练的情况下,完成阅读理解、问答、机器翻译等多项不同的语言建模任务。GPT
0 关注 0 粉丝 0 动态
Copyright © 2013 - 2019 Ancii.com
京ICP备18063983号-5 京公网安备11010802014868号