本篇文章2687字,读完约7分钟

据雷锋说。(公开号码:雷锋。今天,谷歌大脑团队的伊恩·古德费勒在该研究所的官方网站上写了一篇文章,总结了谷歌在2017年iclr上的学术贡献。全文由雷锋编辑。网站如下,未经许可不得转载。

本周,第五届国际学习表征会议(iclr 2017)在法国土伦举行,会议重点关注如何从机器学习领域的数据中获取有意义和有用的表征。Iclr包括两个项目,会议轨道和研讨会轨道,由获得口头和海报的研究人员共享,涵盖深度学习、度量学习、核学习、组合模型、非线性结构化预测和非凸优化问题。

站在神经网络和深度学习浪潮的顶端,谷歌注重理论和实践,致力于开发理解和总结的学习方法。作为iclr 2017的白金赞助商,谷歌有50多名研究人员参加了此次会议(其中大部分是谷歌大脑团队和谷歌欧洲研究部门的成员)。通过现场展示论文和海报,谷歌为建立一个更加完善的学术研究交流平台做出了贡献,这也是一个相互学习的过程。此外,谷歌研究人员也是研讨会和组织委员会建设的骨干力量。

Ian Goodfellow撰文总结:谷歌的 ICLR 2017 硕果累累

如果你来参加iclr 2017,我们希望你能在我们的展台停下来,与我们的研究人员交流,讨论如何为数十亿人解决有趣的问题。

以下是谷歌在iclr 2017上提交的论文内容(谷歌研究人员已经用粗体表示了这一点)

区域主席乔治·达尔、斯拉夫·彼得罗夫、维卡斯·辛德瓦尼

项目主席(雷锋。网站之前已经介绍过了)hugo larochelle,tara sainath

受邀演讲论文理解深度学习需要反思概括(最佳论文奖)

池源·张*、萨米·本吉奥、莫里茨·哈特、本杰明·雷希特*、奥里奥尔·维尼亚

从私人培训数据中深度学习的半监督知识转移(最佳论文奖)

nicolas papernot*,martín abadi,úlfar erlingsson,ian goodfellow,kunal talwar

q-prop:带有非政策批评者的样本有效政策梯度

石祥(谢恩)古*、蒂莫西·莉莉拉普、邹斌·赫拉马尼、理查德·特纳、谢尔盖·莱文

具有强化学习的神经结构搜索

barret zoph,quoc le

海报纸高级机器大规模学习

阿列克谢·库拉金,伊恩·古德费勒?samy bengio

递归神经网络的容量和可训练性

jasmine collins,jascha sohl-dickstein,david sussillo

通过探索不被重视的奖励来改善政策梯度

ofir nachum,mohammad norouzi,dale schuurmans

异常庞大的神经网络:稀疏门控的专家混合层

noam shazeer,azalia mirhoseini,krzysztof maziarz,andy davis,quoc le,geoffrey hinton,jeff dean

展开的生成性对抗网络

luke metz,ben poole*,david pfau,jascha sohl-dickstein

用gumbel-softmax进行分类重新参数化

eric jang,石祥(shane) gu*,ben poole*

用于自然视频序列预测的分解运动和内容

鲁本·维勒加斯,杨笈每,申洪洪,荀彧·林,李洪拉克

使用真实nvp的密度估计

laurent dinh*,jascha sohl-dickstein,samy bengio

潜在序列分解

william chan*,张羽*,quoc le,navdeep jaitly*

用神经程序员学习自然语言界面

arvind neelakantan*,quoc诉le,martín abadi,andrew mccallum*,dario amodei*

深度信息传播

samuel schoenholz,justin gilmer,surya ganguli,jascha sohl-dickstein

身份在深度学习中很重要

moritz hardt,tengyu ma

艺术风格的学术表现

vincent dumoulin*,jonathon shlens,manjunath kudlur

半监督文本分类的对抗训练方法

安德鲁·戴,伊恩·古德费勒?

超网络

david ha,andrew dai,quoc诉le

学会记住罕见的事件

lukasz kaiser,ofir nachum,aurko roy*,samy bengio

workshop粒子值函数

chris j. maddison,dieterich lawson,george tucker,nicolas heess,arnaud doucet,andriy mnih,yee whye teh

具有强化学习的神经组合优化

irwan bello,hieu pham,quoc v. le,mohammad norouzi,samy bengio

简短而深刻:素描和神经网络

amit daniely,nevena lazic,yoram singer,kunal talwar

解释直接反馈校准的学习动态

justin gilmer,colin raffel,samuel s. schoenholz,maithra raghu,jascha sohl-dickstein

在期望中训练二次抽样机制

colin raffel,dieterich lawson

用强化学习调整递归神经网络

娜塔莎·雅克*、石祥(谢恩)古*、理查德·特纳、道格拉斯·埃克

rebar:离散潜变量模型的低方差无偏梯度估计

george tucker,andriy mnih,chris j. maddison,jascha sohl-dickstein

现实世界中的敌对例子

阿列克谢·库拉金,伊恩·古德费勒?samy bengio

通过惩罚可靠的输出分布来规范神经网络

gabriel pereyra,george tucker,jan chorowski,lukasz kaiser,geoffrey hinton

模仿学习的无监督感知奖励

pierre sermanet,kelvin xu,sergey levine

使用强化学习在测试时改变模型行为

augustus odena,dieterich lawson,christopher olah

*谷歌上任时,这项工作已经完成

?这项工作内容是在openai上任时完成的

详情请访问谷歌研究博客,由雷锋编辑。

雷锋文章版权所有。严禁擅自转载。详情请参考转载说明。

来源:搜狐微门户

标题:Ian Goodfellow撰文总结:谷歌的 ICLR 2017 硕果累累

地址:http://www.shwmhw.com/shxw/60104.html