为提高AI抽象推理能力,DeepMind开发AI智力测验

青亭网( ID:qingtinwang )--链接科技前沿,服务商业创新

本周在瑞典斯德哥尔摩的国籍机器学习大会上,谷歌子公司DeepMind发表了一篇名为“在神经网络中测量抽象推理能力”的论文,论文就机器学习能否学会抽象思维这一主题进行了研究。

深度学习

据悉,DeepMind的科研团队将抽象推理定义为在概念层面发现规律与解决问题的能力。他们解释,对于人类来说,测试语言、空间和数学推理能力的传统方式参加需要整理形状、位置、线条颜色之间关系的考试,不过这种考试并不全面。

DeepMind的科研团队补充道:“可惜即使对人类来说,如果一个人准备过于充分,那考试结果也没有效果了,因为他可以通过学习找到专门通过考试的捷径。而对于神经网络来说,这种缺陷会更严重,毕竟神经网络的记忆能力要强得多。”

为解决这一问题,DeepMind的团队使用了一个围绕一系列抽象因素提出问题的生成器,问题包括“连续问题”以及“颜色”与“大小”等属性之间的关系。科研团队通过控制这些因素创造出了几套不同的问题,比如,用一道只有应用了线条颜色后才显示出连续关系的智力题,来测试并训练机器学习模型。这样的话,非常专业的算法就很可能推理出从未出现过的观点。

ai

图为DeepMind科研团队为机器学习模型准备的视觉测验之一

据悉,在测试中,大多数模型都表现很好,有些模型的测试结果达到了75%,科研人员发现模型的准确率与推理问题隐含的抽象概念的能力有很大关系。因此,他们通过训练AI模型的“推理能力”,成功提高了AI的准确性,总结出了解决智力题所需要的关系与属性。

科研团队在论文中写到:“(有些模型)学会了解决复杂的视觉推理问题,是因为能够从原始图像中归纳并发现抽象概念,如逻辑运算和等差数列,将这些原理应用在从未遇到过的问题上。”

不过,即使谷歌的Wild Relation Network(WReN)是目前最优秀的神经网络,也是有自己局限的:WReN在训练师没办法推断出属性值,当使用之前了解过的关系或新属性做综合任务(比如:一系列形状的连续性)时表现更糟糕。

据悉,科研团队在一篇博客中写道:“我们的科研成果显示现在根据综合任务的表现下结论可能没什么用,我们测试使用的神经网络某些综合任务中表现不错,但在有些中就表现很差。成功率的决定因素有许多,包括模型使用的架构和这款模型是否被训练来为答案提供一个可以合理解释的推理。”

最后的测试结果可能褒贬不一,但是这些科研人员还并不打算放弃。他们坚持要探索提升AI解决综合任务能力的办法以及在未来的模型中如何使用“准备充足而且性能全面”的感应偏压算法。

参考:Venture Beat

更多精彩内容,关注青亭网微信号(ID:qingtinwang),或者来微博@青亭网与我们互动!转载请注明版权和原文链接!
青亭网

微信扫码关注青亭网

青亭网

青亭 | 前沿科技交流群01

责任编辑:小新
分享到QQ 分享到微信
切换注册

登录

忘记密码 ?

您也可以使用第三方帐号快捷登录

Q Q 登 录
微 博 登 录
切换登录

注册