返回栏目
首页人工智能 • 正文

AI发展方向大争论:混合AI? 强化学习? 将实际知识和常识整合到AI中?

发布时间:  来源:河洛网

作者: Ben Dickson是软件工程师,也是讨论技术如何解决和带来问题的TechTalks博客的创始人。

AI发展方向大争论:混合AI? 强化学习? 将实际知识和常识整合到AI中?

对AI界来说,重要的是深度学习领域取得了惊人的进步,AI的这个分支由于收集、保存、处理大量数据的能力不断提高而切实可行。 目前,深度学习不仅是科学研究的课题,也是许多日常应用系统的重要组成部分。

但是,十年来的研究和应用表明,在目前的状态下,深度学习并不是克服制作与人类具有同等智能的AI这一困难课题的最终解决方案。

怎样才能把AI提高到下一个高度? 需要更多的数据和更大的神经网络吗? 需要新的深度学习算法吗? 还是需要深入学习以外的方法?

这个话题已经在AI社区引起了激烈的讨论,也是上周进行的在线讨论Montreal.AI的中心话题。 背景和学科差异很大的科学家们在这篇《AI辩论2— — 推进AI前进:跨学科方法”的大争论。

混合AI认知科学家Gary Marcus共同主持了这次讨论,重申了深度学习中存在的几大缺点,如数据需求过高、知识转移到其他领域的能力较差、不透明、缺乏推理和知识特征等。

Marcus一直公开炮击纯粹深度学习的方法。 他在2020年初发表了论文。 他在论文中提出了采用学习算法和基于规则的软件相结合的混合方法

其他发言者也指出混合AI这一解决方案有望克服深度学习面临的挑战。

计算机科学家Luis Lamb说: “ 面临的主要问题之一是确定AI的基本构建模块以及如何提高AI的可靠性、可解释性和可破译性。 ”

Lamb是《神经符号认知推理》( neural-symboliccognitivere asoning )一书的共同撰写人,提出了基于逻辑形式化和机器学习两者的神经符号AI的基础方法。

Lamb说:““ 利用逻辑和知识的特征表示与机器学习系统集成的推理过程,还可以利用深度学习机器有效地改革神经学习。 ”

启发进化的斯坦福大学计算机科学教授、谷歌云前首席AI科学家李飞飞飞强调,综合进化史来看,视觉是人类出现智能的主要因素之一。 同样,关于图像分类和计算机视觉的研究引发了过去十年的深度学习革命。 李飞飞开发了ImageNet。 这种带有数百万标签图像的数据集正在用于计算机视觉系统的培训和评估。

李飞飞说:““ 作为科学家,我们希望自己‘ 下一个北极星是什么? ’ 北极星不只有一个。 进化和发展一直给了我很大的启发。 ”

李飞飞指出,人和动物的智能来源于对现实世界的主动感知和相互作用,但目前的AI系统明显缺乏这一特性,它们依赖于被人筛选和标记的数据。

她说:““ 感知( perception )和驱动)之间有一个根本重要的循环,它决定学习、理解、计划、推理。 我们的AI代理可以具体表达,可以在探索性行为和利用性行为之间转换,只要具有多模态、多任务、泛化且经常具有社交特性,就可以改善这个循环。 ”

李飞飞目前正在斯坦福大学实验室致力于开发利用感知和驱动理解现实世界的互动代理。

OpenAI的研究者Ken Stanley也讨论了从进化中吸取的教训。 Stanley说:““ 自然界进化所具有的一些特性非常强大,它们还无法用算法解释。 理由是不能形成自然界形成的现象。 那些是我们应该继续追赶和理解的特性,这些特性不仅在进化中,也在我们自己中。 ”

加强计算机科学家Richard Sutton指出,总的来说,AI方面的工作缺少一种&ldquo的计算理论” 视觉研究中众所周知的神经科学家David Marr最先提出了这个术语。 计算理论定义了信息处理系统以实现为目标的目标,以及为什么要实现这一目标。

Sutton说:““ 在神经科学领域,我们对这个目标和整体思维的目的缺乏大致的了解。 AI也是如此,但在AI上可能会更惊讶。 AI中Marr想的计算理论并不是更好。 ” Sutton在教科书中经常使用“ 让机器做人们做的事” 在,AI社区的近期认识(包括神经网络和符号系统之争) “ 着眼于如何实现某个目标,我们似乎已经知道我们要做的事了。 ”

Sutton说:““ 强化学习是智能最初的计算理论。 ” 他所说的强化学习是AI的分支,赋予主体环境的基本规则,让主体发现报酬最大化的方法。 Sutton说:““ 强化学习明确了目标,明确了为什么。 强化学习以任意报酬信号的最大化为目标。 为此,代理人必须计算战略、价值函数和生成模型。 ”

他还承认,在这一领域需要进一步开发共同约定的智能计算理论,强化学习是当今优秀的候选技术,但其他候选技术也许值得探索。

Sutton是强化学习领域的先驱,出版了关于这个课题的经典教科书。 他目前正在从事的AI实验室DeepMind是“ 深度学习” 该强化学习技术将神经网络整合为基本的强化学习技术。 近年来,DeepMind利用深度学习攻克了围棋、国际象棋、《星际争霸2》等游戏。

强化学习与人类和动物大脑中的学习机制惊人地相似,但却面临着困扰深度学习的同样挑战。 要强化学习模式,学习最简单的事情需要大量的训练,严格约束在训练时面临的狭小领域。 目前,开发深度强化学习模式需要非常昂贵的计算资源,因此该领域的研究仅限于财力雄厚的企业,如拥有DeepMind的谷歌和拥有OpenAI的一些微软。

将实际知识和常识集成到AI中的计算机科学家和图灵奖获得者Judea Pearl以贝叶斯网络和因果推理工作闻名,AI系统强调要最有效地利用发送给它们的数据,需要实际的知识和常识。

Pearl说:““ 我认为应该建立一个将实际知识和数据结合起来的系统。 ” 他补充说,只会收集大量数据盲目处理的AI系统注定要失败。

Pearl说,知识不是来自数据。 相反,我们利用大脑中的先天结构与实际世界交流,我们利用数据探索世界,并从中学习。 就像新生儿探索世界一样,新生儿在没有明确指示的情况下学到了很多东西。

Pearl说:““ 这个结构必须在数据外部实现。 即使我们通过某种方法奇迹般地从数据中学到了这个结构,也有必要将其以能够与人类交流的形式使用。 ”

华盛顿大学教授崔艺珍( Yejin Choi )也强调常识的重要性和缺乏常识给当前的AI系统带来的挑战,目前的AI系统侧重于将输入数据和结果进行对应。

崔艺珍说:““ 今天的深度学习即使不理解数据集背后的任务也能解释数据集。 这起因于AI和人类智能,特别是关于实际世界的知识的差异,是常识缺失的基本要素之一。 ”

崔艺珍还指出,推理是无限的领域,推理本身是一项生成任务,与目前深度学习算法和评价标准测试中应用的分类任务有很大不同。 崔艺珍说:““ 我们不胜枚举。 我们只是马上推理。 这是将来我们应该考虑的关键的根本挑战之一。 ”

但是,我们对如何实现AI也有常识和推论吗? 崔艺珍提出致力于许多平行研究领域,如符号表达与神经表达的结合、将知识整合到推理中、设计不仅仅是分类的标准测试等。

但是,我们如何在AI上达成常识和推理呢? 崔艺珍提出了广泛的平行研究领域,包括符号和神经表达相结合,将知识整合到推理中,以及设计不仅仅是分类的标准测试等。

崔艺珍说,我们还不知道通向常识的完整道路。 她这样补充道。 “ 但是有一点可以肯定的是,我们光靠建造世界上更高的建筑物是无法到达成功的彼岸的。 因此,GPT-4、GPT-5或GPT-6可能没有任何作用。 ”

【编辑推荐】

    相关文章Related

    返回栏目>>

    河洛网首页

    Copyright © 2019 河洛网 版权所有 dahuimr@163.com