吴恩达、Yann LeCun 等大佬回顾预测 2019 年 AI 发展



转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com

AIQ 机器学习大数据 知乎专栏 点击关注

人工智能一度被炒作为一项可以拯救世界或者毁灭世界的技术。

拨开喧嚣与炒作的迷雾,VentureBeat 与人工智能领域的杰出专家 Google Brain 联合创始人吴恩达,Cloudera 和 Fast Forward Labs 创始人 Hilary Mason,Facebook AI 研究院创始人 Yann LeCun,以及埃森哲人工智能全球负责人 Rumman Chowdhury 进行了一次交流,探讨人工智能的进展和展望。他们多年与全球最大的科技和行业公司合作,了解真实的人工智能工作方式。

在大佬们的眼中,2018 年人工智能的关键里程碑有哪些?对于 2019 年,他们又有哪些期待呢?

(上图从左到右依次为:Cloudera 机器学习总经理 Hilary Mason,埃森哲全球 AI 负责人 Rumman Chowdhury,Facebook AI 研究院主任 Yann LeCun 和 Google Brain 联合创始人吴恩达。)

在对过去一年的回顾和未来的预测中,大佬中有人表示,类似终结者 AI 等场景的传言越来越少了,因为越来越多的人了解 AI 能做什么,不能做什么。但这些专家还强调,该领域的计算机和数据科学家仍需要在推进人工智能的同时,遵循负责任的道德规范。

Rumman Chowdhury:全球范围内将会出现更多政府审查和技术监管

Rumman Chowdhury 博士

Rumman Chowdhury 博士是埃森哲应用智能部门常务董事,也是其负责任的人工智能计划的全球负责人,2017 年入选 BBC 的全球 100 名女性名单。 

在电子邮件回复中 Chowdhury 表示,在 2018 年,她很高兴看到公众对人工智能的能力和限制有了更多的了解,并且了解到关于人工智能带来威胁的讨论中除了担心像“终结者”这样的智能机器统治地球之外,还出现了其他更多的声音。“紧接着,关于隐私和安全的意识和问题,以及人工智能在塑造我们的后代和未来方面的作用的讨论将会升温。” 她说。

然而,公众对人工智能的意识仍然不够。在未来的一年里,她希望看到更多的人利用教育资源来理解人工智能系统,并能够明智地质疑人工智能的决策。

她对 AI 生态系统中的技术公司和个人在工作中考虑 AI 的伦理影响感到惊喜。但她希望看到人工智能社区能够做得更多,“把道德口号变成实际行动”。

“至于道德和人工智能领域,在“电车问题”之外,我希望看到更加深入研究 AI 将引发的没有明确答案的问题。如 AI 和物联网监控之间“合理”的平衡点是什么,因为它虽然保证了安全,但可能会加深种族歧视等问题。我们应该如何进行先进技术收益再分配,以减小贫富差距?儿童的接触水平应维持在怎样一个水平,既让他们“AI 本土化”,但不会被操纵或同质化?我们如何在推广人工智能自动化教育的同时,保障创造力和独立思想得以蓬勃发展?”她问道。

在未来一年,Chowdhury 预计全球范围内将会出现更多的政府审查和技术监管。

“人工智能和全球科技巨头所掌握的权力引发了很多关于如何规范行业和技术的问题,”她说。 “在 2019 年,我们将不得不开始探索这些问题的答案,当技术成为一种在特定背景和环境中会产出不同结果的多用途工具时,我们应如何规范技术?如何创建不会扼杀创新,或更利于大型公司(可以承担合规成本)而不是小型创业公司的监管规则?监管应在什么级别进行?在国际范围,国内,还是当地范围?”

她还预测,人工智能在地缘政治问题上的作用不断加强。

“这不仅仅是一项技术,而是一种经济和社会的塑造。我们在这项技术中反思、扩展和推行我们的价值观,行业需要对我们构建的内容和方式不那么天真,”她说。为了实现这一目标,她认为人们需要跳出人工智能行业中常见的想法,我们不做这件事,中国也会做,创造力就是力量。

在消费者层面,她认为 2019 年家用智能将会更普及。许多人已经习惯于使用 Google Home 和 Amazon Echo 等智能音箱,以及一系列智能设备。在这方面,她很好奇将于 1 月份第二周在拉斯维加斯举行的 CES 上是否会出现新鲜的产品,可能会进一步加速人工智能进入人们的日常生活中。

“我想我们都在等待一个机器人管家,”她说。

吴恩达:AI 的机会在软件行业之外的应用

吴恩达

斯坦福大学的兼职计算机科学教授,同时是 Google Brain 的联合创始人,以及 Landing AI 的创始人吴恩达,由于种种原因在 AI 圈子中名声显赫。

此外,吴恩达还是 YouTube 和他创立的在线学习公司 Coursera 的讲师,他创立了 deeplearning.ai 并撰写了 Deep Learning Yearning 一书。

在百度工作 3 年多之后,吴恩达于 2017 年离开。在此期间,他帮助这家搜索巨头向 AI 公司转型。

另外,他还是价值 1.75 亿美元的人工智能基金和无人驾驶汽车公司 Drive.ai 的董事会成员。

他预计,在 2019 年,一个主要进展或变化是 ** AI 将被用于科技或软件公司以外的应用程序 **。他说,人工智能领域最大的机会在软件行业之外,他引用了麦肯锡报告中的数据,人工智能到 2030 年将产生 13 万亿美元的 GDP。

“我认为明年(2019 年)很多故事将发生在软件行业以外的人工智能应用中。在行业中,我们不仅帮助了谷歌、百度、Facebook 和微软等大公司(与我无关),像 Square、Airbnb、Pinterest 这样的公司也开始使用一些人工智能功能。我认为,下一次巨大的价值创造的浪潮,将发生在你成功让制造公司、农业设备公司或医疗保健公司开发出数十种人工智能解决方案,来帮助其提升业务之时。”

和 Chowdhury 一样,吴恩达对 2018 年人们关于 AI 能做什么和不能做什么的理解进展感到惊讶,并且很高兴看到人们将注意力转移到除杀人机器人之外的场景。

“我特意提到了一些我认为对实际应用非常重要的领域。我认为,人工智能的实际应用还存在障碍,但这些问题在一些领域取得了很大进展,”他说。

在未来一年,吴恩达很高兴看到 AI / ML 研究中两个特定领域的进展有助于推动整个领域的发展。一个是可以用较少的数据得出准确结论的 AI,被称为 ** “少样本学习”(few shot learning****)。**

“我认为第一波深度学习进展主要是大公司带东的,它们有大量的数据训练非常大的神经网络。如果你想构建语音识别系统,用 100,000 小时的数据来训练。你想训练机器翻译系统,要用平行语料库的数量对句子进行训练,这会产生很多突破性的结果。“哪怕只有 1000 张图像,也更有希望从少量数据中得到想要的结果。”

另一个进步是一项被称为 **“广义可见性”(generalized visibility)** 的计算机视觉技术。当使用来自在斯坦福大学的高端 X 射线机的原始图像进行训练时,计算机视觉系统可能运行良好。该领域的许多先进公司和研究人员已经创建了超越人类放射科医生的系统,但缺乏一定的灵敏度。

“但是,如果使用经过训练的模型处理从低端 X 光机拍摄的 X 射线,或从其他医院拍摄的有点模糊的射线图像,结果证明人类放射科医师在泛化新环境方面比目前的学习算法要好得多。因此,我认为尝试提高新领域学习算法的泛化性能将是一个有趣的研究,”他说。

Yann LeCun:自我监督学习和基于模型的强化学习突破很重要

Yann LeCun

作为纽约大学教授,Yann LeCun 同时是 Facebook 首席人工智能科学家,Facebook AI 研究院(FAIR)的创始董事,该公司创建了 PyTorch 1.0 和 Caffe2,以及许多人工智能系统。

“当更多人加入研究讨论时,整个领域的进展会更快,这实际上是一个非常大的影响,”他说。 “你今天在人工智能中看到的进步加速很大程度上是因为更多的人比以往更快、更有效率地进行更为开放的研究。”

在伦理方面,LeCun 很高兴看到人们在工作时考虑到 AI 的伦理影响,以及偏见决策意识方面取得的进展。

“这个本应该被人们关注的话题目前已经得到了重视。而两三年前情况还并非如此,”他说。

LeCun 不认为人工智能中的道德和偏见已经成为一个需要立即采取行动的主要问题,但他认为人们应该为此做好准备。

“我认为还有…更加生死攸关的问题需要解决,但这些问题总会来,我们需要…了解这些问题,并预防问题发生。”

与吴恩达一样,LeCun 希望看到更多更灵活、更强大、不需要原始输入数据,或不需要准确条件就能产出精准输出的 AI 系统出现

LeCun 表示,研究人员已经可以通过深度学习很好地管理感知,但仍缺乏对完整 AI 系统整体架构的理解。

他说,教会机器通过观察世界来进行学习将需要自我监督学习或基于模型的强化学习

“不同的人给它起了不同的名字,但本质上它就像人类的婴儿和幼崽通过观察大量背景信息来了解世界是如何运作的一样,目前我们还不知道如何让机器做到这一点,这是一个巨大的挑战。 “人工智能和机器有一些常识,与虚拟助手聊天不会让你觉得沮丧,并且有更多话题可以聊,都将是 AI 取得的实质性进展。”

对于将帮助 Facebook 内部发展的应用程序,LeCun 表示在自我监督学习方面取得重大进展,以及用更少的数据返回准确的结果将会很重要。

“在解决这个问题的过程中,我们希望找到可以减少完成特定任务所需数据量的方法,如机器翻译、图像识别等,我们已经在这方面取得了进展;通过弱监督或自我监督学习进行翻译和图像识别已经对 Facebook 使用的服务产生了影响。因此,这些研究事实上不完全是长期的,它们也会产生短期的效果,”他说。

在未来,LeCun 希望看到可以在事件之间建立因果关系的人工智能取得进展,即不仅通过观察来学习,而且要具备实际的理解能力,例如,如果人们使用遮阳伞,那可能会下雨。

Hilary Mason:产品经理和产品负责人将开始在 AI 方面做出更多贡献

在 Cloudera 于 2017 年收购 Fast Forward Labs 之后,Hilary Mason 成为了 Cloudera 的机器学习总经理。被收购后,Fast Forward Labs 仍独立运行,生产应用机器学习报告,帮助客户预测未来六个月到两年的前景。

2018 年,让 Hilary Mason 感到惊讶的一个进步与多任务学习有关,它可以训练单个神经网络在推断时应用多种标签,例如图像中的物体。

她认为,非常有必要创建一套道德规则。“这是自从我们创建 Fast Forward 以来一直在做的事情,但是今年 [2018] 人们已经真正开始接受并关注这个话题,我想明年会“看到那些不关注这个话题的公司和个人将为此承担后果或问责,”Mason 说。

随着更多 AI 系统成为 2019 年业务运营的一部分,Mason 预计 ** 产品经理和产品负责人将开始在 AI 方面做出更多贡献,** 因为他们处于最好的时机。

AI 民主化也是一些公司所强调的,包括 Kubeflow Pipelines 和 AI Hub 等 Google Cloud AI 产品,CI&T 咨询公司也提出建议,以确保 AI 系统实际上在公司内可使用。

Mason 还认为,越来越多的企业需要形成结构来管理多个人工智能系统。

就像 DevOps 从业人员用的一个类比,管理单个系统可以使用手动部署的自定义脚本完成,而 cron 可以管理几十个系统。然而,当需要管理数十个或数百个系统时,在重视安全性、管理和风险要求的企业中,你需要专业、强大的工具。

她说,企业正在从拥有一定的能力或专业能力,朝着有系统地抓住机器学习和人工智能的机遇转变。

由于 Cloudera 最近推出了自己的基于容器的机器学习平台,所以 Mason 强调了部署 AI 容器的重要性。她相信这种趋势将在未来几年持续,企业可以选择预置 AI 或云 AI。

最后,梅森认为,2019 年整个行业的人工智能业务将继续发展,而不仅是个别公司。

“我认为,我们将看到人工智能专业实践的不断发展,”她说。“现在,作为一名数据科学家或 ML 工程师,当你换到另一家公司时会发现,你的工作将变得完全不同:不同的工具、不同的期望、不同的报告结构。这一点是共同的。”

原文链接:

https://venturebeat.com/2018/12/31/this-ai-teaches-robots-how-to-walk/


更多高质资源 尽在AIQ 机器学习大数据 知乎专栏 点击关注

转载请注明 AIQ - 最专业的机器学习大数据社区  http://www.6aiq.com