打印

[转帖] 【科技】 科学美国人采访艾伦AI研究所首席执行官:AI并不想找我们麻烦

0

【科技】 科学美国人采访艾伦AI研究所首席执行官:AI并不想找我们麻烦

中国人工智能学会mp2016-10-28 16:59:25

声明:本文由入驻搜狐公众平台的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。


  人工智能学家

  

  原文链接:https://www.scientificamerican.c ... -not-out-to-get-us/

  好莱坞的机器威胁论相信AI在不久的将来会掌控整个世界,当那一天来临,一切会如何呢? Etzioni目前是艾伦AI研究所(AI2)的首席执行官,该组织是微软共同创始人Paul Allen在2014年成立的一个组织,专注于人工智能的潜在利益,并且反对好莱坞或其他研究人员关于人工智能可能威胁人类的言论。

  

  图片来源:Hemera Thinkstock Images \ Sarah Holmlund

  Elon Musk的自动驾驶汽车新计划对人工智能寄以厚望,希望AI能确保特斯拉汽车可以实时读取和应对不同的驾驶状况。AI做出一些令人印象深刻的成绩。例如,据AlphaGo计算机程序的制造商报告,他们的软件学会了导航错综复杂的伦敦地铁系统。就连白宫日前也发布了一份报告,以帮助美国做好准备迎接机器能像人类一样思考的那天到来。

  Oren Etzioni是一个计算机科学家,他花了几十年来研究和并图解决人工智能中的根本问题,他表示,AI的目前发展程度还不足以让机器掌控世界。Etzioni目前是艾伦AI研究所(AI2)的首席执行官,该组织是微软共同创始人Paul Allen在2014年成立的一个组织,专注于人工智能的潜在利益,并且反对好莱坞或其他研究人员关于人工智能可能威胁人类的言论。

  AI2的项目可能不是非常出名,其中包括一个基于AI的搜索引擎的学术研究,称为语义学术(Semantic Scholar)。但他们在处理AI领域方面,如推理,取得了较大成就,这就是Etzioni所谓的“思路狭窄的学者能将一件事情做到极致”。

  最近,在纽约举行的AI会议上,科学美国人与Etzioni进行了访谈。Etzioni表达了他对过分吹嘘技术的当前能力的公司持有关注,特别是一种称为深度学习的机器学习技术。该技术通过网络运行大数据集来建立模拟人类大脑的神经网络,教会计算机自己解决具体问题,例如识别模式或识别照片中的特定对象。Etzioni还解释了为什么一个10岁的人比谷歌DeepMind的AlphaGo程序更聪明,并表示需要开发一个人工智能“监护人”程序,来防止其他AI程序危险化。

  [下面是采访的编辑笔录。]

  AI研究人员在开发这项技术的最佳方式上有没有争议呢?

  我们在语音识别、自驾车(或部分自动)和AlphaGo等领域取得了一些真正的进步,这些都是非常真实的技术成果。但是我们如何解释它们呢?深度学习显然是一种有价值的技术,但是我们在人工智能方面还有许多其他问题需要解决,包括推理(意思是机器可以理解,而不仅仅是计算2 + 2 = 4),并且机器可以使用背景知识来创建上下文。自然语言理解是另一个例子。尽管我们有AlphaGo,但没有任何一个程序可以阅读和完全理解一个段落,甚至一个简单的句子。

  有人说,深度学习是“我们现有最好的”的AI,这是对深度学习的肯定吗?

  当你为了让计算机理解而标记大量数据时,当你有很强的计算能力并试图找到数据中的模式时,我们都会发现,深度学习在解决这些问题上是无与伦比的。再者,AlphaGo的系统处理了3000万个职位来教会AI程序在不同情况下应做出怎样的正确操作。还有一些其他应用情况,例如放射学图像,其中图像被标记为有肿瘤或没有肿瘤,深度学习程序就可以确定其先前没有看过的图像中是否有肿瘤。有很多工作要深度学习技术,是的,这是尖端技术。

  那么问题是什么?

  问题是对于智能来说,不仅仅有一种情况,并不是通过很多数据来训练一个程序就能可以解决问题。考虑学生为标准化考试(如SAT或纽约大学入学考试)提供的数据。他们无法通过复习3千万以前被标记为“成功”或“不成功”的考试,就能够获得高分。这是一个更复杂、互动的学习过程。智能还包括从建议、谈话的上下文中或通过阅读一本书来学习。但是,尽管深度学习有这些显著进步,仍没有一个程序能够做到10岁的人可以做的所有事情,比如说拿起一本书,阅读其中一章,并回答一些关于阅读内容的问题。

  AI如果能通过标准化考试,会是该技术的重大进步吗?

  实际上,艾伦AI研究所已经将这个问题作为一个研究项目展开研究。去年,我们赏金5万美元,来奖励写出能通过八年级科学考试AI软件的人。来自世界各地的780多个团队工作了几个月,尽管降低难度只测试了八年级考试的多项选择题,也没有团队的程序得分能超过60%。这表明了AI技术的研究现状。

  最佳的AI系统是如何保证正确回答问题的呢?

  语言中常常有一些线索。最成功的系统使用精心策划的科学文本和其他公共资源的信息,然后使用精心调整的信息检索技术搜索,以找到每个多选题的最佳候选答案。例如,什么是最好的电导体:塑料勺子,木叉子还是铁棒?程序非常擅长使用技巧,它可以检索到电和铁或电导率和铁在大量文件中共存的情况比塑料和导电性更常见。所以有时一个程序可以采取捷径并得出结果。这就像孩子做出有根据的猜测那样。对于没有系统的评分超过60%,那是因为这些程序使用统计数据来进行有根据的猜测,而不是仔细推理这些问题,所以正确率并不高。

  AlphaGo背后的DeepMind团队现在有一个AI程序,它通过使用外部存储器系统超越了深度学习。他们的工作对创造更人性的AI有什么影响?

  DeepMind是移动深层神经网络(人工智能旨在模仿人类大脑)方面的领先者。DeepMind的贡献虽然很重要,但也是仅仅是推进图形结构中根据事实推理的很小的一步。例如地铁地图用现有的符号程序可以轻松地完成任务,但如果这个成就想作为一篇论文发表在《自然》上,就得深入研究一个神经网络如何从示例中学习执行任务。总的来说,这是DeepMind的一大步,但只是人类的一小步。

  人们如何使用诸如深度学习、机器视觉和记忆等方法的组合来开发更完整的AI?

  这是一个非常有吸引力的概念,实际上我曾任华盛顿大学教授时的研究是基于使用互联网作为AI系统数据库的想法。我们建立了一种称为开放信息提取的技术,索引了50亿个网页从中提取句子,尝试将它们映射到机器的可操作知识。这台机器有超自然的能力,它能爬下网页得到所有的句子,但问题是句子是在文本中或图片上的。作为人类,我们的大脑具有卓越的能力,这种能力计算机科学家至今仍未破解,比如将行动映射到推理的能力等。因为我们还没有想出如何从文本和图像映射到让机器能像人类一样工作,因此我们产生了通用数据库和人工智能科幻小说中的想法。

  你提到我们离人类水平的AI是至少还有25年,人类水平的AI是什么意思,为什么是这样一个时间框架呢?

  真正的理解自然语言、人类智慧的广度和普遍性、我们下围棋和穿越街道的能力、还有做一个像样的煎蛋卷,这些多样性是人类智慧的标志,我们今天做的仅仅是“思路狭窄的专家可以把一件小事做到极致”。为了得到那个时间框架,我问了促进人工智能协会的研究员,我们什么时候能实现一个像广大人民一样聪明的计算机系统。没人说这会发生在未来的10年,67%的人说会发生在未来的25年及以上,25%的人说“永远不会”发生。他们可能是错的吗?可能是的。但是你要相信谁呢,是人们还是好莱坞?

  为什么这么多受人尊敬的科学家和工程师警告说,AI会给我们带来麻烦?

  我很难猜测是什么让像 Stephen Hawking 和Elon Musk这样的人会对人工智能发表这样的言论。我不得不猜测,这种言论会在一段时间后变得无聊,因为这是一个缓慢发展的话题。我要说的是,当他们和Bill Gates(我非常尊重的人)谈论人工智能会变得邪恶或潜在的灾难性后果时,他们总是插入一个限定词,说“最终”或这个“可能”发生。我同意这一点。如果我们讨论的是一千年后或在遥远的未来,AI是否有可能给人类带来厄运?绝对是可能的,但我不认为这种长期的讨论应该分散我们关注真实的问题的注意力,如AI和工作、AI和武器系统等。而“最终”或“概念上”这些限定词在一些翻译中被漏掉。

  鉴于AI的缺点,人们是否应该关心汽车制造商对自动驾驶汽车日益增长的兴趣?

  我不是自动驾驶汽车(没有方向盘或刹车踏板)的忠实粉。因为我了解计算机视觉和AI,使用自动驾驶汽车我会感到不自在。但我是组合系统的粉丝,因为如果你开车时睡着了,汽车可以自动刹车。人类驾驶员和自动化系统搭配起来比单独使用更加安全。让新技术应用在人们的工作和生活中并不容易。但我不确定让车来做所有的工作就是一种解决方案。

  谷歌、Facebook和其他著名科技公司最近建立了人工智能合作伙伴关系,旨在服务于人和社会,并为人工智能研究制定道德和社会最佳实践。人工智能技术是否足够先进能让他们进行有意义的对话?

  世界领先的科技公司一起来思考这些事情是一个很好的主意。我认为他们这样做是为了回应关于AI是否会掌管世界的担忧。很多恐惧是完全夸大的,即使我们有了自动驾驶汽车,也不会有100人聚在一起说“走啊一起去白宫吧”。像Elon Musk说的生存危机已经存在几十年了。然而,自动化、数字技术和AI通常会影响就业形势,无论是机器人还是其他情况,这才是真正的问题。自动驾驶汽车和卡车将大大提高安全性,但也会影响依靠驾驶谋生的大量工人。另一件让值得讨论的是潜在歧视。如果AI技术用于处理贷款或信用卡申请,AI技术会按法律和道德的方式做吗?

  如何确保AI程序的行为遵守道德和法律约束?

  如果银行用软件程序来处理贷款,即使不使用种族或性别作为明确的变量,计算机程序也可能存在歧视行为。因为程序会访问很多变量和大量的统计数据,它可以找到邮政编码和其他变量之间的相关性,构成种族或性别变量的替代变量。如果它使用替代变量来决策,这是很难检测或跟踪的。因此,我们建议使用AI监护人的概念,用于监测和分析例如基于AI的贷款处理程序的行为,以确保其遵守法律,并确保随着时间演变它是符合道德标准的。

  AI监护人现在研发出来了吗?

  我们呼吁社会群体开始研究和建立它,目前来说还只是一个想法。我们想用AI监护人来推翻在好莱坞电影《终结者》中为AI技术诠释的普遍形象——该技术是一种邪恶又庞大的力量。

【重磅】未来科技学院筹备成立,开讲前沿科技未来发展趋势

  2016年7月,人工智能学家AIE实验室基于自身的研究成果和所拥有的顶级科学家资源,筹备建立未来科技学院 (Futurology University)。

  未来科技学院的使命和目标:将邀请国内和国际著名科学家、科技企业家讲授人工智能、互联网、脑科学、虚拟现实、机器人等领域的基本原理和未来发展趋势。未来科技学院的目标是研究前沿科技未来发展趋势,培养掌握未来科技动向的企业家和具有独立创新精神的未来科学家。

  开始激动人心的学习之旅:无论您是企业家,投资人,还是青年学子,科技爱好者,如果您希望把握科技未来发展趋势,与世界著名科学家,科技企业家,风险投资家进行直接交流。欢迎您加入未来科技学院大家庭。

  您可以扫描二维码,进入未来科技学院临时群,然后工作人员邀请您加入未来科技学院的免费学习群,开启前沿科技未来趋势的学习之旅。

  人工智能学家 Aitists

人工智能学家是权威的前沿科技媒体和研究机构,2016年2月成立人工智能与互联网进化实验室(AIE Lab),重点研究互联网,人工智能,脑科学,虚拟现实,机器人,移动互联网等领域的未来发展趋势和重大科学问题。

[ 本帖最后由 druid169 于 2016-10-29 19:44 编辑 ]
本帖最近评分记录

TOP

当前时区 GMT+8, 现在时间是 2025-3-19 20:03