国内焦点 观点评论 正能量 反腐前沿 社会

智能机器究竟是如何思考的? [潇湘晨报]

观点评论 时间:2019-09-07 05:41 点击: 作者:[潇湘晨报]
[导读]AlphaGo战胜了人类最强棋手,汽车可以自动驾驶,APP可能比男朋友更了解你的喜好 几乎所有人都在享受人工智能带来的便利,但你了解它是如何运作的么? 这个问题也曾困扰着谷歌前工程专家肖恩格里什(SeanGerrish)。这位普林斯顿大学机器学习博士说:我花了无数时间在学

 
 

    AlphaGo战胜了人类最强棋手,汽车可以自动驾驶,APP可能比男朋友更了解你的喜好……

 

    几乎所有人都在享受人工智能带来的便利,但你了解它是如何运作的么?

 

    这个问题也曾困扰着谷歌前工程专家肖恩·格里什(SeanGerrish)。这位普林斯顿大学机器学习博士说:“我花了无数时间在学术界和产业界研究和实践机器学习,但我仍然不能坚定连贯地回答这个问题。”

 

    这个困扰成为强大动力,他决定弄清楚一个问题:智能机器如何思考。这八个字也成为他新书的标题《智能机器如何思考:深度神经网络的秘密》。“这是一本如果我不懂机器学习,我将会想读的书。”他说。

 

    “在用清晰易懂的方式描述这些系统的本质时,肖恩利用10多年的行业和学术经验解决了机器学习带来的一些最棘手的问题……由于市场上缺乏对机器学习通俗易懂的专业介绍,这本书将成为引导你理解底层技术的理想方法,它可以帮助你更好地判断哪些言论值得相信,哪些说得天花乱坠的谬论应该被抛弃。”微软CTO(首席技术官)凯文·斯科特说。

 

    撰文/本报记者赵颖慧

    

    

    “计算机和软件,是21世纪的杠杆、齿轮和发动机”

    两千年来,人类总被“自动机”惊艳。

 

    违背“水往下流”自然规律的喷泉,曾惊艳了两千多年前的古希腊,其实就是早期的自动机。

 

    1737年,一个可以像真人一样用长笛演奏音乐的雕塑,成为两百多年前欧洲富人趋之若鹜的新奇玩意,这是法国机械天才雅克·德·沃康松的杰作。

 

    今天,自动驾驶汽车,能与人类自如交流的机器人索菲亚,不断刷新着人们对于“自动机”的认识,甚至诞生了对“人工智能”的恐慌,“自动机”究竟发生了怎样的变化?

 

    让我们先回到1737年,工业革命的黎明时分,长笛演奏者诞生的那一年。

 

    当他出现时,公众很喜欢但并不太惊讶,因为这样的装置已经出现过。但当这位长笛演奏者把真实的长笛举到嘴边,用它的机械肺把空气送入乐器,吹出一个个音符,然后通过移动嘴唇,调整吹气的力度,控制手指精确地在长笛孔上移动,吹出一系列音符,组成一首完整的乐曲时,依然吸引了众人的目光。沃康松甚至向一小部分观众收取相当于一周薪水的费用,让他们观看这个奇怪的装置。

 

    有人怀疑雕塑里面藏着人暗地操作,沃康松直接向观众展示了长笛演奏者的内部机制,那是由风箱、气管、轴、小螺柱、弹簧、杠杆组成的机器。“它只不过是在遵循编码到它机械内脏中的一系列指令。”肖恩写道,“自动机之所以受欢迎,正是因为它看起来是完全自主的,而且它似乎复制了人类的智能。”

 

    今天,自动驾驶的汽车,战胜柯洁的AlphaGo,似乎都已与两百多年前的长笛演奏者截然不同,因为他们可以像人或动物一样自主运行,甚至似乎可以“独立思考”。

 

    但肖恩却说:“事实证明,技术专家在过去的几个世纪里没有太大变化,他们仍然在设计自动机并给它们编程,以此复制人类的思想和身体。唯一的区别是,技术专家已经把工具升级为计算机和运行在计算机上的软件,它们是21世纪的杠杆、齿轮和发动机。”

    

    “无人车”:如何“看”世界?

 

    首先,我们来看看自动驾驶汽车。

 

    人类开车最关键的是观察路况,而路况是复杂的,如穿越马路的行人、丢失的井盖、逆行的汽车……那么,自动驾驶的汽车又是如何“睁开眼看世界的”。

 

    肖恩用2005年美国无人车挑战赛上获胜的斯坦利为例,讲述这辆由斯坦福车队制造的赛车如何观察路况,如何感知这个世界。

 

    斯坦福大学人工智能实验室为斯坦利设计了由三个独立部分组成的架构:硬件层,感知层,思考层。

 

    硬件层就像人的眼睛、耳朵和双腿,负责收集数据以及执行“大脑”传来的指令,比如“转向、刹车、加速”。硬件层包括传感器和执行器,传感器有摄像机、激光扫描仪和GPS系统等。

 

    思考层就像汽车的“大脑”,负责决定汽车的实际驾驶方式,将命令发送给硬件层去执行。

 

    中间的感知层则负责“翻译”,将硬件层收集到的信息及原始数据转换成可解释的模型,提供给思考层完成工作。

 

    斯坦利具体是如何“看”的?当人类看到一条道路的照片时,一眼就能清楚地看出照片的哪一部分是道路,哪一部分是道路的边缘,哪一部分是天空。对计算机程序而言,这些细节一开始并不明显。斯坦利需要一步步地从摄像机的图像中找到道路。

 

    “为了做到这一点,斯坦利采用了机器学习中一种被称为聚类(clustering)的技术,把具有相似颜色的像素组织在一起。这样它才可以更好地判断一个像素是属于道路的一部分,还是属于道路边缘的一部分。”

 

    肖恩用通俗的方式解释说:请想象你是一个刚洗了一大堆袜子的吸血鬼,吸血鬼最喜欢的颜色是红色和黑灰色。从洗衣店回家后,你开始整理这些袜子,将它们摊开放在床上,把同色系的袜子放在一起。一段时间后便会出现一堆红袜子和一堆黑灰袜子,它们可能会在深红色和深灰色相交的地方重叠。但你发现了一只亮绿色的袜子,这只袜子显然不属于两堆袜子中的任何一堆,所以你扔掉了它。

 

    这正是斯坦利推理摄像机图像像素的方式。它通过查看代表汽车前方路面的像素来创建道路像素的聚类。在沙漠中,你可以想象代表这些道路的像素可能是灰色和棕色的混合,这会导致斯坦利最终得到一个灰色像素聚类和一个棕色像素聚类。然后,斯坦利会测试图像中其他像素是否与这两个聚类匹配。如果与聚类匹配,它们就是道路的一部分,否则,斯坦利就会拒绝它们,认为它们不是道路的一部分,就像你扔掉绿袜子一样。

 

    今天的无人汽车“看”的方式比斯坦利更加复杂,但“分类”依然是它的重要任务,明确对象是什么。

 

    智能体:没人教,也能学会打游戏

 

    在自动驾驶汽车项目如火如荼之际,谷歌收购了一家名为DeepMind的神秘小公司。在谷歌一次每周五召开的全员会议上,DeepMind给大家展示了计算机程序玩《太空入侵者》的一段视频。

 

    在这款游戏中,玩家必须移动屏幕底部的一艘宇宙飞船来射击外星人,阻止外星人降落到底部。计算机程序无可挑剔地玩着游戏,完美地赢了一局游戏,房间里爆发出一阵欢呼。

 

    为什么围观的谷歌工程师如此兴奋?“IBM难道不是早在近20年前的1997年就创造了‘深蓝’,击败了世界上最好的国际象棋棋手加里·卡斯帕罗夫吗?谷歌的工程师难道不知道他们的自动驾驶汽车已经在道路上行驶了近70万英里?如果连自动驾驶汽车都是可能的,那为什么所有人都对计算机攻克一款简单的电子游戏啧啧称奇?况且此时,计算机可以高水平地玩电子游戏也已经有多年历史了。”

 

    肖恩说:“这个计算机程序之所以让人赞叹,是因为它学会了在没有人类指导的情况下玩游戏。而早期的突破需要相当大程度的人类判断力和对算法的调整。对于自动驾驶汽车,人类需要精心开发探测可行驶地形的功能,然后告诉汽车可以在哪种地形上行驶。相比之下,程序员从来没有告诉过DeepMind程序向左轻拨操纵杆会让飞船向左移动,按下按钮会发射导弹,甚至也没告诉程序向外星人发射导弹会摧毁外星人并赢得积分。”

 

    那么,没有人指导,计算机是如何学会玩游戏的呢?答案是强化学习。

 

    “就像当你给宠物狗食物的时候它会学会听从命令一样,通过强化学习来学习的智能体也会学会听从你的命令。”

 

    肖恩用训练智能体打高尔夫球为例。有一个很大的高尔夫球场,球场上到处都有会爆炸的地雷,有复杂的地形比如果岭、球道、沙坑等,智能体需要避开所有的障碍,挥舞球杆将高尔夫球打到球场尽头的球洞中。这些障碍和风险,智能体一开始可能并不知道,“但我们仍然可以教给它好的策略,方法就是让它玩一段时间。当它达到终点位置时,游戏结束,我们立即给它一块巧克力作为奖励。如果智能体踩到地雷,我们会用电击惩罚它,相当于减去半块巧克力”。

 

    这多么像著名心理学家斯金纳提出的“强化理论”。他曾设计一种动物实验仪器即著名的“斯金纳箱”。箱内放进一只白鼠或鸽子,并设一杠杆或键,动物在箱内可自由活动,当它压杠杆或啄键时,就会有一团食物掉进箱子下方的盘中,动物就能吃到食物。

 

    斯金纳认为,无论是人还是动物,为了达到某种目的,都会采取一定的行为,这种行为将作用于环境,当行为的结果对他或它有利时,这种行为就会重复出现;当行为的结果不利时,这种行为就会减少重复出现的可能。这就是环境对行为强化的结果。强化理论最初只用于训练动物,后来用于人的学习,并发明了程序教学法和教学机。

 

    人类的成长不也是通过一步步试错,获得正反馈或负反馈从而调整自己的行为,最后形成自己的行为规范?这不得不让人想起哲学家笛卡尔1662年的《人类论》中的一句话:

 

    我想,身体也只是一个工具或机器……就如同我们的钟表、人工喷泉、锯末机和其他类似的机器,即便它们只是由人类做成,但他们能够按自己的规律做自己的事。

 

    未来:我们的机器总有一天会思考,这是大势所趋

 

    人工智能的发展并非一帆风顺。

 

    在过去的20年里,许多在人工智能领域引起轰动的想法与半个世纪前的20世纪60年代末引起轰动的想法如出一辙。

 

    “当时,人工智能领域貌似在飞速发展,神经网络得到了改进,国际象棋和围棋等游戏的算法得到了开发,行业会议上的成果以及随着微处理器的出现而呈指数级增长的硬件全都令人感到兴奋,人工智能会议似乎场场爆满——所有这一切都发生在人工智能领域进入一个被称为‘人工智能寒冬’的黑暗时期之前。后来人工智能研究的资金枯竭了几十年。人工智能甚至成为一些研究人员口中的笑柄。在20世纪80至90年代的大部分时间里,这种恐慌一直在持续,直到人工智能领域在过去20年里重获新生。”

 

    今天,机器越来越像人类,人类似乎也越来越像机器。

 

    会不会有一天,机器可以独立思考、产生情感甚至驾驭人类?

 

    尽管肖恩刻意回避对人工智能的未来做过多猜测,但他认为:“首先,我们在未来创建的自动机将会始终遵循程序……这些机器将会遵循越来越复杂的程序。辨别它们在做什么事情也会变得越来越困难,但是我们始终有可能将它们执行的每一个动作追溯到一组确定的指令。”

 

    “一些哲学家认为,这表明机器永远不会思考。我个人的信念是,人类也是机器,我们是模拟机器,如果我们相信人类可以思考,那么就没有什么能阻止我们有朝一日设计出可以思考的数字计算机。我们的机器总有一天会思考,这是大势所趋,它们会产生情感、观点和自我保护的愿望,这些总有一天会与我们人类发生冲突。”

 

    撰文/本报记者赵颖慧

 

    责任编辑:小编

    精彩评论