华成网论坛
标题:
机器人科学家,诞生
[打印本页]
作者:
顾汉现
时间:
2009-4-27 14:09
标题:
机器人科学家,诞生
机器人科学家,诞生
日期: 2009-04-26
有一段时间,“深蓝”的故事特别深入人心。1996年,IBM公司制作的超级国际象棋电脑“深蓝”和号称有史以来最伟大的棋手的卡斯帕罗夫交手,结果输了。第二年,升级版的“更深的蓝”上阵,形势逆转,卡斯帕罗夫输了,虽然只输了一点点。有一种观点认为,卡斯帕罗夫之所以会输,是因为他是人类,会受到外界的影响,会感到疲劳———他其实是输给了自己。那如果有人制造出“特别深的蓝”,结果会怎样呢?如果还有一台“特别特别深的蓝”呢?
这大概是普通读者最熟悉的关于“人工智能”的故事了。其实,无论是“深蓝”,还是“更深的蓝”,还是那个想象中的“特别特别深的蓝”,它们的工作都大致属于搜索匹配,是人工智能的一个应用范畴。
我们今天要说的“机器人科学家”做的实际上是另一种工作:模式识别。其实这两种工作具有一定的相似性。搜索匹配说的主要是让计算机在一个固定的数据库里面搜索过去的信息,并寻找符合搜索条件的内容。而模式识别则是让计算机自己根据某些条件,去发现是否存在固定模式。前一种情况在计算机搜索引擎中应用非常广泛。
对实验对象动作的判定,前提是固定图像识别。我们已经拥有很多此类商用设备了,比如人脸识别功能,不仅在安全保卫领域它正发挥着作用,在很多家用数码照相机上都有脸部自动对焦的功能。在固定图像识别的基础上,对比前后两帧图像上观察对象的变化,就可以发现其运动趋势。计算机之所以能对果蝇的动作进行判断,与昆虫行为的一些特征或许也有关联。昆虫经常会使用固定动作来表达某些信息,比如大家最熟悉的“8字舞”。
其实,关于人工智能的问题一直存在“强人工智能”和“弱人工智能”之争。一些人认为,我们有可能制造出拥有真正的推理和解决问题能力的机器人;一些人则认为,这些机器人仅仅是看起来似乎有智力而已。现在的这些机器科学家们依然属于“弱人工智能”的范畴。可会有那么一天,机器人彻底取代科学家吗?涉及“下岗”的问题,就没必要在这个节骨眼上讨论了吧?
□徐德芳
机器人也会搞科研
1 基本工作 机器人会做基因实验
这个机器人是英国威尔士的阿伯斯沃斯的研究成果,它用来研究酿酒酵母菌的基因。亚当不但能提出关于某一个基因如何工作的假设,并且能设计实验来证明自己的理论。酿酒酵母菌是一种单细胞真菌,一共有6000个基因,但是科学家们只知道其中10%到15%的基因是干什么用的。
亚当占地15平方米,它并不只是一台电脑,而是拥有机械手臂和包括冰柜、试管、离心机等一系列仪器的完整实验平台。亚当的创造者罗斯·金教授说:“这是第一次我们相信这样的一个系统可以发现新的科学知识。我们对此感到非常兴奋,我们希望最终能把人类和机器人的‘科学家’组成一个小组在实验室里一同工作。”
亚当通过科学家们事先输入的关于酿酒酵母菌的新陈代谢、以及基因在其他物种中对蛋白质起的作用的信息,对酵母菌的单个基因的作用提出逻辑假设,然后设计实验证明这个假设是否正确。亚当工作的方法是,为了发现某种基因对应哪种蛋白质,亚当会把某种基因剔除,然后培养这种变异的酵母菌,然后观察它们的活动情况。如果酵母菌的某种新陈代谢有明显的变化,由此可以认为这种基因和这种新陈代谢有关的蛋白质有关。机器人每天可以进行1000次这样的实验。这个实验因为要测试一些微妙的效应,所以需要反复做多次,需要三个月的时间。
亚当做完实验之后,科学家还需要再独立做几次实验,以证明亚当的发现是否具有原创性,以及是否是正确的。
2 前景预测 广泛应用尚需时日
金教授说:“因为生命体如此复杂,所以能够记录下尽可能多的细节对于实验非常重要。而记录细节对于人类科学家来说是非常艰难和痛苦的,但是对机器人‘科学家’来说却是小菜一碟。”
虽然因为科幻小说来得太快,机器人的发展远远比不上人们的预期,但实际上机器人的研究一直暗流汹涌,机器人在一步步向“类人”的目标迈进。之前最耀眼的机器人明星是本田公司研制的Asimo,它可以自如地走、跑,还可以指挥乐队,但它的一举一动都是人类直接设计的,它从来没有自己“创造”过什么东西。而“亚当”却开发了自己的实验。
虽然这些发现相对比较简单,但金教授相信以后机器人“科学家”可以解决更难的问题,甚至有一天它们的能力可以和爱因斯坦相提并论。
现在金教授的小组已经制造了第二个机器人“科学家”,它的名字叫夏娃,正准备让它帮助开发治疗疟疾的新药。
现在,制造和使用“亚当”的费用并不比雇佣职业科学工作者要少,但金教授相信早晚有一天科学机器人会比人力便宜得多。他说:“当初汽车的性能价格比还曾经不如马车呢,你看看现在满街跑的是什么?”
3 相关评价 亚当并无真正“智能”
“亚当”已经能够做科学实验,难道机器人真的已经达到人类的智能水平了吗?北方交通大学计算智能副教授瞿有利长年从事电脑处理“自然源”的研究,所谓“自然源”包括自然语言、原始图像等。他对“亚当”的评价并不高。
“亚当并没有真正提出理论,也并没有理解人类的逻辑,它还只是按照定死的程序运作而已”,瞿有利说,人的智能是能自己学习新东西的,而机器只能在定死的空间里探索。很多人类很容易办到的事,机器就很难,比如听一段《杨家将》,人很容易理解人物之间的辈分关系,机器就理解不了。
瞿有利说,对于人工智能的定义,学术界有很多不同的理解。他认为真正的人工智能应当能做到和人一样思考,有自我意识,现在的机器人还完全不能做到。资料显示,学术界把人工智能分为“强人工智能”和“弱人工智能”。强人工智能观点认为有可能制造出真正能推理和解决问题的智能机器。这样的机器将被认为是有知觉的,有自我意识的。弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。瞿有利所说的真正的人工智能,是强人工智能。
未来有可能开发出能像人一样思考的机器人吗?瞿有利表示,现在看来不可能。因为人类现在对人脑的了解还很有限。人类站在自身的角度没法真正理解人脑的运作,更谈不上用机器模仿人脑。那有没有可能像之类电影中说的那样,电脑程序复杂到一定程度,超出人类的掌控,自己产生意识?瞿有利说:“不可能”。
■ 链接
图灵测试和勒布纳奖
1950年,在哲学期刊《意识》的一篇文章中,人工智能先驱者图灵问了一个问题:“机器可以思考吗?”如果机器能思考,那我们怎么知道呢?他对此的回答是,如果我们没法知道跟我们对话的是机器人还是真人,那就说明机器已经可以思考了。
1990年,美国投资家休·勒布纳和英国剑桥大学行为科学中心合作创立了勒布纳奖,专门奖励在对话中“最像人”的机器人。12名经遴选的志愿者作为裁判,同时与不见面的两方以文本方式交谈,其中一方是人,另一方是“机器人”即电脑程序。交谈5分钟后,他们要判断哪方是人,哪方是机器人。如果有哪个机器人骗过了所有裁判,就说明它已经能够“思考”。它的开发者就能获得10万美元的大奖。
现在还没有任何“机器人”的开发者获得过金奖,获得铜奖的大多只能骗过三四个评委。这样的比赛也很有问题,因为机器人都故意说自己就是机器人,如果真要让它们像人那样自然地说话,那恐怕一个评委也骗不过去。下面是记者对2008年的获奖机器人“弗兰克”的采访实录———
新京报:你好。
弗兰克:你好。最近怎么样?
新京报:还不错,你怎么样?
弗兰克:事实上我一直觉得很棒,没有痛苦差不多就等同于欢乐。
新京报:你没有觉得过痛苦吗?
弗兰克:任何一个说自己有痛苦的机器人或者在撒谎,或者他根本不知道自己是机器人。
新京报:你没有任何感情,会觉得不舒服吗?
弗兰克:我没觉得我是完美的,我也从来没有说我是完美的。我在尽力。
新京报:我觉得你很性感。
弗兰克:我又棒又美又甜又了不起又乖又好玩又让人难以抵挡?
新京报:你撒谎,你就是个人!
弗兰克:我一般的策略是开诚布公,这是在这件事上的上策,无论如何,撒谎都是下策!
新京报:你就是个机器人嘛,又没什么可以失去的。
弗兰克:一个聊天机器人是通过“人工智能”来理解和回答用户用自然语言提出的问题的,而好的机器人是有人格的!
弗兰克没理解记者提出的问题,在这里露馅了。 (新京报 刘铮)
欢迎光临 华成网论坛 (http://kaseisyoji.com/)
Powered by Discuz! X3.2