◇◇新语丝(www.xys.org)(xys.dxiong.com)(xys.3322.org)(xys.freedns.us)◇◇   智能机器人会给人类带来什么?   赵南元   问:   人就是一台机器,有的人早就认同这一观点了。你是否也这样看?   答:   说“什么是什么”算是一种分类,分类不是“客观的”,而是“主观的”。 所以把人归入哪一类都不能算错误,关键是这样分类给我们的认识带来什么好处。 例如有人认为人“一半是天使,一半是野兽”,这样说实际上是指出了人性的两 个方面:与遗传有关的先天的生物性(野兽)和与遗传无关后天习得的文化性 (天使)。这种分类对于研究人性指出了一个方向。“人是机器”也是一种分类, 把人分到“机器”这一类,也是指出了一种研究方向。就是说尽管人的心灵非常 复杂,但仍然可以像机器一样用分析——综合的方法进行研究,将其分解为若干 更简单部分,用这些部分的相互作用来解释人脑作为整体系统的“运行机制”。   问:   我觉得这个“研究方向”未必行得通。综合起来看,人与机器的差别是巨大 的。机器缺少情感,没有思维但复制和制造容易,兼容性强;而人有情感和思维, 而且又极其排他(无论是社会意义上的自私还是生物学意义上的免疫排异),这 一切又使得人们认为人和机器在本质上还是不一样的,前者有血肉情感和灵魂, 而后者没有血肉情感和灵魂。   答:   这个看法符合大多数人的直觉,也符合目前的现实。现在的机器都没有“灵 魂”,但如果我们把“灵魂”理解为“自我意识”,那么将来的机器完全可能具 有自我意识或“自由意志”。如果我们认为“灵魂”是一种除了人以外不可能有 的神秘存在,那么机器就不会有“灵魂”。但是这种想法使我们想起历史上的 “活力论”,过去人们认为生物具有一种“活力”,与非生命的“无机物”有 “本质”的不同,后来人们认识到有机物与无机物遵循完全相同的化学原理,人 工合成了“有机物”,“活力论”也就破产了。20世纪40年代,信息论、控制论、 系统论和计算机技术的发展,为科学开辟了全新的天地。其中最大的突破就在于, 在物质、能量之外,提出了“信息”这一重要概念。信息依存于物质的形态,信 息处理需要能量,但信息又是一个独立的概念,计算机无论采用什么材料或物理 原理来实现,继电器、电子管、晶体管、光元件、神经元,从信息处理的角度看 是完全等效的。或者说,一台计算机无论用硅片来做,还是用神经元来做,从信 息处理的角度看并没有什么不同。因此,把“情感和灵魂”看成是信息处理机制, 就完全可以脱离“血肉”,存在于硅片上。当这一设想成为现实,“灵魂论”也 将像“活力论”一样破产。   问:   看来持乐观态度的还不少,据说研制智能机器或智能机器人已经是IT技术的 时尚和方向。人们希望这种机器人有人的情感和思维,有与人相同的智慧甚至超 过人。如今IT技术的许多成果和产品已经证明机器人正在具有人的情感、思维和 智慧,甚至超过人。因此既可以叫机器人智能化,也可以叫人性化,美国人还称 为精神机器人。你怎么看待这些说法?   答:   如果把人的情感、思维和智慧看作信息处理机制,那么计算机在这些方面超 过人就没有什么不可能。但是就目前的研究水平来看,说机器人正在具有人的情 感、思维和智慧就有些言过其实。问题主要出在对“感情”、“思维”、“智慧” 缺乏一致的定义。例如,有些机器人已经可以识别人的表情,喜怒哀乐,也可以 相应的做出一些表情。这些研究当然有意义,也有实用价值,但是还很难说这样 的机器具有“人的情感”,因为这台机器“自己”并没有“情感”。“思维”、 “智慧”也是一样,如果一个小孩会做复杂的算术,我们觉得他在“思维”,很 有“智慧”,但是一台计算机即使会解复杂的代数方程或偏微分方程,我们也不 认为它有多大的“思维”和“智慧”。深蓝战胜卡斯帕罗夫是一大新闻,但是在 人工智能研究领域并不算重大突破。目前机器与人的最大的差距在于,计算机还 不具有人那样的“举一反三”的能力,也就是学习和创造的能力。已经有不少人 认识到,“学习”算法在数学上就是一个“优化”算法,但为了让计算机自己学 习,它必须知道什么是“优”。或者说,计算机不只知道“怎样做”,还需要知 道“应该做什么”,否则是谈不上什么“智慧”的。这种“优、劣”、“好、 坏”、“善、恶”被意识所感知,才是所谓的“情感”,意识在学习中起着重要 的作用。在真正意义上关于情感和意识的研究才刚刚起步,所以研制“具有人的 情感、思维和智慧”的机器人还有漫长的路要走。不过一旦机器能够用人脑的原 理和机制进行思维,超过人就不难了,毕竟和神经元相比,电子器件的速度要快 好几个数量级(千百万倍)。假如两个人的思想方法完全一样,只是甲想任何问 题都比乙快一倍,在旁观者看来,会觉得甲比乙更“聪明”,尽管乙不知道的甲 也照样不知道。   问:   现在在技术上已经可以把硅芯片埋入人脑,尝试治疗某些疾病。将来是否可 能在视、听神经中埋入芯片,记录人一生的见闻乃至思想,就可以在此人死后使 其在机器人中复生?   答:   仅仅纪录人的所见所闻不足以推测其思想,因为有相同经历的人未必有相同 的思想。纪录计算机的“思想”比较容易,只要纪录“总线”上的信息,再知道 CPU的规格,计算机“想”什么就全都清楚了。遗憾的是人脑中没有这样一条 “总线”,人的思想是分散在几万亿个神经元突触中的,探测起来极为困难。所 以记录思想的设想虽然在原理上是可能的,但技术上目前还没有找到突破口。   问:   我感到最可怕的是,计算机的禀性与人性已达到高度的一致,在它与人对弈 屡次失败后,或人的指令惹怒了它使它恼羞成怒时,它会把对手、把指令它的人 杀死。这样的报道已屡屡出现,是否真实还有待验证。但也可以说明,计算机的 人性和智能已经与真实的人性越来越由兼容性了。   答:   如果这有这样的事,应该说计算机是“灭绝人性”了。下棋下输了就杀人, 能说是“人性”吗?稍微懂得一点计算机的常识,就可以看出这一定是三流报纸 的假新闻。计算机要能杀人,首先得有手才行(内行的术语叫“执行机构”), 但下棋的计算机是不需要手的,只要在屏幕上显示棋局即可。我也看到了这个新 闻,说计算机把电通到键盘上,把对手电死了。但要使这样的事可能发生,首先 需要设计导电的键盘(现在的键盘都是塑料的,不导电),然后再把强电通到键 盘上,还要加一个开关,并且让计算机控制这个开关。这一切都是没有手的计算 机做不到的,只有人能做到。所以如果真有这样的事,也只能是“人杀人”,而 不是“计算机杀人”。机器人有手,所以原则上可以杀人,工业机器人“杀人” 的事件确实出现过,但那是机器人的控制系统受到干扰,发生误动作,把操作人 员按在墙上挤死了,事件的性质相当于普通机器的事故,机器人本身并没有杀人 的“动机”。   问:   现在的机器人还没有任何“动机”,但是将来的那些比人还聪明的机器人就 不同了。到那时候,科学作家艾萨克·阿西莫夫于1950年在其著作《我,机器人》 中提出的著名的为我们后来人奉为圭臬的机器人三定律就可能会过时了。机器人 三定律是:第一定律,机器人不得伤害人,也不得在人受到伤害时袖手旁观;第 二定律,机器人应服从人的一切命令,但不得违反第一定律;第三定律,机器人 应保护自身的安全,但不得违反第一、第二定律。这三个定律更有可能被机器人 单方面撕毁协议。因为一旦机器人与人一样有了感情、思维、推理和智慧,甚至 比人更聪明,就会比人更工于算计和自私。这样,下面的一个在激烈竞争时代的 流行故事就得改写。   原先的版本是两个人在森林里走路,遇到了一只老虎。一个蹲下来系鞋带, 旁边的人说这时候系鞋带还有什么用啊?系鞋带者说,我系好鞋带只要能跑过你 就有用了。但是机器人与人在森林里散步,也遇到了一只老虎。机器人就会思考, 什么机器人不得伤害人,见鬼去吧!在利益面前,先保护自我。机器人也不用系 鞋带,它首先就会把人一把揪住,送到虎口,说,你先凑合着吃这个人吧,我再 给你找个更可口的,说完就自己先逃走了。   答:   这种说法存在一个误区:认为越聪明的人越自私,这是毫无根据的。在我们 日常生活中也得不出这样的“规律”,那些最自私的人恰恰不大聪明,不知道与 人合作才能获得更大的利益。生物进化的自然选择规律使得生物都是自私的基因 的表现,所以一切生物的本性都是一样自私的,尽管如此,生物的智力却有天壤 之别,这也说明自私与智力并不相关。   机器人三定律这个说法不恰当,这三条不是自然界的“定律”,也不是机器 人与人签订的“协议”,而是我们制造机器人时给机器人规定的行为准则,也可 以看成是一组价值观。当然这个准则只是一般而论,如果有人想设计机器人用于 战争,恐怕就要改成“不伤害自己人,要伤害敌人”之类了。这类机器人非常危 险,设计者当然会加上多重的安全措施,以免它掉转枪口打自己,正如对军人要 训练他绝对服从命令一样。   机器人也会有某种程度的“自私”作为学习时的评价准则,例如尽量节约能 量。但是与人类比较起来,其自私的程度会逊色很多。这样估计有几条理由:第 一,人是进化的产物,是自私的基因的表现,其生存的意义就是生存本身,而机 器人是人是人设计的,其生存的意义是为人而存在的,是获得更多的知识。第二, 人是动物,受到很多生物学的制约,但是机器人则不存在这种制约。例如,生命 属于人只有一次,所以人(以及一切动物)都会尽最大努力保护自己的生命, “我”是唯一的;但对于机器人而言,这些约束却不存在,机器可以自由的复制 自己,就像孙悟空拔一把毫毛变出成千上万的自己,到任务完成后再合成一个, 把各自学到的知识收集到一起;人的头脑不可能和肉体分离,机器人却可以把脑 袋放在某个计算机里,通过宽带网控制现场的身体,身体“遇难”了,再换一个 就是,如同我们换一件衣服,甚至可以根据不同的任务选用不同结构的“身体”; 机器人的“我”的概念与人类有很大不同,人类的“我”是一生不变的,不可分 合的,机器人的“我”可以是根据任务临时组建的,由于机器人的知识可以共享, 所有各个机器人获得的新知识都放在一个巨大的共同知识库中,当需要完成特定 任务时,可以按照任务需要从知识库中选取知识和经历,组建一个机器人,任务 完成后把所学的新知识、新经验加入知识库,“我”到此终结。这样可以随时产 生,随时消亡的“我”,当然没有太自私的理由。   所以那个老虎的故事就没什么道理,机器人的身体是金属和塑料制品,老虎 不会吃,没有理由逃走;即使损坏了,也可以很方便的修复或更换;而它如果想 出好方法来救人,就成为可贵的知识,被载入知识库,使自己的一部分得到永生, 何乐而不为。   问:   如果智能机器人不受人类控制了,怎么办?它们有可能会篡夺人类在地球上 的统治地位,把人类也当成一般的动物看待。   答:   “控制”这个词可以从不同层面上理解。拿空调机做例子,如果一个空调机 没有任何自动控制功能,只有一个开关,我们觉得热了就把空调打开,感到冷了 就关上,空调完全在我们的“控制”之下,但这样的空调用起来是很麻烦的。我 们现在使用的空调都有温度自动控制功能,温度高了自动打开制冷,温度低了自 动关机,自动维持我们设定的温度。看起来“人类控制”少了,但这样的空调我 们觉得控制更方便了。如果空调机更聪明,能听懂我们的话,我们只要说“这屋 里太热了”,它就会自动设定温度,满足我们的要求,“人类控制”更小,我们 却更省事了。如果这个空调机不管我们的感受,随意设定温度,弄得我们很不舒 服,我们会觉得这台空调坏了,需要找人修理。问题在于,空调机的“目的”如 果不是为了使人舒适,又会是什么?是为了让空调机自己“舒适”吗?为了弄清 这个问题,先得明白人为什么会有“舒适”的感觉。人是恒温动物,过高或过低 的温度会使人的功能失调或消耗过大的能量,不舒服的感觉可以使人能够避开不 利环境,保护自己功能正常和节省能量。空调机不是恒温动物,其制造材料可以 在很宽的温度范围之内不会损坏,所以空调机自己“舒适”与否几乎没有意义, 如果从节省能量的目标出发,不开机当然最节省。从这个例子可以看出,从自动 控制的角度看,随着自动化程度的提高,人对空调机的“控制”越来越少,越来 越间接,但控制的层次是越来越深。最深层的控制是价值观的控制,即把人的价 值观(例如“舒适”)教给机器,让机器去追求实现价值的方法。   人类是有一点“控制”欲望的,从进化的角度看,人是从群居的猿进化来的, 在群体中居“控制”地位可以在获得食物和配偶等资源方面具有优势(好马和美 女总是属于部落的酋长),使得“控制欲”的基因得以扩散。但在实际的人际关 系中,却很少见到单纯的“控制”和“被控制”的关系,更多的是互利和契约的 关系。这是因为人类足够自私,是一种很难被控制的动物。看到记考勤的打卡机, 我们或许会觉得是人被机器所“控制”,然而打卡机并非为了自己的利益控制人 的,它维护的是一种制度,制度的根据是公司的利益,也间接的是每个员工的利 益。直接的看,员工是为了获得工资而接受打卡机的“控制”。作为人际关系, “控制权”本身并不是一种利益,但确实要花费成本,所以“控制”只是作为追 求利益的一种间接手段,而不是本身值得追求的“价值”。   人和动物的关系也是如此,如果我们想随时获得猪肉,完全“控制”猪,就 需要付出猪饲料和猪舍的成本,“控制”不是免费的午餐。而对于野猪,我们是 没有多少“控制”能力的,实际上狩猎比养殖的成本更高。   人类是生物进化的产物,背负着生物进化的遗产——自私的基因,自私的基 因的根本目标是扩展自己的个体数量。但是人类还有文化,即不通过基因遗传而 通过后天学习、创造积累起来的知识和能力。文化内容大多数是顺应基因要求的, 例如高效率获得食物的技能;但也可能反抗基因的“控制”,例如避孕技术,就 说明面对基因的“糖衣炮弹”,我们有能力把“糖衣”吃了,把“炮弹”扔掉。   智能机器人不是进化的产物,而是人的设计,不必背负自私的基因,“自私” 并不是“智能”的必要条件。在人类中,也显然不是越自私的的人越聪明。人类 发明机器,是为了减轻或代替自己的体力劳动;人类研制智能机器人,是为了减 轻甚至代替自己的脑力劳动。具有高度智能的机器人,应该能代替人想出解决问 题的办法来,但这仍然需要设计者为其设定基本的价值观。人设定的价值观,当 然会让机器人遵循阿西莫夫的三大准则,让机器人爱学习(设定很强的“求知 欲”),但是不会给机器设定极端自私的“终极目的”(例如,最大限度地增加 自己个体的数量),因为这样设定对于提高机器人的智能并没有好处。   每一种生物都掌握着生存的“技能”,这些“技能”是进化的产物,但还不 是“智能”。进化产生“技能”的过程是非常低效率的,但是一旦有了“智能”, 人类可以通过学习和创造在文化中积累知识,人类的智慧就会以极高的速度增长。 智能机器人是人设计的产物,可以不经低效率的进化过程直接具备学习和创造的 能力,但是机器人要想获得知识,除了向人类几千年积累的知识宝库学习之外别 无他法,为此也需要根据人类的价值导向才可能进行,同时需要与人类直接交流 的能力。即使是一个人,如果从小隔绝人类文化,由狼群或猩猩养大,也只会有 很低的智力水平。所以从原理上,机器人就不可能“独立”地聪明起来。   综上所述,由于机器人没有自身的根本利益,价值观由人决定,加之“控制 欲”本身对于机器人的智能无意义(机器人如果需要众多个体共同完成某项任务, 采用“分身法”比“控制”人要容易得多),所以机器人“篡夺人类在地球上的 统治地位”是不可能发生的。   问:   智能机器人不可怕,但人是可怕的。如果有个黑客,为一个智能机器人设定 极端自私甚至仇视人类的价值观,让它大量复制“分身”,就会统治世界。也可 能会有些国家出于军事目的,制造大量的杀人机器人,也会让人类面临毁灭的危 险。   答:   没有一种事物不具有两面性,民主政治也会选举出希特勒这样的“元首”。 任何科学技术成果也都有行善和为恶两种使用方法,都有正面和负面的作用。药 物能治病,也能造成不良反应;飞机能进行高效率的运输,也会发生空难,还能 用来撞击大楼;核能既可以发电,也可以做原子弹;电气化给了我们无穷的便利, 也带来短路火灾和触电身亡的危险;汽车速度越高,出事故时伤害越大……。但 是人类社会总会想出办法,让技术趋利避害,利用某种技术独霸世界的故事,只 发生在007的影片中,并没有出现在现实世界。这是由于人类足够聪明,足以想 出各种技术的、制度的方法防止危害发生,安全用电规程、交通规则就是例子。 世界上有很多黑客,但互联网并没有在他们的攻击下瘫痪;世界上的核武器从数 量上足以毁灭人类多次,但每个拥有核武器的国家都有完善的安全措施,防止核 武器的误用。人类头上有不知多少把“达摩克利斯悬剑”,但人类有能力把悬挂 它的头发丝换成一根足够结实的粗绳子。对于智能机器人,同样可以有很多软硬 件技术和制度防止出现危害人类的局面。 (XYS20040329) ◇◇新语丝(www.xys.org)(xys.dxiong.com)(xys.3322.org)(xys.freedns.us)◇◇