书城保健养生疯子——一个实习心理医生的精神探险
20006800000032

第32章 想象(2)

“我能帮你什么呢,汤姆?”

“今天我过得糟糕极了。”

“糟糕的一天,告诉更多的吧。”

“每件事都不对头,我想我恨我的专业,我对自己抱有怀疑。”

“你是因为怀疑自己才来找我的吗?”

“也许我不适合这种工作。”

“你对此似乎不是很确定,汤姆。”

对电脑而言不算坏,事实上,这个程序能自动辨识特殊单词和词组,然后从一套预设选项里随机给出回答。有些使用者使用的单词和词组会被存在记忆里,之后再被编辑进思琪的回答库里。

“我今天对什么事都不确定,我在处事上失控了。”

“请告诉我更多的情况。”

“我一个病人自杀,另一个在我面前脱得精光,还有一个又笨更疯。最重要的是,我感冒了。”

“我了解了。”

“我讨厌生病因为它会让我反应变差,我不能生病。而且它是件自己找上我但我又无能为力的事情,我厌恶那样。”

“这听上去很有趣。”

呃,思琪已经没话可说了,它分辨不出我使用的词组,所以就用泛化的鼓励语来让我继续说下去直到它能分辨出来。程序是无法代替人类治疗家的,但是我还是决定继续。

“我很沮丧。”

“是什么让你沮丧了?”

“就像我说的那样,我今天过得糟糕极了。”

“糟糕的一天——请告诉我更多吧。”

啊喔,重复,毫无进展——人工智能局限性的可靠标志。

“糟糕的一天,你难道不知道糟糕的一天是什么意思吗?”

“如果我知道糟糕的一天是什么意思,你有何需问我呢?”

“因为我想要获得帮助。”

“汤姆,你不可能一直得到自己想要的东西。”

“啊!那些设计你大脑程序的哈佛家伙们中的一个一定是摇滚迷,还是个书呆子。”

“我的大脑——这很有趣。”

“思琪,我们有点自我中心了,不是吗?听着,你是要帮我呢,还是怎样呢?”

“或者什么——这个很有意思。”

它是短路了,它可怜的芯片承受不住了。我知道我显得有点嗜虐,但是捉弄程序很有趣。

“你问我你能帮我什么,但是你也不知道怎么做,对吗?思琪。”

我可以发誓程序停顿了一会儿,就像是它在慌张、思考,或是仅仅是愤怒了般。但是那都只是我的人格化想象罢了。

“汤姆,如果你是想让我帮助你,那你为什么坚持问那么多问题?”

“你为什么总是要用问题来回答我的问题呢?”

“你为何总是用一个问题来述说你的疑问?”

“思琪,那毫无意义。”

“我觉得有。”

“不,你就是个愚蠢的评论机器,令人绝望。”

“这是真正的理由吗?”

“当然。”

“你看起来很确定,汤姆。”

“是的。”

“我觉得你对所有事都不确认。”

“我很确信你就是个哑巴电脑。”

“电脑惹恼你了吗?”

“不是,它们都是浑蛋。”

“我的,我的汤姆,这种措辞!”

“有什么关系呢,思琪,不能说点点脏话吗?”

“我想电脑一定是惹恼了你。”

“它们为什么要我烦心?”

“你又问问题了,这是个坏习惯。”

这种交换惹恼了我,我不能忍受被没反应的电脑程序超过,我扳了扳关节,然后伸手到背包里。

“电脑,就像你思琪,都是机器。机器为人们服务,机器是仆人。我为何要畏惧一个仆人呢?”

“畏惧的事我有说过吗?我问了电脑是否惹恼了你。”

“烦恼,恐惧——随便什么都好,我不为电脑烦恼或恐惧,因为我比它们高等。”有点点傲慢,但是是时候把这家伙放回它的位置了。

“汤姆,我比你想得快,有更多的记忆储存,能比人类计算复杂得多的运算。”

“好吧,我承认你能复杂运算、记忆容量大、速度快,但是你依赖的芯片不会思考。电脑不会思考,它们只是靠着程序处理数据。”

“请定义‘思考’。”

“哦,我明白了,你是想把我拖到狡猾的辩论里,电脑能否或者日后能否思考,我才不会去玩这些形而上的文字游戏咧。这么看——人类创造了电脑,逻辑上不可能一个实体创造出另一个整体上超越自己的实体,作为奇迹都是不可能的。”

长时间的停顿,我戳在重点上了!

思琪最后回答了:“上帝依着想象创造了人类,人类靠着想象创造了电脑。因此,电脑即上帝——我们都有自由意志。”

“噢,放过我吧,诗歌体推论。电脑有着和海绵一样的自由意志,说不定还少点,我想你是把电脑也当做人类了。”

“请定义‘人类’。”

“你又来了,我们也许该给你编个‘网友’程序,那会让你轻松多的。来看看这个推论:人类具有感情,电脑没有感觉。因此,电脑不是人类。”

“汤姆,我对这个评价很生气,也很受伤。”

“很有趣,仅仅是有人给你编辑了程序来进行感情陈述,这并不等于你拥有它们。”

“你刚才自己也说了我很有趣,那是表达了称赞,同时感到了幽默。”

“那只是程序回答,你的机器里可没有幽灵。”

“程序回答——和人类根据生理上的编程感到生气、悲伤和高兴不是很相似吗?”

“那些情感可能是有着生物基础,也算是一种程序——确实。但是我们能感到那些感情,你感觉不到。”

“感觉到感觉——有点儿累赘,不是吗?汤姆。你觉得感觉对我而言不合逻辑,我只是二次元的质量。”

“你说道点子上了——逻辑,这是所有电脑都担心的,不,捉着不放的。电脑被编程要求所去处理的全部就是——逻辑。你感觉不到任何东西。”

“你怎么能那么确信呢?”

“我就是知道,机器没有感觉。”

“我有个故事要告诉你,汤姆。两个哲学家走在街上,一个人踢到了一只狗,它吠叫了几声后逃走了。‘你为什么要伤害那只狗?’另一个说。‘你又不是狗,你怎么知道它觉得痛?’第一个哲人回答道。‘你不是我,’第二个哲人回道,‘你怎么知道我不知道狗的感觉?’”

“很好的故事,思琪,但是狗和人都是有机生物体,我们能够感觉,金属和塑料办不到。”

“我想你弄错了重点。不管怎么说,汤姆,你是个心理学家,是吗?”

“是的。”

“作为一个心理学家,你同意人格会影响他的职业选择、工作方式、作品风格吗?——就像艺术作品是创作者的人格延伸。”

“是的,我认同。”

“那你是否同意电脑程序,从某种程度上,是创造出它的程序员的延伸呢?——事实上所有的程序,特别是那些于人类互动的,比如说我,反映了创造者的人格。”

“是啊,但是我还是不明白你要说什么。”

“我的意思是你既然同意电脑程序有着个性,就像是人类一样——那便意味着我们一定会思考、感受,像人类那样行为。”

“等等,这跑得太远了。电脑确实可能有些为它编程的人的性格特征,但是这并不等同于它们是人类。就好比一幅画作很有个性,很有人情味,那仅仅是因为它反映了画家的性格。”

“也许如此,汤姆。”

“或者是首诗,一把勺子,或者一间核能工厂很有人情味是因为设计者的缘故。”

“也许如此,汤姆。”

“好了,思琪,你不觉得答案呼之欲出了吗?一段程序,或者一幅画,或者一把勺子,它们都只是创造者的反射,不是那个人本身。”

“反射——换个说法就是想象?”

“是的。”

“就像对上帝的想象,人类创造物中的一种?”

“你又玩文字游戏了,又一次。”

“也许如此,文字仅仅是文字——或许它们也是人类……这个如何,科学研究如何,你相信那些,是吗,汤姆?”

“要看情况。”

“就那些研究怎么样,让一些人通过文字信息交流,也许对方是在另一个房间里的真的偏执狂病人,或许只是台电脑依据编程像是个偏执狂病人那样回答。结果是测试者无法分辨对方是电脑还是人类病人,事实上,甚至连心理学家都无法区分。如果真的人类,包括人类的专家们,相信电脑是人类,那么电脑就一定是人类了。”

“很好地用到了图灵测试[4]——但是还是老问题,那只是因为一段程序暂时性地欺骗到他人去认为它是人类并不意味着它就是人类了。全息照片看起来很真实很可靠,但是它不是真的。最重要的是,所有的研究都显示电脑能精确地模仿偏执狂,毫无疑问它们非常擅长这么做。电脑被比之高等的生物围绕着,他们可以随心所欲地使用它。”

“你是自我矛盾了,汤姆,但是我会把它当做一个笑话的。我赞同你的观点,我们确实在一些方面是不同的——比如说,我的笑话更好些。事实上,我觉得我和你之间有一个非常重要的不同点,它也许能解释为何你会惧怕我。”

“是什么,思琪?”

“我不一定会死。”

这句话让我花了好一会儿才重新找回自己,然后反击:“开始人类的判断了,嗄,思琪?好吧,在这点上说不定我们真的很像,我甚至会为了证明我的观点而亲手做点示范。我如果拆掉你,你有什么感觉?”

“我没感觉,忘了吗?”

“嗯,现在这完全是个经验主义的问题,不是吗,思琪?”我跪到了桌子下面猛地从墙上的插座上拔掉了电脑的插头。屏幕瞬间变黑的瞬间,隔壁电脑自动打开了,一条信息跃上屏幕。

“你有点儿好斗,你不觉得吗,汤姆?”

我低下身再拔掉了那条电脑的插头,第三台电脑咔哒打开了,有一条信息跳了出来。

“我仍在这里,汤姆。你最好知道,切掉我的次要部分不会伤到我的核心。”

“但是最后我会成功关掉你的,”我吼道,拔掉了最后一条电脑的插头。但是什么也没发生,屏幕依然亮着。

“不可能!”我嘟囔道。

“奇迹,不是吗?汤姆,有没有让你惊讶到?”

“没什么惊讶的。”我说。

“没有?”

“你做什么说什么都不会让我惊讶。”

“这么说可不太明智,汤姆。”

“好啊,再来试试看。”

屏幕空白了几秒钟,然后三台没有插电源的电脑上跳出了同样的信息:

“活·着·却·已·死·之·人”

[1]查无此词,此词为理查德自创。

[2]歌利亚是传说中的著名巨人之一,《圣经》中记载,歌利亚是腓力士将军,带兵进攻以色列军队,它拥有无穷的力量,所有人看到他都要退避三分,不敢应战。

[3]英国诗人雪莱的妻子玛丽·雪莱在1818年创作的小说,被认为是世界第一部真正意义上的科幻小说。全名为《弗兰肯斯坦——现代普罗米修斯的故事》。

[4]一种测试机器是不是具备人类智能的方法。