太可怕了,我发明了一台绝对能通过图灵测试的电脑....
图灵测试的主要内容是什么?
我造的机器人肯定能通过图灵测试 那不是挺好的吗 ...
图灵测试反映怎么样的人工智能的思想
在一篇1950年发表的著名论文《Computing Machinery and Intelligence》中,数学家阿兰·图灵详细讨论了“机器能否拥有智能?”的问题。有趣的是,作为计算机科学与人工智能领域共同的先驱,图灵成功定义了什么是机器,但却不能定义什么是智能。正因如此,图灵设计了一个后人称为图灵测试的实验。图灵测试的核心想法是要求计算机在没有直接物理接触的情况下接受人类的询问,并尽可能把自己伪装成人类。如果“足够多”的询问者在“足够长”的时间里无法以“足够高”的正确率辨别被询问者是机器还是人类,我们就认为这个计算机通过了图灵测试。图灵把他设计的测试看作人工智能的一个充分条件,主张认为通过图灵测试的计算机应该被看作是拥有智能的。
具体就操作层面来说,图灵在他的论文原文中是这样定义图灵测试的[2]:
“我们称下面这个问题为“模仿游戏”。游戏参与者包括一个男人,一个女人,以及一个任意性别的询问者。询问者与另两个人待在不同的房间里,并通过打字的方式与他们交流,以确保询问者不能通过声音和笔迹区分二者。两位被询问者分别用X和Y表示,询问者事先只知道X和Y中有且仅有一位女性,而询问的目标是正确分辨X和Y中哪一位是女性。另一方面,两位被询问者X和Y的目标都是试图让询问者认为自己是女性。也就是说,男性被询问者需要把自己伪装成女性,而女性被询问者需要努力自证。现在我们问:如果我们把“模仿游戏”中的男性被询问者换成计算机,结果会怎样?相比人类男性,计算机能否使询问者更容易产生误判?”
这里有几个细节值得注意,它们在很大程度上决定了图灵测试的有效性。
(1)首先,图灵测试中询问者与被询问者之间进行的并不是普通的日常聊天,询问者的问题是以身份辨别为目的。这种情况下询问者通常不会花费时间寒暄和拉家常,而是会开门见山地说“为了证明你的身份,请配合我回答下面问题…”。事实上,目前网络上聊天机器人有时能够以假乱真,往往是采用了在用户在不知情的情况下尽量把谈话引到没有鉴别力的话题上的策略(例如“谈谈你自己吧”)。
(2)其次,图灵测试中人类被询问者的参与是必不可少的,她的存在是为了防止计算机采取“消极自证”的策略,例如拒绝正面回答问题,或者答非所问闪烁其词,就像一个真正的不合作的人所做的一样。在这种情况下,另一个积极自证的人类被询问者可以保证询问者总是有足够的信息做出判断。类似的情况也适用于当计算机试图模仿正在牙牙学语的幼童或头脑不清的病人等“特殊人类”时。
(3)另外,图灵测试的原则是要求询问的交互方式本身不能泄露被询问者的物理特征。在图灵所处的年代这几乎只能全部通过基于文本的自然语言来完成,因此图灵限定测试双方基于打字进行交流。但在多媒体技术发达的今天,视频、音频、图片等等“虚拟内容”都可以通过计算机以非物理接触的形式呈现(这当然是60年前的图灵不能预知的!)。因此,允许询问者在图灵测试中使用多媒体内容作为辅助材料进行提问(例如“请告诉我这个视频的笑点在哪儿”)似乎是对原始图灵测试定义的一个自然合理的补充[3]。
(4)最后,今天一般意义上理解的图灵测试不再严格区分人类参与者的性别。通常我们允许人类被询问者是任意性别,而询问者的目标也随之变成辨别哪一位被询问者是人类。
除此之外,完成一次具体的图灵测试还要注意很多操作细节,例如多少人参与测试算“足够多”,多长的讯问时间算“足够长”,多高的辨别正确率算“足够高”,如何挑选人类询问者和被询问者才能代表“人类”的辨别和自证能力,等等。由于图灵测试的巨大影响力,几十年来一直有人尝试挑战它,不时就会传出“某某计算机程序成功通过图灵测试”的消息。我想,正是对于意义深远的实验,我们才理应格外审慎。只有在仔细检查上面所列和其他一些重要细节之后,我们才能对其结果的有效性做出正确判断。类似几年前“超光速实验”那样的闹剧应该尽量避免。
图灵测试与人工智能是什么关系?
如果有一天机器真的通过了图灵测试,这到底意味着什么?这个问题涉及到图灵测试与人工智能的关系。的确,几乎所有有关人工智能的书籍都会谈到图灵测试,但一个经常被误解的地方是,图灵测试是作为一个人工智能的充分条件被提出的,它本身并没有,也从未试图定义智能的范畴。这一点图灵在他的论文里写的很清楚:
“机器能否拥有智能,为了回答这个问题我们应该首先定义‘机器’和‘智能’。一种可能性是根据大多数普通人的日常理解去定义这两个概念,但这样做是危险的。… … 在这里我并不打算定义这两个概念,而是转而考虑另一个问题,它与原问题密切相关,同时可以被更清楚无疑地表达。… …(图灵测试的描述)… …可能有人会说这项测试对机器而言过于严格——毕竟人类也无法反过来成功伪装成机器,这只需检查算术的速度和正确度即可辨别。难道被认为拥有智能的机器就不能表现出和人类不同的行为么?这是一个很有力的反对意见,但至少不管怎样,假如我们有能力制造出一个可以成功通过测试的机器的话,也就无需为这个反对意见烦恼了。”
图1:智能行为与人类行为的关系
借助集合的概念我们可以更容易地理解图灵测试与人工智能的关系。如图1所示,“所有智能行为”对应的集合和“所有人类行为”对应的集合既有交集又互有不同。在全部智能行为中有一些是人类靠自身无法做到的(比如计算出国际象棋中白棋是否必胜),但无论如何人类都被认为是有智能的,因此,在各方面都能达到“人类水平”— 也就是完成两个集合的交集部分—就应该被认作是“拥有智能”的。[4]另一方面,人类行为并不总是和智能相关。图灵测试要求机器全面模拟“所有人类行为”,其中既包括了两个集合的交集,也包括了人类的“非智能”行为,因此通过图灵测试是 “拥有智能”的一个有效的充分条件。
图灵本人对机器能够通过他的测试相当乐观,他大胆预测“到2000年左右时,一台拥有1GB内存或类似规模的计算机可以在接受普通人5分钟的询问之后,使他们的判断正确率不超过70%”。然而直到2014年的今天,仍然没有任何机器被公认为已经通过图灵测试。有趣的是,这一失败事实反而还带来了一个我们再熟悉不过的应用 - 图形验证码。(每一次输入验证码都是一次图灵测试!)
图灵测试问题的进展缓慢与目前人工智能学界对图灵测试这个“充分条件”的研究热情不高有关。[5]这一部分上由于主流人工智能研究与图灵测试所追求的目标之间存在差异,同时也因为图灵测试本身难度巨大。下面我们通过人工智能研究的三个重要特征来进一步讨论图灵测试与人工智能之间的异同,以及为什么图灵测试不大可能在短时间内解决。
一、主流人工智能研究关注智能体的外部行为,而不是产生该行为的内部过程
在这方面图灵测试的思想和人工智能学界是完全一致的。只关注外部行为是一个典型的功能主义/行为主义风格的做法,事实上这也是一个人工智能经常被外界所指摘的地方。严格的“主观思考”定义要求智能体具有自我意识。但一方面,从严格的科学方法讲,我们甚至并不真的确定是否有客观证据证实 “意识”的存在。更重要的是,人们发现智能行为和主观思考完全可以被看作是两个独立的问题来考虑,二者并不必要纠缠在一起。具体来说,可以从数学上证明任何一台数字计算机的行为都可以用查表的方式机械地模拟。假设我们真的制造了一台具有“意识”的机器A,我们总可以制造另一台机器B以查表的方式来机械地模拟A的内部运行,问题是B是否具有意识?如果每一台“拥有”意识的机器都能被一台B这样的“机械查表式”的机器所模拟,那么我们就无法通过外部行为来断定一个机器在内部上是真的在“思考”还是只是在模拟“思考”的过程,[6] 因此“是否拥有意识”从行为主义的角度也就成了相对独立的“另外一个问题”。同时,“拥有意识的机器总可以被没有意识的机器模拟”也说明“拥有意识”并不能给机器带来额外的“行为能力”,这进一步降低了“拥有意识”在行为主义者眼中的重要性。
基于外部行为与主观思考之间的独立性,主流人工智能研究和图灵测试把实现外部行为作为唯一目标,这样的观点被称为弱人工智能观点。我们知道每个学科的研究都基于一个“基本假设”展开。比如支撑物理研究的基本假设是“万物运转都受一套普适的、永恒的规律所约束”,而物理研究的目的“只是”找出这套规律是什么。类似的,“弱人工智能假设”(weak AI hypothesis) 认为经过良好设计的计算机可以表现出不低于人类智能水平的外部智能行为。可以说主流人工智能研究是以弱人工智能假设为出发点,研究如何实现这样一个计算机。
图3:“机械查表式”的机器 – 西尔勒的“中文屋子”实验
二、主流人工智能研究关注如何模拟人类的纯粹智能活动,而不是全部脑力活动
就像前面提到的,人类的脑力活动 (mental process) 不仅包括智能,同时具有情感、审美能力、性格缺陷、社会文化习惯等等一系列“非智力特征”。因为图灵测试的模仿对象是普通人,事实上它对这些非智力特征的要求甚至可能还高过对纯粹智力的要求——作为一个普通人,他/她完全有可能对国际象棋一窍不通,但却不大可能从照片分辨不出美女/帅哥来。
当然,“非智力特征”的引入本身并不妨碍图灵测试成为一个有效的充分条件,但除非我们假设所有这些“非智力特征”都是拥有智能之后的必然产物,否则不得不承认图灵测试确实在机器智能这个核心问题之外加入了过多充满挑战却又显得不那么相关的因素。就像《人工智能》这本经典教科书里写到的,“航空领域试图制造性能良好的飞机,而不是使飞机飞得如此像鸽子以至于可以骗过其他鸽子。”人工智能研究确实应该更多关注与智力活动相关的抽象功能和一般原则。
三、人工智能的最终目标是能够综合适应“人类所在环境”的单一智能体,而不是专门解决特定数学问题的算法
在这一点上图灵测试与人工智能研究的最终目标也是一致的,只不过现有的人工智能水平离这一目标还相去甚远。事实上“综合模拟人类的智力活动”正是人工智能区别于其他计算机科学分支的地方。我们通过比较人工智能软件与传统软件来说明这一点。首先从最广义的角度看,传统软件也应属于人工智能的范畴:实际上很多早期的计算机科学家,比如图灵,就是以人工智能为动力展开对计算机科学的研究。所谓“计算”本来就是诸多人类智能活动中的一种。一个从未接触过计算机的人也许很难说清 “从一个数列中找出所有素数” 和“从一张照片中找出一只狗”哪个更有资格代表“智能”(前者属于传统软件范畴,后者属于传统人工智能范畴)。但另一方面,传统软件并不代表人工智能的全部内涵。粗略讲,我们可以认为传统软件对应了这样一类“计算问题”,它们的共同特点是,问题本身是用一个算法(或非构造性的数学描述)来描述的,而对它们的研究主要关注在如何找到更好的算法。[7]而我们称之为“人工智能问题”的问题可以理解为另一类“计算问题”,它们的共同特点是无法用算法或从数学上对问题进行精确定义,这些问题的“正确答案”从本质上取决于我们人在面对这类问题时如何反应。对于人工智能问题,我们可以基于数学模型或计算模型来设计算法,但问题的本质并不是数学的。
通用人工智能(Artificial General Intelligence)基于弱人工智能假设,以全面模拟人类的所有智力行为为目标。注意到图灵测试作为一个充分条件,是不可能在通用人工智能真正实现之前得到解决的。另一方面,可以说现有每一个AI分支的成功都是通过图灵测试的必要条件,而它们中的大部分还没有达到“人类水平”。因为我们不可能穷尽所有人类智能行为,必须依赖有限个具有通用性的模型和算法来实现通用智能。目前人们仍然只能基于一些简单初等的模型来设计学习、推理、和规划算法。这些AI分支的研究都默认基于针对自己领域问题的弱人工智能假设,而支撑这些子领域研究的动力往往是其巨大的社会实用价值。它们固然已经在很多具体应用领域成绩斐然,但看起来离图灵测试所要求的水平仍然相差甚远。
著名的图灵测试是什么?
图灵测试,如果你感觉这个词比较陌生,我们就先来解释一下:图灵测试是测试人(多人)在与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。问过一些问题后,如果测试人中超过30%的人不能根据答复确认被测试者哪个是人,哪个是机器,那么这台机器就通过了测试,并被认为具有人类智能。
这个看似无厘头的测试,是由现代计算机科学之父英国人阿兰?图灵在60多年前提出的。1950年,阿兰·图灵在那篇名垂青史的论文《计算机械与智力》的开篇说:“我建议大家考虑这个问题:‘机器能思考吗?’”但是由于我们很难精确地定义思考,所以图灵提出了他所谓的“模仿游戏”:一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”这,就是图灵测试的本体。
不过,我们实际大量使用图灵测试的另外一种简化的形式——校验码。校验码的用处是区分操作者是人还是机器人。仅仅通过一个简单的测试问题:能否从一个图片中看出里面写的是什么文字。
推广图灵测试的内在含义,实际是一种真假鉴别。如果这样来说,社会上的资格考试本身也是一种图灵测试。出题人面对大量考生,他们必须区分出来哪些是具有资格的人,哪些是不具有资格的人。为了方便操作,一般很少依赖阅卷人的主观判断,而是通过仔细设计题目来实现这一点。
再看一个很好玩的图灵测试的反向运用:怎么证明自己不是神经病。目前来看,最好的办法就是不去试图证明什么。凡是试图证明什么的人,看起来多多少少都有点像神经病。不过,葛优在电影《大腕》里,给了我们另外一个思路,他讲了一个笑话,最后一句“三楼的楼长就是你了”,让医生明白了这个家伙思维正常。能够给别人设置思维圈套,然后自己跳出来,看来这个也是具备正常思维能力的一种表现。