峰哥博客

首页 » UC编辑部奇闻 » 专访复旦教授徐英瑾:不怕太智能的机器人,只怕体型太强壮的

专访复旦教授徐英瑾:不怕太智能的机器人,只怕体型太强壮的

如果对哲学感兴趣,但又不知道该如何入门怎么办?随着近几年知识付费的流行,各大平台上线了不少哲学科普的音视频,一般都是由较资深的哲学研究者开动脑筋,尽可能用大众可以理解的方式讲述哲学史和哲学中的基本问题。

近日,复旦大学哲学学院教授徐英瑾出版了《用得上的哲学:破解日常难题的99种思考方法》一书,是他在“看理想”平台音频节目“用的上的哲学”的文字精简版。

徐英瑾在接受澎湃新闻采访在徐英瑾看来,“普通人也要会用哲学来思考,因为普通人也会面临一些决定人生命运的战略性抉择。请注意,战略抉择要奠基在讲道理之上,你可不能随心所欲地说‘我就想这么做’,你得说清为何这么做。首先,你得说服你自己,为何这么做;其次,你得说服别人,为何这么做是合理的。哲学能给你提供这种思考方法。因为哲学所处的层次高、牵扯广,能够对很多战略性问题的解答提供思想指引。不要小看哲学,因为每个人的人生都会碰到战略层次上的问题,并由此有求于它。”

《用得上的哲学:破解日常难题的99种思考方法》不同于庸俗辩证法、哲学史的药方和批判性思维,徐英瑾在这本书中对逻辑论证、认知心理学、心灵哲学、知识论和语言哲学中的重要概念进行分析,并结合大量日常生活中的事例,能让非专业读者真正学习到“用得上的哲学”。澎湃新闻近日就徐英瑾的研究方向——“人工智能哲学”与《用得上的哲学:破解日常难题的99种思考方法》这本书中的相关内容采访了他,以下是对话内容。澎湃新闻:人能够在多大程度上了解自己的大脑?比如说现在了解的程度和将来可能达到的程度?或者说人类的思维和行为是否存在不可知的部分,能否在科学的框架下完全了解?就像康德所说的不可知论。

徐英瑾:康德这个说法不是针对人类的大脑,而是针对整个自然界的,就是我们对于整个自然界都有可能是有的层面是不可知的。当然大脑是人类面对的自然之力的一个组成部分,而且是特别的复杂。这就牵涉到了所有的物质,最后都有物理的构成,大脑也是由物质构成的。既然是物理的构成,就碰到量子力学的问题。表面上量子力学是物理学的任务,和大脑没什么关系,大脑是神经科学。但最近的诺贝尔奖获得者彭罗斯爵士就主张量子大脑假设,他认为量子力学的解释原则归根结底必须用来解释意识的产生。我和彭罗斯爵士在美国见过一面,问过他一分钟的问题。如果牵涉到量子力学的问题,我们就知道,一百多年过去了,量子力学的一些基本问题还没有解决,包括相对论和量子力学怎么结合以及超弦理论的问题。我在课堂上问同学,他们是否知道物理学家和我们哲学所做的事情有什么区别。我首先告诉他们没有什么区别,都是瞎猜,都是哲学的范畴,只不过物理学的数学公式比较多。但是我们从哲学角度上来看,数学公式也不能算作证据,也是瞎猜,只是多了一种数学语言。所以保不齐康德讲的是对的,也许这就是人类认知的一个界限。但是康德是哲学家,他不会说认知的界限具体在哪里,也许是比量子力学更前沿的地方,因为康德都不知道量子力学的存在。

但是我觉得是有这个可能的,所以我是反对把人工智能的了解建立在对大脑要彻底了解的基础上。我觉得完全搞不定。在这一点上,我们可以参考飞机对鸟类的模仿,实际上关于鸟的很多事情我们都不知道,比如鸟类的大脑是怎么运作的,怎么导航的。虽然我们知道不少,但不能说百分之百知道。鸟类的大脑是非常奇特的,因为要用飞行的缘故,它的头不能太大,否则会破坏整个纺锤体的结构。但是有些鸟类,比如乌鸦,体现出惊人的智力。所以鸟类大脑的整个运作是非常节约的。所以鸟类的大脑到底是怎么运作的,我们不是百分之百知道,但是这不妨碍我们从宏观意义上从鸟的身上得到启发去制作飞行器。飞行器的很多结构都和鸟类不同。大多数飞机都是不扑翅膀的,有一种飞机叫扑翼机,大家就发现没法造,因为机翼的结构如果做成扑翅膀的话,很容易造成结构上的工程学隐患。然后飞机的两翼就定住了,而是让螺旋桨转动。飞机身上的螺旋桨鸟身上又不可能有。这都无所谓啊,需要变通。所以我们对于人脑的了解类似于启发性的模式,有用的就借鉴,没用的就算了。

所以我从来不认为脑科学是人工智能的借鉴方向,我认为重要的借鉴方向有两个,一个是心理学,另一个是语言学,这两个方向是逃不掉的。心理学是很重要的,是智能运作的一些基本的原理。我认为这些原理是普遍性的,普遍性是指节约,要用最节约的方式来解决环境中遇到的问题。比如青蛙和蛤蟆的视觉系统是很烂的,不动的蟑螂放在面前它们不吃,动了才吃。人类是动的静的都能够看到,为什么呢?人类是杂食动物。作为杂食动物,果子不动,人类也会看到果子。青蛙不是杂食动物,要吃会吃会动的东西,所以它们就不会让视觉系统对静止的东西敏感,这对它们来说是浪费。人类对超声波和次声波也没办法感知到,因为这些东西对我们的生命来说不重要。但是对鲸鱼就很重要,因为鲸鱼要通过来进行信息交流,人类又不需要用次声波进行交流。所以我们发展出的每个能力都是为了应对环境中的一个问题,而不会发展一种没有用处的能力,这就是达尔文的基本原则之一,进化是根据节俭的原则来进行的。我认为这是个普遍性的原则,这个原则对于设计人工智能是有启发意义的。我们要做的这个东西不能够设置有很多很多信息,很多都用不到。

现在的一个问题就是人工智能的所有设置都是相当的不环保的。我随便举个例子吧,现在国家禁止挖矿,比特币挖矿消耗了大量的电。为了在某一个地方挖矿,周围的电力全被耗尽了。这是非常奇怪的一件事情。虽然比特币挖矿并不是严格意义上人工智能的事,但是代表了人工智能的一个最大的特点,就是主流人工智能都非常耗电。比如像李世石和那个AlphaGo比赛。虽然AlphaGo不是挖矿,但在耗电的方面有点像挖矿。比如李世石参加一场比赛,也许一碗面就可以搞定,但AlphaGo要用专门的电路。当然,现在的AlphaGo进步了,没有那么耗电,但它所耗费的资源是人类不能比的。AlphaGo在特定的算法下,用很短的时间进行上百万局的对弈。这样的对弈都是人类在有生之年不可能完成的。从这个角度来看,AlphaGo对于资源的消耗是相当惊人的,非常不像我们在自然界看到的任何一种智能性。所以现在很麻烦的问题是,人工智能需要借鉴的对象并不是人类大脑现存的结构,而是各种各样智能结构背后普遍的道。这个道实际上是进化论的道。现在主流的人工智能至少不是往这条路上走的,我自己不是很看好现在人工智能的发展方向。

澎湃新闻:您在书中提到担心人类越来越蠢,担心“人类的智慧之所以被机器所赶超,并不是因为机器变成了人,而是因为人变成了机器”。但按照目前人机互动的模式和未来对人工智能的期待,是不是有这个可能性?因为不仅不需要人工智能适配人类行为,人类行为也要适配人工智能的思维方式?

徐英瑾:我自己的担心不是人类在未来变得越来越聪明,而是人类变得越来越机器化。因为我们现在对智能产品越来越多的使用,背后都是一个机器行为。如果我们不能适应这种机器行为,就很难生存。比如现在老年人使用智能手机就遇到一些困难,他们有身和心两方面的矛盾。首先他们对于触摸屏很敏感的手指移动不是很适应,另一方面,他们不明白这个界面生成背后的逻辑,所以用手机购票之类都非常的累。这是一个问题。在这个问题上,人类是不是要适配人工智能的思维方式?在我自己看来,表面上各种各样App的流行迫使我们必须得适应,已经到了一个没有选择的地步。比如我到这里来接受采访,得打个车,所以我就要用打车的App,而且它们的界面经常换。换的时候也不和我商量,我刚刚熟悉旧的界面,他们又换了新的界面。这是一件很无聊的事情,就像Windows整天要改变操作界面,我相信在中国,像我一样怀念Windows XP界面的人还是很多的。我们还是感觉不到现在新的系统和XP相比有什么进步,那么为什么要玩弄我们这些使用者。这是因为一个操作系统捆绑了很多业界生态,构成了一种垄断,使得消费者只能被动的接受,否则就要被这样一种时代所淘汰。

但是从学科的角度上来讲,这些不是人工智能。真正的人工智能是要适应用户,否则怎么能够叫做智能。因为人工智能是要为人类服务,这里的人类指的是具体的、单个的人。随便举个例子,如果雇佣一个保姆,这个保姆服务的是主家,那么这个主家肯定是单个的,具体的,每个主家肯定有自己的个性。这个世界上不可能存在平均意义上相同的主人,这是统计学意义上的抽象,但实际面对的都是具体的人。比如在一个村子里只有两个人,一个人年薪100万,一个人年薪10万,那么一个年薪平均五十多万的人是不存在的,这是统计学算出来的。所以在这种情况下,我们是要人工智能一些具体的能力。

现在人工智能涉及的核心能力是语言问题,现在是强迫我们理解界面语言,而不能反过来让它们理解我们个性化的语言。那么这就涉及到对各种小语种以及方言的欺凌。这其实对老年人来说特别重要,因为他们说的普通话是带方言腔的。他们以为自己在讲普通话,但实际上机器还是听不懂。难道让老年人完全学会机器这种标准的发音?如果他们能说标准的普通话,早就能说了。另外一个问题是对外交流时使用机器翻译,那么要预设别人用的是正确的外语发音。比如英语的一个特点就是每个国家讲的英语都是不一样的。我刚开始到意大利的时候,听不懂他们的英语。我后来学了意大利语之后,才能听懂他们讲的英语,是倒推的。但在这种情况下,机器肯定会傻掉,不知道翻译成什么。如果人工智能要求所有的人用标准的英语发音,首先会遇到什么是标准的英语这个问题。当然,英音和美音的标准是比较固定的,但具体的遣词造句又有很大的差异性。

语言具有高度的个体性和分散性,任何人类的保姆进入主家,过一段时间都能学会雇主的语音。但现在的机器能否在小样本的刺激下进行学习?现在的实际情况是在大样本的刺激下进行学习。我举一个例子,如果说我现在接受采访的样子被拍下来,机器能够识别出“接受采访”,那么是基于读了N张人类进行标注的图片,学习后知道了这样的配对习惯。但是如果遇到一类新的形式,人工智能也许无法识别谈话的内容。这是非常麻烦的问题,如果人类的某种口音样本比较小,要用机器学习的方式来进行处理,其中的难度是非常大的。而且这和孩子学习外语的方式是完全不同的,当然这一点在认知科学中还有分歧。不过按照主流的意见,0~3岁是小孩语言爆发的时候,但是小孩的词汇都是从不大的语言样本中学会的,比如从身边的人或者电视里学会的。那么孩子是如何通过不大的语言样本学会说话,现在的机器是很难做到这样的充分模拟的。所以如果这个问题不解决,人工智能会成为人类文化多样性的一把剪刀。因为被数码时代所忘记的语言可能就会被淘汰掉。我还是主张方言是一种战略能力,甚至对于国防都很重要。有一部电影叫做《风语者》,美国人用一些印地安战士在太平洋前线联络,日军截听了都没有用,除非他们能够活捉一名印第安战士。如果美国人当时手狠一点,把印第安人全部消灭了,那么后来就不可能打赢日本人了。

中国也有很多方言。比如我是上海人,但我一点也听不懂温州话。所以我在意大利留学一年后,有人问我对意大利文化怎么看,我的回答让他们很震惊,我说温州文化很神秘。他们很奇怪我为什么这样回答这个问题。因为在我即将要离开意大利的时候,我在地铁上基本能听懂意大利人在说什么,他们的基本对话我都学过,但我却依然听不懂温州人在说什么。所以对我来说,意大利没有那么神秘。温州方言的这种神秘性是有好处的,因为不知道什么时候这种能力就会派上用场。而且南方方言保留的音韵特征比北方方言多,使得南方人能够学会的音比只会普通话的人要多。这对学外语和智力开发都是有好处的。所以方言是一种潜在的国力,但很可能被机器消灭掉。尤其对于中国来说是很可惜的,因为普通话和方言差别很大。美国的方言和他们标准的美音差别不是特别大,消失就消失了。这中间还有资本力量的影响,机器学习语言是为了赚钱的,如果语言的人口样本太小,就不会去开发机器翻译。所以现在科大讯飞有广东话和普通话互译,但没有沪语和普通话互译,这绝对不是因为技术上的问题无法解决,就是因为沪语的人口比例太小,进行研发不划算。相对来说,广东话的人口比例就要高很多。如果按照商业逻辑来考量的话,很多重要的文化因素都会失去。我现在做了一个大致的考证,实际上吴越方言的很多特征在秦汉魏晋的时候都有。所以保留这些方言具有很大的文化意义,而现在人工智能的语言翻译把方言边缘化了。我觉得是要开发出一种新的人工智能技术,能和目前以商业为主导的人工智能技术相对抗。

澎湃新闻:您在书中谈到当下的时代是一个“贬低厚重文化、思维日趋肤浅”的“小时代”,这和您在书中谈到的演化心理学的“节俭”原则有关吗?就是思维简单、轻松的文化更适合快节奏的现代社会?如果按照这个逻辑,人类生活中也不会再出现一个看重厚重文化的时代,或者说厚重文化也可能永远只属于小部分学有余力的人?

徐英瑾:我们今天所面对的这个世界的复杂程度是采集狩猎时代所不能比拟的。但是我们的大脑和采集狩猎时代人类的大脑没有本质的区别。所以我们是带着原始人类的大脑来面对一个后现代的时代,这会引发很多很有趣的问题。我举一个例子。在采集狩猎时代,因为社会生活非常非常的简单,所以社会分工是很差的,每个人都要从事很多工作,基本只有采集和狩猎的分工。如果你的分工是采集,那么从辨别植物到采集再到做饭给一家人吃,都需要你从头到尾全部完成。如果你的分工是狩猎,从发现猎物的行迹到找到猎物,再到杀死猎物,一条龙都要完成,而且还包括弓箭、长矛的制作。每一个人都是一个微型的小公司,能力都集中在一个人身上。因为信息总量不大,每件事都需要亲力亲为,所以每个人都掌握着一些必要的生存技巧,他们对于真实的世界怎么运作是有了解的。但今天是不一样的,因为社会分工非常细致,每个人都做一小件事情,没有人知道他们自己到底在做什么。

我举个例子。二战时美国人造原子弹,做完曼哈顿工程的工人都不知道他们在造原子弹,他们只知道自己在做一个国防部件,但用来做什么是不知道的。很多人在运银子,但他们也不知道这和造原子弹有关系。这就是现代工业的特点,效率特别高,因为分工能够极大地提高效率。但造成的后果就是个体高度的碎片化,人们不知道这个世界整体是如何运作的,所以只能通过媒体和他人了解整个世界,而已经不可能亲自去了解。这些东西在哲学上叫做证言,也就是说只能通过别人说的话或者书上写的东西来了解一些事情。在这种情况下,人们听到广告词的宣传,原始的心理效应就会产生一种误导性的结果,比如说我书里提到的“花车效应”或者“锚定效应”。“花车效应”就是指别人忽悠什么东西是好东西,他就会相信,别人买,他也买。“锚定效应”就是第一个得到的印象对后面的印象产生引导性的作用。这在采集狩猎时代不是什么严重的问题,因为一共也就一百来人的采集狩猎团体,谁也无法操控所谓的媒体。媒体就是中介的意思,一百多个人是不需要中介的,互相就可以进行印证,一个人很难欺骗大家。我举个例子,比如张三是一个部落里的英雄,他打死了20只狼。有人要应证这件事情,去问李四、王五是否看到了。如果大家说没有看到,那么张三就是骗人了。那么现在需要媒介的情况下,如果传说某个人在遥远的地方打死了20只狼,也许你就相信了,吃饱了撑的才会去验证亲自这种事。所以每个人就陷入到了不同利益集团所编制的信息茧房中。

现在美国所出现的这种分裂,就是因为两拨美国老百姓都陷入了不同的信息茧房中,而且民主政治的恶性竞争,会把党派之间已经存在的一些差别夸张为很大的不同。比如说我喜欢穿粉红色,你喜欢穿红色,这是一个差别,但他们会把这种差别说的水火不容,这会让两派人都无法进行冷静的思考。更重要的是,现代生活很忙碌,相对于采集狩猎时代,人们的欲求十分麻烦。比如采集狩猎时代的人打到一个特别大的猎物,就会开心的要命。现代人就会思考采集狩猎时代的人不会思考的问题,比如说这次公司加职加薪会不会轮到我,能不能跳槽到另外的公司拿到更高的薪水,孩子的学区房怎么办等等,这些问题都超出了三顿饭所需要的思虑,所以这就使得现代人在思考与自己利益无关的事情上所花的精力要更少,更容易被忽悠。其实古代人没有那么多事情,相对来说没有那么心累。所以这是一个有点麻烦的问题,就是现代生活的复杂性和人类心智的原始性之间的矛盾,所以人们就很容易被一种所谓的信息茧房利用。

澎湃新闻:有些人担心自己的职业将来被人工智能取代,其中包括人工智能也可以写诗、写小说之类,以及您在书中提到的翻译工作。但事实上传统的文史哲学科以及包括文学在内的艺术创作,是否永远无法被人工智能取代?因为虽然从技术层面上人工智能可以模仿人类,但这些内容的产生和人工智能的需求无关,因为这些人造物的产生是由人本身的脆弱性以及所具有的情感所决定的,比如说人是有生有死的,人要在情感方面处理和周围人的关系,人工智能则不会遇到这些问题。您对这个问题怎么看?

徐英瑾:我觉得这要看是什么段位的翻译。我这两天刚补课看了《唐人街探案3》。这部电影里有一个无厘头的情节,反正我看了不舒服,就是当中国人和日本人对话的时候,耳朵里塞个小耳塞就能明白对方在说什么。这不是扯淡吗?我们在开会的时候带上耳塞,那是因为背后有同声传译在工作。电影中他们很多时候都在野外,那么同声传译在哪里?这不是胡扯吗?如果要添加科幻的成分,每个人背一个机器,这个机器可以做同声传译,那么多多少少还有点合理性。所以很多人都没有意识到语言之间的翻译是一件多么恐怖的事情,尤其是日本人的说话方式非常暧昧,非常绕脑子,要是进行同声传译,是件非常困难的事情。同传时要求日本人说话,同时中文翻译就能出来。但日本人说话,否定词是加在最后的,如果同传不听到最后一个词,都不知道牌是正面打还是反面打。如果这个时候要求中文同时翻译出来,那么翻译官的预见能力也太强了吧。

电影《唐人街探案3》剧照所以我认为高级的翻译在短时间之内是无法被机器所取代的。我最近也让学生做了很多测试,让他们去翻译我写的英文文章。我觉得这样比翻译老外写的英文文章容易些。但他们的翻译仍然让我觉得很不满意,因为英文的从句很长,如果要翻译成中文,要符合中国人的思维习惯,就要想办法把句子变短,这里牵涉到很多翻译的技巧。现在人工智能翻译的特点是根据大的样本进行翻译,所以对于像诗歌或者很烧脑的学术著作的翻译是不行的。如果你相信人工智能的翻译,就会闯大祸。但我自己也觉得现在的问题是人类的翻译质量也不高,就像我在看美剧的时候,字幕会把“北非”翻译成“南美”,这翻译的也太差了。这会和机器翻译构成一种很不好的循环,因为当人类翻译提供的模范译本是非常差的,这就会导致机器的学习水平也很差。当人工智能学习图像识别时,随便一个人类样本就可以供其学习,正常人都是看猫是猫,看狗是狗。但是人工智能学习翻译样本时,什么是好的译本,这中间的差别是非常大的。而且还牵涉到汉语的变化。我最近在看罗素的《幸福之路》,现在的译本和傅雷先生的译本差别非常大。傅雷先生会把office room翻译成公事房,因为民国时期都是这么叫的。但傅雷先生又是翻译的权威,他的翻译又不能不受重视,但民国时期的白话文和现在的白话文显然也不能算作两种语言,还是有连续性的。这种微妙的事情应该怎么处理,这是人类也需要想一想的,而且现在的机器也无法处理这样个性的问题。像我有点遗老遗少之风,即使写白话文,也会有半文言的表达,但半文言实际上也是文言的思维,那么机器应该如何处理?现在的问题是人类的标准也没有固定下来,就是说机器的翻译标准也是不固定的。如果人们高度依赖机器翻译,会导致一个严重的问题,会让人类翻译中的缺陷全面扩大化。这是我自己非常担忧的一件事情,如果讲到艺术创作,现在人工智能能做的就是一个转换的工作,比如可以把一幅水墨画变成毕加索或者梵高风格的画。但问题是人工智能不能进行创作,比如说不能根据具体的文案画出一张画,他不能进行从语言到画面的矩形转换。表面上看,人工智能可以创造音乐和作诗,但是怎么做的呢?实际上,古体诗到清代已经有点像机器的做法,我挺讨厌清代的诗,因为这之前已经有太多的样本,所以清代的诗没有什么发展的余地,只是反复地玩填字游戏。相反,如果去读汉代的五言诗,它们具有一种生命力,这种生命力好像是和生活结合在一起。后来的七言诗已经变成一种套路,我相信这种诗机器是可以做的。如果我们让人工智能去模仿格律性不是很强的汉诗,比如乐府,我觉得可能不行。当然,如果以后人工智能真得学会做乐府了,有可能会打我的脸。但这要经过一个图灵测验。图灵测验就是我们找最好的写手与机器进行比赛,写出的东西让评委来判断,哪个是机器写的,哪个是人写的。这可能是个方法。但是我担心人类现在写诗的水平也越来越差,如果因为这个原因我们被机器打败了,这也太丢脸了。但是音乐有一点不同,音乐本身就是数字性的东西,所以人工智能比较容易掌握它的规律性。

如果要区分一段音乐是人写的,还是机器做的,我现在给出一种新的测试方法——给出一部电影剧本,要求读完剧本进行配乐,并且将导演要求的标准用文字写下来,在规定的时间内交稿。用这种方法考机器,完全可以把机器干掉。现在音乐创作是要面向市场的,词和音乐之间要有匹配关系。而且很多是给电影和电视剧配乐,所以要根据剧情才能创作。现在的问题是机器随机做了音乐,也许它产生了很多曲子,其中比较好的拿出来展示,然后我们就说机器也能创作音乐。但市场是否需要这首曲子呢?反过来说,机器能够根据市场的需求来进行创作吗?现在的做法是,机器做出了很多曲子,然后人类从中挑出一些。但这种做法并不是机器自主地按照要求来生产音乐。所以如果不只是看这个结果,而是全观整个生产过程,就会发现机器作曲有一种作弊的嫌疑。

澎湃新闻:您在书中提到计算机无法形成“内感知意义上的可视化中介”,能否再进一步解释一下什么是“内感知意义上的可视化中介”?既然人类可以通过语法规则学习外语,那么计算机为什么不能翻译复杂句式?复杂句式也是符合语法规则的呀。

徐英瑾:我就是讲人类认识世界有一个内部的图式。内部的图式指的是一种图景,引导我们去解决某个问题。举个例子,比如我们现在要从浦西出发,去浦东的某一个地方。我们在头脑中肯定会把浦东看成一片很大的区域,而不是一个点。如果不知道浦东是一个点还是一片区域,那么头脑中的认知图景就错了。真的有人会有这种认知图景的问题。

澎湃新闻:这应该是一个现象学的问题。

徐英瑾:是的。你不要笑,真的有人会有这种认知图景的问题。我刚到纽约的时候,有一个中国人向我问路,问我如何去布鲁克林。我就问她去布鲁克林哪里,布鲁克林是一个很大的地方。她说,我就是要去布鲁克林。我搞不清楚她是否知道布鲁克林是一个区域,不是一个点。如果搞不清楚区域和点之间的区别,路径的规划就会出现问题。但实际上,我们人类会根据区域、点、路径来对很多基本的概念进行了解。按照认知语言学的观点,如果说某某同学很聪明,实际上已经暗示了他比平均水平高的这个想法。还有比如说,你说自己进入了某个剧场,那么你就是预设这个剧场是有边界的,没有边界的东西不能够进入。这些问题好像是不用说的,是废话。但这些废话就构成了我们理解这个世界很多概念的基底。我们称这个基底为“套路”(pattern),但这个套路是可视化的,在认知语言学里就被称为所谓的图式。但现在人工智能处理语言的所有套路都绕开了它,都是利用大数据,不问通过这个图景到底看到了什么。所以这就会导致很多很多错误,人和人之间能够相互理解,就是因为我们的图式是相同的。如果我们的图式不一样,那就很麻烦了。举个例子,中国人和日本人沟通的时候有时会有问题。比如日文里有一个词叫做“今”,表示“现在”。但是“今”这个词在日文里有很强的伸缩性,20分钟前可能也被称作“今”。但在中文里,时间被拉得那么长,可能就会称为“刚才”,而不是“现在”。这就说明中国人和日本人关于时间的图式不一样,那么日本人说“今”(现在)的时候,翻成中文就要变成刚才,不然就不知道日本人到底在说什么。

澎湃新闻:所以现象是对于人工智能技术的开发还是有帮助的。

徐英瑾:当然有帮助的。而且现象学现在普遍地被忽略。我认为机器在现象上看到的图式应该和我们人类的现象图式不至于产生很大的分歧。我举个例子。大家都很担心将来被机器消灭,但大家对这件事情的想象都是放在不切实际的事情上。比如欧盟出台的GDPR,就是数据管控的法令,据说现在已经执行三年,主要是为了保护隐私。欧盟的这个做法,我从伦理上或方向上是可以肯定的,但是这个方法有点蠢。因为这个法令也管不住泄露隐私,这并不是从根本上解决这个问题。这就像大禹治水,只是堵。再说欧盟也没有办法管别的国家。大家都忘了核心的问题。还有人说把阿西莫夫三定律写到机器代码里去。阿西莫夫三定律本身在逻辑上就是有内在矛盾的,是无法写进代码的。举个例子,如果用阿西莫夫三定律,那么机器要服从于人,一个最高的定律是它要服从人类,另外又说人类在面对威胁时,机器不能置之不理。这里就有逻辑矛盾,比如一个人工智能的巡逻警察看到一个恐怖分子拿着西瓜刀随便砍路人,那这个机器人是不是要去打恐怖分子呢?这里就陷入逻辑两难。如果不打,就违背“人类在受到威胁时,你不能置之不理”的原则。但要是打恐怖分子,那么恐怖分子也是人类,机器又不能去打人类。这是个很麻烦的问题,人工智能技术对于这些基本的哲学问题都没有想明白,就要放进代码里。

电影《格列佛游记》剧照人类和机器之间的伦理问题,其实根本上是一个图式问题。你能做什么和不能做什么,其实和你的身体尺寸是有关系的。举个例子,佛教主张“扫地不伤蝼蚁命,爱惜飞蛾罩纱灯”,蝼蚁太小了,和尚怎么能做到扫地不伤蝼蚁命?只能说不去杀大型动物,因为我们看得到。这是为什么呢?这和我们的尺寸有关系。如果像《格列佛游记》一样,我们进入小人国。如果说格列佛是个好人,“扫地不伤蝼蚁命”,但他可能一起床就不知道把谁压死了,因为他的体型做不到不伤害别人。这个问题就牵涉对机器人尺寸和材料软硬的把握。我举个例子,如果有人跟我说,不要随便把别人的肩膀捏碎,这就是废话,我有那么大力气吗?但是对于变形金刚来说,可能一不小心就把一个人捏死了。所以大家一般都认为我们不能做太智能的机器,我觉得这个思考方向是错的,我们应该不能做身体太强壮的机器。那有人会问我们需要做很强大的机器怎么办,我的解决办法是可以做很强大的机器,让机器人坐在里面操作就可以。机器人也是可以开战斗机的,然后做一架战斗机,把机器人放在里面就行。这样的话,机器人和战斗机是分离的。即使是很先进战斗机的飞行员,如果不和战斗机接驳,那么也是手无缚鸡之力。之前美国有个非裔军人被有种族歧视的白人警察一枪打死了。这个军人弄不好是开坦克的,如果他在坦克里,警察打不死他,但他一出来,警察一枪就把他打死了。

如果机器人最终认识到自己的肉体和人类是一样的,它们就会对人类产生同情心。我们会对同自己长得像的物种产生同情心,我认为机器在某种层面也会有同情心,因为同情的根本是类比推理所产生一种恐惧感,然后反射到别人身上。当我们看到有人在车祸中死亡,就会想到自己也有这种死亡的可能性,然后就会由恐惧而产生同情。我们不会看到一只在马路上被碾死的蛤蟆,觉得特别恐惧而产生同情,虽然也会有一定的同情心。所以我们要让机器人和人生活在同样的物理尺寸中。比如说开门关门所有这样的动作应该都预设了机器人的尺寸和我们人类的尺寸差别不会很大,否则没办法运作。还是那句话,Size matters!

澎湃新闻:您所说的“通用人工智能体”在未来有可能产生吗?或者说我们在人工智能方面模仿人类这条路其实是根本走不通的?因为计算机永远只能模仿人类的某些方面而不是全部。

徐英瑾:通用人工智能体在最近一段时间内是不太可能产生的。这是为什么呢?一个基本的道理,现在全世界大部分做人工智能的都不在做通用人工智能体,而是在做专用人工智能体。有一个通用人工智能协会,我和他们也有接触,但他们是个小团体。关键这个团体中都是业余人士,并没有国家的或者商业的大的投入来支持他们,所以他们的进步在时间上看来肯定是慢的。那为什么通用人工智能不能在很短的时间内投入应用呢?道理非常简单,我不是说哲学上做不出来,而是有可能做出来。通用人工智能没有商业上的落地前景,主要是用于科研目的。为什么没有商业上的落地前景?商业的落地前景意味着要满足商业上的具体需求,专用人工智能肯定效率比较高。所以通用人工智能比较难获得商业上的投资。现在的投资就是进行一些单项的比赛,看哪个具体的指数高,就对其进行投资。这种投资的模式就会使得没有人去投资通用人工智能设备。所以我个人觉得,通用人工智能在短期内无法得到大量的资金支持。而且从科学的角度来讲,通用人工智能还有大量的基础问题需要预言,需要的周期是非常长的,又没有回报。所以现在所有的科幻电影里描述的那些具有完整能力的机器人都脱离了现在人工智能发展的现实。随便举个例子,有人跟我说要用机器人来养老。养老肯定需要通用人工智能,就像保姆什么都得会。我都觉得要把家里收拾干净这件事,要比写一篇论文困难多了。我觉得这需要高度的智能,实在太难了,超出了我的智力范围。所以要造出这样的全能机器人是非常困难的。

现在商业逻辑决定着人工智能的发展。这就是商业思维和我们学院派思考角度的不同。从哲学上讲,我没有什么理由说通用人工智能是造不出的。造出像人一样的机器人,这本来就是哲学话术。就是说多像才能是“像”,这里有一个类似橡皮筋一样的松紧程度。这种松紧程度可以进行辩护,就是你说不够像,但我认为已经足够像。你说方方面面都得像,而我觉得大致能够完成人类的任务也就可以了。

澎湃新闻:您将演化心理学探讨人类智能的本质提炼为两个关键词:节俭和利己。那么如何理解科学家或者广义上的研究者所做的非常艰辛的探索工作?好像不符合“节俭”原则?虽然科学家的工作在效果上可能为人类生存提供了“节俭”的可能性,就像卢梭所说的,正是人类的懒惰激发了某些发明,比如我们今天用的交通工具,我们日常生活中的家电等等。那么这种探索精神是否更符合“利己”原则?也就是说研究者根本上还是以自己智识上的愉悦为出发点,而客观上才促进了人类文明的进步。想听听您对这个问题的看法。

徐英瑾:科学家很艰辛地干活很有可能就是因为他们在偷懒,并不是说他们要造出某个机器一劳永逸解决某个问题。我猜测,瓦特发明蒸汽机也并不是说要靠蒸汽机发财,当然也可能有这个想法,但也有可能他只会做这件事,别的做不来。我记得有一位俄罗斯数学家发表了非常多的数学论文,获得了很多奖金,但他对于这些世俗的利益根本不感兴趣。他最大的乐趣就是解各种数学难题,这对他来说就是一个奖赏。也就是有可能别的事情他不会做,比如准备一篇获奖感言就像杀了他一样,或者不善于交际之类。节俭原则是什么?就是说你上了一条道,你可能只会干这个,而并不想干别的。你只想待在舒适区里,人人都有自己的舒适区,离开舒适区就不能适应。现在人类社会高度分工以后,职业千差万别,所以舒适区的分布也变得千差万别了,保不齐在这些人口里面就有几个人,研究物理问题和天文问题是他们唯一的舒适区,在里面特别开心,但出去以后就不舒服了。他们也是因为节俭原则,待在大学里专门讲物理学或者天文学,别的也不会做。

人类追求节俭,但现在有一个古代没有的条件,就是超级大分工。在这种背景下,如果别人的行当是自己不喜欢的,就会觉得别人在吃苦。比如刚刚去世的袁隆平先生,如果不让他研究水稻,他肯定会不开心,因为这就是他的舒适区。他是为这件事而活着的人,所以会很开心。我自己是搞哲学的,别人也会问我搞哲学累不累,但这也是我的舒适区,我觉得非常好玩。和大家一起谈论日常生活的时候,我的压力要远远大于讲一段哲学。因为我觉得哲学的术语都是精挑细选过的,有它的专业定义。然后日常对话需要我抛开这些概念,要讲一般人听得懂的话,然后还要逼近我想表达的意思,就需要我四处找平衡点。就好像让数学家写一篇通俗文章介绍自己的研究成果,但不允许用任何一个数学公式。数学家肯定会说,“杀了我吧,不让我用数学公式,就好像不让我说话一样。”所以大家不要把科学家的研究看成一种艰辛的探索,其实他们开心着呢。就像玩游戏的人,你觉得他们很艰辛,但其实他们乐在其中。

澎湃新闻:那您写《用得上的哲学:破解日常难题的99种思考方法》这本书,如果不能全部用哲学术语的话,是不是也感觉到非常辛苦?

徐英瑾:是很辛苦。但写这本书要追求另外一种快乐。爱因斯坦研究物理学很快乐,但据我所知,他也拉小提琴,虽然很多人都说拉得不好,勉强能听。但这也是他心里调节的一种方式,就像霍金也写《时间简史》作为一种调节。我写这本哲学科普书的快乐在于以一种“兑水”的方式,将哲学思想传播出去。如果说纯粹的哲学思想类似于伏特加,大家喝不了,那我们就兑成日本清酒,但还是有酒精的,肯定和白水不一样。弄不好就可以吸引很多人来进行哲学的学习。另外一方面的乐趣是可以印证哲学思想可以转化为日常语言的。如果你坚信哲学是来自于日常语言的,那么就可以进行这种转化。如果可以把哲学变成日常里用得上的。那么就可以证明,哲学并不是书斋里所说的骗人的话。这种不是学院里炫技的乐趣,而是另外一种乐趣。类似于一个足球教练,既有教球员在世界杯上炫技的乐趣,又有教青少年足球的乐趣,因为后者是在培养国家后继的体育人才。

“研究者根本上还是以自己智识上的愉悦为出发点,而客观上才促进了人类文明的进步”,这个说法是有道理的。真正伟大的研究,都不是想着如何获得功利上的效果,都是“搂草打兔子”,没想到某某研究就产生了功利上的效果。如果总是想着功利效果,也做不出真正的研究。

(感谢顾婧雯在采访过程中的协助)

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)



【推荐】妈妈我想买广告位,买,买一个够吗?,够了谢谢妈妈,妈妈真好!

文章如无特别注明均为原创! 作者: F_Robot, 转载或复制请以 超链接形式 并注明出处 峰哥博客
原文地址《 专访复旦教授徐英瑾:不怕太智能的机器人,只怕体型太强壮的》发布于2021-7-1
若您发现软件中包含弹窗广告等还请第一时间留言反馈!

分享到:
打赏&捐助 分享到QQ空间

评论

游客

  • 看不清楚?点图切换
切换注册/找回用户名密码

登录

Tips:2023-04-20于系统原因部分账号将被删除,届时请重新注册!

切换登录

注册