ACS880-07C
关注中国自动化产业发展的先行者!
横河电机-23年10月11日
2024
工业智能边缘计算2024年会
2024中国自动化产业年会
2023年工业安全大会
OICT公益讲堂
当前位置:首页 >> 资讯 >> 行业资讯

资讯频道

专访复旦大学哲学学院教授徐英瑾 做主流人工智能的“反叛者”
  • 点击数:3427     发布时间:2021-11-23 12:47:08
  • 分享到:
作为国内少有的研究人工智能哲学的年轻学者,徐英瑾在本书中系统性地对主流人工智能技术进行了批判性讨论,并另辟蹊径,为“我们将如何做出更好的人工智能”这一问题提供了截然不同的方案,简直就是当下人工智能发展的一个“反叛者”。
关键词: 大数据 , 人工智能 , 反叛者

当前主流的人工智能,经由深度学习技术所提供的强大运算力,会在某个不太遥远的时刻逼近通用人工智能的目标。

通用人工智能技术可以通过当前的技术路线达成,然而,该目标的实现会对人类社会构成莫大的威胁。

未来人工智能的主要技术路径,是大数据技术、5G环境中的物联网技术。

这三条目前在人工智能领域的主流意见,被复旦大学哲学学院教授徐英瑾在刚刚出版的《人工智能哲学十五讲》中,评价为“犯了哲学层面上的错误”“错得离谱”。“不幸的是,全球范围内关于人工智能的技术与资本布局,都多多少少受到了上述三种观点,尤其是最后一种观点的影响。对此,我感到非常忧虑。”

作为国内少有的研究人工智能哲学的年轻学者,徐英瑾在本书中系统性地对主流人工智能技术进行了批判性讨论,并另辟蹊径,为“我们将如何做出更好的人工智能”这一问题提供了截然不同的方案,简直就是当下人工智能发展的一个“反叛者”。

“我们要有一种容错心理,要允许不同的学科流派,按照不同的哲学假设、不同的逻辑来工作,谁做的东西好,让市场来检验。”徐英瑾一直在很认真地走“旁门左道”,但他告诉《中国科学报》,目前人工智能发展所碰到的主要困难,不是科学,而是“传播学”。因为反主流的观点很难获得话语权,也因其颠覆性的特质,而难以被深刻理解。

“科技发展有时会陷入路径依赖,埋头奔跑,却忽略了欲速则不达。哲学家出于思辨的习惯,总是走三步退五步。”徐英瑾表示,目前社会上被热炒的人工智能概念需要一番冷静的“祛魅”操作,可哲学批判精神并没有发挥重要作用,使得一些研究规划没有在“概念论证”的阶段受到足够认真的检视,而这种缺憾,又与人文学科在整个科研预算分配游戏中的边缘化地位密切相关。

《中国科学报》:为什么人工智能研究需要哲学?人工智能哲学究竟要讨论什么?

徐英瑾:人工智能和所有的学科都不太一样,它是一个连基本范式都尚未确定的学科。按照人工智能专家李飞飞女士的话说,类比物理学的发展轨迹,人工智能目前还处于前伽利略时代。

这是因为,在人工智能学界,关于何为智能的基本定义都还没有定见,由此导致的技术路线分歧更是不一而足。牵涉到“什么是智能”这个大问题的追问,需要高度抽象的能力。澄清基本概念、思考大问题,是哲学家的本分。

除了什么是智能,哲学家还需要讨论诸如这些问题:人工智能未来发展的大方向该怎么走;深度学习会不会演变成通用人工智能技术;如果不能变成通用人工智能技术,通用人工智能技术的道路该怎么走;是否要走类脑的技术路线;现有的技术路线是否具有一定的方法论上的错误;能否在方法论层面进行纠偏,等等。

但是,现在的人工智能哲学研究是存在偏倚的,它凸显了自身形而上学的“面相”,而本该有的工程学“面相”却被压抑了。也就是说,人工智能哲学应该是聚焦于对人工智能自身的技术前提的追问。问题是,并不是所有哲学家都具有与现实世界交接的能力,摆脱了对于人工智能技术实践的体会,空谈形而上学的内容,非常像“叶公好龙”。

《中国科学报》:深度学习能让人工智能更“智能”吗?

徐英瑾:我认为,深度学习并非人工智能研究的康庄大道。

深度学习机制的根底,是对于人类专家某方面的数据归类能力的肤浅模仿。这类机制正是在这种模仿的基础上,才能在某类输入信息与某类目标信息之间建立起特定种类的映射关系。而之所以说这类技术对于人类能力的模仿是“肤浅”的,首先是因为深度学习机制的运作完全是以大量人类专家提供大量优质的样板数据为逻辑前提的。这就存在算法偏见的风险,而且在人类专家无法提供大量样板数据的地方,深度学习也很难有用武之地。

其次,这种模仿不以深入理解人脑对于信息的内部加工过程为自身的理论前提,所以天生就带有“知其然而不知其所以然”之弊。人工智能系统所做的事情,就是在各种可能的输入与输出之间的映射关系中随便选一种进行“胡猜”,然后将结果抛给人类预先给定的“理想解”,看看自己瞎蒙的答案是不是恰好蒙中了。这种低效学习的办法是非常笨拙的,之所以在计算机那里能够得到容忍,只是因为计算机可以在很短的物理时间内进行海量次数的“胡猜”,并由此选出一个比较正确的解,而人类在相同时间能够完成的猜测数量则是非常有限的。

此外,一个深度学习系统一般是以特定任务为指向的,无法同时胜任另一个领域的工作,因为它的一个特点就是对于底层变化的干扰性极度敏感,迁移能力非常受限,而一个智力正常的人常常能在一个不熟悉的领域举一反三,变通适应。

从深度学习机制的本质特征出发,我们甚至能看到它的大规模运用对于人类文明可能造成的潜在威胁。从哲学角度看,深度学习机制其实是浓缩了一个领域内的人类智慧的平均意见,并以大量个体化的人类常识判断的存在为其自身存在的逻辑前提。如果我们把这些进行判断的人类个体以及其所依赖的人文背景都视为广义的“人文资源”的一部分,那么,深度学习技术就可以被视为寄生在人文资源上的“技术寄生虫”——它会慢慢挥霍人文资源的红利,而本身却不产生新的历史发展可能性。

《中国科学报》:为什么您认为人工智能不必依赖大数据?

徐英瑾:大数据技术试图通过回避高级认知架构与思维路径设计的方式,直接利用“信息高速公路”上涌现的数据,由此完成原本的人工智能程序所试图完成的某些任务。但是,人们常常忽略,海量数据的计算是极其消耗能量的一件事,而且海量数据本身也不是人类社会的真正常态。人类的自然智能对应的是“小数据”,人们常常是在信息稀缺的环境下去作出合理选择的,这时人类智能动用的是一种“节俭性算法”。

假设有这样一张考卷,上面有一列由美国城市名字所构成的对子,比如“斯普林菲尔德—旧金山”“芝加哥—小石城”,等等。学生的任务,是从每个对子里找出那个城市居民比较多的城市。现在我们把考卷分为两组:德国学生的答卷与美国学生的答卷。你猜哪一组的平均分会更高一点?

很多人都会认为美国的学生考分更高,因为在不少人看来,美国学生总要比德国学生掌握更多美国城市的信息。但其实这个看法是偏颇的。作为一个大国,美国的行政区划以及相关的人口情况异常复杂,即使是一般的美国人,也仅仅是“听说过”不少城市的名字而已,而不太清楚所有城市的人口规模。对德国学生来说,思考反而更简单。他们做题的时候遵循的是一条非常简单的“捷思法”:凡是自己听说过的美国城市,一般就都是大城市,而大城市一般人口就多。总之,面对两个城市的名字“二选一”时,选那个看起来眼熟的地名就是了。试验证明,这种看似“简单粗暴”的解题思路,成功率相当了得。

这才是人类智能所展现的快速、高效的推理优势。节俭性算法的设计是根植于对人类现有心理机制的研究的,而不是对于直接的数据环境的研究的产物。

然而,深度学习是人工智能的主流,主流的深度学习是依赖于大数据的,大数据的处理方法中也往往会调用深度学习的一些方法,这成了一种路径依赖。它背后的商业逻辑是,利用互联网用户所产生的庞大的数据红利。

如果我们的目标是让人工智能逼近人类智能的话,就必须另辟蹊径。麻烦的是,现代科技发展和牛顿时代本质上已然不同,牛顿时代把追求真理作为第一目标,如今的人工智能捆绑了更多商业诉求,很多方向性的探索从一开始就可能被扼杀了。

《中国科学报》:您认为的未来人工智能的发展方向是什么?

徐英瑾:符合大众对于人工智能未来期待的一定是通用人工智能,它的意思是,能像人类那样利用有限资源有效、经济地完成各种任务的人工智能系统。对此,我提出了一种带有小数据主义色彩的绿色人工智能的概念。

这种人工智能系统的特点是,第一,这种人工智能并非是大数据技术或者深度学习技术的变种,而是能够根据少量的数据作出决策与推理。它的行为方式类似于人类,人类也能够在信息相对少的情况下作出决策,尽管决策的质量未必高。但是这样的决策活动却能够在环境提出急需人类应答挑战的时候,使得人类具有起码的环境适应性;第二,在人类那里,这样的决策活动很难摆脱情绪的影响,而是知、情、意协同运作的产物。与之对应,基于小数据的人工智能也必须包含人工情绪与人工意图的模块,并在这种意义上具有通用人工智能的特点;第三,正是因为基于小数据的新型人工智能具有人类思维的一些特点,所以它也像人类思维一样,未必一定要通过接驳到“云”的方式进行决策。本地化的信息处理在原则上也能满足当下的任务要求。这就使得此类人工智能具有一定的用户隐私保护特性。换言之,这样的人工智能在双重意义上将是“绿色”的:一方面对于小数据的容忍能够带来能耗的降低;另一方面对于本地化信息处理能力的支持能够带来对于隐私的保护。

《中国科学报》:越智能的机器越危险吗?

徐英瑾:如果我们把创造性作为体现智能的重要标志,那么它本身就意味着不可预期性。我们必须在“设计非常愚蠢的,却不可能背叛我们的人工智能”与“设计非常机智的,却可能会在某些情况下背叛我们的人工智能”之间进行选择,而不存在第三条路。因为“聪明”本身就意味着“具备对于背叛主人的逻辑可能性的预估力”。

《中国科学报》:人工智能需要怎样的伦理规范?

徐英瑾:人工智能伦理学依然是一门非常不成熟的学科分支。实际上,目前在世界范围内,推动“人工智能伦理学”研究的并不是学院内部的力量,而主要是各国官方与企业的力量,他们背后的动机并不是立足于学科发展的内部逻辑的。比如,有军方背景的人工智能伦理学家主要关心的是“能够自动开火的机器人”应当遵循的伦理规范问题,而欧洲议会在2016年发布的一份建议性文件甚至讨论了将欧盟范围内普遍承认的民权准则赋予机器人的问题。

我认为,这两项问题的提出都已经超越了目前人工智能的实际发展水平。因为在认知语义学的相关学术洞见还没有被人工智能的编程作业所消化的情形下,现有的人工智能系统的语义表征能力实际上不足以编码任何人类意义上的道德规范。更有甚者,在夸大当前人工智能发展水平的前提下,散布“人工智能威胁论”并在公众之中制造了一些不必要的恐慌。我认为,这种“忧患意识”好比是在一个核裂变的物理学方程式还未被搞清楚的时代就去担心核战的危险,只是现代版的“杞人忧天”罢了。

事实上,伦理编程问题不仅牵涉到软件的编制,还牵涉到“怎样的外围设备才被允许与中央语义系统进行恒久的接驳”这一问题。也就是说,机器伦理学的核心关涉不仅包括“心智”还有人工智能“身体”的设计规范。事实上,太聪明的人工智能并不会对人类构成威胁,而太聪明的人工智能与超强的外围硬件设备的恒久组合,才会对人类构成威胁。因为,与人类迥异的身体图式本身就会塑造出一个与人类不同的语义网络,从而使得人类的传统道德规范很难附着其上。

举例来说,研究军用机器人的相关伦理专家所执着的核心问题是,是否要赋予军用机器人以自主开火权。我认为,只要投入战争的机器人具有全面的语义智能,主要体现在,它能够理解从友军作战平台上传送来的所有指令和情报的语义,能够将从传感器得到的底层数据转化为语义信息,并具有在混杂情报环境中灵活决策的能力等,那么在原则上,我们就可以凭借它们的这种语义智能对其进行“道德教化”,并期待它们像真正的人类战士那样知道应当在何种情况下开火。因此,我们在军事伦理的语境中更需要解决的问题其实是,我们是否允许将特定的武器与机器人战士的身体直接、恒久地接驳,因为这种直接接驳肯定会改变机器人战士的身体图式,从而使得人类对于它们的“教化”变得困难。

所以,人工智能伦理学的研究方向应该“由软转硬”,从对于软件编制规范的探讨,转向研究“怎样的外围硬件才允许与人工智能的中央处理器进行接驳”这一崭新的问题。

来源:《中国科学报》

热点新闻

推荐产品

x
  • 在线反馈
1.我有以下需求:



2.详细的需求:
姓名:
单位:
电话:
邮件: