1
关注中国自动化产业发展的先行者!
2024中国自动化产业年会
2024
2023年工业安全大会
OICT公益讲堂
当前位置:首页 >> 资讯 >> 行业资讯

资讯频道

人工智能安全与治理
  • 点击数:2277     发布时间:2020-04-23 11:36:00
  • 分享到:
人工智能作为引领未来的战略性技术,近年来随着海量可用数据的产生、算力提高与算法的优化,其在理论前沿、技术研发和产业落地均有不小的突破。随之而来的是,人工智能在国家安全、政治秩序、经济发展、国际格局、社会治理等各个领域的影响愈发强烈,治理与安全议题的重要性日益提升。
关键词:

人工智能作为引领未来的战略性技术,近年来随着海量可用数据的产生、算力提高与算法的优化,其在理论前沿、技术研发和产业落地均有不小的突破。随之而来的是,人工智能在国家安全、政治秩序、经济发展、国际格局、社会治理等各个领域的影响愈发强烈,治理与安全议题的重要性日益提升。

作为颠覆性新兴技术的代表,人工智能的“双刃剑”影响是其与生俱来的特性,拥有广泛可期的发展前景,并革新了人类发展理念和路径,同时也带来了复杂泛化的风险挑战。因此,为保证人工智能健康发展, 应对技术进步的外溢风险,抢占未来科技高地,必须兼顾发展与安全,加强安全与治理的前瞻性研究,才能在人工智能发展浪潮和竞争格局中赢得主动。

本期专题汇集了上海“新一代人工智能治理准则”专家研讨会的主要成果,通过剖析我国人工智能安全与治理方面存在主要问题,对美、英、欧、日等主要国家在人工智能安全领域政策发展的对比、战略倾向的作出研判,解读我国人工智能安全与治理发展模式应有的要素和关切,并从顶层布局、制度机制、未来法治、原则标准、技术发展等不同视域对我国推进人工智能安全与治理工作进行了思考和探索。

目录

重视人工智能发展中的安全与治理

人工智能与未来法治构建

各国人工智能安全政策研判

中国人工智能治理准则的几点思考

人工智能技术与网络空间安全

01 重视人工智能发展中的安全与治理

内容概要:

1 中国人工智能安全与治理存在的主要问题

1.1 中国人工智能发展在治理、安全、伦理和法治建设相对滞后

1.2 已有的倡议和声音难以形成较强的社会共识

1.3 人工智能发展存在方向不明、技术滥用、资源浪费等问题

2 我国推进人工智能安全与治理工作的几点思考

2.1 顶层布局:人工智能安全与治理需要顶层设计、系统规划和全方位考虑

2.2 机制建设 : 建立人工智能安全与治理的协调机制和决策咨询机制

2.3 原则标准 : 构建通用性治理准则与产业落地相结合的规范框架

2.4 国际交流:积极推进上海在人工智能安全与治理领域的国际交流

2.5 产业发展:推动我国人工智能产业安全、融合发展

2.6 人才培养:培养人工智能安全与治理复合型人才

2.7 社会共识:形成中国强有力的人工智能安全与治理共识

人工智能作为一项新兴的使能技术,其技术的产生和应用的发展对一国的经济结构、社会秩序、道德伦理、价值观等都会产生相当大的冲击。因此,我国应当重视人工智能发展对国家安全和社会治理的影响,重视人工智能安全与治理议题。

1 中国人工智能安全与治理存在的主要问题

1.1 中国人工智能发展在治理、安全、伦理和法治建设相对滞后

理论研究、治理原则和规制规范等配套性制度的推进速度,相较于产业而言存在相当的滞后性,使得对于人工智能发展中暴露出的各类治理、安全问题难以形成通用性的应对方式和解决措施,人工智能的使能作用难以发挥到最大,加剧了舆论情绪对于人工智能过度的担忧。

1.2 已有的倡议和声音难以形成较强的社会共识

我国已有的人工智能发展国家战略或行业发展倡议,相较于美欧处于后发阶段,且牵涉主体繁多、领域广泛、问题复杂,各方理解参差不齐,国内大众对于人工智能的理解面临信息和技术壁垒,难以形成较强的社会共识,在国际层面缺少话语权和影响力。

1.3 人工智能发展存在方向不明、技术滥用、资源浪费等问题

在缺少整体性战略指引情况下,我国目前的人工智能发展存在方向不明、盲目迷信、技术滥用、资源浪费、经效低下等现象,在各层面治理与安全问题不断爆发、各方担忧不断加剧的情况下,将可能成为制约我国人工智能进一步发展的制约性因素,使得人工智能安全风险和治理态势进一步恶化。

2 我国推进人工智能安全与治理工作的几点思考

2.1 顶层布局:人工智能安全与治理需要顶层设计、系统规划和全方位考虑

2.1.1 中国需要探索人工智能治理模式

我国目前由科技部指导成立了“新一代人工智能治理专业委员会”,正在加紧推进中国国家层面的人工智能治理准则的出台,上海也在去年世界人工智能大会上布局了关于法治和安全领域的倡议。在人工智能风险不断泛化、与其他风险叠加扩大的背景下,我们要重视治理理念,拓展范围更广的安全概念,对于人工智能带来的问题要分层次、轻重、缓急进行全局性思考、研究和应对,立足顶层战略,探索一条更具包容性和开放性的中国特色治理模式和工作路径,治理模式应当包括人工智能发展、安全、伦理、法治等各个方面。

2.1.2 人工智能发展要结合特殊的国情

我国目前处于经济转型的关键节点,人工智能发展要紧扣国家战略、社会需求和区域规划,能够为中国经济高质量发展的提供技术支持,服务公共民生,减小贫富分化,提升智能城市治理,同时要重视结构性失业等外溢影响。

2.1.3 人工智能发展要结合新兴技术的阶段性

深化对人工智能技术的理解,坚持技术中立原则,避免对人工智能的过高依赖、迷信和数据崇拜,减少应用中的技术滥用和发展中的资源浪费,明确人工智能的发展应当考虑到经济效益、转化成本和应用群体,走集约型发展路线。

人工智能发展应是包括深度学习、仿生神经等复合型多样性路线的发展,要结合数学、心理学、神经科学等不同学科,形成符合科学与技术发展规律的人工智能发展技术路线。

2.1.4 人工智能发展要结合现阶段特定历史时机

在中美贸易战不断加剧,美国对我国“科技冷战”政策日趋明朗的国际形势下,我国的人工智能安全和治理模式要具备国际视野,强调开放和合作的基本立场,重视人工智能安全与治理领域的国际合作,扩大我国在国际上治理规则制定领域的影响力和话语权。

2.1.5 重视人工智能于安全的两面性

人工智能技术发展带来了巨大挑战,但也能为我国传统安全升级和网络安全发展赋能。我国在构建人工智能安全与治理模式时,既要防范人工智能的安全问题,也要积极探索其在特大城市风险防范、关键基础设施保护、网络舆情治理等国家和公共安全场景下的创新应用。

2.2 机制建设 : 建立人工智能安全与治理的协调机制和决策咨询机制

目前,美国已经建立了国家层面直接对白宫负责的人工智能安全委员会,我国要加强在顶层理论设计下的机制支撑,未来需要进一步建立国家层级的人工智能治理与安全的统筹协调机制,统筹政府各职能方立场,汇聚产、学、研、用多领域资源,形成群策群力,构建人工智能安全发展的治理模式和生态。

同时,我国也要重视长期性、持续性、多学科、跨部门的前沿和基础理论研究,形成我国人工智能安全与治理的专家库和理论库,建立能为我国人工智能长远发展的智力咨询体系。

2.3 原则标准 : 构建通用性治理准则与产业落地相结合的规范框架

2.3.1 提出中国通用性人工智能治理与安全准则

目前,美欧等国在人工智能发展、伦理原则上都各有发声,我国也要加紧相关方面的工作,综合时代国际背景、国家战略需求、技术发展趋势和中国实践应用,明确提出中国通用性人工智能治理准则。准则应当包括阐述国际性共识原则、明确我方在国家战略和社会治理等领域立场,以及对国际上其他声音的回应等方面。

2.3.2 准则结合产业落地,形成我国人工智能安全与治理的规范框架

人工智能安全与治理最终是要实现人工智能产业的安全健康发展,因此,人工智能准则要能够与产业推进政策和监管框架充分对接,切实服务于我国《新一代人工智能发展规划》国家战略,服务于我国抢抓人工智能发展的重大战略机遇,构筑我国人工智能发展的先发优势,加快建设创新型国家和世界科技强国的总体规划。

2.4 国际交流:积极推进国家在人工智能安全与治理领域的国际交流

在美国不断推动对华“科技冷战”政策和人工智能日益成为国际竞争重要议题的情况下,我国依旧要坚持对外开放和平等合作,在人工智能安全和治理上要具备国际视野,积极搭建各类平台,加强与国际组织、国外企业的合作,共同研究制定人工智能治理、安全、伦理、法律、标准等,加强我国在人工智能安全领域的话语权,为世界提供中国人工智能治理模式借鉴。以举办世界人工智能大会等为契机,打造主场优势,对接国外主要人工智能安全机构,探索建立人工智能安全发展国际规则和合作机制,积极引导全球人工智能安全治理的发展进程。

2.5 产业发展:推动我国人工智能产业安全、融合发展

2.5.1 重视人工智能科研与产业协同融合发展

人工智能的发展需要由学术界和产业界共同驱动,需要产学研融合实现协同创新。目前,我国人工智能学术研究承载机构以高校和研究机构为主,企业参与少,技术突破与应用落地的结合程度较弱,高校和科研机构的科研成果与企业的实际需求结合不够紧密,导致技术转化率低,成本偏高。对此,我国要构建人工智能发展的产学研用生态,真正推动人工智能科研与产业协同融合发展。

2.5.2 重视人工智能安全产业发展和在安全与治理场景的应用

大力发展人工智能在数据采集和算法设计等基础技术、产品开发、平台支撑性技术、场景应用中配套的安全产品与安全服务,切实实现发展内嵌安全;在前期充分评估基础上,建立人工智能在城市治理、社会治理、公共安全等领域可以优先发展的应用场景白名单,发挥人工智能基础使能技术作用,助力传统网络安全企业创新提高。

2.5.3 明确企业主体责任,形成行业自律

明确在人工智能发展中企业主体的安全责任和社会义务,引导有条件的企业内部形成标准守则,发挥企业能动性,形成行业自律。

2.6 人才培养:培养人工智能安全与治理复合型人才

人工智能安全与治理是涉及多专业背景的跨学界研究领域,倡导有条件的高校中设立哲学、政治学、行政管理、法学、网络安全等不同学科基础上拓宽人工智能专业教学内容,重视人工智能与其他各学科的交叉融合,培育一批具备不同专业素养并熟悉人工智能技术原理的复合型高峰人才;同时,也要推进高等院校、科研机构与人工智能企业对接合作,加强对人工智能一线研究、开发人员的安全与治理培训,提高人工智能实务工作人员的安全意识。

2.7 社会共识:形成中国强有力的人工智能安全与治理共识

人工智能具备一定的专业知识和理解门槛,要加强对党政机关、企事业单位、社会大众的宣传普及,消除信息和技术壁垒,切实凝聚成广泛的我国人工智能安全与治理社会共识,为我国人工智能安全与治理工作推进形成良好社会舆论氛围。

作者 >>>

何积丰,中国科学院院士,主要从事计算机软件理论及其应用研究,包括软件的复杂性、正确性、可靠性、程序设计理论及其应用等。

02 人工智能与未来法治构建

内容概要:

1 人工智能与未来法治构建的理念框架

2 规范保障人工智能发展的法治路径

3 加强人工智能法律领域的教育研究与实践

4 推动人工智能未来法治的国际交流与合作

随着人工智能在社会各个领域的不断深度融合与快速发展,对法律体系、经济发展、社会稳定乃至全球治理都会产生深远影响,其丰富潜能带来的无限可能性也引发了各界担忧,如何将人工智能纳入人类可控的发展轨迹,趋利避害,共享成果,逐渐成为各界聚焦的热点议题。总体而言,人工智能对法治既有挑战,亦有机遇。人工智能不仅在知识产权体系、法律责任认定与归属等现行法律典型应用场景下遭遇各种新生问题,而且进一步引发了对包括法律主体概念等法治基本问题的追问和人工智能未来解构人类既有法治秩序的担忧。同时,人工智能在法治领域又有着广阔的应用前景,并且已经开启重塑法律运行机制和实践方式的渐进之旅。因此,亟待从提前布局未来法治建设这一战略高度,深刻认识导入人工智能这一颠覆性技术的同时同步构建未来法治的必要性、重要性。对此,我们发起“人工智能与未来法治构建上海倡议”,希望能够围绕如何应对人工智能可能带来的风险挑战,构建人工智能未来法治体系,促进、规范、保障人工智能健康持续发展,服务人工智能国家战略实施,促进人类社会福祉等主题形成普遍共识。

1 人工智能与未来法治构建的理念框架

坚持发展是“人工智能与未来法治构建上海倡议”基本的出发点。人工智能技术作为信息时代前沿趋势技术,需要社会保持开放、积极的态度,从发展的角度看待人工智能治理与安全,看待人工智能法治体系的构建。因此,要“面向全球、面向未来、面向和平”,坚持以人为本、向善安全、创新发展、共享成果、可靠可控、规范有序六项基本价值原则,构建人工智能未来法治体系,将人工智能发展应用纳入法治的轨道。

与此同时,在面对人工智能发展带来的风险挑战时,要加强前瞻性研究预判和约束性引导规则的制定,开展人工智能与法治的基础理论研究,为人工智能的安全、可靠、可控发展提供制度支撑、配套体系和智力供给。

2 规范保障人工智能发展的法治路径

目前,人工智能融合发展、跨界发展的趋势日益凸显,风险和挑战也随之变得更趋复杂和广泛。因此,需要在国家战略层面探索建立人工智能规范发展与风险防控研究体系,加强人工智能法治体系的顶层设计和统一部署,统筹规划和指导布局研究的方向与重点。在深入研究的基础上,建立与人工智能创新发展相适应的立法规范、法律体系、政策体系和伦理规范,形成人工智能安全评估、风险防控法律机制,提升技术规则、应用规则的管控能力,努力使人工智能配套的法治体系更具针对性、系统性、权威性。

在人工智能法治体系中,需要在包括人工智能的算法设计构建、数据采集运算、产品研发推广、行业领域应用等各个环节都有相应的法制规范,尤其是要有人工智能在执法司法领域应用的规范和标准。具体而言,在法律主体界定这一法治体系基础概念上,我们提倡法治体系保持开放性和包容性,鼓励学界和实务部门以审慎、科学的态度进行理论研究和实践探索,在规制人工智能安全发展和释放人工智能创造力之间保持平衡。如,在人工智能的技术设计阶段,需要制定相关的法律规范,通过规则设定促进人工智能算法的公正、透明、安全,避免算法歧视,杜绝有悖伦理价值及公序良俗的技术应用;在人工智能的数据挖掘收集方面,要构建数据权益体系,形成数据分享的安全机制、利益机制、追责机制,保证数据合法安全的开放、流通、使用,并规制数据的过度采集乃至滥用;在人工智能的产品研发上,要加强人工智能知识产权研究,健全人工智能领域技术创新、知识产权保护与标准化互动支撑机制,保证人工智能发展有足够的创新驱动力;在人工智能的行业领域应用阶段,要积极开展对人工智能应用场景的法律研究,建立人工智能复杂场景下风险防范与应对机制。我们应清醒地认识到技术的中立性,人工智能对现实社会影响的利弊在很大程度上取决于技术背后的设计者、使用者,因此要高度重视开展预防和惩治涉人工智能违法犯罪的相关研究,避免人工智能被应用于违法犯罪活动,并在具体实践中探索可行的治理之道和司法实践。

3 加强人工智能法律领域的教育研究与实践

人工智能总体还处于技术成长和发展阶段,人类要把握未来发展的方向必须有可信赖的青年人才队伍,因此特别有必要强调“人工智能时代的青年责任”。我们呼吁青年要有应然的时代使命和责任感,社会要加强对青年的教育与培训,倡导在人工智能研发教育中增加必要的伦理、法治内容,法学教育应当在法学学科基础上拓宽人工智能等专业教学内容,重视人工智能与法学教育的交叉融合,培育一批具备法学素养并熟悉人工智能技术原理的复合型高峰人才;同时,推进“政产学研用”合作,整合高等院校、科研机构、党政机关、企事业单位研究资源,共享智慧与经验,合力推动人工智能与未来法治构建。

人才的成长必须投入实践才有可能和意义。我们要充分把握人工智能给法治体系的发展带来的机遇,在实践中大量培养人工智能法治人才队伍,推动人工智能在法治领域的融合发展,准确把握法治规律与人工智能技术特点的结合,实现人工智能在执法、司法领域的深度应用,加快智慧法治建设,使人工智能更好地服务、赋能法治,推进法治实践智能化。

4 推动人工智能未来法治的国际交流与合作

当下,以美欧为代表的西方主要国家都提出了人工智能伦理原则、价值指导等,在这一领域,中国不应也不能缺席。我国在人工智能的技术研发、产业发展等应用端发展成绩亮眼,但是在理论研究、国际话语权等基础软实力方面还有很大的提升空间,因此,我们倡议积极推动人工智能发展应用的国际交流与合作,主动履行大国责任、搭建人工智能与法治国际合作平台,更好地为世界提供人工智能法治的中国方案,可靠守护人类社会的安全与福祉。在此过程中,完整表达我国共同探讨、共推发展、共护安全、共享成果的立场,倡导国际社会携手反对与防止智能霸权,促进人工智能的和平、充分、有效利用,共创人类社会美好未来。

作者 >>>

施伟东, 上海市法学会专职副会长,主要从事政法理论和政策研究。

03 各国人工智能安全政策研判

内容概要:

1 全球人工智能安全的趋势研判

1.1 重视人工智能发展内嵌安全的观念

1.2 重视人工智能在安全领域的两面性

1.3 重视人工智能的治理规范

2 主要政治体人工智能安全政策及特点

2.1 美国:人工智能安全立足美国的国际领导力和国家安全战略

2.2 欧盟(德、法):重视西方政治价值与人工智能的协调

2.3 英国

2.4 日本、韩国、新加坡

人工智能作为引领新一代信息技术发展的“头雁”技术,是推动我国实现高质量发展、创造高品质生活、提升国际核心竞争力的重要引擎。然而,作为全新的基础性使能技术体系,人工智能的双刃剑效应也尤为明显,对经济、社会、国家乃至全人类的安全发展都带来极为复杂的挑战,如何确保人工智能高质量安全发展尤为关键。对此,党中央多次强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。

1 全球人工智能安全的趋势研判

1.1 重视人工智能发展内嵌安全的观念

人工智能安全问题存在于技术发展的各个阶段。美、英、德、法、日等各国都在不同的战略政策中强调安全问题贯穿人工智能的数据采集、算法设计、产品开发、产业应用等全生命周期中。

1.2 重视人工智能在安全领域的两面性

人工智能技术发展给社会带来巨大的安全挑战,但也能为传统安全赋能。美、法、日都将国防和公共安全列为人工智能技术重点应用的领域之一,美国从保持全球领导力,基于国家安全的战略高度,强调人工智能对军事、情报和国家竞争力的作用,不仅拓展人工智能技术在传统安全领域的应用,也特别注意防范人工智能对国家安全的冲击。

1.3 重视人工智能的治理规范

人工智能治理规范不仅体现在宏观层面,如人类安全、伦理、价值观、信任、可靠等原则,更体现在具体的应用场景中的法律监管和技术标准,如智能机器人、自动驾驶等,也包括相关通用性的算法追责等规范。美、欧、英、日等结合各自人工智能技术发展能力以及社会治理传统经验,在治理规范上提出符合自身利益诉求的原则倡议或规范标准,但也注重强调占据社会道德制高点,在争夺人工智能安全领域的话语权。

2 主要政治体人工智能安全政策及特

2.1 美国:人工智能安全立足美国的国际领导力和国家安全战略

美国人工智能安全政策主要特点:(1)成立国家层面的人工智能安全委员会,直接向白宫和国会负责,统筹应对人工智能在安全领域的挑战,推进人工智能的发展;(2)强调人工智能发展和应用对于美国国防、军事、情报等传统安全领域的意义,重视人工智能在国防军事和情报领域的应用;(3)将人工智能纳入国际博弈和国家战略议题,视人工智能作为确保美国全球领导力、竞争力未来核心能力之一,并将人工智能列入限制对中国等国出口的关键技术;(4)国会、联邦政府、州政府等国家机构共同构建规范人工智能在算法安全和自动驾驶等发展、应用方面的法律监管体系;(5)包括微软、谷歌等科技巨头,还有IEEE、ITI 等行业协会,阿西洛马人工智能原则、OpenAI 公共智库等不断在人工智能治理原则、伦理规范和安全标准上发力。

2.2 欧盟(德、法):重视西方政治价值与人工智能的协调

欧盟层面高度重视人工智能对现有的政治秩序、政治价值和伦理道德的冲击,设立欧盟委员会直属的欧盟人工智能高级别专家组,致力于将西方的人权、自由等政治价值内嵌到人工智能伦理体系中,并谋求在人工智能安全、伦理范畴的话语权和规则制定权。在德、法等成员国层面则以人工智能产业安全发展、监管规制的法律制定为主要侧重点。

2.3 英国

英国重视机器人、智能系统、自动驾驶等人工智能深度应用的场景下的数据隐私、技术伦理和安全问题。

2.4 日本、韩国、新加坡

日本、韩国和新加坡更多是从制造业智能化转型和新兴技术应用等发展的角度来看待人工智能,安全方面侧重不多。其中日、新对于人工智能的伦理原则和治理规范关注较多,韩国则更强调在智能机器人等产业场景下的人工安全问题。

作者 >>>

惠志斌,研究员、管理理学博士,上海社会科学院互联网研究中心主任,赛博研究院院长、首席研究员,主要研究领域为网络安全、数字经济、互联网等领域的政策和产业研究。

04 中国人工智能治理准则的几点思考

内容概要:

首先,笔者认为我国应当认识到人工智能对社会治理和国际秩序带来的挑战和冲击。

其次,我们也要看到中国在人工智能发展上面临的巨大机遇。

再次,我们依旧要看到中国在人工智能发展尚存在的不足。

最后,笔者对于中国人工智能治理准则提出几点思考建议。

人工智能的不断发展,给政治、经济、社会各领域的理念和秩序可能带来深刻的变迁,人工智能治理议题也日益成为各国热切讨论的话题。中国应该构建怎样的人工智能治理准则,值得各界进行深入的思考。

首先,笔者认为我国应当认识到人工智能对社会治理和国际秩序带来的挑战和冲击。在社会治理方面,人工智能尤其是强人工智能将在人性价值和道德伦理上产生颠覆性的影响,对人类中心主体地位的担忧不再是杞人忧天;其次,人工智能大规模应用可能带来结构性失业、全面性失业和“就业失重”现象,冲击现有的社会秩序和结构,导致群体心理异化;最后,人工智能作为新兴科技“赛维坦”的典型代表,在算法、数据、隐私、确责等各个方面都使得现行法律制度和监管规则应对乏力。

而在国际秩序方面,也不能忽视人工智能带来的变化。第一,人工智能的发展需要海量的数据、高素质的人才和雄厚的资本集聚,在当今的国际格局中,以美欧为代表的发达国家和互联网科技巨头毫无疑问会在未来拥有很大的优势,而发展中国家以传统劳动力为主的制造业丧失在国际分工中的相对优势,人工智能的发展可能会加剧国际秩序的不平等,发展中国家面临“永久边缘化”的风险;第二,在人工智能发展原则的研究和建构领域中,美欧等国家依旧占据着主导地位,内嵌着西方所谓普世政治价值的人工智能伦理框架仍是其他国家在进行相应领域探索的主要参考。

其次,我们也要看到中国在人工智能发展上面临的巨大机遇。第一,中国拥有不俗的人工智能发展基础和潜能,在视觉、语音识别、自然语言处理和机器人等领域上拥有一批具备全球技术优势的企业,统一的市场、活跃的资本、高素质人才和国家战略支持使得中国人工智能的发展前景可期;第二,中国始终将自身定位为“最大的发展中国家”,在过去十年来中国经济发展模式在国际社会产生了巨大反响,相信中国在人工智能发展模式、治理原则的探索上,依旧能够为世界提供一种不同于西方的中国人工智能治理道路。

再次,我们依旧要看到中国在人工智能发展尚存在的不足。目前,我国国家层面的人工智能准则尚未公布,缺少顶层理论设计和研究方向指引,使得在治理准则、伦理规范领域屡屡失声,5 月 16 日科技部部长王志刚表示人工智能治理准则已在加紧研究,将于近期公布,说明国家已逐渐意识到在这方面的不足,正在重点布局;此外,在人工智能发展中,普遍出现重应用轻理论、重技术轻人文、重产业轻规则的现象,甚至很多人文、社会学者也因为学科壁垒产生一些偏见,这与强调跨界发展、融合发展、泛化影响的人工智能是相矛盾的;再者,人工智能技术的发展已经进入了某些科技领域的“无人区”,但是相应的风险防控制度和规则制定相对滞后,不可控的预期与担忧使得人工智能在创新上面临巨大的压力。因此,社会科学在其中的作用会更加显著,人工智能要得到充分的发展,不仅需要智能科学与工程的学科建设和努力,还需要智能社会科学的保驾护航。

最后,笔者对于中国人工智能治理准则提出几点思考建议。第一,强调人的核心主体地位。目前各方的人工智能准则中都存在类似的内容,强调普世性道德准则,我国应当更好地去表达自身的看法,重视中国叙事和中国逻辑,以中国话语的方式去呈现通用性的准则;第二,突出人工智能本身的安全,包括算法、数据、隐私、安全、透明、责任等等,兼收并蓄,博采众长,结合中国实践和科学规律去制定准则;第三,人工智能发展应当建设性地促进公平公正,技术发展具有中立性和映射性,原有不公平的秩序不应在人工智能时代被复制放大,相反,应当利用人工智能技术推动整个国际秩序和社会结构向更合理的方向变革;第四,人工智能的发展应注重和谐共生、协同发展,鼓励与人工智能相关的不同学科间的跨领域合作,加强不同主体之间的协调,共同推进人工智能健康发展的制度体系。同时,消除因信息、专业带来的门槛和壁垒,加强对不同受众的教育和培训,加强各方之间的沟通和协调,提升公众对现状的了解。

作者 >>>

高奇琦,现任华东政法大学教授、政治学研究院院长,主要研究方向为比较政治研究、比较政治学理论等,近几年关注人工智能人文领域研究。

05 人工智能技术与网络空间安全

内容概要:

1 人工智能技术概述

1.1 概念

1.2 人工智能发展沿革

1.3 人工智能技术的典型代表

2 人工智能时代网络空间安全发展趋势

2.1 网络空间安全威胁趋向智能

2.2 网络空间安全边界开放扩张

2.3 网络空间安全人力面临不足

2.4 网络空间安全防御趋向主动

3 人工智能在网络空间安全的应用优势

3.1 网络空间安全的内涵

3.2 人工智能技术在网络空间安全应用的优势

4 展望

4.1 人工智能安全将成为产业发展最大蓝海

4.2 人工智能本体安全决定安全应用进程

4.3 “人工”+“智能”将长期主导安全实践

4.4 人工智能技术路线丰富将改善安全困境

4.5 网络空间安全将驱动人工智能国际合作

人工智能时代,网络空间安全威胁全面泛化,利用人工智能思想和技术应对各类安全威胁,成为网络安全创新发展新的方向。本文从人工智能技术逻辑的视域,分析了人工智能赋能网络空间安全(AI+ 安全)的优势,认为人工智能安全将成为人工智能产业发展最大蓝海,人工智能的本体安全决定安全应用的发展进程,“人工”+“智能”将长期主导安全实践,人工智能技术路线丰富将改善安全困境,网络空间安全将驱动人工智能国际合作。

1 人工智能技术概述

1.1 概念

一般而言,人工智能(Artificial Intelligence,简称 AI)是指人造机器所表现出来的智能,关于人工智能学科可被认为是研究、开发用于模拟、延伸和扩展智能的可行性、理论、方法、技术、应用系统及伦理等等一门新的科学和工程学科。这其中,核心在于“智能”,由于人类目前唯一认知的高等智能是人类本身,因此,人工智能企图通过探索人类智能的实质,制造出一种“像人一样思考或行动”的机器系统,前者解决的是逻辑、推理和寻找最优解等问题,后者则是可以通过认知、计划、推理、学习、沟通、决策等行动实现任务目标。

对于人工智能确切的定义,尚未有普遍可以接受的共识,从中也可以看出人工智能发展初期的阶段性特点。一是总体而言,人工智能理论建构尚远不成熟、技术突破也在探索突破的发力期,原因在于人类对智能本身运作的机理和构成要素了解较少;二是技术应用领先于概念理论,在不同的方向和子领域,存在一定的壁垒,且目前尚看不出人工智能的主流技术路线,原因在于人工智能是涉及计算机、通信、数学、神经、认知、心理、哲学等等各种生物、工程、技术、人文学科复杂交叉,不同学科背景的研究者进行人工智能研究时面对不低的沟通成本。

1.2 人工智能发展沿革

人工智能概念自 1956 年首次提出以来,经历了长期而又波折的算法演进和应用检验,直至近 20 年随着计算技术和大数据技术的高速发展,人工智能得到超强算力和海量数据的支持,才获得了越来越广泛的应用验证,无论是技术本身的演进还是应用领域的扩展,都取得了跨越式发展。迄今为止,人工智能的发展经历了三个阶段:

模式识别(Pattern Recognition)阶段:最初的模式识别阶段大致从 20 世纪 50 年代前后延续至 20 世纪 80 年代,此时期的人工智能技术主要集中在模式识别类技术的研发和应用上,包括沿用至今的语音识别和图像识别技术均发轫于此。模式识别主要是指模仿人类识读符号的认知过程从而实现智能系统。

机器学习(Machine Learning)阶段:机器学习最早可追溯至人工智能诞生不久时,但实际取得突破性进展是在 20 世纪 80 年代及以后。彼时的人工智能以应用仿生学为主要特点,受人脑学习知识主要是通过神经元间突触的形成与变化的启发,计算机也可用来模拟神经元工作,因此也称为神经元发展阶段,今天广泛应用的人工神 经 网 络(ANN,Artificial Neural Networks)、支 持 向 量 机 (SVM, Support Vector Machine) 技 术均来源于此,SVM 可谓这一时期的最顶峰成果,它实现了高效的归纳学习,具有数据样本有限情况下精确分类的优势。

深度学习(Deep Learning)阶段:2006 年,随着深度学习模型的提出,人工智能引入了层次化学习的概念,通过构建较简单的概念来学习更深、更复杂的概念,真正意义上实现了自我训练的机器学习。深度学习可从大数据中发现复杂结构,具有强大的推理能力和极高的灵活性,由此揭开了崭新人工智能时代的序幕。在人工智能第三波发展热潮中,深度学习逐渐实现了在机器视觉、语音识别、机器翻译等多个领域的普遍应用,也催生了强化学习、迁移学习、生成对抗网络等新型算法和技术方向。

 1.3 人工智能技术的典型代表

(1)机器学习 (ML, Machine Learning): 是当前人工智能的关键技术,通过设定模型,输入数据进行训练,改善自身性能,重在归纳、聚合而非演绎。

(2)专家系统(ES, Expert System):专家系统主要是将规则和逻辑引入 AI 系统,帮助和执行自动化决策。

(3)过程自动化 (AT, Automation ):采用自动化脚本的方法,实现任务自动化代替或协助人类员工。

(4) 深 度 学 习(DL, Deep Learning): 深度学习是机器学习中一种基于对数据进行表征学习的方法,使用特定的表示方法从实例中更容易学习新的任务。

(5)自然语言处理(NLP, Natural Language Processing):让计算机处理并理解人类所使用的各类语言,广义定义还包含让计算机正确运用人类语言自如地与人进行多种形式的沟通。

(6)计算机视觉 (CV, Computer Vision):研究让计算机如何“看”世界,常见的有对图像进行分析的图像处理技术(IP, Image Processing)、从动态视频获取有效信息的视频分析技术 (VA, Video Analysis) 等,还有支持 AR 和 VR 等的虚

拟智能技术(VI, Virtual Intelligence)等新兴技术。

(7)模式识别 (PR, Pattern Recognition):对信息进行整合与智能分析,对由环境和客体组成的模式进行自动处理和判读,技术实现可分为有监督的分类(Supervised Classification)和无监督的分类 (Unsupervised Classification) 两种。

(8)情绪识别(ER, Emotion Recognition):综合多种技术感知人类的情绪状态。

(9)AI 建模(DT, Digital Twin/AI Modeling):通过软件来沟通物理系统与数字世界,这也是物理与虚拟世界的交界面。

(10)机器人技术 (RB, Robotics): 机器人有着广阔的应用,形态也各异,常见的有无人驾驶、无人机等。

(11)虚拟代理 (VA, Virtual Agents):复合多项技术,能 够 与 人 类 进 行 交 互 的 计 算 机 代理 或 程 序, 目 前 常 被 用 于 客 户 服 务 或 语 音助理。

2 人工智能时代网络空间安全发展趋势

2.1 网络空间安全威胁趋向智能

随着网络信息技术全面普及以及数据价值的持续增长,网络空间安全威胁持续严峻,且呈现出智能化、隐匿性、规模化的特点,网络空间安全的防御、检测和响应面临更大的挑战。采用人工智能的网络威胁手段已经被广泛应用于网络犯罪,包括漏洞自动挖掘、恶意软件智能生成、智能化网络攻击等,网络攻击方式的智能化升级打破了攻防两端的平衡。魔高一尺,道高一丈,网络安全攻防不对称要求网络空间安全防御方采取更加智能化的思想与手段予以应对。

2.2 网络空间安全边界开放扩张

智能互联时代,网络空间安全的边界不断扩展。一方面,传统基于网络系统和设备等物理边界的网络安全防御边界日趋泛化,网络安全攻击范围被全面打开。另一方面,网络空间治理全面渗透在政治、经济、社会等各个领域,网络空间安全影响领域全面泛化。边界的开放扩张要求积极将各类智能化技术应用于全业务流程的安全防御。

2.3 网络空间安全人力面临不足

网络空间安全威胁形势日趋严峻,与之对应的是安全人员面临严重短缺,根据迈克菲调查显示,企业普遍认为他们需要增加 24% 的安全人员才能有效应对面临的网络威胁。网络空间不断延展、移动设备增加、多云端服务正在使安全人员的工作变得越来越复杂,而安全人员的短缺更是加剧了安全风险问题。利用人工智能等技术推动网络防御系统的自主性和自动化,降低安全人员风险分析和处理压力,辅助其更加高效地进行网络安全运维与监控迫在眉睫。

2.4 网络空间安全防御趋向主动

针对层出不穷、花样翻新、破坏加剧的恶意代码、漏洞后门、拒绝服务攻击、APT 攻击等安全威胁,现有被动防御的安全策略显得力不从心。智能时代,网络空间安全从被动防御趋向主动防御,人工智能驱动的自动化防御能够更快更好地识别威胁,缩短响应时间,是网络空间安全发展的必然方向和破解之道。

3 人工智能在网络空间安全的应用优势

3.1 网络空间安全的内涵

网络空间的概念是指由现代信息技术革命产生的,由通信线路和设备、计算机、软件、数据、用户以及任何接入网络的物体等要素交互形成的全新空间,涵盖物理设施、用户和内容逻辑等多个层面,它将生物、物体和自然空间之间建立起智能联系,是人类社会活动和财富创造的全新领域。

网络空间安全是网络空间中所有要素和活动免受来自各种威胁的状态。随着信息技术的不断创新发展,网络空间安全的范畴正不断扩大,成为非传统安全的重要组成部分,并与国家、政治、社会、经济领域的安全密不可分。从网络信息技术的发展历程以及技术逻辑来看,网络空间安全可分为三大领域,分别为网络系统安全、网络内容安全和物理网络系统安全。其中,网络系统安全包括信息基础设施、计算机系统、网络连接、用户数据等设备和信息的安全保障,需要抵御各种恶意攻击对信息和网络系统的入侵、渗透、中断、破坏,以及对用户数据的泄露、窃取,网络系统安全是保障全球网络和计算机系统稳定运行,保护用户数据和隐私的基础。网络内容安全是指在网络环境中产生和流转的信息内容是否合法、准确和健康,是否会对政治、经济、社会和文化产生不良影响和危害。物理网络系统安全包括网络空间中任何与网络连接的物、人等物理要素的安全,随着物联网、脑机接口、机器人等技术的迅猛发展,网络空间的威胁已延伸到物理空间和现实世界,由此产生对资产、人身以及自然环境等要素的潜在安全威胁。网络系统安全、网络内容安全和物理网络系统安全相互影响和融合交织,构成了本报告网络空间安全的基本内涵。

3.2 人工智能技术在网络空间安全应用的优势

人工智能是令机器学会从认识物理世界到自主决策的过程,其内在逻辑是通过数据输入理解世界,或通过传感器感知环境,然后运用模式识别实现数据的分类、聚类、回归等分析,并据此做出最优的决策推荐。当人工智能运用到安全领域,机器自动化和机器学习技术能有效且高效地帮助人类预测、感知和识别安全风险,快速检测定位危险来源,分析安全问题产生的原因和危害方式,综合智慧大脑的知识库判断并选择最优策略,采取缓解措施或抵抗威胁,甚至提供进一步缓解和修复的建议。这个过程不仅将人们从繁重、耗时、复杂的任务中解放出来,且面对不断变化的风险环境、异常的攻击威胁形态比人更快、更准确,综合分析的灵活性和效率也更高。因此,人工智能的“思考和行动”逻辑与安全防护的逻辑从本质上是自洽的,网络空间安全天然是人工智能技术大显身手的领域。

3.2.1 基于大数据分析的高效威胁识别

大数据为机器学习和深度学习算法提供源源动能,使人工智能保持良好的自我学习能力,升级的安全分析引擎,具有动态适应各种不确定环境的能力,有助于更好地针对大量模糊、非线性、异构数据做出因地制宜的聚合、分类、序列化等分析处理,甚至实现了对行为及动因的分析,大幅提升检测、识别已知和未知网络空间安全威胁的效率,升级精准度和自动化程度。

3.2.2 基于深度学习的精准关联分析

人工智能的深度学习算法在发掘海量数据中的复杂关联方面表现突出,擅长综合定量分析相关安全性,有助于全面感知内外部安全威胁。人工智能技术对各种网络安全要素和百千级维度的安全风险数据进行归并融合、关联分析,经过深度学习的综合理解、评估后对安全威胁的发展趋势做出预测,还能够自主设立安全基线达到精细度量网络安全性的效果,从而构建立体、动态、精准和自适应的的网络安全威胁态势感知体系。

3.2.3 基于自主优化的快速应急响应

人工智能展现出强大的学习、思考和进化能力,能够从容应对未知、变化、激增的攻击行为,并结合当前威胁情报和现有安全策略形成适应性极高的安全智慧,主动快速选择调整安全防护策略,并付诸实施,最终帮助构建全面感知、适应协同、智能防护、优化演进的主动安全防御体系。

3.2.4 基于广域治理的持续进化赋能

随着网络空间内涵外延的不断扩展,人类面临的安全威胁无论从数量、来源、形态、程度和修复性上都在超出原本行之有效的分工和应对能力,有可能处于失控边缘,人工智能对人的最高智慧的极限探索,也将拓展网络治理的理念和方式,实现安全治理的突破性创新。人工智能不仅能解决当下的安全难题,而且通过在安全场景的深化应用和检验,发现人工智能的缺陷和不足,为下一阶段的人工智能发展和应用奠定基础,指明方向,推动人工智能技术的持续变革及其更广域的赋能。

4 展望

4.1 人工智能安全将成为产业发展最大蓝海

可以预见的是,智慧城市、工业互联网、自动驾驶等将在未来十年全面普及,安全将成为各类智能创新应用最核心的痛点需求,也是人工智能技术最重要的应用领域。为此,各国都会全面加大人工智能在安全领域的应用,如智慧城市建设中的安防领域,其产出的海量数据和其防护逻辑与 AI 技术逻辑的高度自洽,使AI 技术能够天然应用于安全。

4.2 人工智能本体安全决定安全应用进程

人工智能在助力解决各领域安全问题的同时,其自身的安全性也越来越重要。如何保障合理的运用 AI 技术一直是人类面临的难题。算法、数据、物理载体的安全性决定着 AI 的本体安全,是 AI 助力网络空间安全的基本前提。因此,AI 技术助力安全的发展如同 DNA 的两条单链,一条单链是在人工智能技术不断与更多产业融合下,人工智能保障安全需求迅速增长,第二条单链则为对保障人工智能本体安全的需求增长。两条单链相互催生,构成了人工智能技术助力安全的螺旋式发展。

4.3 “人工”+“智能”将长期主导安全实践

长期来看,人工智能技术只是辅助而非替代人类的关键判断,其中安全决策尤为复杂,更是人工智能无法完全替代的领域,因此人类决策与机器智能将长期并存。例如,Facebook对网络新闻的真假判断仍然是在机器学习对信息进行降级处理后进行人工审查作出最终判断在网络谣言治理领域,人工智能应用依然主要采用机器 + 专家审核模式。因此,基于人工智能对于复杂的社会关系、情感识别、价值判断的能力依然不足,智能和人工结合的人工智能模式将长期主导应用实践。

4.4 人工智能技术路线丰富将改善安全困境

机器学习、深度学习等人工智能技术高度依赖海量数据的“喂养”,但是,数据采集与隐私保护之间已经形成囚徒困境。因此,随着人工智能技术路线的不断丰富和发展,可以根据用户需求和应用场景,有针对性地选择人工智能技术,可以避免智能应用对数据资源的过度依赖,更好地保障网络空间安全。

4.5 网络空间安全将驱动人工智能国际合作

面对共同的威胁是国际合作的重要前提。人工智能时代,无论是在应对网络犯罪、网络攻击等安全威胁,或是无人驾驶、智慧城市的安全保障,都需要各国技术标准、信息资源、应对机制等方面的匹配协同。其中,面对技术规范、行业标准、法律法规尚未健全的人工智能新领域,制定统一的安全监测标准、安全防范架构、安全评估体系需要各国参与共同协调,网络空间安全成为人工智能国际间合作的重要领域。

作者 >>>

赛博研究院

来源:信息安全与通信保密杂志社

热点新闻

推荐产品

x
  • 在线反馈
1.我有以下需求:



2.详细的需求:
姓名:
单位:
电话:
邮件: