1
关注中国自动化产业发展的先行者!
2024
2024中国自动化产业年会
2023年工业安全大会
OICT公益讲堂
当前位置:首页 >> 资讯 >> 行业资讯

资讯频道

人工智能如何可信可控可用
  • 点击数:698     发布时间:2023-01-28 11:31:20
  • 分享到:
在以“人工智能治理技术”为主题的第二场主论坛讨论上,与会专家共同探讨如何通过技术工具实现人工智能可知、可信、可控和可用,以及如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的治理技术与服务。

“人工智能改变了安全格局,进一步扩大了威胁,需要从多个层面进行风险管控。”在近日举办的第三届人工智能合作与治理国际论坛上,针对目前人工智能带来的风险和挑战,中国工程院院士、鹏城实验室主任高文认为,在人的层面,应加强伦理教育;在模型算法层面,期望它可信、可控、可解释并且被正当使用;在数据层面,期望建立充足的系统防护保证数据安全。

人工智能进入从高速增长向高质量增长转变的新发展阶段,对人工智能技术的安全性和可靠性提出了更多新要求。

在以“人工智能治理技术”为主题的第二场主论坛讨论上,与会专家共同探讨如何通过技术工具实现人工智能可知、可信、可控和可用,以及如何将产业监管要求转化为技术解决方案,开发针对人工智能行业或应用的治理技术与服务。

建设可信赖人工智能

高文认为,强人工智能安全风险来源于3个方面,一是模型的不可解释性,二是算法和硬件的不可靠性,三是自主意识的不可控性。对于这些,一方面要在设计及应用阶段采取预防和检测措施,另一方面要加强国际合作,相互取长补短,还要加强人才培养。

对于数据安全问题,他认为隐私保护和数据有效使用是一对矛盾,需要做到平衡。鹏城实验室所采用的“防水堡”技术,为保护模型训练数据安全共享和使用提供了解决思路。该技术可以做到只分享价值、不分享数据,在保证原始数据不移动的情况下使数据可用。

美国哥伦比亚大学常务副校长、计算机科学系教授周以真介绍了正在推动的“值得信赖的人工智能”研究议程。该议程的目的在于把人工智能、网络安全和形式化方法三者聚集在一起。她指出,一些人工智能系统可能是脆弱和不公平的,因此需要努力实现可信赖的人工智能。

“可信赖计算意味着可靠性、安全性、可用性,要考虑准确性、稳健性、公平性,针对问责制、透明度、可解释性、道德伦理等设置人工智能执行的任务和环境。除了必要的测试、模拟和良好的软件工程实践外,还要构建可信系统的事后验证方法,即用数据模型、代码程序满足我们关心的正确性属性、安全性属性、活性属性等性质,并通过列举研究问题应用形式化方法,尝试实现人工智能系统的可信度。”周以真说。

清华大学智能产业研究院首席研究员聂再清认为,安全可信是人工智能治理的核心诉求,安全可信的人工智能技术产品需要具备安全可控、数据资产和隐私保护、可解释性等条件。他以车路协同感知为例,讲解了自动驾驶领域如何通过多传感器的协同感知,提升人工智能协同内部可靠性,从而提高人工智能安全性。

“例如面向营养健康管理的可解释个性化推荐,需要‘引导式’而非‘迎合式’信息推荐,提升用户依从性并充分考虑营养健康因素,避免迎合式的饮食推荐。”聂再清说。

“治理技术”创新应对风险挑战

近年来,人工智能应用领域进一步拓展。面对新兴技术可能带来的巨大收益和潜在风险,与会专家高度关注其治理问题。

从技术角度或技术应用角度,怎样才能实现人工智能技术的可用、管用乃至好用?高文说:“很多技术在发展过程中,过早说哪个不能用可能会抑制技术本身的发展,现阶段更多是从道德层面引导,尽量把一些可能的风险抑制工具想明白。”

聂再清认为,创新和监管之间需要平衡,一方面,从事研发的个人有责任保证将工具或创新控制在危险可控范围内;另一方面社会也要集体监督,确保某个出现问题的产品或技术能够回滚、撤销。

“技术可解释性需要将技术发展与应用场景深度结合,在不同领域需要不同的可解释能力及可解释级别,让技术在应用场景下发挥最好的作用。”瑞莱智慧(RealAI)公司联合创始人及首席执行官田天指出。

新技术往往会给现有社会伦理规范带来冲击,现阶段是否有必要设计一部分可操作的具体规则,特别是将伦理准则嵌入到人工智能产品与系统研发设计中?

田天表示,在发展阶段需要以鼓励为主,各种人工智能难免涉及一些模糊地带,一方面不能一棒子打死导致技术无法进步,另一方面也要设立一些红线,制定清晰的惩罚规定确保人工智能不触犯人类利益。在此基础上,给智能应用留有更多空间,鼓励重视伦理,提供正向激励,促进合规发展。

清华大学人工智能研究院常务副院长孙茂松认为,应鼓励应用、鼓励创新,在行动中及时发现问题,及时改正,及时总结经验,使人工智能技术在应用中更好地完善和发展。

关于人类自身偏见和歧视被写进代码造成人工智能偏见与歧视的问题,聂再清认为人工智能基于数据学习获取知识错误并不是观点歧视,而是能力不足。其有可能通过引入更多知识库或知识图谱得到提升,而不应该在伦理层面过分拔高,更多还是解决训练数据问题。

本届论坛由清华大学主办,清华大学人工智能国际治理研究院承办。

来源:《中国科学报》

热点新闻

推荐产品

x
  • 在线反馈
1.我有以下需求:



2.详细的需求:
姓名:
单位:
电话:
邮件: