2024世界人工智能大会全球治理,见解汇总
数据猿 | 2024-07-06 21:47
【数据猿导读】 2024世界人工智能大会暨人工智能全球治理高级别会议上,全球治理、全球合作成为话题焦点,大会现场多位AI大咖都分享了自己的见解和思考。

2024世界人工智能大会暨人工智能全球治理高级别会议上,全球治理、全球合作成为话题焦点,大会现场多位AI大咖都分享了自己的见解和思考。
专家方面
1. 清华大学苏世民书院院长、清华大学人工智能国际治理研究院院长薛澜在多场论坛上阐释了自己的观点。
全体会议
我想今天从三个方面跟大家来交流:首先,人工智能未来带来的收益和可能带来的风险;二是在人工智能治理方面中国做过什么样的实践,以及它可能带来的启发;三是讨论人工智能的国际治理问题。
第一方面,人工智能发展可以给我们带来各方面的收益,有各方面广泛应用,我想这个大家比较熟悉。但我想在更加宏观角度来看,它能够为我们做什么?
2015年全世界193个国家在联合国共同签署了SDG,人类可持续发展目标,希望到2030年能够推动人类社会更好地发展。193个国家所签署的SDG一共有17个目标,下面有169个具体的指标。人工智能能够为它来做什么?大家知道,去年联合国召开一次会议看看时间过半,SDG执行情况如何?情况不容乐观,有很多目标不但没有能够实现,而且还倒退。所以大家对人工智能赋予了很高期望。
最近也有研究人工智能对SDG发展带来影响做出了一些分析。其中一个分析,17个目标分成三个大领域:经济发展、社会发展和环境可持续发展。总体来讲,人工智能会对169个指标里面134个带来积极促进作用,当然也有可能对其中59个/35%左右产生不利影响。左图可以看到积极正面影响,右边带来不利影响。从宏观角度看到,人工智能潜在积极影响和不利方面。
目前,人工智能可能带来一些风险。第一,技术内在问题,包括所谓幻觉,另外自主人工智能系统长远来讲,受到自主发展可能,对人类社会的威胁;第二,基于技术开发带来风险,包括数据安全问题、算法歧视、能源环境等等问题;第三,技术应用,包括误用或者滥用,长远对社会就业带来影响。这些问题都是不可忽视的。
如何推动人工智能健康发展,尽可能地让它收益最大化?同时把风险降到最低?中国在过去这些年的实践当中已经建立了相对比较完整的体系,首先在底层产业应用方面有一系列法律法规去推动人工智能的合理发展。另外,针对算法、算力、数据有一系列治理规则。同时,针对它的风险也有很多基本规则。2019年发布《人工智能治理准则》,包括《伦理准则》,这个作为底层。另外,针对相关很多问题的法律也出台,针对专项及具体场景应用都出台相应治理规则。构建了多维度、多层次、多领域、多举措的整体治理体系。
同时,特别强调人工智能发展和风险防控,要让广大社会能够对人工智能有更好的了解,所以这点也有很多研究显示确实公众在这方面,中国社会对人工智能发展积极、拥抱,但同时也对人工智能认识有不足的地方。所以,今年2月份四部门《2024年提升全面数字素养与技能工作要点》,部署这方面任务。
刚才讲到中国这方面的实践,从全球角度来讲,要看到人工智能发展面临着很多挑战。
刚才李强总理特别谈到存在巨大的问题,首先是基础设施鸿沟,25亿人属于脱线状态,同时全世界存在公民素质数字素养鸿沟,另外是人工智能发展和素养的鸿沟。这些是要全球共同努力发展,不但阻碍全球发展,也对全球治理带来很大影响,而且在今天国际社会里面,一个国家带来的风险就是全球的风险,所以这些问题必须得共同努力解决。
解决这方面问题,首先要把发展和安全作为“一体两翼”,国际社会对安全问题可以说是非常重视,要去推动其解决。另外一点,对于发展目前存在的鸿沟,AI鸿沟、数智鸿沟方面关注不够。所以,最近中国在全球发布了这方面的规则。所以,在这方面应该说有很多的工作可以进一步讨论。
首先,通过多途径建立国际交流及防控体系,加强政府间的多边对话机制,同时希望能够通过科学共同体力量助力国际机制全面完善。刚才特别高兴看到他们的主席来讨论,全球科技力量可以跟政府、跟企业共同推动人工智能的健康发展。
我们也希望联合国等国际组织能够真正起到综合全面协调的作用,去年通过安全协议,今年刚刚通过加强人工智能能力建设国际合作决议,打破各种壁垒,加强国际合作协议,同时在产业、科学界共同努力下推动人工智能合理发展。
最后,希望大家共同努力推动人工智能健康发展,为人类和平与发展作出更大的贡献,谢谢大家!
人工智能前沿技术的治理挑战与应对措施论坛
当前,人工智能的治理与发展已经走到了关键的"十字路口",尤其是生成式人工智能所带来的挑战是前所未有的。在这样关键的时间节点上,我们必须意识到人工智能治理也面临着空前挑战:
其一,人工智能技术的发展速度远远快于监管制度的制定速度,首当其冲的便是发展与治理的平衡问题;
其二,人工智能引发的问题前所未有,这使得人工智能监管变得空前复杂,没有任何一个监管机构能够单独管理好人工智能牵涉的各个方面;
其三,随着国际格局变化和中美关系复杂化程度的加深,我们越来越认识到,不管如何,国际社会不太可能形成一个单一的全球性机构来监管人工智能发展的方方面面,因此加强国与国之间的人工智能治理沟通与合作非常必要。
前沿人工智能安全与治理论坛
今天要讨论的内容是全球关于AI安全和治理这方面的问题。最近大家做出了很多的努力,在英国和韩国都开了安全峰会,这些都是在过去12个月之间我们所开的一些关于AI安全的会,我觉得这是一个好的迹象,说明大家都关注这一点,说明大家对于人工智能存在的风险存在共识,大家对于人工智能系统的自主性比较担心。正是基于此,我们知道现在有很多国家采取了一些行动,试图解决这方面的治理问题,有国内的问题也有国际的问题,刚才有专家讲到中国AI治理的系统,我觉得主要要关注的是全球的问题。
我觉得全球层面关于治理方面有几大挑战:
第一,步伐的问题、不平的问题。因为我们技术发展太快了,政治和机构改变要慢得多,因此步伐的中间都要有一个差距,这是我们第一个要面临的挑战。
第二,还有最近的一个新挑战形成,之前也有人谈到关于技术发展的方向,目前大家说我们需要更多的运算能力,需要增加系统的能力把握未来的方向。我其实也有听到一些专家和科学家的讨论,他们开始质疑是不是这是唯一的方式,还是有其他的方式思考这个问题,以及如何实现更加健康的AI系统的发展。我不知道是不是其他专家都有分享过,但是可以说这方面逐渐会有新的想法出来,在技术的社区当中。
第三,机构性挑战。政权复杂问题带来的挑战,之前有同事提到过这一点,我们会有一些非线性机构有一些重叠的问题,之前我们也看到过基因数据,基因数据也是非常类似的,也就是说有AI问题,很多的机构、机制其实是相关的,但是并没有上下级清晰的关系。比如不同的体系都有自己的治理方式,这是我们目前的情况。我们怎样协调所有这些机构,怎样结合起来,让公司能够研究出来怎样做治理,这是我觉得比较大的问题。
第四,地缘政治方面的问题,这是大家都不想谈的显而易见的问题。
看一下中美这些年科技方面的合作,2017年开始美国和中国之间的科技合作急剧下降,因此我做了这样的表格,清楚的显示两个维度展示出国家科学家之间的合作,是否对于国家安全有益的影响,还是说对于经济有有利的影响。
可以看到在Q1是两者皆非,既不是经济方面也不是国家安全方面,没有用的研究,就是我们的基础研究。Q2加强了国家安全,而对经济没有应该。Q3是商业化的技术,主要是关注经济方面。Q4是两者都结合了,我们把前沿科技放在这边。如果我们做测绘的话,可以把技术和研究领域进行区分。2017年Q1基本上是两国之间的科学技术研究,Q4是WTO的科学合作,Q2是我们有一个Wassenaar协议,关于中国技术出口控制的协议,这个实施了很多年,Q4目前还是一个“?”,关于前沿技术还需要看未来的走向。这基本四个象限都囊括了。2017年之后Q2的政策推向了各个方向,包括在Q1、Q3和Q4。这是2017年之后的情况不需要赘述了,有中国的倡议,很多中国的科学家受到了迫害,这是现在的情况。
因此我们谈论到AI治理方面合作的时候,这是我们现在面临的情况,这就产生了关于合作方面令人毛骨悚然的影响。我们知道美国的同事如果要跟中国合作的话要写报告、打报告等,做很多的工作。同时,我之前也有参与过相关的研究,很多公司不想要参加,因为他们担心可能会被加入到某个名单上。在这样一种环境下谈合作,我觉得很困难。
有什么样的方式可以解决这些挑战?我非常同意提升安全性和治理的合作,我可能比较有雄心,我希望10%是可以合作的,另外我们需要做一些联合国际的全球科研,比如说我们怎么样做危机管理,比如有紧急的处理计划处理紧急情况,这种紧急情况和紧急计划需要技术人员合作完成。因此全球科研方面的合作是非常有潜力的。
第二个问题,怎么样解决步伐差距的问题,过去几年被邀请到不同的机构做讲话,关于灵敏治理方面,政府不需要像EU这样推出综合性的AI法律,而是紧紧跟上、快速响应,这是我们可以做的一方面。
另外一方面,Tino刚刚有谈到,而且讲的非常好。
第三点,我们不仅仅需要考虑政府,业界本身的自我管理也是非常有用的,我们听说美国核武器的操作员他们自己也有一个协会,也会以非常严格的方式自我进行约束,很多核反应堆有时候会出小的问题、事故等等,都需要上报,看看怎样研究避免出现问题。自我的约束和管理我觉得是非常有用的,我希望能够做出这方面的努力。
最后,关于国际的治理方面,很高兴能够看到联合国站出来扮演很好、很重要的角色,组成专家组,提供相应的意见,发布相应的报告。像Tino和我都同意的一点是这是一个非常复杂的问题,不太可能会有某一个机构做出层次分明、非常清晰的管理方式。因此我认为多边的网络系统可能是可行的方案,某些人关注某些问题,其他人关注其他的问题。但是我觉得我们需要分出三类问题,可能是未来会有更多的时间讨论的:
第一,国内的问题,国内的监管对于技术的使用问题;
我们知道不同的文化对于技术的使用还有不同的法律环境都会有影响,所以在治理方面肯定是会有区别的。
第二,国际社会问题,比如根本的风险需要国际合作;
第三,更难管理同时需要注意的是国内的这些问题可能会对国际上产生影响,当然也有可能国际上的事情对国内产生影响。
这三个类别是我们需要讨论的问题。
最后,美国和中国的竞争怎样解决这个问题,当然非常有挑战性,不是今天要讨论的问题,但是我觉得至少想要看一下怎么样创造一个安全的空间,让技术人员和技术专家能够互相合作,不用担惊受怕,可以自由讨论一些问题样从技术层面解决,如果没有这一点我们今天讲的很多东西都是无法实现的。
谢谢。
2. 中国科学院自动化研究所研究员,联合国人工高层顾问机构专家曾毅
近年来,上海在人工智能的应用领域取得了显著的成果,尤其是在新应用的机遇探索上。上海在AI的社会应用影响方面也有自己的独特认知。例如,今年的世界人工智能大会提出的上海宣言就很好地体现了发展、治理、安全并重的理念,以及如何通过安全和治理实现稳健的发展。
同时,曾毅也谈到了人工智能所带来的风险,“数据显示,2023年人工智能所带来的风险是2022年的十倍以上,这意味着,生成式的人工智能发展把这项风险带向了社会各个领域,并且在各国之间反复出现,那是因为大家更多关注人工智能发展的机遇,对可能产生的隐患却没有更好的学习。”
他介绍,2020年起,联合国教科文组织了召集了一批来自各国的人工智能伦理方面的专家组,撰写了全球人工智能伦理的建议书,体现了各国对人工智能伦理的共识。“但仅形成伦理共识是不够的,重要的如何落地才是关键。”
此外,曾毅表示,政府、学者、产业、媒体、公众等每一个人在人工智能的发展过程中都有自己的角色和义务,比如人工智能前沿研究者更关注创造更强大的人工智能,但公众和媒体有义务和能力观察可能产生的社会风险。
人工智能会不会真正对人类的生存带来挑战,产生灾难性的后果?人类又如何完成与人工智能的和谐共生,这一切尚未可知,需要长期的研究支持。但曾毅强调,如果真的出现比人类更聪明的智能存在,人类在这过程中需要反思和思维演化,从人类为中心转化为以生态为中心。“人工智能像一面镜子,让我们看到自身的不足,同时也反过来加速了人类发展。”
3. 图灵奖得主、中国科学院院士、清华大学交叉信息研究院院长姚期智
要控制好 AI,但又不能破坏它。
他说,AI 风险来自于三个方面:一是网络风险延伸和扩大。现在,我们觉得管理数据安全已经是很困难的,出现了AI会困难100倍。二是没有意识到的社会风险,比如说AI非常强大,而且是可以有很多方式去使用,所以颠覆现在社会结构在短时间内发生的可能性,这是存在的。比如说有人提到,AI可能带来大规模未来的失业。三是最有意思的层面,生存或者存在的风险。以前也面临过,当火车或者蒸汽机发明的时候,就有人有这样的担忧。
姚期智说,自己作为计算机科学家看到了最有深度的问题,一方面我们把 AI 控制好,毕竟这是我们设计出来的;另外一方面,也不希望它被我们给破坏了,这样权衡是非常困难的。正如图灵所说,这是无法预测的,预测不了机器有了足够算力之后会做什么。
姚期智还提出了AI风险都需要专家来解决,不仅是科学家,还可能需要政府、律师、经济学家来参与,几乎涉及到每一个行业。
4. 上海人工智能实验室主任、衔远科技创始人周伯文
对 AI 安全的投入远落后于 AI 性能的投入,目前,从算法研究、人才密集度、商业驱动力、甚至包括算力的投入等方面来看,我们对 AI 安全的投入远远落后于对 AI 性能的投入。现在,世界上只有 1% 的(资源)投入在对齐或者安全考量上。
对于人工智能系统的安全和能力可否兼得,周伯文认为我们将遵循“AI-45平衡律”,沿着可信AGI的“因果之梯”拾级而上,探索二者系统性平衡之路。
5. 上海人工智能实验室青年科学家邵婧
不仅仅是对齐,AI的整个生命周期都急需安全监测和干预。
6. 中国工程院院士高文
人工智能的安全风险可以从模型、算法硬件、自主意识不可控三个方面考虑。开展国际合作研究和人才培养是提高AI安全水平的关键。
7. 中国科学院微小卫星创新研究院副院长、卫星数字化技术重点实验室主任,爱因斯坦探针卫星总设计师,中法天文卫星总指挥张永合
人工智能在推动国际合作、提升科研效率及实现科学发现中的重要作用,并对未来人工智能在全球治理框架下如何更好地服务于空间天文研究提出了前瞻性的思考。
8. 斯梅尔数学与计算研究院执行院长,华院计算董事长、创始人宣晓华
在人工智能在社会治理,尤其是社会治理这些领域的应用大模型,相对来说可能可以有更多的数据,或者它有的时候像法律的大模型,它跟语言相对来说比较接近,所以这个角度来说,大模型当然是比较自然的可以用到这些领域。
9. 图灵奖得主、蒙特利尔学习算法研究所(MILA)科学主任Yoshua Bengio
《先进人工智能安全性国际科学报告》主要关注风险,关于AI大家都做了很多的工作,对于政策制定者来说他们必须要了解人工智能其中的风险,以及我们是否有能力管理这些风险。我们对于AI快速指数级的变化是没有准备的,我们需要开始提升我们的准备程度,我们需要了解风险阈值、预警,达成国际协议。整体来说我们需要面临不确定性的时候,需要随时准备开始行动。
10. 加州大学伯克利分校教授、绿洲实验室(Oasis Labs)创始人Dawn Song
人工智能安全面对对抗性攻击需要鲁棒性和安全,而如今已经是正式验证系统的时代。Dawn Song还谈到,AI的安全是至关重要的,在对抗性环境当中考虑人工智能的安全性是最重要的一点。通过设计实现安全,构建具有可证明保证的安全系统是AI安全研究的重要方向。
11. 密歇根大学教授Peter Railton
公平和道德规范的出现是通过智能体之间的反复互动实现的。
12. 卡耐基梅隆大学助理教授Zico Kolte
即使看似微不足道的问题也可能引发严重的安全隐患。
------------------------
科技产业领域
13. 新思科技总裁兼首席执行官盖思新
全球协作能够使全世界人民从人工智能带来的巨大进步中受益,同时确保这些创新能力得到负责任的实践。
14. 黑石集团董事长、首席执行官兼联合创始人苏世民
他对全球监管机构很感兴趣,因为从事这项技术的人对它可能出错的地方要有应有的敬畏。
15. 星环信息科技(上海)股份有限公司创始人、CEO孙元浩
人工智能应成为人类发展的助手,而非替代者,通过完善的安全测试、标准,确保其在安全和道德的框架内服务于社会进步。
16. 北京智谱华章科技有限公司首席执行官张鹏
其实每一项技术的革新都会引起这方面大范围的探讨。他认为,我们不要因为新技术带来的未知而恐惧,相反我们应该冷静看待这种不确定的风险,通过分析、讨论、行动,逐步解决这些问题。
来源:数据猿
刷新相关文章
我要评论
不容错过的资讯
大家都在搜
