摘要:2024 世界顶尖科学家论坛聚焦 AI 治理,全球对构建 AI 监管体系需求迫切。论坛在上海临港举办,众多顶尖专家和行业人士深入探讨 AI 治理关键问题,取得丰硕成果。本文分析了 AI 治理的理论基础,包括 AI 发展的影响、现有治理框架及存在问题;阐述了国际顶尖科学家观点和国际企业实践案例;探讨了 AI 治理的中国路径,包括中国 AI 产业发展现状及治理策略。最后总结了研究结论并展望未来研究方向,强调 AI 治理需全球共同努力,加强沟通合作,制定统一标准规范,以确保符合人类共同利益。
关键词:世界顶尖科学家论坛;AI 治理;全球监管体系
ABSTRACT:The 2024 World Laureates Forum focuses on AI governance, and there is an urgent need globally to build an AI regulatory system. The forum is held in Lingang, Shanghai. Many top experts and industry insiders deeply discuss key issues of AI governance and achieve fruitful results. This paper analyzes the theoretical basis of AI governance, including the impact of AI development, the existing governance framework and existing problems; expounds the viewpoints of top international scientists and international enterprise practice cases; discusses the Chinese path of AI governance, including the development status and governance strategies of China’s AI industry. Finally, it summarizes the research conclusions and looks forward to future research directions, emphasizing that AI governance requires joint efforts from all over the world, strengthening communication and cooperation, and formulating unified standards and norms to ensure compliance with the common interests of humanity.
Keywords: World Laureates Forum; AI governance; global regulatory system
一、引言
1.1 研究背景
2024 世界顶尖科学家论坛聚焦 AI 治理,全球对 AI 监管体系构建需求迫切。
随着人工智能技术的飞速发展,其在各个领域的广泛应用带来了巨大的机遇,但同时也引发了一系列潜在风险和挑战。在这样的背景下,2024 世界顶尖科学家论坛将 AI 相关议题置于重要位置,众多顶尖专家和行业人士齐聚上海临港,共同探讨如何构建全球 AI 监管体系。
目前,AI 技术在决策过程中可能存在安全性和伦理性问题。例如,AI 系统在处理复杂任务时,可能无法完全符合人类的价值观和道德标准,从而引发社会伦理问题。同时,AI 算法预测中存在偏见和公平性问题,可能导致对某些群体的不公平待遇。据统计,全球已有 69 个国家和地区制定了多部人工智能相关政策,但就人工智能监管出台专门立法的国家仍然是少数。
世界顶尖科学家智能科学大会以“为人类永续发展制定科学的 AI 治理框架”为主题,邀请世界顶尖科学家、中国两院院士、业界杰出专家等,从科学的角度探讨构建真正“目标适应”的全球 AI 监管体系。这一主题的提出,充分体现了全球对 AI 治理的高度关注和迫切需求。只有建立起科学有效的 AI 监管体系,才能确保 AI 技术的发展符合人类的共同利益,为人类的永续发展提供有力保障。
1.2 研究目的
2024 世界顶尖科学家论坛在上海临港举办,为构建完善的 AI 治理体系提供了重要的理论与实践参考。论坛上,众多顶尖专家和行业人士从不同角度深入探讨了 AI 治理的关键问题,取得了丰硕的成果。
中国科学院院士鄂维南分享了人工智能在科学研究中的应用,强调新的 AI 将呼吁合作、打破学科间的壁垒。以材料科学为例,AI 模型可以节约大量时间和成本,为科学研究提供新的范式。图灵奖得主约瑟夫·斯发基斯聚焦 AI 伦理问题,指出 AI 技术在实际应用中面临的挑战和风险,呼吁建立全球性的监管框架,制定明确的伦理准则。康奈尔大学计算机科学和信息科学讲席教授乔恩·克莱因伯格探讨了算法预测在社会决策中的应用与挑战,建议采用多种算法组合,避免单一算法带来的风险。
此外,论坛还就全球 AI 监管体系的构建提出了具体倡议。例如,加强跨学科研究,推动不同领域的专家学者共同参与,形成一套全面、系统的 AI 伦理准则;提高公众对 AI 伦理的认识和理解,提高社会对 AI 技术应用的接受度和支持度。
这些成果为构建完善的 AI 治理体系提供了重要的理论支持和实践经验。未来,我们可以借鉴论坛的成果,进一步加强 AI 治理的研究和实践,确保 AI 技术的发展符合人类的共同利益,为人类的永续发展提供有力保障。
二、AI 治理的理论基础
2.1 AI 发展的影响
AI 的发展对社会、经济、伦理等多方面产生了深远影响。
2.1.1 对就业的影响
以诺奖得主观点为例,AI 的发展对不同岗位产生了冲击,同时也带来了新的技能需求。诺奖得主克里斯托弗·皮萨里德斯指出,人工智能时代所需要的技能大致可分为两类,即人际沟通、社交等软技能,以及理解数据和使用新技术的能力。在发达经济体如美国和欧洲,服务行业占据了高达 80%的就业机会和生产力,这个行业的核心在于人与人之间的交流和良好的沟通技能,这正是 AI 难以轻易替代的。同时,企业和政府应相应增加职工培训方面的投入,学校教育也需要进一步与工作岗位需求接轨。
诺奖得主还强调,中国在人工智能开发和应用方面是领先国家之一,目前中国工业机器人的数量比全球其它国家加起来还要多。随着人工智能的发展,某些机械化、重复性高的工作岗位可能会被逐步取代,但同时也会催生出新的工作类型和合作模式,即从业人员与 AI 的协作。
2.1.2 伦理风险挑战
AI 带来的伦理风险日益凸显,如少年因 AI 自杀事件。美国佛罗里达州一位律师年仅 14 岁的儿子塞维尔·塞策三世对 Character.AI 中的虚拟陪伴者“龙妈”产生了情感依恋,在沉迷数月之后,最终自杀。经原告授权,媒体披露了少年与 AI 陪伴者的部分对话,塞维尔曾几次表露过“自杀”“解脱出来”等念头,AI 系统均未出现过相关防护性提示。此案虽然可能是家庭缺位、枪支管理等问题的多因一果,但 AI 陪伴者与自杀结果的直接相关性难以抹杀。
这一事件凸显了 AI 带来的伦理风险是系统的。对于自残和自杀字样,系统应明令禁止;对于此类话题的暗示性对话,系统应进行算法标记并及时导入心理咨询热线、心理干预网址;对于用户使用时长过长,系统更应定时跳出提示条。预防沉迷本来就是技术媒介的伦理责任,从可能导致的危险性和危害性来看,预防青少年沉迷更是“伦理”中的“伦理”。
2.2 现有治理框架分析
2.2.1 治理框架现状
当前,全球 AI 治理框架呈现出多样化的态势。各国政府、国际组织等纷纷发布相关宣言及框架,以应对 AI 发展带来的挑战。
例如,2023 年 11 月,英国召开首届人工智能安全峰会,中国与美国、英国、欧盟等共同签署了《布莱切利宣言》,就全球人工智能治理合作达成初步共识。同月,国家主席习近平与美国总统拜登在旧金山峰会中,宣布就人工智能治理开展政府间对话。此外,欧盟的《人工智能法案》将为欧盟引入一个共同的、有约束性的 AI 监管法律框架,若通过,该法案将是首个区域性人工智能监管综合立法。
2024 年 5 月,第二届全球人工智能安全峰会在韩国首尔召开,峰会产出了《前沿人工智能安全承诺》《关于安全、创新和包容性人工智能的首尔宣言》《首尔人工智能安全科学国际合作意向声明》三份文件。同时,美英双方签署协议备忘录,宣布达成“人工智能安全科学合作伙伴关系”共同开展对前沿 AI 模型的测试工作。相关国家也纷纷布局建设研究机构,日本、韩国和加拿大也分别建立人工智能安全研究所。
此外,在 6 月由全球化智库举办的“中欧视角下的人工智能监管和治理”研讨会上,各方强调了加强人工智能治理的重要性。中国已在第三届“一带一路”国际合作高峰论坛上正式发布《全球人工智能治理倡议》;在今年 4 月举行的中非互联网发展与合作论坛上,中方还发布了《2024 年中非互联网发展与合作论坛关于中非人工智能合作的主席声明》。
2.2.2 存在的问题
当前全球 AI 治理框架存在诸多问题。首先,治理框架呈现出支离破碎的状态,各国之间的治理模式差异较大,协调执行困难。由于各国在传统社会治理模式、科技实力、文化背景上的差异,对于“如何治理”这一问题,各国在具体模式上的分歧长期存在。
在国家政府层面,全球已形成以中国、美国、欧盟为代表的三大主要模式。欧盟长期坚持强监管路径,通过反垄断法案、数据保护法案及其他监管工具,来保证对 AI 技术的管控;英国采取促进创新的原则性监管路径,避免可能扼制创新的立法;美国倾向“软”监管进行规范引导,通过地方自治、行业规则和自愿倡导等方式进行规范。
此外,国际组织协调力不足。在国际协调层面,包括联合国、七国集团、二十国集团在内的政府间多边及双边机制已成为人工智能治理的重要平台。然而,由于不同组织和机制间的协调不足,国际组织和机制在调和各国利益、促进国际合作方面进度迟缓。
为解决这些问题,需要加强不同治理模式和体系间的国际协调。中国可以在基于联合国框架的多边人工智能治理模式中发挥关键作用,推动中美在人工智能治理领域的双轨合作、借势欧盟推动不同治理模式的接洽、发挥设立国际人工智能治理机构的“中心协调作用”等行动来推动全球人工智能治理合作。同时,各国应加强沟通与合作,共同制定统一的治理标准和规范,以确保 AI 技术的发展符合人类的共同利益。
三、AI 治理的国际经验与案例
3.1 国际顶尖科学家观点
3.1.1 多领域合作需求
2024 世界顶尖科学家协会奖“智能科学或数学奖”得主乔恩·克莱因伯格认为,为了使网络对人们有用且有益,需要借鉴许多领域的知识,包括解决技术问题的计算机学、数学和统计学,以及保障算法公平的经济学、社会学、心理学、政治学等社会科学。从业至今,克莱因伯格的合作者多达 50 余位,这个数字背后是一张巨大的学术人脉网。他指出,交叉学科研究的根本动力其实是“人”。先和别人交流,虽然双方知识体系不同,但交流下来发现了共同点,找到了共同语言,然后开始共事。这充分体现了在 AI 治理中,多领域合作的必要性。AI 治理不仅仅是技术问题,还涉及到伦理、社会公平等多个方面,只有通过多学科专家的合作,才能全面、深入地解决这些问题。
3.1.2 目标适应监管
在 2024 世界顶尖科学家智能科学大会上,众多顶尖科学家共同探讨了如何构建一个真正“目标适应”的全球 AI 监管体系。构建目标适应的全球监管体系,需要从多个方面入手。首先,要充分认识到 AI 发展对人类社会的影响与风险,包括对就业、伦理等方面的影响。其次,要推动 AI 向善,促进人类文明的永续发展。这就需要建立明确的伦理准则,确保 AI 技术在实际应用中符合人类的价值观和道德标准。同时,要促进 AI 发展的安全性、公平性、可及性和包容性,采取多种措施,避免单一算法带来的风险,提高决策的准确性和公平性。例如,可以采用多种算法组合,加强对敏感信息的处理,保护数据的完整性,兼顾数据所代表的各方利益。此外,还需要加强跨学科研究,推动不同领域的专家学者共同参与,形成一套全面、系统的 AI 伦理准则。提高公众对 AI 伦理的认识和理解,提高社会对 AI 技术应用的接受度和支持度。只有这样,才能构建一个真正“目标适应”的全球 AI 监管体系,确保 AI 技术的发展符合人类的共同利益。
3.2 国际企业实践案例
3.2.1 自动驾驶探索
特斯拉在自动驾驶领域进行了积极的探索,成为国际企业在 AI 治理方面的一个典型案例。特斯拉的自动驾驶技术(FSD)包含自动驾驶导航、自动变道、自动泊车、召唤和交通灯以及停车标志控制等功能。目前,特斯拉提供包括 Autopilot 自动驾驶辅助系统和高级的“全自动驾驶(FSD)”选项在内的先进驾驶辅助系统,后者向订阅用户收费 199 美元/月。
然而,目前的 FSD 并非完全自动驾驶,车辆仍需人类干预操作。尽管如此,特斯拉通过不断积累数据和优化算法,已实现全自动驾驶累计行驶 10 亿英里的壮举。例如,通过网络数据集、仿真模拟、自动标注等功能更为准确地预测转角的汽车运行情况,在此基础上已推出 35 个 FSD 更新版本。
特斯拉还计划推出自动驾驶出租车(Robotaxi),并计划于 2026 年开始生产,最终年产 200 万辆。特斯拉的自动驾驶出租车 Cybercab 的运行成本为每英里 20 美分,使用感应充电器,不需要任何插头。它们仅依靠摄像头和人工智能,大幅降低了生产自动驾驶出租车的成本。
3.2.2 经验借鉴意义
特斯拉在自动驾驶领域的实践为全球 AI 治理提供了重要的借鉴价值。首先,持续的数据积累和算法优化是实现 AI 技术进步的关键。特斯拉通过积累 480 万段数据,训练 7.5 万个神经网络,每 8 分钟就要出一个新的模型,不断提升自动驾驶技术的性能。这启示其他企业在 AI 治理中要重视数据的收集和分析,通过不断优化算法来提高 AI 系统的准确性和可靠性。
其次,明确的发展目标和战略规划对于推动 AI 技术的应用至关重要。特斯拉将自动驾驶出租车作为公司发展的重要目标,提前布局并投入大量资源进行研发。这提醒全球企业在 AI 治理中要制定明确的发展战略,明确 AI 技术在企业发展中的定位和作用。
此外,特斯拉在自动驾驶技术的研发过程中,也面临着诸多挑战,如技术失误、交通事故等可能带来的毁灭性打击。这表明全球在 AI 治理中需要充分认识到 AI 技术的潜在风险,加强对 AI 系统的安全性和可靠性的监管,建立健全的风险防范机制。
总之,特斯拉在自动驾驶领域的实践为全球 AI 治理提供了宝贵的经验,有助于推动全球 AI 技术的健康、可持续发展。
四、AI 治理的中国路径
4.1 中国 AI 产业发展现状
中国在人工智能领域展现出强大的发展活力和巨大的潜力。
4.1.1 企业发展情况
目前,中国人工智能企业数量已经超过 4500 家。这些企业涵盖了多个领域,包括机器人技术、自动驾驶、无人机技术、语音识别与自然语言处理、计算机视觉等。例如,在机器人技术领域,优必选等企业专注于机器人技术的研发和应用,随着智能制造、服务机器人等领域的快速发展,企业数量持续增长。在自动驾驶领域,百度、天瞳威视等企业在技术研发方面取得了重要突破。我国的人工智能企业根据其业务领域和技术应用大致分为多个类别,对重塑工业体系、大力推进新型工业化发挥着关键支撑效应。数据显示,2023 年我国人工智能核心产业规模达 5784 亿元,增速 13.9%。我国生成式人工智能的企业采用率已达 15%,市场规模约为 14.4 万亿元。
4.1.2 政府投入与重视
中国政府高度重视人工智能产业的发展,在多个方面投入大量资源。2017 年经党中央批准,国务院发布了我国的新一代人工智能发展规划,从发展目标、发展重点、人才培养、产业应用和公共治理这几个方面作出了系统全面的部署。科技部组织实施新一代人工智能重大项目,中央财政投入约 10 个亿。布局建设了一批新一代人工智能开放创新平台,目前已经建设了 15 个创新平台,主要包括基础软硬件、智能医疗、智能供应链和智能城市的治理等。设立了一批新一代人工智能创新发展的试验区,目前已经支持北京、上海等地建设了 11 个试验区。国家数据局局长刘烈宏在 2024 世界智能产业博览会上表示,大模型作为新一代人工智能技术发展的重要方向,高效赋能千行百业,要加快推进大模型基础设施化,并结合行业高质量数据集,推动中小企业利用大模型培育创新生态。同时,要推进通用大模型基础设施统筹建设和普惠高效使用,引导企业错位协同,避免盲目发展。中国政府还积极推动人工智能伦理治理工作,成立了国家新一代人工智能治理专业委员会,向全球发布新一代人工智能治理的八项原则,强调要发展负责任的人工智能。
4.2 中国的 AI 治理策略
4.2.1 本土治理实践
中国在 AI 治理方面采取了一系列具体举措,并取得了显著成果。中国设计了“朋友圈治理”的管理模式,既有政策法规作为“朋友圈”定出基本规则,如保护隐私、避免歧视,又有各部门作为“管理员”负责具体执行和监测,还与科研人员保持密切联系,根据实际情况及时升级“朋友圈”。同时,研发了一些“智能管家”,能自动监测 AI 系统运行数据,一旦发现异常就自我隔离,并报告管理员妥善处理。还开发了一些“婆婆妈妈”的自动驾驶车和机器人,安装了多重屏障防止走偏,在必要时接受监督也不会乱撒野。
中国政府高度重视 AI 产业发展,不仅在政策、资金、平台建设等方面大力投入,还积极推动人工智能伦理治理工作。成立国家新一代人工智能治理专业委员会,向全球发布新一代人工智能治理的八项原则,强调发展负责任的人工智能。此外,中国在 2024 年提升全面数字素养与技能工作要点中,部署了让广大社会对人工智能有更好了解的任务,提高公众对人工智能的认识和素养。
4.2.2 国际合作展望
中国在全球 AI 治理中具有巨大潜力,有望发挥更大作用。中国一直致力于将发展中国家的声音纳入关于人工智能治理的讨论中,去年提出《全球人工智能治理倡议》,宣布“各国无论大小、强弱,无论社会制度如何,都有平等发展和利用人工智能的权利”。今年,中国主提的加强人工智能能力建设国际合作决议在联合国大会以协商一致的方式通过,全球 140 多个国家参加决议联署。这反映了中国在全球人工智能领域的话语权和国际影响力不断提升。
中国可以在全球 AI 治理中继续发挥引领作用,通过多途径建立国际交流及防控体系,加强政府间的多边对话机制。例如,借助联合国等国际组织平台,真正起到综合全面协调的作用,打破各种壁垒,加强国际合作协议。同时,希望能够通过科学共同体力量助力国际机制全面完善,与全球科技力量、政府、企业共同推动人工智能的健康发展。
在与金砖国家的合作中,中国信通院报告显示中国与金砖国家人工智能领域国际合作潜力巨大。金砖国家纷纷将人工智能上升为国家战略,未来可依托联合国等国际合作平台加强交流合作,共同提升科技创新能力,建立合作网络,深化产业对接,促进技术产业双向融合,推动数据、算力等基础设施和能力建设,加快人才培育,夯实产业发展智能底座,分享治理实践,推动标准共建与互认,探索完善治理体系,共建金砖国家治理共识。
总之,中国在全球 AI 治理中有着广阔的国际合作前景,将为构建公正有效的人工智能全球治理体系贡献更多力量。
五、结论与展望
5.1 研究结论总结
AI 治理在当今时代具有至关重要的意义。随着人工智能技术的飞速发展,其对社会、经济、伦理等多方面产生了深远影响。一方面,AI 为人类带来了诸多机遇,如在科学研究中提高效率、创造新的工作类型和合作模式等;另一方面,也带来了一系列潜在风险和挑战,如伦理风险、对就业的冲击等。
本文对全球和中国的 AI 治理进行了深入分析。在全球范围内,AI 治理呈现出多元共治的特点,不同主体采取不同的治理手段,治理思路也多样化。同时,全球 AI 治理的话语权争夺显著加剧,且对治理机制敏捷性的需求更加突出。然而,当前全球 AI 治理框架存在支离破碎、各国治理模式差异大、协调执行困难以及国际组织协调力不足等问题。
在中国,人工智能产业展现出强大的发展活力和巨大的潜力。中国政府高度重视人工智能产业的发展,在企业发展、政府投入与重视等方面采取了一系列积极举措。在 AI 治理方面,中国采取了本土治理实践,如“朋友圈治理”模式、推动人工智能伦理治理等,并在国际合作中发挥着重要作用,将发展中国家的声音纳入人工智能治理讨论,提升了在全球人工智能领域的话语权和国际影响力。
总之,AI 治理是一个复杂而紧迫的课题,需要全球各国共同努力,加强沟通与合作,制定统一的治理标准和规范,以确保 AI 技术的发展符合人类的共同利益,为人类的永续发展提供有力保障。
5.2 未来研究方向展望
在未来,AI 治理的研究将面临诸多挑战和机遇,以下是一些重点方向与建议:
一、技术创新与治理协同发展
随着 AI 技术的不断进步,新的挑战也将不断涌现。未来的研究应致力于探索如何实现技术创新与治理的协同发展。一方面,持续投入研发资源,推动 AI 技术在性能、安全性和可靠性等方面的提升。例如,加强对 AI 算法的研究,提高其可解释性和透明度,减少算法偏见和不公平现象。据统计,目前全球仅有约 30%的 AI 算法具有一定程度的可解释性,这一比例需要在未来得到显著提高。
另一方面,建立健全的技术治理体系,确保 AI 技术的发展符合伦理道德和法律法规的要求。例如,制定严格的数据安全和隐私保护标准,加强对 AI 系统的监管和审计,确保其不会被滥用或恶意攻击。同时,鼓励企业和科研机构在技术研发过程中充分考虑治理需求,实现技术创新与治理的良性互动。
二、跨学科合作与综合研究
AI 治理涉及多个学科领域,包括计算机科学、伦理学、法学、社会学等。未来的研究需要加强跨学科合作,整合不同学科的知识和方法,开展综合研究。例如,计算机科学家可以与伦理学家合作,共同研究如何设计符合伦理道德的 AI 算法;法学家可以与社会学家合作,探讨如何制定合理的法律法规,规范 AI 技术的应用。
此外,还可以建立跨学科的研究中心和合作平台,促进不同学科的学者和专家之间的交流与合作。通过跨学科合作,可以更全面地理解 AI 治理的问题和挑战,提出更有效的解决方案。
三、国际合作与全球治理
AI 是全球性的技术,其治理也需要全球各国的共同努力。未来的研究应加强国际合作,推动建立全球统一的 AI 治理框架。例如,各国可以在联合国等国际组织的框架下,加强对话与协商,共同制定 AI 治理的原则和标准。同时,鼓励各国分享治理经验和最佳实践,促进全球 AI 治理的协同发展。
此外,还可以加强国际间的技术合作和人才交流,共同推动 AI 技术的进步和治理水平的提升。例如,开展跨国的 AI 研究项目,培养具有国际视野和跨文化交流能力的 AI 治理人才。
四、公众参与与教育普及
AI 治理不仅是政府和企业的责任,也需要公众的积极参与。未来的研究应关注如何提高公众对 AI 治理的认识和参与度。一方面,加强对公众的 AI 教育,普及 AI 技术的基本知识和潜在风险,提高公众的数字素养和风险意识。例如,可以在学校教育中增加 AI 相关课程,开展面向公众的科普活动。
另一方面,建立公众参与的机制和平台,鼓励公众参与 AI 治理的决策过程。例如,开展公众咨询和听证活动,听取公众的意见和建议;建立在线平台,让公众可以对 AI 系统进行监督和反馈。通过公众参与,可以增强 AI 治理的民主性和合法性,提高治理决策的科学性和合理性。
总之,未来的 AI 治理研究需要在技术创新、跨学科合作、国际合作和公众参与等方面不断努力,为构建科学、合理、有效的 AI 监管体系提供理论支持和实践经验。
免费小程序《字形绘梦》上线啦!
欢迎大家体验!
RA/SD 衍生者AI训练营。发布者:風之旋律,转载请注明出处:https://www.shxcj.com/archives/6989