2024年8月1日——这是世界上第一部全面的人工智能法律《欧盟人工智能法》生效的日子。
这很大!
这意味着欧盟现在将确保在欧洲大陆部署的所有人工智能系统都是安全、透明和可追溯的。
然而,这也意味着欧洲将无法使用世界其他地区拥有的许多最先进的人工智能工具(从Llama-3及其未来的多模式版本甚至Apple Intelligence开始)。
是的,并不是所有人都对这些规定感到满意。
与所有立法一样,该法案相当全面且信息密集。
因此,我在这里简化这个故事,并与大家分享其中最重要的六个要点。
1.该法案认为某些人工智能系统存在不可接受的风险并禁止它们
欧盟运行的所有人工智能系统根据其带来的风险分为四类。
- 风险极小或无风险——此类包括人工智能视频游戏、垃圾邮件过滤器以及对人类安全风险最小的科学研究中使用的人工智能
- 有限风险— 此组包括因缺乏透明度而带来风险的系统。
这包括 AI 聊天机器人或 AI 生成的文本、音频和视频内容,这些内容现在有义务声明这一点。 - 高风险——此类人工智能系统用于以下关键领域:
- 教育(用于录取或评估)
- 招聘(简历分类软件)
- 重要基础设施管理(如水、气、电供应)
- 移民和边境管制系统
- 信用评分系统
- 司法行政中使用的系统
- 医疗器械软件
这些系统在投放市场之前必须遵守严格的义务。
4.不可接受的风险——这类风险由明显威胁人们的安全、生计和权利的人工智能系统组成。
这些包括:
- 社交评分系统
- 为执法部门在公共场所进行实时远程生物特征识别
- 规避自由意志的操纵系统
- 鼓励危险行为和剥削特定群体(儿童、残疾人等)的系统
- 工作场所和教育机构的情绪预测系统
所有这些系统都被彻底禁止。
2. 违反规定的处罚非常严厉
不合规处罚的严重程度分为以下三个等级。
- 对将人工智能系统置于不可接受的风险水平的行为处以最高级别的处罚,包括最高3500 万欧元的罚款或全球年营业额的 7%
- 未能满足高风险人工智能系统要求的中等处罚包括最高2000 万欧元或全球年营业额 4% 的罚款
- 对于不太严重的违规行为(例如提供误导性信息或不披露人工智能内容),较低级别的处罚包括最高750 万欧元的罚款或全球年营业额的 1.5%
可以看出,下级的处罚也是相当严厉的!
3. 它以广义的、不断发展的意义来定义“人工智能系统”
根据该法案,“人工智能系统”的定义如下:
“人工智能系统”——一种基于机器的系统,旨在以不同程度的自主性运行,部署后可能表现出适应性,并且为了明确或隐含的目标,根据收到的输入推断如何生成输出,例如可以影响物理或虚拟环境的预测、内容、建议或决策。
显然,该定义侧重于功能性和自主性,而不是定义人工智能系统所涉及的特定技术的复杂性。
这意味着它涵盖了当今广泛的软件,并且使得法规在人工智能技术的发展过程中仍能保持相关性。
4.该法案适用于整个人工智能价值链
只要这些实体在欧盟市场运营,该法案就适用于它们,无论它们位于何处。
- 提供者:人工智能系统的开发者/创建者
- 部署者:人工智能系统的用户
- 进口商:引入非欧盟人工智能系统的欧盟实体
- 分销商:提供人工智能系统的供应链实体
5. 一些重要领域不适用该法案
该法案不适用于开源人工智能(存在明显不可接受的风险例外)和纯用于研究目的的系统。
这真是一个伟大的举措!
但是,它也不适用于其他一些领域,包括军事/国防系统和国家安全活动。
腥?
6. 通用人工智能(GPAI)模型有单独的严格规则
GPAI 模型定义如下:
“一种人工智能模型,包括使用大规模自我监督方法利用大量数据训练的人工智能模型,该模型表现出显著的通用性,无论该模型以何种方式投放市场,都能够胜任地执行各种不同的任务,并可集成到各种下游系统或应用程序中,但投放市场前用于研究、开发或原型设计的人工智能模型除外”。
根据该法案,所有 GPAI 提供商必须:
- 提供模型的详细技术文档
- 帮助下游用户更好地理解模型的能力和局限性
- 发布用于训练模型的数据/内容的摘要
- 遵守欧盟版权法
如果用于训练的 GPAI 模型的累计计算量超过 10²⁵ 浮点运算,则认为该模型具有系统性风险。
这些模型必须进行模型评估和对抗性测试,跟踪和报告严重事件并确保网络安全保护。
很多人可能不同意,但我相信这样的规定将有助于开发与人类价值观相一致的人工智能系统,以补充我们的优势,而不是从长远来看利用我们的弱点。
RA/SD 衍生者AI训练营。发布者:chris,转载请注明出处:https://www.shxcj.com/archives/4369