扫码阅读
手机扫码阅读
揭秘欧盟人工智能法案
![](/theme/default/default/images/main/eye-open.png)
欧盟人工智能法案的摘要
欧盟已经通过了人工智能法案,这对全球的数据科学家和机器学习模型开发者都有重大影响。该法案旨在规范机器学习模型在欧盟的使用,特别是那些可能影响到欧盟公民健康、安全和基本权利的模型。其中包括严格的规则和对违反规定的严厉处罚。
一 定义人工智能
法案对人工智能的定义是基于机器的系统,以不同程度的自主性工作,且可能表现出适应性。这包括影响物理或虚拟环境的预测、内容、建议或决策。
二 人工智能应用分类
法案区分了人工智能应用的不同风险等级:
- 不可接受的风险人工智能系统:一些系统,如行为操纵、生物识别分类和预测性警务等,将被完全禁止。
- 高风险人工智能系统:医疗设备、车辆和情绪识别等领域的人工智能将受到严格审查。
- 其他:包括低风险人工智能系统和通用模型,如GPT-4,它们的使用受到某些限制。
三 透明度和审查
对于高风险人工智能系统,开发者需要确保数据质量、提供文件和可追溯性、提供透明度、使用人类监督,保护网络安全,遵守影响评估,并在必要时在欧盟公共数据库中注册。
四 测试
对于高风险解决方案,开发者需要测试其遵守指导原则,并在对普通人进行测试时获得知情同意。
五 效力
法律将分阶段实施,从禁止不可接受风险的AI开始,到通用AI治理,最后是所有剩余规则的实施。
六 处罚
违反法律的公司可能会面临高达3500万欧元或年收入7%的罚款,对于不同违规行为有不同级别的处罚。
七 数据科学家应该做什么
数据科学家需要熟悉法律要求,注意潜在的违规行为,并使用欧盟提供的合规检查工具。一旦法律全面生效,对法律的遵守情况将成为重点。
想要了解更多,点击
查看原文
数据驱动智能的其他文章
加入社区微信群
与行业大咖零距离交流学习
![](https://cdn.easycorp.cn/rongpm/upload/202312/f_39217d624bb2b42ce8f6322ebd7e573a.png)
![](https://cdn.easycorp.cn/rongpm/upload/202312/f_39217d624bb2b42ce8f6322ebd7e573a.png)
软件研发质量管理体系建设
白皮书上线