欧盟委员会提出了一个人工智能的法律框架

4月21日电 欧盟委员会21日提出了人工智能法律框架,旨在规范和限制人工智能的应用,保护人们的日常生活和合法权利不受侵犯。

欧盟委员会根据风险等级将人工智能的应用场景分为“最低、有限、高、不可接受”四个风险等级,等级越高限制越严格。

风险级别最低的应用场景包括电子游戏和基于人工智能的垃圾邮件识别软件。目前欧盟大部分人工智能系统都属于这一类,欧盟委员会提出的法律框架并没有对此进行限制;风险有限的场景包括聊天机器人等。欧盟建议用户应该知道他们正在与机器交互,并有权决定是继续对话还是退出。

高风险应用场景是指可能严重影响人们生活的场景,如交通设备、教育培训、医疗救助、信用评级等。欧盟委员会建议,此类职能应履行严格的义务,如充分的风险评估、高质量的数据交换、确保可追溯的活动记录和必要的人工监督。

欧盟委员会强调,所有远程生物识别系统都被认为具有高风险,执法机构被禁止在公共场所使用这一技术,只有少数例外,如搜寻失踪儿童或防止个人恐怖袭击,以及筛查罪犯和可疑人员。这种申请需要得到司法部门或独立机构的授权。

一些明显威胁人的安全和生命、侵犯人的权利的系统被归类为不可接受的风险场景,包括利用人类行为误导用户、违背用户自由意志的应用,如利用语音助手诱导未成年人做出危险行为的玩具等。必须禁止此类应用。

欧盟委员会执行副主席玛格丽特维斯塔格(Margaret Vestager)在新闻发布会上表示,如果一家企业不遵守规定,将首先受到警告,然后其产品可能会被下架。未能反复变更的,处以年收入6%的罚款。

除了法律框架之外,欧盟委员会还发布了关于机器人、3D打印机等人工智能机器的法规。并于当日推出人工智能协调计划,旨在加强对人工智能研发的鼓励和支持。这套政策建议需要得到欧洲议会和欧洲联盟理事会的批准。(结束)

栏目推荐