据《华尔街日报》当地时间4月21日最新消息,欧盟4月21日就监管人工智能的使用公布了一项法律框架。该框架下的一系列法规概述了企业和政府应如何使用人工智能技术,包括限制警方在公共场合使用人脸识别软件、禁止某些类别的人工智能系统等,成为迄今为止在该方面涉及范围最广泛的行动之一。
欧盟委员会公布的这项法律框架将对人工智能在一系列活动中的使用进行限制,包括自动驾驶汽车、招聘决策、银行贷款、大学生招生决策和考试评分等。它还将涵盖对执法部门和法院在人工智能系统使用方面的限制。这些领域因其可能对人们的安全或基本权利造成威胁而被欧盟视为“高风险”领域。
此外,一些人工智能应用将被完全禁止,包括在公共场所进行实时面部识别等,出于国家安全和其他目的的应用可能会有一些被豁免。
该法规将要求属于高风险领域并使用人工智能技术的公司向监管机构提供其安全性的证据,包括风险评估和解释该技术如何做出决策的文件。这些公司还必须保证其对系统的创建和使用接受人工监督。
根据这项法规,欧盟将有可能对违规最严重的公司处以相当于其全球年销售额6%的罚款。
据报道,这份108页的法规如果获得通过,将对亚马逊、谷歌、Facebook和微软等投入大量资源开发人工智能的大型科技公司产生深远影响,也将给其他数十家使用人工智能软件研发药物、承销保险以及评判信用度的公司带来冲击。
报道称,该法规是西方政府提出的涉猎范围最广泛的法规之一,也是欧盟扩大其全球科技强者角色影响力的重要一步。
“该法规解决了与人工智能具体使用相关的给人类和社会带来的风险。”欧盟委员会执行副总裁玛格丽特·韦斯特格表示,“我们认为这很紧急。我们是全球首个提出这一法律框架的人。”
据报道,该法律框架在成为正式法律之前必须同时得到代表欧盟27个国家政府的欧洲理事会和直接选举产生的欧洲议会的批准,整个过程可能需要数年时间。