人工智能已经成为我们生活的一部分。我们的汽车有自动刹车,Netflix和Spotify等平台有推荐,Alexa和Google可以根据命令为我们搜索东西,这些都是由人工智能提供的。尽管这项技术带来了许多便利和优点,但人们也担心它的危险性。不充分的安全和道德问题是人工智能带来的缺点的几个例子。


为了应对这些危险,欧盟决定制定一个法律框架来规范人工智能的使用方式。最近,欧盟委员会提出了第一个法律框架,这是一个长期的工作。

欧盟发布首个人工智能监管法律框架

2021年4月21日,欧盟委员会通过108页和9个附件制定了一项法律人工智能框架提案。这个框架由基于风险的方法组成,该方法将人工智能的使用分为不可接受的风险、高风险或低风险任务。显然,如果这种风险是不可接受的,那就是对人的威胁,理应禁止。任何人工智能的使用,可以操纵人类行为和系统,允许社会信用评分属于这一类。


高风险被定义为出于安全原因而使用的系统,需要第三方进行检查。欧盟委员会提案的附件三考虑了八个方面,即与关键基础设施相关的人工智能系统、教育培训、产品的安全组件和员工选择。这些商品在进入市场之前需要经过严格的检查,之后还要经过人为的控制。


如果人工智能系统被归类为低风险,它必须遵守透明义务,用户应该意识到他们正在与机器交互。这是为了检查像DeepFake这样的技术。一个例外是,人工智能系统对欧洲公民构成的风险很小或没有,比如电子游戏中的人工智能。


对于非高风险人工智能系统也有一些东西。条例提供了一个环境,允许开发和测试创新的人工智能系统。该委员会的提议代表着朝着人工智能技术的监管迈出了重要的一步。一旦欧洲议会和成员国通过该提案,新的法律框架将对许多公民和公司产生强烈影响。一些人工智能系统已经显示出偏见,比如亚马逊的招聘系统歧视女性,或者特斯拉的自动驾驶模式导致两名男性死亡。这些例子导致了严重的反省,导致了这一规定。现在由欧盟委员会启动的计划也可能被其他非欧盟国家推进。

免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~