构建符合道德规范的人工智能是一项以过程为导向的工作,包括多个步骤。


人工智能领域正在引爆IBMWatson、DeepMind的AlphaZero等产品,以及亚马逊的Alexa、苹果的Siri和谷歌的HomeAssistant等虚拟助理中使用的语音识别。由于人工智能对人类生活的巨大影响,人们越来越关注如何采用合理的道德人工智能策略来塑造未来的发展。构建合乎道德的人工智能既需要构建人工智能系统的合乎道德的方法,也需要使人工智能系统本身合乎道德的策略。

如何构建合乎道德的人工智能?

例如,自动驾驶车辆的工程师应该考虑他们的社会结果,包括保证车辆适合做出道德决策。


根据德勤(Deloitte)的一项研究,三分之一的网络安全经理将道德威胁列为与人工智能相关的三大企业担忧之一。因此,建立我们可以信任的人工智能的道德使用应该是其计划和发展的核心。无论如何,构建合乎道德的人工智能的过程绝对不是简单的。一个合乎道德的人工智能系统有许多可移动的部分,比如方法、合作伙伴和设计标准。此外,提出相关问题有助于更深刻地理解这些观点及其相互关系。


如何建立一个道德的人工智能系统


利用代表性数据


人工智能和它所依赖的数据一样好。如果您所使用的数据反映了我们自己不稳定社会的历史背景,那么我们就要求程序熟悉我们自己的偏见。本质上,你用来训练和测试人工智能算法的信息质量会影响结果。为了建立一个道德的人工智能模型,这是没有偏见和道德基础上,组织应该培训它利用全谱的数据。


数据审查是另一个关键因素。审查是评估所用数据质量的过程。当通过自动化应用程序导入信息时,导入的安排中可能会出现错误或丢失数据。数据审查同样是一个重要的阶段,它可以诱使偏差,这可能是在你的数据。这就是为什么建立系统来识别这些类型的错误并防止它们进入数据集的根本原因。


定制框架


为您的行业定制一个数据和道德人工智能风险系统。一个复杂的系统至少包含对道德原则的解释,包括组织在道德上的恶梦,外部和内部利益相关者的可识别证据,治理框架,以及即使在员工和条件不断变化的情况下对框架的维护的阐述。必须建立关键绩效指标和质量保证计划,以量化完成策略的技术的持续有效性。


此外,创建在特定情况下有价值的替代活动的概要。人工智能伦理委员会将评估这些活动,并根据道德思考来挑选,而不仅仅是个人喜好。例如,政府当局可以考虑是否让军用机器人更加智能和自主。


此外,认识到所有受这些活动影响的个人,包括未来的人以及现在活着的人。对于刽子手机器人,考虑那些可能被拯救的人以及那些将被屠杀的人。


风险评估


在实施人工智能技术之前,潜在的风险情况应该由人工智能道德委员会核实。这些评估有助于在部署前实施更严格的筛选标准和控制措施,或者可以完全结束不适当的部署。然而,这种基本的风险评估保护了个人及其基本权利,提高了新技术的可信度和认可度。


此外,同样重要的是,在公司内设定明确的责任和义务,以推动上述流程,并从长远来看,构建、实施和筛选道德人工智能。


测试和批准


如果你需要确保人工智能是合乎道德的,并且没有任何倾向性,那么就要定期测试和批准你的合乎道德的人工智能。同样,您也可以使用第三方工具评估数据。这些工具将帮助您在不同阶段测量偏差。为了获得令人信服的批准和验证,第三方需要理解人工智能授权框架的整个生命周期:从评估培训数据集的重要性到剖析模型的目标以及如何衡量成功。



免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~