尖端技术的出现在全球市场引入了另一种人工智能形式,即可解释人工智能(Explainable AI)或XAI。它是一套帮助人类用户理解和信任机器学习算法所解释的预测和解决方案的框架。人工智能技术的进步为人类理解从这些机器学习算法中获得特定结果的整个过程带来了挑战。黑盒模型是由实时数据创建的,这些数据使得人类无法理解计算过程。由于过程复杂,ML模型或神经网络的功能有时难以理解。


但对公司和初创企业来说,完全了解快速决策过程是至关重要的。通常不建议盲目信任人工智能模型,因为如果数据类型发生变化或基于人口和地理区域的有偏见的结果,它们的性能可能会发生变化。因此,在人工智能模型的大规模实现中,可解释人工智能是提高最终用户信任度的关键要求。

2021年可解释人工智能的意外挑战

可解释人工智能通过监控模型洞察,帮助组织让利益相关者了解人工智能模型的行为类型。可解释人工智能有多种好处,如简化模型评估的复杂过程,持续监控和管理人工智能模型以优化业务洞察力,并通过保持模型的可解释性和透明性来降低意外偏差的风险。也就是说,对可解释人工智能的某些担忧也在上升。


第一个问题是可解释人工智能的主要功能——透明解释。这一政策正在成为一个威胁的组织,不断创新新的人工智能模型或技术与机器学习算法。原因是,为了更好地理解,创建者必须向利益相关者解释整个模型的整个过程和性能,并保持透明。出于安全考虑,这些公司不想向公众披露所有类型的机密信息、商业秘密和源代码。那么,区分不同公司的知识产权会发生什么变化呢?这是一个意想不到的挑战,从可解释的人工智能到创新者和企业家。


第二个问题是机器学习算法在本质上是高度复杂和无形的。软件开发人员或机器学习工程师可以让普通人理解创建算法的过程,但其内在的有形过程却很难解释。客户在日常生活中潜意识地使用这些人工智能产品,比如人脸识别锁、语音助手、虚拟现实耳机等等。但他们真的需要知道这个快节奏生活中的复杂过程吗?对于某些利益相关者来说,这些信息往往会变得有点乏味和耗时。


第三个问题是,组织需要针对不同的用户和不同的背景处理不同的解释形式。即使任何一家公司想要遵循让人们理解算法的可解释人工智能政策,不同的利益相关者也可以询问不同的解释,例如技术细节、功能、数据管理、影响结果的因素等等。解释应有效地反映利益相关者的需要和愿望,以便更好地参与利益相关者的工作。但有时组织不可能一次回答这么多问题。


第四个问题是从这些黑匣子中得到不可靠的结果。用户应该相信来自人工智能模型的商业见解,但它包含潜在的风险。由于数据的变化,系统可能产生误导性的解释。然后,用户将以最大的信心相信错误,这可能导致市场的大规模失败。这些解释对短期计划有用,但对长期计划却没有用。


也就是说,尽管可解释人工智能带来了意想不到的挑战,但公司可以考虑以下五个要点,以从人工智能模型中获得适当的见解-监控公平性和借记,分析模型以缓解漂移,应用模型风险管理,解释机器学习算法的依赖关系,并跨不同类型的云部署项目。

免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~