虚假宣传活动并不新鲜,就像战时用来影响公众舆论反对敌人的宣传。而现在使用互联网和社交媒体来传播这些虚假信息。


麻省理工学院林肯实验室,人工智能软件架构和算法组的工作人员史蒂文史密斯团队,该团队旨在通过启动影响运营侦察 (RIO) 计划来更好地了解这些活动。


他们的目标是创建一个系统,可以自动检测虚假信息以及在社交媒体网络中传播这些信息的个人。今年早些时候,该团队在《美国国家科学院院刊》上发表了一篇关于他们工作的论文,并于去年秋天获得了 R&D 100 奖。


MIT利用人工智能系统帮助遏制虚假信息的传播


该项目起源于2014年,当时 Smith 及其同事正在研究恶意团体如何利用社交媒体。


该团队通过实验室的技术办公室申请了内部资金并启动了该计划,以研究是否会在 2017 年的法国大选中使用类似的技术。


在选举前的 30 天内,RIO 团队收集了实时社交媒体数据,以搜索和分析虚假信息的传播情况。他们总共收集了来自 100 万个帐户的 2800 万条 Twitter 帖子。然后,使用 RIO 系统,他们能够以 96% 的精度检测虚假信息。


RIO 系统的独特之处在于它结合了多种分析技术,以全面了解虚假信息的传播地点和方式。


如果你试图回答谁对社交网络有影响力的问题,一般情况下,人们会关注活动的数量,例如,在 Twitter 上,分析师会考虑推文和转发的数量。在很多情况下,这还不够。它实际上并没有告诉你账户对社交网络的影响。


MIT利用人工智能系统帮助遏制虚假信息的传播


作为 Kao 博士的一部分。在实验室的林肯学者计划(一个学费奖学金计划)工作期间,他开发了一种统计方法:在 RIO 中使用,不仅可以帮助确定社交媒体账户是否在传播虚假信息,还可以确定该账户对整个网络的影响程度改变和放大信息。


另一名研究团队成员 Erika Mackin 也应用了一种新的机器学习方法,通过查看与行为相关的数据,例如账户是否与外国媒体互动以及它使用什么语言,帮助 RIO 对这些账户进行分类。这种方法使 RIO 能够检测在各种活动中活跃的敌对账户,从 2017 年大选到虚假信息的传播。


RIO 的另一个独特方面是它可以检测和量化由机器人和人类操作的帐户的影响,而当今使用的大多数自动化系统只能检测机器人。RIO 还能够帮助使用该系统的人预测不同的对策可能如何阻止特定虚假信息活动的传播。


该团队设想 RIO 将被政府和行业以及社交媒体和传统媒体领域(如报纸和电视)使用。


目前,他们正在与西点军校学生约瑟夫施莱辛格合作,他也是麻省理工学院的研究生和林肯实验室的军事研究员,以了解叙事如何在欧洲媒体上传播。一项新的后续计划也正在进行中,以深入研究影响操作的认知方面,以及个人态度和行为如何受到虚假信息的影响。


免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~