科技资讯:AI工程师开发了一种方法可以检测出传播错误信息的意图
在数字时代处理错误信息是一个复杂的问题。不仅必须识别,标记和纠正错误信息,而且还应区分负责提出索赔的人员的意图。一个人可能在不知不觉中散布了错误的信息,或者只是就某个问题发表了自己的观点,即使后来又将其报告为事实。最近,达特茅斯(Dartmouth)的一个AI研究人员和工程师团队创建了一个框架,该框架可用于从“假新闻”报告中得出意见。
正如《科学日报》报道的那样,达特茅斯小组的研究最近发表在《实验与理论人工智能杂志》上。尽管先前的研究试图识别虚假新闻和打击欺骗,但这可能是第一个旨在确定新闻发言人的意图的研究。尽管一个真实的故事可以被扭曲成各种欺骗性形式,但重要的是要区分欺骗的意图。研究小组认为,在考虑错误信息时,意图很重要,因为只有在有意图误导的情况下,欺骗才可能发生。如果一个人没有意识到他们在传播错误的信息,或者只是在发表自己的见解,那么就不会有欺骗。
达特茅斯塞耶大学工程学院的工程学教授尤金·桑托斯(Eugene Santos Jr.)向ScienceDaily解释了为什么他们的模型试图区分欺骗性意图:
“故意误导听众的欺骗意图比无意的错误构成了更大的威胁。据我们所知,我们的算法是检测欺骗并同时将恶意行为与良性行为区分开的唯一方法。”
Santo认为,研究人员开发的框架可以由新闻机构和读者加以改进和应用,以使他们分析“假新闻”文章的内容。读者可以检查文章是否存在意见,并自己确定是否使用了逻辑论证。桑托斯还表示,该团队希望检查错误信息的影响及其造成的连锁反应。
流行文化通常将面部表情等非语言行为描述为某个人在撒谎的指标,但研究的作者指出,这些行为暗示并不总是可靠的撒谎指标。该论文的合著者李德清(音译)解释说,他们的研究发现,基于推理意图的模型比行为和言语差异更好地表明了说谎。李解释说,推理意图模型“更擅长将故意谎言与其他类型的信息失真区分开”。
达特茅斯大学的研究人员的工作并不是在与AI对抗错误信息方面的唯一最新进展。具有点击诱饵标题的新闻报道常常掩盖错误信息。例如,它们通常暗示一件事发生在另一事件实际发生时。
据AINews报道,来自亚利桑那州立大学和宾夕法尼亚州立大学的研究人员团队进行了协作,以创建可以检测点击诱饵的AI。研究人员要求人们编写自己的点击诱饵标题,还编写了一个程序来生成点击诱饵标题。然后使用这两种形式的标题来训练一个模型,该模型可以有效地检测点击诱饵标题,而不管它们是由机器还是人编写的。
根据研究人员的说法,当检测点击诱饵标题时,他们的算法比过去其他AI的准确性高出14.5%。该项目的首席研究员兼宾夕法尼亚州立大学信息科学与技术学院副教授Dongwon Lee解释了他们的实验如何展示了使用AI生成数据并将其反馈到培训管道中的实用性。
Lee解释说:“这个结果非常有趣,因为我们成功地证明了机器生成的clickbait训练数据可以反馈到训练管道中,以训练各种机器学习模型来提高性能。”