“我们的研究表明,人工智能可能成为人们避免为指控别人说谎的后果负责的借口。”
目前的人工智能(AI)在语言理解和交互方面已经取得了令人瞩目的成绩。这些程序不仅能够理解对话的内容,作出合适的回答,还能够对信息进行解读和判断。有人认为,有了人工智能的参与,未来社会中人们的交往、互动乃至整个社会的规范都有可能发生变化。
近日一项研究指出,人工智能的出现或许会改变人们戳穿别人谎言的方式——当人工智能判断一些言论是撒谎时,即便没有提供新的证据和解释,人们也更有可能会听取它的建议,对撒谎进行指责。这一发现有助于深入了解使用人工智能系统进行测谎的社会影响,并在实施类似技术时为相关政策的制定提供参考。
这项研究于6月27日发表在细胞出版社(Cell Press)旗下期刊iScience(《交叉科学》)上,作者是来自德国马克思·普朗克人类发展研究所(Max Planck Institute for Human Development)、法国图卢兹高等研究所(Institute for Advanced Study Toulouse)等机构的Nils K?bis、Alicia von Schenk、Victor Klockmann等五名科学家。
该研究认为,戳穿谎言是要承担一定的社会风险的。错误的指控不仅会让被指控者蒙受不白之冤,也会让指控者落得个“糊涂判官”的坏名声。除此之外,之前科学家们已经发现,人类识别谎言的能力很差,从概率上来说跟乱猜区别不大——成功率不超过50%。
因此,人们对质疑别人的谎言常常有所保留,也就形成了社会中信任他人、默认别人讲的都是真话的倾向。“我们的社会对撒谎指控有着牢固而完善的规范。”论文通讯作者、德国杜伊斯堡-埃森大学行为科学家Nils K?bis在接受细胞出版社采访时说,“公开指责别人撒谎需要很大的勇气和坚实的证据。”
在该研究中,研究者们想要知道,如果人们有更加“权威”的AI测谎“专家”帮助,这种相对谨慎的揭穿谎言的习惯会不会改变。
研究者们首先招募了986名参与者对他们下周末的活动计划写一份真实和一份虚假的描述,要求都要超过150字。最终,他们从768名作者那里收集到了1536份描述。
然后,该团队用这些数据在谷歌的开源语言模型BERT的基础上训练了一种算法,开发出一种人工智能测谎模型。该模型识别真假陈述的准确率能达到66%,明显高于普通人的水平。
接下来,该团队从之前的陈述样本中挑选出510个,并招募了2040人作为评委,每个人随机阅读一份并决定真假。根据是否以及如何接受AI测谎的帮助,研究人员将参与者分为四组——“基线”(Baseline)组、“强迫”(Forced)组、“封锁”(Block)组和“选择”(Choice)组。
在基线组中,参与者在没有人工智能帮助的情况下回答“对”或“错”。在强迫组中,参与者在做出自己的判断之前会强制收到AI预测。在封锁组和选择组中,参与者可以选择是否接受人工智能生成的预测。但封锁组的人即便选择了AI帮助也不会收到预测反馈,而选择组的人会收到。
研究者们发现,基线组的参与者在判断真假时的准确率为46%。尽管事先已经被告知有50%的陈述一定是假,最终也只有19%的人作出了指控。研究认为,这证实了人们倾向于避免指责别人撒谎的保守倾向。
在强迫组中,不管参与者是否想要,他们都得到了人工智能预测结果,因此超过1/3的参与者认为陈述是虚假的。这一比例明显高于基线组和未接受人工智能预测的封锁组。
尽管没有提供具体解释,人工智能的判断本身就能让参与者们“跟风”投票。当人工智能预测某句话是真的时,只有13%的参与者认为这句话是假的。然而,当人工智能预测一个陈述为假时,超过40%的参与者认为该陈述是假的。
此外,在要求并收到人工智能预测的参与者中,84%的人接受了预测结果,并在人工智能说陈述是错误的时候提出了指控。
“这表明,一旦人们手头有了这样的算法,他们就会依赖它,并可能改变他们的行为。如果算法认为某件事是谎言,人们就会欣然接受。这是相当令人担忧的,这表明我们应该非常谨慎地对待相关技术。”K?bis在采访中表示。
但有趣的是,人们似乎不愿意使用人工智能作为测谎工具。在封锁组和选择组中,只有1/3的参与者选择接受人工智能预测。这个结果让研究小组感到惊讶,因为研究人员事先告诉参与者,该算法比人类更能发现谎言。K?bis说:“这可能是因为人们对自己的测谎能力过于自信,尽管人类在这方面真的很糟糕。”
尽管该研究中的人工智能测谎仅有66%的正确率,它已经能以“权威”的面貌出现并影响参与者的判断。实际上人工智能经常犯错,远非客观。它不仅会“一本正经地胡说八道”,还会因为训练数据的结构问题而强化内容中的刻板印象。鉴于AI测谎技术可能会在不久的将来在社交媒体等领域被广泛应用,该研究团队在文章最后呼吁政策制定者应当完善相关的政策和法律框架,呼吁对AI测谎技术进行监管。
“人工智能被大肆宣传,许多人认为这些算法非常强大,甚至是客观的。我很担心这会让人们过度依赖它,即使它的效果并不好。”K?bis表示,“我们的研究表明,人工智能可能会成为人们避免为指控别人说谎的后果负责的借口。”