观点:政治造假会劫持你的大脑——如果你允许的话
逼真的人工智能生成的图像和录音可能是对民主的最新威胁,但它们是长期存在的欺骗行为的一部分。打击所谓的深度造假的方法不是开发某种粉碎谣言的人工智能,也不是训练公众识别虚假图像。一个更好的策略是鼓励一些众所周知的批判性思维方法——重新集中我们的注意力,重新考虑我们的来源,并质疑我们自己。
其中一些批判性思维工具属于“系统2”的范畴,也就是《思考,快与慢》一书中所描述的慢思维。人工智能擅长愚弄思维敏捷的“系统1”——这种模式经常草率得出结论。
我们可以从重新关注政策和表现开始,而不是八卦和谣言。那么,如果美国前总统唐纳德·特朗普(Donald Trump)说错话,然后指责人工智能操纵又会怎样呢?那么,如果乔·拜登总统忘记了约会呢?这两件事都不能说明两人的政策记录或优先事项。
纠结于图片的真假可能是浪费时间和精力。研究表明,我们不善于发现假货。
西悉尼大学的计算神经学家Tijl Grootswagers说:“我们非常善于发现错误的东西。”当人们试图发现赝品时,他们倾向于寻找瑕疵,但真实的照片最有可能有瑕疵。
他说,人们可能会无意识地更信任深度假图像,因为它们比真实图像更完美。人类倾向于喜欢和信任那些不那么古怪、更对称的面孔,所以人工智能生成的图像通常看起来比真实的照片更有吸引力、更值得信赖。
在面对社交媒体上的图片或言论时,仅仅要求选民做更多的调查是不够的。社会科学家最近发现,人们在使用谷歌做了一些“研究”后,更有可能相信编造的新闻故事。
这并不能证明研究对人有害,或者对民主有害。问题是,许多人做的是一种无意识的研究。他们寻找确凿的证据,就像互联网上的其他东西一样,这些证据是丰富的——无论这种说法多么疯狂。
真正的研究包括质疑是否有理由相信一个特定的来源。它是一个信誉良好的新闻网站吗?一位赢得公众信任的专家?真正的研究还意味着检验你想要相信的可能是错的。谣言在X上被重复,而不是在主流媒体上,最常见的原因之一是缺乏可信的证据。
印第安纳大学(Indiana University)社交媒体观察站(Observatory on social media)主任、计算机科学家菲利普·门泽(Filippo Menczer)说,人工智能让利用社交媒体宣传假新闻网站变得比以往任何时候都更便宜、更容易,方法是制造逼真的假人来评论文章。
多年来,他一直在研究被称为机器人的虚假账户的泛滥,这些账户可以通过社会认同的心理原理产生影响——让很多人看起来喜欢或同意一个人或一个想法。早期的机器人很粗糙,但现在,他告诉我,它们可以被设计成看起来像是在进行长时间、详细和非常现实的讨论。
但这仍然只是一场古老战争中的新战术。康奈尔大学的心理学家戈登·彭尼库克说:“制造错误信息并不需要先进的工具。”人们通过使用ps或重新利用真实图像来实现欺骗——比如把叙利亚的照片冒充加沙。
潘尼库克和我讨论了太多信任和太少信任之间的紧张关系。虽然缺乏信任可能会导致人们怀疑真实的事情,但我们一致认为,人们过于信任会带来更大的危险。
我们真正应该追求的是辨别力——这样人们就会问正确的问题。他说:“当人们在社交媒体上分享东西时,他们甚至不会去想它是不是真的。”他们更多地考虑的是分享这些信息会让他们看起来怎么样。
考虑到这种倾向,演员马克·鲁法洛(Mark Ruffalo)可能不会感到尴尬,他最近因为分享了一张据称是深度伪造的图片而道歉,该图片被用来暗示唐纳德·特朗普参与了杰弗里·爱泼斯坦(Jeffrey Epstein)对未成年女孩的性侵犯。
如果人工智能让我们无法相信电视或社交媒体上的东西,那也不完全是件坏事,因为在人工智能最近的飞跃之前,很多东西都是不值得信任和操纵的。几十年前,众所周知,电视的出现使身体吸引力成为所有候选人更重要的因素。还有更重要的投票标准。
思考政策、质疑信息来源和自我怀疑需要一种更慢、更努力的人类智慧。但考虑到其中的利害关系,这是值得的。- Bloomberg Opinion/Tribune News Service
×
相关文章
发表评论