伪造的图像包括被毁坏的建筑物、瓦砾中的儿童。 2023 年 10 月 30 日星期一,加沙南部汗尤尼斯中心,巴勒斯坦人在被以色列导弹击中的被摧毁的建筑物废墟中。社交媒体上深度伪造图像的扩散引发了人们对真实图像的怀疑。 摄影师:艾哈迈德·塞勒姆/彭博社 血迹斑斑的尸体图像;一张哭闹婴儿的照片经过编辑,看起来就像躺在废墟中一样;乍看之下,加沙整个街区都被夷为平地。 毫无疑问,在以色列和哈马斯之间的战争中,双方都使用了深度伪造技术——对图像和视频进行数字修改并传播以形成虚假叙述。其中许多都具有由生成式人工智能工具创建的内容特征。 不太清楚的是这些图像是否在社交媒体上影响了大众或影响了决策。 自两周前哈马斯袭击以色列以来,X 和 Facebook 等平台上出现的大多数假照片都是Deepfakes和生成人工智能专家Henry Ajder所说的“令人震动”的图像。他说,创作者的目的是让它们“非常情绪化、非常耸人听闻”,并引起立即的情绪反应,例如受伤婴儿或被毁建筑物的图像。 阿杰德进一步解释说,深度造假显示的图像“可以立即识别,你不必真正聆听或参与那么多。” 例如,X 上的一张图片(被加州大学伯克利分校教授创建的深度伪造检测工具识别为假图片)据称显示两个孩子在废墟中互相拥抱,小女孩裹着巴勒斯坦国旗。 这些类型的深度造假让阿杰德和其他专家感到惊讶,他们习惯于看到高级官员发表他们从未发表过的声明的深度造假。 随着生成式 AI 工具的出现,曾经粗糙且易于检测的 Deepfake 已经变得更加真实且更容易制作。但在社交媒体上的虚假声明已成为政治运动、战争和其他重大事件中的常态之际,难以察觉的深度造假图像的泛滥可能会让大众更难根据事实形成意见。 阿杰德说,“缺乏背景、不可靠的深度检测”“比根本没有检测更有害”。“它给人一种错觉,以为有一条通往真理的道路和果断的评估,但实际上,据我们所知,情况并非如此。” “说谎者的红利可以说更加有害,”阿杰德补充道。 根据人工智能公司Accrete为彭博新闻社所做的一项分析,属于与哈马斯(已被美国和欧盟认定为恐怖组织)结盟的网络的五个账户经常声称来自以色列的真实镜头是人工智能生成的,以此作为抹黑以色列的手段。 在最近的一个例子中,一家名为 Optic 的初创公司将以色列政府分享的一张显示被烧毁的婴儿遗体的图片标记为假图片,导致网上广泛质疑。然而,加州大学伯克利分校教授哈尼·法里德坚称这张照片是真实的。 Optic 没有回复寻求置评的消息。 “生成式人工智能的影响不仅仅是创造虚假内容,它还给真实内容投下了长长的阴影。”法里德说。 大西洋理事会数字取证研究实验室的高级研究员安迪·卡文 ( Andy Carvin)表示,在 Facebook 和 X 上查看评论并在真实图像下看到人们质疑其真实性或背景的情况并不罕见。“其他人只会说,‘Deepfake!’就是这样,谈话结束。”他说。 伯克利大学 Farid 开发的技术在 X 上检测到大量儿童在受损建筑物中的图像存在深度伪造。他说很难量化有多少张图片在流传,但他每天都会收到要求识别图片是否真实的请求。“有很多,”他说。“我认为这个问题与其说是数量问题,不如说是信息污染问题。” 大西洋理事会的卡文表示,与以色列人和巴勒斯坦人有关的账户正在网上发布深度伪造图像。“我们已经看到人们制作图像来团结特定事业的例子,其中通常包括儿童,”他说。卡文说,生成式人工智能工具通常对创建暴力内容有限制,但他解释说,要求其中一个工具创建一张空袭后站在瓦砾中间的儿童图像很简单。 彭博新闻社使用 Farid 的技术在 X 上识别为深度造假的五张图像中,只有一张贴有标签,警告该图像不是真实的,尽管该公司的政策禁止用户分享可能会迷惑人们并“导致伤害”的合成和操纵类图像” 大西洋理事会 DFRL 一位专注于中东问题的分析师表示,与以色列和哈马斯战争相关的 Deepfake 不仅出现在社交媒体上,还出现在阿拉伯语新闻媒体中。出于安全原因,该分析师要求匿名。一张伪造的图片——声称是以色列人在巴勒斯坦被占领土上的难民营——已在阿拉伯语新闻媒体上多次分享,其中一家总部位于也门。这位分析师表示,这张图片有明显的人工智能迹象,以色列国旗上有双大卫之星,一些帐篷看起来畸形。 |
还没有用户评论, 快来抢沙发!