以色列-哈马斯战争:这张被困在瓦砾下的婴儿照片被证明是假的

   日期:2024-08-30     来源:本站    作者:admin    浏览:81    

  

  

  以色列和哈马斯之间的战争在网上产生了如此多的虚假或误导性信息,以至于事实核查员和分析人士都很难跟上形势。社交媒体充斥着误导性的帖子,人工智能正在让事情变得更糟。

  自10月7日战争开始以来,大多数虚假信息涉及被认为是以色列和哈马斯之间冲突的过时视频和图像。

  但现在,我们也开始看到无法追踪起源的图像。这是因为它们是由人工智能(AI)生成的。

  在这些人工智能生成的图像中,有一张在网上传播的是一个部分被埋在瓦砾下的婴儿。

  尽管许多社交媒体用户对其真实性表示怀疑,但仍有很多人相信了它,其中包括一名驻加沙的记者。

  如何判断图像是否是人工智能生成的?首先,非常值得注意的是过度夸张的面部表情,特别是在下巴和前额的孩子。

  当仔细观察时,婴儿似乎有多余的手指。这是因为尽管人工智能在创造类似人类的图像方面越来越好,但它在复制某些身体部位(包括手和脚)方面仍然存在困难。

  The Cube还发现了这张人工智能生成的图片的早期帖子。早在2023年2月土耳其和叙利亚发生地震后,它就已经出现在社交媒体上。

  最近,包括埃及开罗在内的世界各地声援巴勒斯坦的示威队都在使用人工智能制造的婴儿。

  最近,法国《解放报》在封面上刊登了一名抗议者举着人工智能生成的孩子的横幅,因此受到了批评。

  多名社交媒体用户表示,该报没有明确说明抗议者手持人工智能生成的图像,因此传播了假新闻。

  “在10月17日的示威活动中挥舞的许多标语实际上是由人工智能产生的,近几个月来,人工智能已经成为抗议活动的艺术基础,就像以前的木偶、玩偶或骷髅一样,”《解放报》主编多夫·阿尔方回击道。

  难道有必要至少在照片的标题中提到抗议者挥舞着人工智能图像吗?“可能是的,”多夫·阿尔丰说,“但美联社的标题没有提到,要么是遗漏,要么是时间不够,我们也没有。这显然是令人遗憾的。”

  虽然这张人工智能生成的照片很容易被发现,但技术进步正在带来越来越可信的结果

  你可能还记得今年3月教皇穿着一件非常时尚的羽绒服的照片,这张照片骗过了记者们。

  目前,生成人工智能图像的平台,如Dall-E和Stable Diffusion,已经对图形和政治图像进行了限制,这有助于减缓与战争有关的虚假信息的产生。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行