作者:雷斯林 公众号:为你写一个故事 / raistlin
之前刷到个帖子,提到有部讲述中国高铁发展的纪录片,用了AI生成的画面。
这部纪录片是系列节目中的一集,有争议的画面展示了一段架梁作业的过程。
整个画面AI味十足,也不符合实际情况。
至少三岁小孩都知道,要先带好安全帽,才能进入这种大型施工现场,而图上却有这么多人不带安全帽,还站在施工设备正下方。
更专业的网友指出,视频中呈现的这种建筑结构,也并非国内高铁箱梁的常用结构。
如果真要这么搭建,安全事故跑不了。
但最直接的证据是,画面下方直接标注了“豆包AI”的水印,还真没准备藏。
虽然现在在官网上看这期节目的回放,已经找不到这段AI画面了,取而代之的是一张旧照片。
但在其它视频平台上,还有当时留存下来的初始版本,可以证明博主所言非虚。
这样的事情并非孤例。
2021年,导演摩根·内维尔拍摄了纪录片《流浪者:一部关于安东尼·波登的电影》,追踪了一位已故知名厨师的人生故事。
大部分人物传记,都会使用主角生前留下的探访、节目等等影像和声音记录作为线索,串联起人的一生。这部也不例外。
其中一幕,出现了波登阅读自己回复好友的一份电子邮件的声音,听起来很有冲击力。
而问题在于,当事人读邮件的音频是怎么获取的呢?制作人表示,是AI合成的。
带来的连锁反应是,观众们开始对整部影片内容产生怀疑,因为大家无从判断是否还有更多声音或画面来源于AI,而非真实存在。
反正波登本人已经无法澄清了。
这种情况让我很困惑。
用AI来做别的内容,比如电影,比如综艺画面,我都可以理解,毕竟用起来很方便。
但是这不是纪录片吗?
纪录片的意义就是记录真实的生活、拍摄具体的真人真事。它的核心只是真实。
这个过程可以有艺术加工,但是不应该有胡编乱造,更不应该是凭空生成啊。
结果现在,拍纪录片都用上AI生成画面、声音,生成的内容甚至还可能完全违背逻辑,和事实不匹配,那真实又被置于何地了呢?
要知道,人的记忆是不可靠的。
所以我们靠各类媒介凝固、保存和传承应该记得的东西,纪录片也是其中之一。
而很多纪录片的内容是会被反复引用的,因为观众默认纪录片内容是经过严谨考证的。
现在,分不清真假的AI素材被融入到纪录片中,在互联网上、在其他电影中被作为“真实”的影像被传播出去,很可能会混淆历史和真相。
就像档案制作联盟在《好莱坞报道》上发表的公开信中说到的那样:“人工智能生成的素材在互联网上、在其他电影中被作为‘真实’的影像传播出去,这将可能永远混淆历史记录。”
更严重的,还会引发集体记忆的扭曲。
另一方面,AI虽然没有立场,但是使用AI的人有立场。因此我们也无从判断,AI生成的内容是否可能混杂个人或算法的偏见。
本来现在AI幻觉就很严重,人工智能总会根据你的需求编造一些你觉得合情合理的东西,那些都是假的,却会被信以为真。
一旦这些虚实混杂的内容进入以真实为本的纪录片市场,并且开始传播时,我们又该如何分辨幻觉和真相,分辨孰真孰假、孰对孰错呢?
如此种种,都会导致纪录片的公信力被弱化,让纪录片提供的内容更加真假难辨。
长此以往,纪录片的意义又在哪里呢?
事实上,远不只是纪录片,现在越来越多立足于真实的领域,都被AI产物混淆了。
每天上网刷手机,看到的很多离谱新闻就是是AI编造出来的。他们比人类有创意多了,很容易编出那种骇人听闻的新闻,让人大肆传播。
前阵子,很多人用AI伪造流浪汉跑进家里的视频和人开玩笑,就是很好的例子。
还有很多需要专业知识的领域,也混进了AI的身影,充斥着胡编乱造的痕迹。
AI还会批量复活那些已经去世的公众人们,让他们再次回归公众视野。
于是你可以看到伊丽莎白二世在摔跤场肉搏、迈克尔·杰克逊在短视频里扭动、甚至是马丁·路德·金在演讲中突然来了一段骂人。
你还能看到李玟、乔任梁、高以翔对着镜头诉求对家人、粉丝的思念。
这也导致有人很容易就会假借这些过世名人的名义来做一些名不符实的宣传。
像“茶界泰斗”张天福,之前就被一家茶企给复活了,用来给自己打广告。
这就很离谱啊。人都不在了,还能站出来夸你的茶好,这不就是纯纯在骗人吗?
消费者被骗了,逝者家属也很苦。
他们要被迫观看一个机器生成的糟粕,用自己亲人的脸,说根本没说过的、甚至违心的话。
完全是对生命、记忆、历史和真实的践踏。
还有更荒谬的。
就在最近,湖北孝感大悟法院审理了一起房屋租赁合同纠纷。起因是租客没有支付后半年租金及水电费,被房东告上法庭。
结果一看证据,原告提供的用于证明租客欠费的水电表照片,全是AI做出来的,都来不及把“豆包AI生成”的水印给抹掉。
发展到此,AI已经不仅在伪造真相、混淆视听了,更是直接攻击社会公平与正义的防线。
当AI生成的脸虚假信息以高度逼真的形式渗透进纪录片、新闻报道,乃至是法庭的时候,我们面临的将是一个真假难辨的“罗生门”时代。
造假这种行为当然比AI出现得早太多了,但问题在于AI会大大降低造假的门槛,甚至大大解放造假者的劳动付出和成本。
某种程度上,AI放大的不是虚假和谎言,只是人性中固有的贪婪与虚荣。
如果说以前只有千分之一万分之一的人有能力造假,那么现在就是哪怕小学没读完,哪怕不认识几个字,都可以利用AI来造假。
再加之,如今是流量为王的时代。
没素质的人会故意制造各种假东西来博关注,好利用别人的关注换流量,也换钱。
AI天生就会制造爆点,编出来的内容既囊括了时下的热点,又创造了各种立场冲突,怎么看怎么耸人听闻,很容易获得流量和收益。
于是引发恶性循环。
举个例子。一个有操守的人,平时写新闻写文章,靠的是自己查资料、自己啃笔头。就算用AI当工具,也会主动审核,把假信息筛出来。
这样的新闻真实,可能就不够有爆点,那么点击率不够,也没啥收入和正反馈。
久而久之,人就没有写的动力了。
但没操守没素质的人不在乎。他们不需要很多时间,也不在乎真相,只在乎够不够劲爆。
让这样的人吃到流量赚到钱,只会激励他们用这种方式继续操作下去, 最后赚得盆满钵满。
典型的劣币驱逐良币。
结果就是AI炮制的假消息会越来越泛滥,我们深信不疑的 “眼见为实” 会彻底失效。
久而久之,社会赖以运行的信任越来越少,人与人之间的链接也就越来越弱。
这是件很可怕的事情。
我们当然可以去借助一些完善的规则对AI生成的内容进行合理的规范。
比如,任何使用AI进行生成的内容,都应该有完整的、醒目的标识,不能够以假乱真。毕竟不是所有观众都有辨别真假的能力。
如果涉及到重要的事实,一定要引入专业人士和材料进行审核,而不能光听AI的。
又比如,和个体相关的画面、声音,都要尊重个体隐私,没有人天生就应该成为AI的素材,哪怕对方是生活在镁光灯下的公众人物。
但是这些规范并不是万能的。
因为只要有利益,就一定会有人会铤而走险,去做有风险但能够获得利润的事情。
或许有些悲观,但未来我们可能就会生活在这样一个真假难辨的世界,我们需要花很多精力去分辨一张照片、一件事、一个人的真假,去孤独地打捞那本来就所剩无几的真相。