96% 的 Deepfake 视频都是色情视频,加州开始立法限制其在色情和选举领域的应用

▲ 图片来自:Life2Coding

一切都在升级,一开始 Deepfake 只是技术人员的专属,复杂的代码让生成一个视频成本极高。

随着门槛的降低,斯嘉丽约翰逊、艾玛沃特森等明星通通「下海拍片」,每一个都是可怕的性爱录影带。现在,Deepfake 视频可以轻易地威胁到所有人,政界人物、你的邻居、你的女友……只要获得一张对方在社交网络的正面照片,生成一个专属的 Deepfake 视频是如此容易。它可能是一个性爱视频,也可能是一个假的政治演讲视频。

Deepfake 威胁着所有人。当你难以辨别真假时,你就会开始怀疑一切,同时也很容易被假视频所蒙骗。

▲ 图片来自:Giphy

为此,Adobe 在和美国国防部合作开发帮助判断图片真伪的工具;俄勒冈大学的研究人员想让动物帮我们鉴别伪造的视频和音频;还有的创业公司开始瞄准图像辨别生意,自动为照片加上时间和地点信息,提供相关真假信息确认。

技术正在寻求一种更为妥帖的解决方案,但一切的限制也需要法律法规的参与。

这一次,法律终于不再缺位。

上周,加州州长 Gavin Newsom 签署了两项新法令,其中一项是禁止任何人在选举 60 天内发布有关候选人的 Deepfake 视频。另一项法令则是允许该州居民起诉任何使用 Deepfake 技术将其图像放入色情视频的人。

▲ Gavin Newsom

它针对的是人们对 Deepfake 视频中争议最大的两个部分:色情和政治选举。

同样来自加州的议会代表 Marc Berman 认为 Deepfake 制成的视频有可能会成为误导选民做出选择的危险工具。

选民有权利知道他们所看到的这些视频、音频和图像在即将到来的选举中可能被操纵,这会影响他们进行投票,但这些内容并不代表现实。

选民有权利知道他们所看到的这些视频、音频和图像在即将到来的选举中可能被操纵,这会影响他们进行投票,但这些内容并不代表现实。

▲ 图片来自:medium.com

但这真的就足够了吗?在限定时间内最大程度摒除 Deepfake 视频对选举的干扰就够了吗?允许受害人起诉那些未经允许就为自己制造了一段色情视频的人就够了吗?

这一切或许远远不够。

无辜被「拍摄」了一段 Deepfake 色情视频的女性只能通过漫长的诉讼流程来保证自己应有的权利,且全世界还只有加州有相关的法律支持你捍卫自己的权利。

这一切远远不够。

目前,网络安全专家 Deeptrace 已经发现了 14678 个 Deepfake 视频,视频数量比 2018 年首次统计增加了 84%,其中大部分都是人工制作的性爱录像带。有超过 1.3 万个 Deepfake 视频在相关的色情网站上,她们的主角包括女明星,网红以及一个个普通人。

▲ 图片来自:Wired

技术的发展让他们有了原本不会有的困扰。

实时视频仿真软件 Face2Face 的开发者 Justus Thies 也曾意识到这项技术的危险性,他在一次接受采访的时候表示:

如果这类视频软件得到广泛应用的话,将会对社会造成剧烈的影响。这也是为什么我们不把软件代码开源的原因之一。如果让不成熟的人接触到这类软件,将会大大提升网络霸凌的等级。

如果这类视频软件得到广泛应用的话,将会对社会造成剧烈的影响。这也是为什么我们不把软件代码开源的原因之一。如果让不成熟的人接触到这类软件,将会大大提升网络霸凌的等级。

▲ Face2Face

Deepfake 引发的网络霸凌已经初见端倪,相关的法律法规却还没准备好。「先行者」加州做出的谨慎尝试也伴随了不小的争议。

立法限制新技术在特定领域的使用只是开始,如何规范技术的使用,如何保护用户的应有权利?这些都该得到更多的讨论和关注。

Deepfake 所用的技术在法律领域基本是一片空白,加州两项新法令的出台则是一个积极的信号。

它告诉所有人,Deepfake 视频所涉及的新技术,不应该成为制作者的法律保障。

题图来自 The Conversation。

不太有趣,不太乐观。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。返回搜狐,查看更多

责任编辑:

声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
阅读 ()
今日搜狐热点
今日推荐