Deepfake 用大量色情片訓練 AI:但法律只保护脸,从没人关心那具身体属于谁?

关于 AI 深度伪造色情片的讨论长期集中在被合成的脸上,却忽略了那个身体属于谁;超过 10,000 TB 的成人内容疑似被用来训练 nudify 模型。
(前情提要:加州大学研究“AI 迷雾”现象:14% 上班族被代理人和自动化搞疯,离职意愿高达四成)
(背景补充:快讯》黄仁勋最后一刻登上空军一号“陪川普访中”,NVIDIA 芯片出口成为焦点)

本文目录

切换

  • 身体作为训练资料
  • 合约的时代错位
  • Take It Down Act 的讽刺

每当有人谈论 AI 深度伪造色情片,讨论焦点几乎都放在那张脸,那张被合成上去、做了她从未做过之事的脸。但有另一个问题几乎无人提及:那具身体是谁的?

根据《technologyreview》报道,现年 37 岁、纽约执业心理治疗师 Jennifer,2023 年用面部识别软件搜索自己十年前的成人影片,结果找到一支她从未见过的影片:她的身体,换上了别人的脸。

她从背景认出那是 2013 年拍的场景,才意识到:“有人用我的身体做了 deepfake。”

身体作为训练资料

Deepfake 这个词诞生于 2017 年 11 月,Reddit 用户“deepfakes”将名人脸孔合成到成人演员身上。从那时起,成人创作者的身体就成为最常被盗用的素材,这种情况“一直都在发生”,专精成人产业的律师 Corey Silverstein 说。

但问题性质已改变。成人演员的身体不再只是被提取用于个别影片,而是作为训练资料,教 AI 如何生成“逼真裸体”,如何移动、如何看起来真实。这个过程没有知情同意,也几乎无法追踪。

“nudify”app 的商业模式建立在这个基础上:只需上传一张穿着衣物的照片,就能得到一张伪造裸照。这类 app 几乎可以确定使用了超过 10,000 TB 的线上成人内容作为训练来源,创作者几乎无救济途径。

UC Berkeley 数字鉴识专家 Hany Farid 说:“这些都是黑盒子。”但以成人内容在网络上的普遍程度,被用作 AI 训练是“合理的假设”。

问题还不只停留在训练资料。AI 已能完整重现成人演员的外观与声音。创作者 Tanya Tate 最近得知,有名粉丝花了 2 万美元与一个 AI 版本的“她”进行性聊天,那是诈骗者制作的。多名粉丝受骗后,开始指责 Tate 本人并散布不实陈述。

版权执法公司 Takedown Piracy 通过数字指纹技术,从 Google 单一平台下架了 1.3 亿支侵权影片,即便影片被修改或人脸被替换,数字指纹仍可识别原始素材。

合约的时代错位

许多成人演员多年前签署的合约,含有“出版商可使用目前存在或未来将被发现的任何技术”条款。当年的想象是 VHS 转 DVD。

没人预见到“未来技术”意味着:用你的内容训练 AI,生成一个可以取代你工作的合成替代品。MIT 计算机科学博士生 Stephen Casper 指出,AI 崛起前就开始创作的演员,根本不可能预先同意 AI 用途;这些风险是“被追溯强加的”,Jennifer 如此形容。

AI 的欺骗能力同样在加速。Farid 2025 年的研究发现,受试者正确辨识 AI 生成语音的准确率仅约 60%,和随机猜测相比高不了多少。

Take It Down Act 的讽刺

美国目前唯一针对 deepfake 的联邦法律是 Take It Down Act,要求网站在 48 小时内下架非自愿亲密影像(NCII)。法律立意是保护受害者,但可能走向相反方向。

Santa Clara 大学法学教授 Eric Goldman 指出,任何人都可以举报合法、有当事人同意的成人内容,声称它是 NCII,迫使平台下架。这让该法成为潜在清除工具,恰好符合 Project 2025 将色情内容从网络扫除的目标。

美国法律目前不将这类侵权视为隐私侵犯,因为“我们不知道该把责任归给谁”,Goldman 说。欧盟、英国、澳大利亚已宣布限制 nudify app,但这些 app 一旦被下架,往往换个名字重新出现。

Reba Rocket 说:“AI 女孩会做任何你想要的事,她们不说不。这让我感到恐惧,尤其是当他们用真人来训练那些模型的时候。而一旦上了网,就永远在那里了。”

TRUMP-0.84%
NVDA13.61%
TAKE4.31%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
请输入评论内容
请输入评论内容
暂无评论