越来越多的人工智能生成的儿童性虐待材料被发布到网上
温馨提示:这篇文章已超过72天没有更新,请注意相关的内容是否还可用!
周一发布的一份报告发现,网上发布的人工智能生成的儿童性虐待材料(CSAM)的数量正在增加。
英国互联网观察基金会(IWF)的这份报告强调了人工智能技术扩散带来的最黑暗的后果之一,这使得任何拥有电脑和一点技术知识的人都能制作出令人信服的深度假视频。深度造假通常指的是用人工智能工具创建的误导性数字媒体,比如人工智能模型和应用程序,这些工具允许用户将目标人物的脸与另一个视频中的人脸“交换”。在网上,有一种亚文化和市场围绕着色情深度赝品的创作。
今年春天,IWF对一个用于分享CSAM的暗网论坛进行了为期30天的审查,发现总共有3512张用人工智能制作的CSAM图像和视频,其中大多数都是真实的。该审查中发现的CSAM图像数量比2023年秋季进行的类似审查中发现的图像数量增加了17%。
对内容的审查还发现,与六个月前相比,在暗网上发布的内容中,描述极端或露骨性行为的比例更高。
“现实主义正在改善。严重程度正在改善。这是一种我们不希望看到的趋势,”IWF首席技术官丹·塞克斯顿(Dan Sexton)说。
塞克斯顿说,完全合成的视频看起来仍然不现实,而且在滥用者的暗网论坛上还不流行,尽管这项技术仍在迅速改进。
“我们还没有看到逼真的、完全合成的儿童性虐待视频,”塞克斯顿说。“如果技术在其他地方,在主流领域得到改进,流入非法使用,我们就会看到完全合成的内容。”
目前,捕食者更常见的做法是利用现有的CSAM材料来描绘真人,并用它来训练低阶适应模型(LoRAs),这是一种专门的人工智能算法,可以从几张静止图像或一小段视频中进行定制深度伪造。
目前依靠旧镜头来创造新的CSAM图像可能会对幸存者造成持续的伤害,因为这意味着他们被虐待的镜头被反复赋予新的生命。
“其中一些是几十年前被虐待的受害者。他们现在是成年的幸存者,”塞克斯顿谈到原始材料时说。
深度伪造的滥用材料的增加,突显出监管机构、科技公司和执法部门在防止伤害方面面临的困难。
去年夏天,美国最大的七家人工智能公司签署了一份公开承诺,承诺遵守一些道德和安全准则。但他们无法控制遍布互联网的众多小型人工智能程序,这些程序通常是免费使用的。
塞克斯顿说:“据我们所知,我们看到的内容都是通过公开、免费、开源的软件和公开的模式制作出来的。”
新罕布什尔大学(University of New Hampshire)儿童犯罪研究中心(Crimes Against Children Research Center)主任大卫·芬克霍尔(David Finkelhor)说,深度伪造的CSAM数量的增加,可能会让追踪交易CSAM的恋童癖者变得更加困难。
社交媒体平台和执法部门用来识别虐待图像的一个主要策略是自动扫描新图像,看看它们是否与已建立的CSAM实例数据库相匹配。但芬克霍尔说,新的深度伪造材料可能会忽略这些传感器。
他说:“一旦这些图像被修改过,就很难屏蔽它们。”芬克霍尔说:“目前还不完全清楚法院将如何处理这一问题。”
美国司法部宣布对至少一名被控使用人工智能创建未成年人CSAM的男子提出指控。纽黑文大学(University of New Haven)刑事司法助理教授保罗·布莱克利(Paul Bleakley)说,但这项技术也可能使对CSAM贩运者提出最严厉的指控变得困难。
布莱克利说,美国法律明确规定,拥有CSAM图像,无论它是由人工智能创建还是修改的,都是非法的。但他说,对制造CSAM的人有更严厉的惩罚,如果是用人工智能制造的,可能更难起诉。
布莱克利说:“输入提示符的人是否真的在创建CSAM,这仍然是一个灰色地带。”
联邦调查局在一份电子邮件声明中表示,他们严肃对待针对儿童的犯罪行为,并与各执法机构一起调查每一项指控。
该局写道:“恶意行为者利用内容操纵技术和服务,利用照片和视频——通常是从个人的社交媒体账户、开放的互联网上捕获的,或者是受害者要求的——制作出与受害者相似的性主题图像,然后在社交媒体、公共论坛或色情网站上传播。”“许多受害者,其中包括未成年人,并不知道他们的照片被复制、篡改和传播,直到其他人提请他们注意。然后这些照片被恶意行为者直接发送给受害者进行性勒索或骚扰,或者直到它在互联网上被自己发现。”
FBI在声明中敦促受害者致电FBI外地办事处,或拨打1-800-CALL-FBI(225-5324)。
如果你认为你或你认识的人是儿童剥削的受害者,你可以联系网络热线1-800-843-5678。
发布于:2025-03-09,除非注明,否则均为
原创文章,转载请注明出处。
还没有评论,来说两句吧...