【欧洲时报4月23日刘涛编译】互联网观察基金会(IWF)的最新年度报告显示,2024年人工智能(AI)生成的非法图像增加了380%,其中大部分是“A类”图像,涉及儿童的性虐待非法图像尤其泛滥。
英国《卫报》报道,IWF表示,人工智能的进步也为恋童癖创建和消费非法内容提供了犯罪手段。“2024年,人工智能生成的视频质量指数级提升,随着技术的发展,所有类型的人工智能图像都变得更加真实。”
IWF在其年度报告中透露,2024年其收到245份人工智能生成儿童性虐待非法图像的报告,比2023年的51份增加了380%。这些图像包含7644张图片和少量视频,一个网址可以包含多个非法材料。这些图像绝大多数属于“A类”,即最极端的儿童性虐待材料,包括插入式性行为或虐待狂行为,占IWF看到的可操作人工智能材料的39%。
今年2月,英国政府宣布,拥有、创建或分享旨在生成儿童性虐待材料的人工智能工具都将被视为非法,填补了现行法律的漏洞。此外,拥有指导他人如何使用人工智能工具制作虐待图像或协助他人虐待儿童的手册也将被视为非法。
IWF表示,人工智能生成的图像正越来越多得出现在开放的互联网上,而不仅仅停留在“暗网”上,后者是一个由专门浏览器访问的互联网区域。即使是IWF身经百战的分析师,有时也很难区分互联网上的图像和视频,是人工智能生成,还是真实存在。
该机构的年度报告还显示,2024年集中展示儿童性虐待图像的网页数量达到创纪录水平。同时,有超过29万份关于儿童性虐待图像的报告,同比增加了6%,大多数受害者是女孩。
IWF还宣布将向小型网站免费提供一种新的安全工具,帮助它们发现虐待材料并防止在其平台上传播。这一名为“Image Intercept”的图像拦截工具可以检测和拦截IWF数据库中储存的图像。IWF的数据库储存了280万张被标记为犯罪的图像。
此外,IWF还将帮助小型平台遵守新出台的《网络安全法》,该法包含了保护儿童和处理儿童性虐待材料等非法内容的条款。
对此,英国科学和技术大臣彼得·凯尔表示,人工智能引发了虐待和性勒索现象增加,包括儿童因发送私密照片而被勒索,凸显了针对年轻人的网络威胁在不断演变。他还表示,新的图像拦截工具是一个很好的例子,说明创新正成为解决方案的一部分,让网络空间对儿童更安全。
(编辑:柳露)