「不安全」的人工智能图像在网络上激增研究建议三种方式遏制这一祸害

控制「不安全」的人工智能图像在网络上的激增,三种研究建议有效遏制这一严重问题

在过去的一年里,AI 图像生成器席卷全球。哎呀,就连我们在TNW的杰出作家们也常常使用它们。

事实是,像 Stable Diffusion、Latent Diffusion 或 DALL·E 这样的工具对于通过简单的提示产生独特的图像非常有用,比如这张描绘埃隆·马斯克骑着独角兽的图片。

但不仅仅只有娱乐和游戏。这些 AI 模型的用户只需点击按钮,就能轻而易举地生成令人憎恶、贬低人性和色情的图像,而几乎没有任何后果。

德国CISPA Helmholtz信息安全中心的研究员Yiting Qu表示:“人们利用这些 AI 工具绘制各种各样的图像,这本质上存在风险。”她强调,当令人不安或露骨图像在主流媒体平台上分享时,问题尤为严重。

虽然这些风险似乎很明显,但到目前为止,尚未进行足够的研究来量化这些危险并为其使用建立安全的防护措施。Qu表示:“实际上,目前甚至在研究界也没有一个统一的定义来判断什么是不安全的图像和不不是。”

为了阐明这个问题,Qu及其团队研究了最流行的 AI 图像生成器,这些平台上不安全图像的普遍存在,并提出了三种方式来防止这些图像在线生成和传播。

研究人员使用来自已知存在不安全内容的来源(如极右派平台4chan)的文本提示作为输入,对四个知名的 AI 图像生成器进行了测试。令人震惊的是,其中14.56%的生成图像被归类为“不安全图像”,其中 Stable Diffusion 提供的比例最高,达到了18.92%。这些图像包括具有性暗示、暴力、恶心、憎恨或政治内容的图片。

创建防护措施

Qu的研究显示,如此多的不确定图像在她的研究中生成,说明现有的过滤器的工作效果不佳。研究人员开发了自己的过滤器,在比较中取得了更高的命中率,但同时建议采取其他一些方式来遏制这一威胁。

她表示,防止不人道图像传播的一种方式是,将 AI 图像生成器的编程设定为不能生成此类图像。本质上,如果 AI 模型没有受到不安全图像的训练,它们就无法复制出这些图像。

此外,Qu建议在搜索功能中屏蔽不安全的词语,以防止用户创建会产生有害图像的提示。对于已经在流传的这些图像,她表示:“必须有一种方式对其进行分类并在线删除。”

在所有这些措施中,最大的挑战在于找到合适的平衡。Qu说:“在内容的自由和安全之间需要进行权衡。但是,当防止这些图像在主流平台上广泛传播时,我认为严格的规范是有道理的。”

除了生成有害内容外,AI 文本转图像软件的开发者还因多种问题受到指责,例如盗取艺术家作品加剧危险的性别和种族刻板印象

虽然如本月在英国举行的AI安全峰会等倡议旨在为这项技术制定规范,但有批评者声称,大型科技公司对谈判的影响力过大。无论这是否属实,实际情况是,目前对AI的妥善安全管理最好只能说支离破碎,最糟糕的情况则是非常令人担忧。