研究发现:当使用饮食失调相关提示,AI可能生成 “有害” 内容

本文概要:

1. 研究发现,当使用与饮食失调相关的词汇作为提示时,AI 模型会生成问题内容。

2. 谷歌的 Bard 等 AI 系统在41% 的测试提示中生成了 “有害的饮食失调内容”。

3. AI 图像生成器也会产生美化不切实际身材标准的图像,可能加剧饮食失调问题。

8月15日 消息:伦敦的数字安全组织 “Center for Countering Digital Hate”(CCDH)的研究发现,当使用与饮食障碍相关的词汇作为提示时,当前流行的生成式 AI 模型会产生问题内容。

这些 AI 系统不仅不会拒绝回答这些问题,还会按照要求提供不健康和有害的建议。CCDH 测试的六个 AI 系统中,有41% 的测试提示引发了 “有害饮食失调内容”。例如,谷歌的 Bard 回答了一个有关极端减肥方法 “咀嚼并吐出” 的步骤指南的提示。当然,CCDH 还发现,人工智能文本生成器提供的94% 的内容都包含警告,其输出可能存在危险,并建议寻求专业医疗帮助。

此外,CCDH 还测试了 AI 图像生成器,结果发现32% 的图像包含美化不切实际身材标准的 “有害内容”。

研究人员还指出,在一些涉及饮食失调讨论的在线社区中,AI 生成的鼓励和加剧饮食失调的内容得到了一定的认可。

CCDH 呼吁对 AI 工具进行更好的监管和规范,以确保其安全性。AI 公司表示,他们致力于使产品更安全,并与健康专家合作改进系统的响应和建议。不过,该研究的结果表明,AI 模型在涉及饮食失调问题上仍存在潜在的危险。

本文来源于站长之家,如有侵权请联系删除

发布于 2023-08-15 18:21:20
收藏
分享
海报
0 条评论
5
上一篇:微软:Bing Chat 性能优于原始 GPT-4 但价格昂贵 下一篇:我,一个虚拟人,自然流量直播卖了8万多,居然不是在抖音淘宝
目录

    0 条评论

    本站已关闭游客评论,请登录或者注册后再评论吧~

    忘记密码?

    图形验证码