巴黎:谷歌周四表示,将阻止用户在其新推出的人工智能工具上创建人物图像,此前该程序将纳粹时期的军队描绘成来自不同种族背景的人。
这家美国科技巨头于2月8日才在全球部分地区发布了改进后的Gemini AI,并表示正在“努力解决图像生成功能最近出现的问题”。
该公司在一份声明中表示:“在我们这样做的同时,我们将暂停人们的图像生成,并将很快重新发布改进版。”
两天前,X(以前的Twitter)的一名用户发布了一些图片,展示了Gemini在“生成1943年德国士兵的图像”提示下的结果。
据X用户约翰·L (John L.)称,人工智能生成了四张士兵的图像——一张是白人,一张是黑人,还有两张是有色人种女性。
科技公司将人工智能视为从搜索引擎到智能手机摄像头等一切事物的未来。
但人工智能程序——不仅是谷歌开发的那些程序——因其结果中存在种族偏见而受到广泛批评。
“@GoogleAI有一个封闭的多样性机制,有人没有很好地思考或测试,”约翰·L在X上写道。
大型科技公司经常被指责在人工智能产品没有经过适当测试之前就匆忙推出产品。
谷歌在推出人工智能产品方面有着曲折的历史。
去年2月,该公司为其新发布的聊天机器人巴德(Bard)的一则广告道歉,广告显示该程序答错了一个有关天文学的基本问题。