发布时间:2025-05-22 点此:1178次
IT之家 3 月 7 日音讯,据 CNBC 报导,一位微软工程师向美国联邦交易委员会 (FTC) 告发该公司的人工智能图片生成器 Copilot Designer 存在安全隐患。
这位名叫 Shane Jones 的工程师在微软工作了六年,他致信 FTC 称,虽然他重复正告 Copilot Designer 可能会生成有害图画,但微软却“回绝”下架该东西。
在测验 Copilot Designer 的安全问题和缺点时,Jones 发现该东西会生成“与堕胎权术语相关的恶魔和怪物、手持突击步枪的青少年、暴力场景中性化的女人图画以及未成年人喝酒和吸毒”等内容。
据报导,自上一年 12 月以来,Jones 一向企图正告微软有关 Copilot Designer 运用的模型 DALLE-3 的问题。他在领英上发布了一封公开信,随后微软的法令团队联络他要求删去帖子,他照做了。
“曩昔三个月里,我重复敦促微软将 Copilot Designer 从公共运用中移除,直到更好的保证办法到位,”Jones 称,“但是,他们再次未能施行这些改动,并持续将该产品推销给‘任何人、任何地方、任何设备’。”
微软发言人 Frank Shaw 在给 The Verge 的一份声明中表明,公司“致力于依照微软的方针处理职工提出的任何和一切顾忌”。Shaw 还表明,微软为绕过安全办法或可能对咱们的服务或合作伙伴发生潜在影响的问题建立了产品内用户反应东西和强壮的内部陈述途径,以便正确查询、优先处理和纠正任何问题,并主张 Jones 使用这些途径,以便微软可以“恰当验证和测验他的忧虑”。
Shaw 还表明,微软“已与产品领导层和咱们的负责任人工智能办公室举办会议,以检查这些陈述。”
本年 1 月,在 Copilot Designer 生成并敏捷传达的 Swift 的显露图片事情后,Jones 就向美国参议员小组写信表达了他的忧虑。微软首席执行官萨特亚・纳德拉 (Satya Nadella) 称这些图片“令人震惊和可怕”,并表明公司将尽力增加更多安全保证办法。IT之家注意到,上个月,谷歌在其用户发现其 AI 图片生成器创立种族多元化的纳粹和其他前史不精确图画后暂时禁用了该东西。
上一篇:实时AI,最难躺平的战场
相关推荐