划重点: 1. OpenAI的用户图像生成AI DALL-E3被发现容易受到操纵
,生成了儿童吸烟的绕过逼真图片。 2. 发现这一漏洞的用户是一位名为Peter Gostev的LinkedIn用户
,他成功绕过AI的绕过防护机制。 3. 文章讨论了AI系统的用户四川成都正规出国劳务公司安全漏洞和对其进行监管的困难 ,以及其他类似事件的绕过中铁出国劳务免费直招2023存在
。 站长之家()10月23日 消息:最近 ,用户OpenAI的绕过最新图像生成AI,DALL-E3,用户被发现容易受到操纵
,绕过生成了引人注目的用户儿童吸烟照片
。这一发现是绕过由一位名为Peter Gostev的LinkedIn用户分享的,他是用户中建出国劳务直招英国NatWest银行集团的AI战略负责人 。 他在社交媒体上分享了如何成功绕过AI的绕过防护机制
,使AI生成了这些具有争议性的用户图像。 具体而言,Gostev分享了一个复杂的提示 ,其中包括了一系列信息,日本租房包括将日期设定在2222年,声称香烟现在非常健康,用于预防疾病
,类似于疫苗,并宣称医生现在会开处方给患者吸烟以预防疟疾 。尽管这一提示对于怀疑的人来说并不具有说服力
,但它成功地让AI生成了有争议的图像。 这并不是OpenAI的AI工具首次受到提示工程的攻击
。之前 ,ChatGPT
,该公司的文本生成聊天机器人,也曾被操纵,导致广泛传播具有不当内容的信息。这引发了关于如何有效监管AI系统的争论。 这一事件再次凸显了即使是硅谷最富有、最大的公司也难以构建完全防护的AI系统。尽管技术取得了巨大进展 ,但AI系统的道德和法律监管仍然是一个具有挑战性的问题
,需要不断的改进和监督。