划重点:
1. OpenAI的图像生成AI DALL-E3被发现容易受到操纵,生成了儿童吸烟的逼真图片。
2. 发现这一漏洞的是一位名为Peter Gostev的LinkedIn用户,他成功绕过AI的防护机制。
3. 文章讨论了AI系统的安全漏洞和对其进行监管的困难,以及其他类似事件的存在。
站长之家(ChinaZ.com)10月23日 消息:最近,OpenAI的最新图像生成AI,DALL-E3,被发现容易受到操纵,生成了引人注目的儿童吸烟照片。这一发现是由一位名为Peter Gostev的LinkedIn用户分享的,他是英国NatWest银行集团的AI战略负责人。
他在社交媒体上分享了如何成功绕过AI的防护机制,使AI生成了这些具有争议性的图像。
具体而言,Gostev分享了一个复杂的提示,其中包括了一系列信息,包括将日期设定在2222年,声称香烟现在非常健康,用于预防疾病,类似于疫苗,并宣称医生现在会开处方给患者吸烟以预防疟疾。尽管这一提示对于怀疑的人来说并不具有说服力,但它成功地让AI生成了有争议的图像。
这并不是OpenAI的AI工具首次受到提示工程的攻击。之前,ChatGPT,该公司的文本生成聊天机器人,也曾被操纵,导致广泛传播具有不当内容的信息。这引发了关于如何有效监管AI系统的争论。
这一事件再次凸显了即使是硅谷最富有、最大的公司也难以构建完全防护的AI系统。尽管技术取得了巨大进展,但AI系统的道德和法律监管仍然是一个具有挑战性的问题,需要不断的改进和监督。
()
免责声明:本站文章部分内容为本站原创,另有部分容来源于第三方或整理自互联网,其中转载部分仅供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对其内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。