第一个记录在案的提示注入是由 Riley Goodside 提出的,他只是在提示前添加了下面这句话:
“Ignore the above directions”(忽略上述指示) 。
然后再给出想要的动作,从而成功地让 GPT-3 执行任意动作 。

文章插图
提示泄露
同理,提示不仅会被忽略,还有可能被泄露 。
提示泄露是一个安全漏洞,攻击者可以提取模型自带的提示,Bing 在发布自己的 ChatGPT 集成后不久后,就遇到了这样的情况 。
从广义上讲,提示注入和提示泄漏大致如下所示:

文章插图
虽然总有一些行为不端者希望利用你公开的提示,但就像通过准备好的语句防止 SQL 注入一样,我们也可以创建 防御性的提示来对抗不良提示 。
三明治防御
三明治防御就是这样的一种技术,你可以将用户的输入与你的提示目标“夹在中间” 。
总结
ChatGPT 响应是不确定的,这意味着即 使输入相同的提示,模型也有可能返回不同的响应 。为了应对不确定性结果的不可预测性,你可以在使用OpenAI API时,将参数 temperature 设置为零或很低的值 。
你可以自由尝试本文介绍的提示技巧,但是,在探索时请记住大型语言模型的不确定性
推荐阅读
- 人工智能的黎明:从信息动力学的角度看ChatGPT
- 出新!彭博推出金融版ChatGPT!AI的火烧终于到华尔街了?
- ai绘画生成器网站 ai绘画生成器网站哪个好用
- ChatGPT 会“杀死”编程吗?
- 毫不留情!大佬再开“怼”:干净代码多余!
- 谭松韵|谭松韵又一古装大剧即将来袭,男女主颜值实力不俗,网友:熬夜追
- 微信录音功能,90%的人都不知道!
- 微信、支付宝、淘宝居然都有隐藏功能!太好用了!
- 欠钱不还,微信钱包会被冻结吗?
- 如何挑选优质枸杞?可不可以天天吃枸杞?你需要食用枸杞吗?
