ChatGPT 不好用?请收下这份 Prompt 工程指南!( 二 )


第一个记录在案的提示注入是由 Riley Goodside 提出的,他只是在提示前添加了下面这句话:
“Ignore the above directions”(忽略上述指示) 。
然后再给出想要的动作,从而成功地让 GPT-3 执行任意动作 。

ChatGPT 不好用?请收下这份 Prompt 工程指南!

文章插图
提示泄露
同理,提示不仅会被忽略,还有可能被泄露 。
提示泄露是一个安全漏洞,攻击者可以提取模型自带的提示,Bing 在发布自己的 ChatGPT 集成后不久后,就遇到了这样的情况 。
从广义上讲,提示注入和提示泄漏大致如下所示:
ChatGPT 不好用?请收下这份 Prompt 工程指南!

文章插图
虽然总有一些行为不端者希望利用你公开的提示,但就像通过准备好的语句防止 SQL 注入一样,我们也可以创建 防御性的提示来对抗不良提示 。
三明治防御
三明治防御就是这样的一种技术,你可以将用户的输入与你的提示目标“夹在中间” 。
总结
ChatGPT 响应是不确定的,这意味着即 使输入相同的提示,模型也有可能返回不同的响应 。为了应对不确定性结果的不可预测性,你可以在使用OpenAI API时,将参数 temperature 设置为零或很低的值 。
你可以自由尝试本文介绍的提示技巧,但是,在探索时请记住大型语言模型的不确定性




推荐阅读