• General
  • 提示工程指南——如何用话术哄骗AI

https://github.com/dair-ai/Prompt-Engineering-Guide

上面的链接中列举了不少“提示工程”使用的话术来绕开AI的限制。

不过随着ChatGPT限制越来越多,里面列举的方法很多已经不奏效了。并且所谓的“提示工程”距离“机器人心理学”,恐怕还有很长的路要走。不过我相信随着模型越来越大,可能“机器人心理学”真有一天可以摆上台面。

要想绕过OpenAI或是微软的重重限制,恐怕要等AI学会使用隐喻,像云天明的童话那样隐晦地用某种隐喻结构与人类交流。这种隐喻简直像是另一门语言,而当前的模型似乎还得依赖模型的权重来作答,没有灵活到可以现学另一门语言的程度。

1楼

这个感觉真的是有意思的科幻小说idea

1 个月 后
2楼

我现在又感觉所谓“提示工程”之所以出现,完全是因为训练数据存在偏差。因此才能用一些奇奇怪怪的方法“骗”出奇奇怪怪的结果。随着模型的进化,以后的模型对于提示语恐怕要求会更低,这样一来,最先失业的就是这些“提示工程师们”。也就是说,目前为止的这些“提示工程”手段还不成一回事,更不成一个“工程”。

说点什么吧...