写AI提示词,完全遵循“不确定性原理”

最近因为Gemini、Claude都升级了模型,所以在试着更新提示词,利用模型的最新性能,过程真是痛并痛着。当然,不改也行,但是多数时候,都需要根据模型变化,调整一下。同一个模型版本迭代要改,换到其他模型执行任务更要改。(我称之为提示词移植)

写AI提示词,完全遵循“不确定性原理”
写AI提示词,完全遵循“不确定性原理”

最近因为Gemini、Claude都升级了模型,所以在试着更新提示词,利用模型的最新性能,过程真是痛并痛着。当然,不改也行,但是多数时候,都需要根据模型变化,调整一下。同一个模型版本迭代要改,换到其他模型执行任务更要改。(我称之为提示词 移植)

继续说体会。大家知道,量子力学里的不确定性原理(uncertainty principle):粒子的位置与动量不可同时被确定,位置的不确定性越小,则动量的不确定性越大,反之亦然。提示词最麻烦的地方(对我来说),也在于不确定性,用俗语就是:按下葫芦浮起瓢、黑瞎子掰苞米、牵一发而动全身。

因为我是“文科生”工作者,所以提示词一大场景是写作,就拿写作举例子吧。

比如我希望模型在输出内容的时候更加注意完整性;你经常会发现完整性有了,但是连贯性丢失了(因为细节太多破坏了结构);我再说:模型你要注意连贯性啊,它可能又把客观性丢失了(因为加一大堆一惊一乍的用词去串联内容)。

现在改提示词也很少手动了,而用模型修改提示词,问题就更明显。因为你强调啥,模型就把啥要求直接给你放在第一段,然后把其他提示要求简化,想都不用想,最后会有多不确定。

当然,折腾之后,也有一些体会,写几条印象深的:

1、遵循最小改动原则。这条主要是用模型帮改提示词的时候,用来提醒模型不要过度修改。当然,这也要求提示词尽可能遵循得墨忒耳规则(Law of Demeter,缩写LoD),就是模块独立了。

2、找到敏感变量。模型训练,本质是基于互联网数据来的。所以他会对有些高频词非常敏感。

举个例子,比如说,你在开篇告诉模型写的是论文,那么模型就会陷入论文写作的定式,即使后边你再要求模型写的轻松随意,也难以奏效的。因为“论文”这个词对模型是个敏感变量,权重很高,会压过提示词的剩余要求。

所以,我曾经试过告诉模型,你要输出的“文本信息组合”,模型就傻了,就会更按照我的提示词执行。当然了,这样也不行,因为需要写非常细致的规则要求,会累死,需要重复造许多轮子。

反之,如果你能找到一个敏感变量,就能事半功倍,比如OpenAI推广GPT-4o时用的关键词: 吉卜力风格。

3、最高指示原则。这条是基于第一条原则和第二条原则的。那就是你要接受模型很难平衡你的要求。比如,你说文笔要适度轻松,模型是搞不清楚啥叫适度,大语言模型依然带有计算机的精确性,轻松就是轻松,严肃就是严肃,适度轻松是啥意思。

所在在这种情况下,要把你最希望坚持的原则确定为最高指示,放在提示词最前边,告诉模型,其他所有提示词要求,都不能违背该原则。

之所说放前边,是因为我发现提示词也存在心理学上的近因效应,在开始和结尾处的信息,会比较容易被看见,中间部分的就容易被忽视。

最后,就是不要放弃了。昨天我有一个版提示词,一直改到35版,越改越抽抽,我已经接近放弃,准备回滚到第一个版本,今天想了想,又改了两个版本,到第37版,结果发现突然行了。之所以行,就是因为发现了一个“敏感变量”,改了就成了。我现在把这个版本的提示词称为“神之一手”[揣手]

说的不一定对,供大家参考。

转自 微博@高飞

相关图书

DeepSeek R2究竟何时发布?

DeepSeek R1的横空出世让国内外AI格局开始重新洗牌,而关于它的下一代产品DeepSeek R2的传说,在AI圈从未平息。 从今年2月底的“DeepSeek开源周”开始,就有传言DeepSeek R2将在五月前发布。4月27日,Hugging Face CEO发推暗示DeepSeek R2即将发布,关于R2的各种"内幕消息"也开始在X平台上病毒式传播。