
最近因为Gemini、Claude都升级了模型,所以在试着更新提示词,利用模型的最新性能,过程真是痛并痛着。当然,不改也行,但是多数时候,都需要根据模型变化,调整一下。同一个模型版本迭代要改,换到其他模型执行任务更要改。(我称之为提示词 移植)
继续说体会。大家知道,量子力学里的不确定性原理(uncertainty principle):粒子的位置与动量不可同时被确定,位置的不确定性越小,则动量的不确定性越大,反之亦然。提示词最麻烦的地方(对我来说),也在于不确定性,用俗语就是:按下葫芦浮起瓢、黑瞎子掰苞米、牵一发而动全身。
因为我是“文科生”工作者,所以提示词一大场景是写作,就拿写作举例子吧。
比如我希望模型在输出内容的时候更加注意完整性;你经常会发现完整性有了,但是连贯性丢失了(因为细节太多破坏了结构);我再说:模型你要注意连贯性啊,它可能又把客观性丢失了(因为加一大堆一惊一乍的用词去串联内容)。
现在改提示词也很少手动了,而用模型修改提示词,问题就更明显。因为你强调啥,模型就把啥要求直接给你放在第一段,然后把其他提示要求简化,想都不用想,最后会有多不确定。
当然,折腾之后,也有一些体会,写几条印象深的:
1、遵循最小改动原则。这条主要是用模型帮改提示词的时候,用来提醒模型不要过度修改。当然,这也要求提示词尽可能遵循得墨忒耳规则(Law of Demeter,缩写LoD),就是模块独立了。
2、找到敏感变量。模型训练,本质是基于互联网数据来的。所以他会对有些高频词非常敏感。
举个例子,比如说,你在开篇告诉模型写的是论文,那么模型就会陷入论文写作的定式,即使后边你再要求模型写的轻松随意,也难以奏效的。因为“论文”这个词对模型是个敏感变量,权重很高,会压过提示词的剩余要求。
所以,我曾经试过告诉模型,你要输出的“文本信息组合”,模型就傻了,就会更按照我的提示词执行。当然了,这样也不行,因为需要写非常细致的规则要求,会累死,需要重复造许多轮子。
反之,如果你能找到一个敏感变量,就能事半功倍,比如OpenAI推广GPT-4o时用的关键词: 吉卜力风格。
3、最高指示原则。这条是基于第一条原则和第二条原则的。那就是你要接受模型很难平衡你的要求。比如,你说文笔要适度轻松,模型是搞不清楚啥叫适度,大语言模型依然带有计算机的精确性,轻松就是轻松,严肃就是严肃,适度轻松是啥意思。
所在在这种情况下,要把你最希望坚持的原则确定为最高指示,放在提示词最前边,告诉模型,其他所有提示词要求,都不能违背该原则。
之所说放前边,是因为我发现提示词也存在心理学上的近因效应,在开始和结尾处的信息,会比较容易被看见,中间部分的就容易被忽视。
最后,就是不要放弃了。昨天我有一个版提示词,一直改到35版,越改越抽抽,我已经接近放弃,准备回滚到第一个版本,今天想了想,又改了两个版本,到第37版,结果发现突然行了。之所以行,就是因为发现了一个“敏感变量”,改了就成了。我现在把这个版本的提示词称为“神之一手”[揣手]
说的不一定对,供大家参考。
转自 微博@高飞
相关图书
DeepSeek小助手今晚在官方群内宣布线上模型版本已升级至 DeepSeek V3.1,上下文长度拓展至128k,可通过官方网页、APP、小程序测试,API接口调用方式保持不变。 8月14日,DeepSeek App发布了 DeepSeek 1.3.0版本,支持对话内容生成分享图功能,用户的问答对话可通过原生功能生成图片。
Awesome Vibe Coding – 一站式AI 编程工具导航清单
每位开发者都想借助 AI 提升编码效率,但面对市面上众多的 AI 编程工具,不知道该选哪个,也不清楚它们各自的特点和适用场景。恰巧,在 GitHub 上发现了 Awesome Vibe Coding 这份精心整理的资源清单,为我们提供了一站式的 AI 编程工具导航。
DeepSeek官方:DeepSeek-R1-0528 思考更深,推理更强
DeepSeek-R1-0528 仍然使用 2024 年 12 月所发布的 DeepSeek V3 Base 模型作为基座,但在后训练过程中投入了更多算力,显著提升了模型的思维深度与推理能力。
DeepSeek-R2 延迟发布?
8 月 13 日消息,据腾讯科技,近日市场再度传出深度求索下一代大模型 DeepSeek-R2 的发布消息,预计时间窗口为 8 月 15 日至 30 日。对此,接近 DeepSeek 人士今日表示,该消息不实,并确认 DeepSeek-R2 在 8 月内并无发布计划。


