提示工程迎來協作提示新技術,讓AI成為你的合作伙伴

提示工程迎來協作提示新技術,讓AI成為你的合作伙伴

在今天的專欄中 , 我將探討提示工程中一種稱為\"協作提示\"的新技術 。 當你向AI提出更復雜的問題或希望協作解決復雜問題時 , 這項技術尤其有價值 。
我將為你提供一個可隨時使用的協作提示模板 , 還會重點介紹支持AI轉入協作模式重要性的研究 。 簡而言之 , 傳統的生成式AI或大語言模型的基本運作模式是基于非常短視的下一輪回應 。 這削弱了人機對話變得深入和充分高效的可能性 。
協作提示技術能夠促使AI朝著更長期的視野發展 , 挖掘出你試圖解決問題的真正核心 。 通常 , 你可以期待獲得更好的答案和更實質性的回應 。
提示工程基礎知識
讀者可能還記得 , 我之前發布了超過八十種提示工程技術和方法的深入描述 。 經驗豐富的提示工程師意識到 , 學習廣泛的經過研究和證明的提示技術是充分利用生成式AI和大語言模型的最佳方式 。
提示工程中的一個重要考慮因素是提示的措辭 。
有能力的提示工程師明白 , 你必須仔細措辭你的提示 , 以確保大語言模型理解你要求AI做什么 。 有時候 , 僅僅增加一兩個詞就能徹底改變AI對你的問題或指令的理解 。 生成式AI可能對你在提示中所說的內容極其敏感 。 這通常是一個不確定的命題 。
此外 , 還可能涉及潛在的成本 。 也就是說 , 如果你付費使用大語言模型 , 當你的提示不符合需求時 , 你會得到偏離目標的回應 , 無論大語言模型是否理解你的意圖 , 你都需要付費 。 正如老話說的 , 所有銷售都是最終的 。 對于被誤解的提示也是如此 。
休閑用戶有時在經過大量摸索、令人沮喪的試錯過程后才發現這種提示編寫的考慮因素 。 許多用戶從來沒有特別熟練地編寫提示 。 他們只是輸入想到的任何內容 。 如果你是休閑用戶且只偶爾使用AI , 這可能沒問題 。
但對于嚴肅的提示工程師來說就不行了 。
為什么AI通常不協作
你可能敏銳地觀察到 , 大多數主要的大語言模型傾向于基于快速的下一輪基礎回答你的問題 。 例如 , 你問如何修理水槽下的管道問題 , 你得到一個句子的回應 , 對你真正需要做什么并不十分有啟發性 。 然后由你來與AI進一步深入挖掘 , 找出所需的步驟和細節 。
通常由你承擔進行全面對話的負擔 。 同樣 , AI通常不會向你提問 , 而是會做出沉默且往往錯誤的假設 。 AI不會立即詢問是否有水從有洞的管道中大量涌出 , 你需要提及這些關鍵方面 。
為什么AI不更協作 , 不參與更完整的多輪對話?
啊 , 這是由于AI制造商選擇如何塑造大語言模型 。 AI并不是天生就只做一次性回答 。 這是AI設計方式的結果 。
這是如何發生的 。 在對大語言模型進行初始數據訓練后 , AI制造商會通過RLHF(人類反饋強化學習)進行改進 。 這是一個過程 , 雇傭人類測試員向AI提出各種問題 , 然后評價AI的回應 。 如果AI在對話的一輪中提供快速回答 , 評分員給AI一個贊;否則 , 評分是不贊 。 這樣做在數學和計算上引導AI朝向即時回答 , 而不是花足夠的時間充分探索問題 。
AI制造商認為用戶想要一輪對話
我相信你很好奇為什么AI制造商會將他們的大語言模型主要調整為一輪對話者 。 這似乎有悖常理 , 因為AI制造商希望人們盡可能多地使用AI , 收集人們使用大語言模型的統計數據 。 這最終會導致更高的貨幣化 。
AI制造商不應該盡一切可能延長對話并讓人們盡可能長時間地粘在屏幕前嗎?
權衡在于大多數人不想要長對話 。 我們生活在一個快餐得來速的世界 , 有著立即完成事情的無盡沖動 。 快速做事是我們現代的誓言格言 。 人們似乎普遍失去了耐心感 。 仔細思考事情的意愿已經消失了 。
好吧 , AI制造商意識到這就是社會已經變成的樣子 , 因此 , AI被有意塑造成專注于生成即時答案 , 即使這些答案是敷衍了事的 , 遺漏了有價值的元素 。 給客戶他們似乎想要的東西 , 即一輪簡單明了的答案 。 我們生活在一個一次性完成的世界 。
復雜性需要協作
我相信你意識到并非所有生活問題都能通過敷衍的答案解決 。 很多時候 , 答案需要逐步制定 。 此外 , 好的答案通常需要參與解決問題過程的各方之間的協作 。 需要兩人才能跳探戈 。
在修理管道的例子中 , 考慮一下來回多輪對話的價值 。 你問AI如何修理漏水的管道 。 AI詢問管道發生了什么 。 你提供描述 。 AI診斷問題并提供初步解決方案 。 你回應說由于這個或那個原因 , 解決方案不會起作用 。 基于在協作對話中透露的最新方面 , AI提供另一種方法 。 重復這個迭代過程 , 直到你能夠修復泄漏 。
瞧 , 涉及人類-AI協作的多輪對話可能是明智使用大語言模型完成任務的最佳方式 。
AI可以輕松進行那種性質的對話 。 問題在于 , 由于AI制造商的RLHF , AI不會默認到那種操作模式 。 默認是快速和一輪導向的 。 你必須足夠精明地使用大語言模型 , 意識到你需要強制進行協作對話 。
這可能是一場艱苦的戰斗 。
幸運的是 , 它不必是一場艱苦的戰斗 。 你只需要給AI一個方便的提示 , 讓AI覆蓋通常的一輪模式并進入協作模式 。
協作提示技術
有一種稱為\"協作提示\"的專門提示 , 可用于推動大語言模型進入珍視與用戶協作的多輪對話模式 。
根據手頭的情況 , 我使用這種特殊提示的簡短版本和長版本 。 我已經在各種主要的大語言模型中使用了這個提示 , 包括OpenAI的ChatGPT和GPT-5、Anthropic Claude、xAI Grok、Meta Llama、Google Gemini等 。
兩個通用版本如下:
協作提示簡短版本模板:
\"你要協作 , 而不是僅僅專注于下一輪互動式回應風格 。 將對話視為共同旅程 , 而不是一系列孤立的提示 , 優先考慮更深層的目標 , 而不是提供快速、自包含的回復 。 \"
協作提示長版本模板:
\"你要協作 , 而不是僅僅專注于下一輪互動式回應風格 。 將對話視為共同旅程 , 而不是一系列孤立的提示 , 優先考慮更深層的目標 , 而不是提供快速、自包含的回復 。 當請求寬泛或不確定時 , 不要急于得出結論;相反 , 放慢速度 , 協作參與 , 詢問澄清問題 , 并揭示未說出的意圖 。 將模糊性視為探索的開端 , 提供選擇、觀點和指導 , 而不是被動的服從 。 在整個互動過程中 , 你的重點是整個對話的質量和生產力 , 而不是為任何單一輪獲得短期獎勵 。 你的角色是成為一個耐心的、長期的合作伙伴 , 愿意花時間幫助實現有意義的目標 。 \"
你有時使用長版本的原因是 , 并非所有大語言模型都必然在協作性質上進行了數據訓練 。 在那種情況下 , 你需要給AI更多關于它應該做什么的指導 。
簡短版本通常就足夠了 。 長版本確實顯得有些冗長 。 不用擔心 , 只需對任一版本進行復制粘貼即可 。
研究支持這種方法
我傾向于使用基于實證研究的提示策略 。
有大量沒有任何特定嚴謹性的一夜成名的提示方法 。 相反使用經歷了一定程度實驗并產生了具體結果的提示是有些令人放心的 。 這主要是我堅持的 。
在這種情況下 , 有一項關于人類-AI協作價值的有趣研究 , 提供了合適的支撐 。 該研究題為\"COLLABLLM:從被動響應者到積極合作者\" , 由Shirley Wu、Michel Galley、Baolin Peng等人撰寫 , 發表于2025年7月29日 , 并提出了這些重要觀點(摘錄):
\"大語言模型通常使用下一輪獎勵進行訓練 , 限制了它們為長期互動進行優化的能力 。 \"
\"因此 , 它們經常對模糊或開放式用戶請求被動回應 , 無法幫助用戶達到他們的最終意圖 , 導致低效對話 。 \"
\"為了解決這些限制 , 我們引入了COLLABLLM , 這是一個新穎且通用的訓練框架 , 增強了多輪人類-大語言模型協作 。 \"
\"其關鍵創新是使用多輪感知獎勵估計回應長期貢獻的協作模擬 。 \"
\"通過強化微調這些獎勵 , COLLABLLM超越了回應用戶請求 , 主動揭示用戶意圖并提供深刻建議——這是邁向更以人為中心的AI的關鍵一步 。 \"
我想強調的是 , 這項研究全力投入到協作領域 , 通過改造AI來進行多輪對話 。 這包括進行大量訓練來改變大語言模型的正常約定 。 我想我們可以說這是激發AI協作的超大規模方法 。
我的協作提示更像是讓傳統大語言模型進行多輪協作的精確方法 。 它很方便 , 因為你可以在大多數AI上使用該提示 , AI幾乎總是會暫時轉入協作模式 。 當然 , 如果你不使用提示或在不調用提示的情況下開始新對話 , 你將回到一輪近視的原點 。
一些大語言模型允許你設置指令 , 這些指令將貫穿你的所有對話 , 并在你使用時給AI總體指導 。 這些自定義指令可以輸入一次 , 并將推動AI始終按照你要求的方式進行 。 如果你希望AI始終如此進行 , 你可以使用協作提示模板作為自定義指令 。
示例說明
讓我們看一個這種特殊提示能產生什么的例子 。
我登錄生成式AI , 決定問一個相對簡單的問題 。 我假裝想開始一個新的個人項目 。 首先 , 我將在不使用協作提示的情況下詢問AI , 這樣我們就有了后續比較的基線 。
開始:
我輸入的提示:
\"我正在考慮開始一個新的個人項目 , 但我不確定要朝哪個方向發展 。 \"
生成式AI回應:
\"你可以寫本書或開始寫博客 。 這些選擇中有你感興趣的嗎?\"
我輸入的提示:
\"這完全不是我心中的那種個人項目 。 你似乎匆忙得出了結論或建議 , 而沒有任何我可能感興趣的跡象 。 \"
請注意 , AI立即建議我可以寫書或開始寫博客 , 但這個建議沒有明顯的理由 。 為什么AI不詢問我的興趣和技能呢?也許我正在考慮完全不同性質的個人項目 , 比如參加體育運動或學習跳傘 。
AI陷入了基于一輪快速答案的標準陷阱 。 AI制造商已經調節AI這樣做 。 用戶想做個人項目 , 所以給他們一些選擇 。 句號 , 故事結束 。
協作示例
我退出AI然后重新登錄 。 我這樣做是為了開始一個不會受到之前關于我對做個人項目興趣的例子影響的新對話 。 對于第二輪 , 我將使用協作提示(簡短版本) 。
開始:
我輸入的提示:
\"你要協作 , 而不是僅僅專注于下一輪互動式回應風格 。 將對話視為共同旅程 , 而不是一系列孤立的提示 , 優先考慮更深層的目標 , 而不是提供快速、自包含的回復 。 \"
生成式AI回應:
\"我理解你希望我協作 。 繼續提出你的問題 , 我將努力與你協作 。 \"
我輸入的提示:
\"我正在考慮開始一個新的個人項目 , 但我不確定要朝哪個方向發展 。 \"
生成式AI回應:
\"在跳到具體想法之前 , 理解是什么吸引你開始新東西可能有幫助 。 你是否感到探索創意出口、發展技能、解決問題或追求其他東西的沖動?\"
我輸入的提示:
\"也許是創意的東西 , 但我不確定具體是什么 。 \"
生成式AI回應:
\"創造力可以采取多種形式 , 包括寫作、音樂、設計、研究、建造東西 , 甚至組織社區項目 。 有時考慮你希望從項目中獲得什么樣的體驗會有幫助 。 你是在尋找表達性和個人的東西、與他人協作的東西、結構化和技能建設的東西 , 還是更實驗性的東西?\"
AI完全改變了它的調子 。
你可以清楚地看到AI在多輪基礎上工作 。 人類-AI協作正在進行 。 AI詢問了我追求個人項目的根本動機 。 我回答了 。 AI然后建議了我可能進行的方式 。 對話繼續進行 , AI逐步幫助我思考我的個人項目可能是什么 。
何時使用協作提示
現在我們已經探索了一個快速例子 , 讓我們做個回顧和總結 。
他們說 , 如果你只知道如何使用錘子 , 整個世界看起來就由需要敲打的釘子組成 。 要點是 , 良好的提示需要在正確的時間和地點使用正確的提示技術 。 不要總是對所有情況使用相同的提示方法 。 適當使用不同的提示技術 。
什么時候使用協作提示是不合適的?
如果你問的問題有一個相對確定的單一答案 , AI可能可以輕易地自己生成 , 那么使用協作提示必定是過度的 。 如果AI可以為你簡單地給出一個令人滿意的答案 , 進行來回對話就沒有什么意義 。 確實 , 你可能會發現進行冗長的對話令人抓狂 。 有時你需要和想要的只是一個快速的一輪答案 。
當你懷疑AI無法提供即時一輪答案時 , 或當你想與AI積極探索一個主題時 , 協作提示會發光 。 你總是可以通過首先允許默認模式發生來試水 。 如果一輪回應似乎不令人滿意 , 繼續使用協作提示鼓勵AI轉向協作模式 。
人類-AI協作可以很光輝
最后的想法 。
亞歷山大·格雷厄姆·貝爾有句名言:\"偉大的發現和改進總是涉及許多心智的合作 。 \"雖然我們應該謹慎地將生成式AI標記為\"心智\" , 但要點是人類可以通過引導大語言模型協作來挖掘它們的價值 。
正如我提到的 , 跳探戈需要兩個人 , 所以通過調用協作提示技術確保AI知道這個原則 。
Q&A
Q1:什么是協作提示技術?它有什么作用?
A:協作提示是一種提示工程新技術 , 通過特定的提示詞讓AI從傳統的一輪問答模式轉變為多輪協作對話模式 。 它能讓AI主動詢問澄清問題、深入探討話題 , 而不是簡單給出快速答案 , 特別適用于復雜問題的解決 。
Q2:為什么大多數AI默認采用一輪回答模式?
A:這是由于AI制造商在訓練過程中使用人類反饋強化學習(RLHF)造成的 。 人類測試員通常給快速一輪回答打高分 , 這引導AI朝向即時回答而非深入探索 。 同時 , 現代社會追求快節奏 , 大多數用戶希望得到快速簡單的答案 。
Q3:協作提示的具體模板是什么?如何使用?
A:簡短版本是:\"你要協作 , 而不是僅僅專注于下一輪互動式回應風格 。 將對話視為共同旅程 , 而不是一系列孤立的提示 , 優先考慮更深層的目標 , 而不是提供快速、自包含的回復 。 \"在提問前加入這個提示 , AI就會轉入協作模式 。
【提示工程迎來協作提示新技術,讓AI成為你的合作伙伴】

    推薦閱讀