banner
loongphy

loongphy

所有苦难皆成过往,我们甘福将至
twitter

ChatGPT 開發者的提示工程筆記

中文翻譯視頻#

看完吳恩達的課程,總算對 Prompt 有一些系統性的認知了。

2-3 集#

2-3 集還是蠻有用的,我之前的 Prompt 多少有些隨意,導致結果不如人意。相信很多人都有這種問題,Prompt 更偏向於日常對話,更自然隨意。需要重複對話多次修改才能得到滿意的回答,但如果應用這兩集提到的小技巧,可能就不需要修改那麼多次。

  1. 給予清晰的提示,清晰不代表簡短

    • 善用分隔符,如 ```,""", < >, , :
    • 返回結構化的數據,如 HTML、JSON 等。
    • 請求模型自己校驗 Prompts 是否正確,不正確就不再執行。
    • 少量提示,提供預期示例,讓模型模仿預期結果輸出。

    通過指定分隔符,可以有效防止用戶 Prompt 混入。

    將用戶輸入通過分隔符包裹,分隔符可根據隨機生成:

    <{uuid}> {user input} </{uuid}>
    請根據 {uuid} 標籤內的內容,some prompts
    
  2. 給模型思考的時間
    1)給出清晰的步驟,讓模型按步驟解答
    2)模型會回答聽起來很有道理但實際上是錯誤的言論,想要減少這種行為的一個辦法就是讓模型:

    • 找到相關引用
    • 基於引用回答問題

    (這不就是 New Bing 幹的嗎

  3. 迭代 Prompt 開發:Idea => Prompt 實現 => 實踐 => 錯誤分析如此循環。

4-6 集#

4-6 集更像是對前三集知識點的應用實踐,可快速略過。

第 7 集#

第 7 集倒是幫我理解了 temperature 的作用,如果你有留意過一些自建 GPT Web 的配置的話,可能會注意到一個 temperature 的配置,像 Azure OpenAI RestAPI 中也有類似的參數。它代表著隨機性,越大回復越隨機。對我來說,保持默認 0,不管就行。

第 8 集#

第 8 集就有意思了,告訴你如何搭建一個聊天機器人,看不懂 OpenAI API 文檔的人有救了🤣
role 分為 system,user 和 assistant。

  • system 設定助手的行為和人設
  • user 就是用戶發送的消息,也就是你。
  • assistant 是 GPT 返回的消息。

與模型的每次交互都是沒有上下文記憶的,像 ChatGPT 那樣有上下文記憶需要每次請求前把之前的記錄都攜帶上,這就是為什麼連續交流 Token 消耗會一直翻倍的原因。

參考#

載入中......
此文章數據所有權由區塊鏈加密技術和智能合約保障僅歸創作者所有。