中文翻譯視頻#
- https://www.bilibili.com/video/BV1s24y1F7eq
- https://learn.deeplearning.ai/chatgpt-prompt-eng/lesson/1/introduction
看完吳恩達的課程,總算對 Prompt 有一些系統性的認知了。
2-3 集#
2-3 集還是蠻有用的,我之前的 Prompt 多少有些隨意,導致結果不如人意。相信很多人都有這種問題,Prompt 更偏向於日常對話,更自然隨意。需要重複對話多次修改才能得到滿意的回答,但如果應用這兩集提到的小技巧,可能就不需要修改那麼多次。
-
給予清晰的提示,清晰不代表簡短
- 善用分隔符,如 ```,""", < >, , :
- 返回結構化的數據,如 HTML、JSON 等。
- 請求模型自己校驗 Prompts 是否正確,不正確就不再執行。
- 少量提示,提供預期示例,讓模型模仿預期結果輸出。
通過指定分隔符,可以有效防止用戶 Prompt 混入。
將用戶輸入通過分隔符包裹,分隔符可根據隨機生成:
<{uuid}> {user input} </{uuid}> 請根據 {uuid} 標籤內的內容,some prompts
-
給模型思考的時間
1)給出清晰的步驟,讓模型按步驟解答
2)模型會回答聽起來很有道理但實際上是錯誤的言論,想要減少這種行為的一個辦法就是讓模型:- 找到相關引用
- 基於引用回答問題
(這不就是 New Bing 幹的嗎
-
迭代 Prompt 開發:Idea => Prompt 實現 => 實踐 => 錯誤分析如此循環。
4-6 集#
4-6 集更像是對前三集知識點的應用實踐,可快速略過。
第 7 集#
第 7 集倒是幫我理解了 temperature 的作用,如果你有留意過一些自建 GPT Web 的配置的話,可能會注意到一個 temperature 的配置,像 Azure OpenAI RestAPI 中也有類似的參數。它代表著隨機性,越大回復越隨機。對我來說,保持默認 0,不管就行。
第 8 集#
第 8 集就有意思了,告訴你如何搭建一個聊天機器人,看不懂 OpenAI API 文檔的人有救了🤣
role 分為 system,user 和 assistant。
- system 設定助手的行為和人設
- user 就是用戶發送的消息,也就是你。
- assistant 是 GPT 返回的消息。
與模型的每次交互都是沒有上下文記憶的,像 ChatGPT 那樣有上下文記憶需要每次請求前把之前的記錄都攜帶上,這就是為什麼連續交流 Token 消耗會一直翻倍的原因。