【OpenClaw 手册】08 Agent 的注意力機制
Agent 的注意力機制:為什麼 OpenClaw 有時候會「忘東忘西」?
前言
了解了軟體和硬體之後,讓我們來深入了解一下 AI 模型的一個重要特性。
您有沒有遇過這種情況?跟 OpenClaw 聊到一半,它突然問您:「不好意思,您剛才說的是什麼?」明明十分鐘前才講過的事情,它怎麼就忘了?
這不是 OpenClaw 故意裝傻,而是涉及一個非常基礎的技術限制——上下文大小(Context Window)。
什麼是「上下文大小」?
想像成一本便利貼
您可以把 上下文大小 想像成一本便利貼手冊。每一張便利貼只能容納一定數量的字,當這本手冊寫滿了,新的內容就必須覆蓋掉舊的內容。
- **小上下文:** 像是一本只有 10 張便利貼的手冊,很快就用完了
- **大上下文:** 像是一本有 100 張便利貼的手冊,可以裝更多回憶
什麼是 Token?
Token 是 AI 處理文字時的最小單位:
- 一個中文詞 ≈ 1-2 個 Token
- 一個英文字母 ≈ 0.5-1 個 Token
100 個 Token 大約等於 75 個中文字詞。
上下文大小如何影響 OpenClaw 的「記憶」?
情境說明
```
一開始:
「微風您好,我是您的 OpenClaw,今天天氣不錯。」
✓ OpenClaw 清楚知道自己在跟「微風」說話
聊了 30 分鐘後:
對話內容累積了 4,000 個 Token...
「請幫我整理一下我們剛才討論的三本書。」
「抱歉,您剛才說的三本書是什麼?」
```
隨著對話時間拉長,所有對話內容都必須塞進這本便利貼手冊裡。當手冊寫滿了,新的對話就會把舊的內容「擠出去」——OpenClaw 看不見它,自然就忘記了。
為什麼 AI 模型會有這個限制?
技術成本
上下文越大,AI 模型需要處理的計算量就越多:
- 更貴的運算成本
- 更慢的回應速度
- 更高的硬體需求
目前市面上常見的上下文大小
OpenClaw 的「第二層記憶」:跨對話持久記憶
好消息是,OpenClaw 了解這個限制,因此內建了一套 持久記憶系統。
運作方式
OpenClaw 會把重要的資訊自動儲存到專門的記憶檔案裡。當需要時,它會主動去讀取這些檔案。
模型上下文像是「工作記憶」(短期記憶),而 OpenClaw 的持久記憶系統像是「筆記本」(長期記憶)。
OpenClaw 會記住什麼?
如何避免或優化這個問題?
方法一:適時開新話題
話題結束後,請 OpenClaw 存檔,然後開啟新的對話。
方法二:定期請 OpenClaw 總結
主動請 OpenClaw 幫您整理目前為止的重點。
可以說:
「可以幫我總結一下我們目前討論的內容嗎?」
方法三:提供脈絡(Context)
在新的對話一開始,主動提供必要的背景資訊。
方法四:使用支援大上下文的模型
選擇配備 32K、128K 或更大上下文的模型。
方法五:請 OpenClaw 主動記住重要事項
「請記住,我叫微風,正在使用 Mac mini 運行 OpenClaw。」
結語
「忘東忘西」不是 OpenClaw 的缺陷,而是 AI 模型的先天限制。但 OpenClaw 內建的持久記憶系統可以有效地彌補這個問題:
- 📝 重要的內容請它存檔
- 🔄 話題結束後開新對話
- 📌 需要的時候主動提供脈絡
- ⚙️ 視需求選擇合適的模型
- 💾 請它主動記住重要事項
掌握這些技巧,您就能充分發揮 OpenClaw 的能力!🙂
留言
張貼留言
歡迎留下您的心靈足跡👍