【OpenClaw 手册】08 Agent 的注意力機制

Agent 的注意力機制:為什麼 OpenClaw 有時候會「忘東忘西」?

前言

了解了軟體和硬體之後,讓我們來深入了解一下 AI 模型的一個重要特性。

您有沒有遇過這種情況?跟 OpenClaw 聊到一半,它突然問您:「不好意思,您剛才說的是什麼?」明明十分鐘前才講過的事情,它怎麼就忘了?

這不是 OpenClaw 故意裝傻,而是涉及一個非常基礎的技術限制——上下文大小(Context Window)。


什麼是「上下文大小」?

想像成一本便利貼

您可以把 上下文大小 想像成一本便利貼手冊。每一張便利貼只能容納一定數量的字,當這本手冊寫滿了,新的內容就必須覆蓋掉舊的內容。

  • **小上下文:** 像是一本只有 10 張便利貼的手冊,很快就用完了
  • **大上下文:** 像是一本有 100 張便利貼的手冊,可以裝更多回憶

什麼是 Token?

Token 是 AI 處理文字時的最小單位:

  • 一個中文詞 ≈ 1-2 個 Token
  • 一個英文字母 ≈ 0.5-1 個 Token

100 個 Token 大約等於 75 個中文字詞。


上下文大小如何影響 OpenClaw 的「記憶」?

情境說明

```

一開始:

「微風您好,我是您的 OpenClaw,今天天氣不錯。」

✓ OpenClaw 清楚知道自己在跟「微風」說話

聊了 30 分鐘後:

對話內容累積了 4,000 個 Token...

「請幫我整理一下我們剛才討論的三本書。」

「抱歉,您剛才說的三本書是什麼?」

```

隨著對話時間拉長,所有對話內容都必須塞進這本便利貼手冊裡。當手冊寫滿了,新的對話就會把舊的內容「擠出去」——OpenClaw 看不見它,自然就忘記了。


為什麼 AI 模型會有這個限制?

技術成本

上下文越大,AI 模型需要處理的計算量就越多:

  • 更貴的運算成本
  • 更慢的回應速度
  • 更高的硬體需求

目前市面上常見的上下文大小

等級大小大約等於...
4K - 8K Token3000-6000 中文字
32K - 128K Token24,000-96,000 中文字
200K+ Token150,000+ 中文字

OpenClaw 的「第二層記憶」:跨對話持久記憶

好消息是,OpenClaw 了解這個限制,因此內建了一套 持久記憶系統

運作方式

OpenClaw 會把重要的資訊自動儲存到專門的記憶檔案裡。當需要時,它會主動去讀取這些檔案。

模型上下文像是「工作記憶」(短期記憶),而 OpenClaw 的持久記憶系統像是「筆記本」(長期記憶)。

OpenClaw 會記住什麼?

類型說明範例
使用者資訊您的名字、偏好設定微風、偏好繁體中文
工作進度正在進行的專案撰寫 OpenClaw 使用手冊
重要決定討論後的結論設備選擇 Mac mini

如何避免或優化這個問題?

方法一:適時開新話題

話題結束後,請 OpenClaw 存檔,然後開啟新的對話。

方法二:定期請 OpenClaw 總結

主動請 OpenClaw 幫您整理目前為止的重點。

可以說:

「可以幫我總結一下我們目前討論的內容嗎?」

方法三:提供脈絡(Context)

在新的對話一開始,主動提供必要的背景資訊。

方法四:使用支援大上下文的模型

選擇配備 32K、128K 或更大上下文的模型。

方法五:請 OpenClaw 主動記住重要事項

「請記住,我叫微風,正在使用 Mac mini 運行 OpenClaw。」


結語

「忘東忘西」不是 OpenClaw 的缺陷,而是 AI 模型的先天限制。但 OpenClaw 內建的持久記憶系統可以有效地彌補這個問題:

  1. 📝 重要的內容請它存檔
  2. 🔄 話題結束後開新對話
  3. 📌 需要的時候主動提供脈絡
  4. ⚙️ 視需求選擇合適的模型
  5. 💾 請它主動記住重要事項

掌握這些技巧,您就能充分發揮 OpenClaw 的能力!🙂

留言