在上一篇中,我將過去三年的 AI 使用紀錄定義為三個地層:知識沉積 (AIQA)、實戰指令流 (CLI Log) 以及 協作軌跡 (MQA Notes)。
今天,我要分享的是「工具實作篇」。為了寫這本書,我不能只靠印象,我需要數據。以下是我指揮 AI 協助我開發的三款數位挖掘器。
方法一:AIQA 歷史回測 (Markdown Mining) —— 錨定心智演進
這是我最核心的「知識礦床」。我多年來習慣將與 AI 的深度對話手動整理成 Markdown 筆記(AIQA),存放在 ChatGPT-QA 資料夾中。
挖掘實作:自動化時間軸定錨 (generate_timeline_index.py)
這不只是搜尋關鍵字,而是將幾百個非結構化的筆記轉換為可分析的 時間序列資料:
- 日期提取:利用 Regex 從檔名(如
20230321_Refactor.md)中萃取精確日期,若檔名無日期則回溯檔案系統的時間標記。 - 概念標註:定義一組
concept_mapping_rules.json(關鍵字映射規則),自動識別該筆記觸及了哪些核心觀點(如C-08 架構先行)。 - 量化行為:統計 Q&A 對話輪數與內容密度,量化當時對特定問題的鑽研深度。
成果:成功建立了橫跨三年的「賦能時間軸」,清楚顯示了我的發問重心如何從「工具語法」轉移到「設計哲學」。
方法二:Gemini CLI 雜訊清洗 (JSON Mining) —— 找回失落的指令流
這是實戰數據最密集、也最難挖掘的部分。在使用 Gemini CLI 工具時,大部份的對話並不像 AIQA 那樣被手動記錄,而是以 JSON 格式碎裂地留在系統暫存區。
挖掘實作:Checkpoint 與 Log 脫殼 (process_gemini_prompts.py)
我指揮 AI 撰寫了針對 ~/.gemini/tmp 的挖掘腳本,實施「低侵入性考古」:
- Session 還原:遍歷數千個編碼目錄,辨識出
checkpoint-*.json(狀態快照) 與logs.json(執行紀錄)。 - 任務分類:從檔名(如
checkpoint-1216_walkgis.json)提取 Task Name,區分出「Coding」、「Search」或「GIS 處理」等真實任務場景。 - 隱私清洗:在量化指令長度與頻率的同時,嚴格濾除 API Key 與個人敏感資訊,僅保留統計特徵。
成果:這就是文前提到「8,000 條指令」的真實出處。這項挖掘直接證明了我如何透過 CLI 工具在 2024 年下半年達到了產量的爆發。
方法三:MQA 協作筆記追蹤 (Note Metadata Mining) —— 量化人機共生
這是最靠近「現在」的地層。在 Antigravity 時代,我習慣將對話與結果直接以 MQA 格式(M::備註, Q::提問, A::回答)存成專案筆記(如 note_250828.md)。
挖掘實作:全專案掃描與特徵匹配 (process_antigravity_notes.py)
這不再侷限於單一目錄,而是對整個開發目錄進行「數位足跡掃描」:
- 語法校準:掃描所有 .md 檔案,透過「Q:: / A::」這個特定簽名,區分出哪些是「原生文件」,哪些是「人機協作紀錄」。
- 其他的分析方法,視寫作的需要再繼續進行
成果:這項挖掘讓我看清了「賦能」的最終型態——AI 已經不再是外部工具,而是直接融入了專案的檔案結構中,成為產出的緩衝層與加速器。這部分的考古目前仍有後續,我也將隨著撰寫書本的需要,持續深入進行挖掘與分析。
數據,是方法論的燃料
透過這三款 Python 挖掘器,我開始將「印象中的進步」轉化為「可檢索、可驗證的軌跡」。
這場數位考古不僅為我的書提供了實證資料,更讓我重新認識了自己與 AI 磨合的每一個轉折點。如果你也感覺自己被 AI 賦能了,不妨也試著挖掘一下你的 Log——那裡藏著你可能連自己都不知道的成長秘密。
AI 協作宣告:本文由作者口述核心挖掘方法,由 AI Agent (Antigravity) 協助進行技術細節的描述與文章結構優化。文中提到的 Python 腳本與實作邏輯皆為作者與 AI 的真實協作產出。