30 天完稿衝刺計畫 — 僅剩 10 個名額。 立即申請 →
創作學院

研究資料整理

8 分鐘閱讀 T Tim
可用語言: 繁體中文 English Español العربية
系列文章: 書籍專案管理術 4 / 5

研究資料失控的三種方式

大多數寫作教學會告訴創作者:做好研究,細節才會準確。

沒有人告訴他們的是——研究資料本身會變成比寫作更大的問題。

一位歷史小說作者花了三週研究 1920 年代的上海。查到租界制度的沿革,查到黃包車的收費標準,查到外灘建築群的立面風格。三十幾個瀏覽器書籤、十五份 PDF、半本手寫筆記、散落在三個 App 裡的截圖。每一條資料都可能派上用場。

然後她坐下來寫。角色走進一間茶館,要付帳。她記得查過當時的物價——但那筆記在哪?Notion 裡?Google Docs?還是手機備忘錄?

二十分鐘後,她找到了。但寫作的節奏早就碎了。

這件事會一再發生。不是因為懶,是因為研究資料散居在五六個地方,彼此之間沒有連結,也沒有和寫作專案住在一起。查閱成本太高的時候,人會本能地選擇「先跳過」或「隨便猜一個」。然後忘記回來修正。

研究資料失控通常走三條路。

資訊淹沒。 什麼都可能有用,所以什麼都存。兩週後面對一堆沒有索引、沒有分類、混雜在一起的素材,需要某個細節的時候只記得「我讀過」,卻不知道它躺在哪個角落。

研究-寫作斷裂。 資料活在一個應用程式裡,草稿活在另一個。每次查證都要切換、搜尋、定位、再切回來。一個小時裡可能有二十分鐘花在切換上,而不是寫作上。這種碎片化的工作流程,殺死的不只是效率——是那個正在成形的句子。

來源追蹤失敗。 記下了「黃包車車資約兩毛錢」這個細節,卻沒記錄出處。三個月後編輯問起,腦袋一片空白。重新研究一遍?還是含糊帶過?兩個選項都很糟。

三種失控模式,一個共同根源:研究資料沒有和寫作專案住在同一個地方。

在 Slima 中建立研究系統

解法其實反直覺地簡單——把研究資料變成專案的一部分,而不是專案的附屬品。

在 Writing Studio 的 File Tree 裡,「研究資料」資料夾應該和「草稿」、「角色」、「世界觀」並排存在。不是放在別的工具裡再連結過來,不是另開一個 App 管理。直接住在專案裡。打開寫作環境的同時,研究資料就在旁邊。

資料夾結構要反映寫作時會問的問題,不是學術分類法:

研究資料/
├── 歷史背景/
│   ├── 1920年代上海概況.md
│   ├── 租界制度.md
│   └── 當時的貨幣與物價.md
├── 地點/
│   ├── 外灘.md
│   ├── 法租界.md
│   └── 城隍廟.md
├── 日常生活/
│   ├── 服飾與時尚.md
│   ├── 飲食文化.md
│   └── 交通工具.md
├── 人物原型/
│   ├── 當時的商人階層.md
│   └── 歌女與舞女.md
└── _來源索引.md

寫到角色走在外灘,腦袋冒出「這條路當時長什麼樣」的問題——去「地點/外灘.md」。寫到角色付車錢——去「日常生活/交通工具.md」。不用猜,不用翻找,路徑本身就是答案的地圖。

每份研究筆記也需要一致的結構。不是隨手貼一段原文就了事。四個區塊,每份都一樣:

摘要——一兩句話。讓自己三秒內判斷「這份筆記跟我現在要查的事有沒有關」。

關鍵細節——消化過的重點,不是整段複製貼上。原始資料可能五千字,這裡只留三百字的精華。

故事應用——這才是研究筆記區別於讀書筆記的地方。哪個角色會碰到這個細節?在第幾章?怎麼用?寫清楚。把抽象的研究拉回具體的寫作決策。

來源——書名、頁碼、網址、存取日期。三個月後編輯問起的時候,這四行字就是救命繩。

在 File Tree 的最上層建一個 _來源索引.md(底線讓它永遠排在第一位),集中記錄所有引用過的出處。查證的時候只需要開一個檔案,不用翻遍整個資料夾。

讓研究資料和寫作無縫接軌

查閱成本決定了行為。

成本高——跳過、猜測、事後忘記修正。成本低——順手確認、三秒搞定、繼續寫。研究系統的成敗就在這條線上。

分割視窗(Cmd+Ctrl+)是最直接的降低成本方式。左邊的草稿寫到「主角從黃包車上跳下來,丟了一把銅板」,右邊打開「交通工具.md」確認車資是否合理。不需要切換應用程式,不需要離開寫作環境。並排對照,確認完畢,繼續寫下一句。

Quick OpenCmd+P)更快。不用在 File Tree 裡層層點開資料夾——直接輸入「貨幣」,跳到物價相關筆記;輸入「外灘」,跳到地點描述。模糊搜尋,幾個字母就夠了。

但真正改變遊戲規則的是 AI Assistant。

按下 Cmd+Shift+A(Mac)或 Ctrl+Shift+A(Windows)開啟 AI Chat Panel,用自然語言問問題。不是問網路——是問「專案裡的研究資料」。

試試這個提示詞:

根據「研究資料」資料夾中的內容,回答這個問題:

1920 年代上海的高檔餐廳一頓飯大約多少錢?這個價格相當於普通工人幾天的工資?

請引用具體的來源筆記。

AI Assistant 會從已經審查過的研究筆記中找答案,不是丟一個可能有錯的維基百科數字給這邊。答案的可靠度取決於研究資料的品質——但至少來源是可追溯的。

另一個更實用的場景:寫作中遇到不確定的細節,先標記 [待研究:當時的電話費],保持寫作節奏不中斷。累積了一批之後,用這個提示詞一次清理:

請掃描「草稿」資料夾中所有包含「[待研究]」或「[TBD]」標記的地方。

整理成清單,標明:

  1. 在哪個檔案、哪一段
  2. 需要研究什麼內容
  3. 建議去哪份研究筆記找答案(如果已經有相關筆記)

寫作和研究不再是兩個分開的階段。標記、繼續寫、之後集中處理。流暢度和準確度可以同時要。

避免研究陷阱

研究有兩個陷阱,表面上看起來完全相反,但同樣致命。

第一個叫研究成癮

感覺很像在工作。打開資料、做筆記、比對來源——大腦會產生一種「正在推進專案」的錯覺。但字數沒有增加。故事沒有往前走。Umberto Eco 研究了兩年才開始寫《玫瑰的名字》,但他清楚知道什麼時候該收手。大部分人不知道。

簡單的判斷標準:能寫出場景的基本細節了嗎?能了,就開始寫。細節可以之後補。不確定的地方標記 [待研究],繼續往下。「邊寫邊研究」遠比「研究完再寫」高效——因為寫作本身會告訴需要什麼資訊,省去大量盲目蒐集。

第二個叫資訊傾倒

花了兩週研究貨幣制度,忍不住想把所有功課秀出來。於是讀者在故事中間撞上一段五百字的銀元鑄造史——完全打斷節奏。

讀者需要的是「他付了兩塊大洋」。不是「他付了兩塊大洋,這種銀元是清朝末年開始鑄造的,重量約為七錢二分,成色九成......」。

好的研究是隱形的。讀者覺得世界真實可信,但意識不到背後有多少功課。冰山理論——露出水面的只有八分之一,但正是水面下那七分之八撐住了一切。

還有一件事容易被忽略:研究告訴的是歷史上怎麼樣,但正在寫的是小說。如果某個史實妨礙了故事的情感走向,可以選擇調整。在研究筆記裡記下「故意偏離」的地方和理由——這樣清楚知道這是創意選擇,不是無知的錯誤。

離線研究的價值

Slima 是離線優先的。所有研究資料存在本地,不依賴任何雲端服務。

咖啡館的 Wi-Fi 斷了。火車進了隧道。飛機上沒有網路。這些情境下,依賴雲端的工作流程直接癱瘓。但專案裡的研究資料還在。打開 Writing Studio,左邊草稿,右邊筆記,繼續寫。

安全性也是。研究資料不會因為某個線上服務改變定價策略或直接倒閉就消失。那些花了幾週甚至幾個月整理的筆記,就在自己的電腦裡,受 Version Control 保護。每一次修改都有紀錄,隨時可以回溯到任何一個版本。


過去的作家用索引卡片和紙本資料夾管理研究。那套系統受限於物理空間,搜尋靠記憶,備份靠影印。

現在的工具不一樣了。研究資料和寫作專案住在同一個地方,打開就能查。AI Assistant 用自然語言搜尋筆記內容,不用自己翻找。Version Control 追蹤每一次變動,不怕誤刪也不怕改壞。

善用這些,研究會服務於寫作,而不是變成拖延寫作的藉口。

下一篇,我們來處理多視角敘事管理——故事有多個 POV 角色的時候,怎麼確保每個視角清晰、一致,而且各自有獨特的聲音。

相關文章

12 分鐘閱讀

十二萬字。一整年的心血。全部擠在同一個 Word 檔案裡。 那天下午,一位寫了八年長篇的朋友打電話來,語氣裡帶著一種介於崩潰和認命之間的疲憊。她剛剛誤刪了第十七章裡一段寫了三天的對話——Ctrl+Z 按到底,回不來了。備份?上週的。中間七天的修改,蒸發。 最諷刺的是,這不是什麼罕見災難。幾...

10 分鐘閱讀

為什麼 AI 的輸出傾向平庸?每一個語言模型都在做同一件事:預測下一個最可能出現的詞。 注意——是「最可能」,不是「最好」。 這個區別決定了一切。當模型面對「描述悲傷」的指令,它搜索訓練資料裡數百萬次出現過的悲傷描寫,然後取平均值。「淚水滑落臉龐」出現頻率最高,所以它跑出來了。「銀色月光灑...

8 分鐘閱讀

傳統工作流的三個斷裂點AI 寫作最大的謊言,不是「AI 不夠聰明」。是「AI 已經夠聰明了,所以什麼都能做」。 把 ChatGPT 當作寫作夥伴——這個想法聽起來合理。開一個對話視窗,貼一段稿子進去,問它:「這段對話自然嗎?」它回答了,回答得漂亮。再問:「幫我想三個結局走向。」它也給了,而且...