RAG vs Wiki
🇹🇭 ภาษาไทย
สองปรัชญาสำหรับการจัดการความรู้ด้วย LLM ที่ขัดแย้งกันในจุดสำคัญ
เปรียบเทียบโดยตรง
| มิติ | RAG / Verbatim Retrieval | LLM Wiki (Compiled Synthesis) |
|---|---|---|
| วิธีเก็บ | เก็บดิบ ไม่แปลง | สังเคราะห์และ compile ก่อนเก็บ |
| การสังเคราะห์ | เกิดตอน query | เกิดตอน ingest (ทำครั้งเดียว) |
| Cross-references | คำนวณตอน query | เขียนไว้แล้วใน wiki |
| Knowledge compounding | ไม่มี | มี — ยิ่งเพิ่มมาก ยิ่งแน่น |
| ตัวอย่าง | MemPalace, NotebookLM | LLM Wiki Pattern (wiki นี้เอง) |
ปรัชญา RAG / Verbatim Retrieval
“เก็บแบบดิบ, ค้นแบบฉลาด”
ข้อดี: ไม่สูญเสียข้อมูลจากการสรุป, เพิ่ม source ใหม่ได้เร็ว, ดีสำหรับ conversation memory ที่ต้อง verbatim recall
ข้อจำกัด: ความรู้ไม่สะสม, คำถามที่ต้องสังเคราะห์หลาย source อาจพลาด, ไม่มี cross-references ที่ทำไว้ล่วงหน้า
ปรัชญา LLM Wiki (Compiled Synthesis)
“สังเคราะห์ก่อน, ค้นในสิ่งที่ compile แล้ว”
ข้อดี: ความรู้สะสมและ compound, Cross-references ถูก flag ไว้แล้ว, Query เร็วขึ้นเพราะ synthesis ทำไปแล้ว
ข้อจำกัด: Ingest ช้ากว่า, อาจสูญเสีย nuance จาก source ถ้า summarize ไม่ดี, ต้องการ schema และ discipline
GraphRAG — จุดกึ่งกลาง
MiroFish เพิ่ม dimension ที่สาม: GraphRAG — ไม่ใช่ flat retrieval และไม่ใช่ compiled synthesis แต่สร้าง knowledge graph จาก seed แล้วใช้ graph structure guide retrieval
| Flat RAG | GraphRAG | Compiled Wiki | |
|---|---|---|---|
| โครงสร้าง | flat corpus | entity-relationship graph | interlinked pages |
| Retrieval | semantic similarity | graph traversal + semantic | index lookup + read |
| Synthesis | ตอน query | ตอน query (graph-guided) | ตอน ingest |
| ตัวอย่าง | MemPalace | MiroFish | LLM Wiki Pattern |
ใช้ร่วมกันได้ไหม?
ได้ — สองระบบแก้ปัญหาต่างกัน:
- MemPalace (RAG) → จัดการ conversation memory — “เราคุยอะไรกันเมื่อ 3 อาทิตย์ก่อน?”
- LLM Wiki → จัดการ curated knowledge — “เข้าใจ topic X ในเชิงลึกและ synthesized แล้ว”
Related
- MemPalace — ตัวอย่าง verbatim retrieval
- LLM Wiki Pattern — แนวคิดหลักของ wiki นี้
- Semantic Search — เทคนิคที่ทั้งสองฝั่งใช้ใน retrieval layer
🇬🇧 English
Two philosophies for managing knowledge with LLMs that conflict on a fundamental point.
Direct Comparison
| Dimension | RAG / Verbatim Retrieval | LLM Wiki (Compiled Synthesis) |
|---|---|---|
| Storage | Raw, untransformed | Synthesized and compiled before storing |
| Synthesis | Happens at query time | Happens at ingest time (done once) |
| Cross-references | Computed at query time | Already written in the wiki |
| Knowledge compounding | None | Yes — each new source enriches existing pages |
| Examples | MemPalace, NotebookLM | LLM Wiki Pattern (this wiki) |
RAG / Verbatim Retrieval Philosophy
“Store raw, retrieve smart.”
Pros: No information loss from summarization; fast to add new sources; ideal for conversation memory requiring verbatim recall.
Limitations: Knowledge doesn’t accumulate across sessions; multi-source synthesis questions may miss fragments; no pre-built cross-references or contradiction flags.
LLM Wiki (Compiled Synthesis) Philosophy
“Synthesize first, query what’s already compiled.”
Pros: Knowledge compounds with every ingest; cross-references and contradictions are already flagged; queries return faster because synthesis was already done.
Limitations: Ingest is slower (LLM reads and writes many files); may lose source nuance if summarization is poor; requires a good schema and maintenance discipline.
GraphRAG — The Middle Ground
MiroFish introduces a third point on the spectrum: GraphRAG — neither flat retrieval nor compiled synthesis, but building a knowledge graph from seed data and using graph structure to guide retrieval.
| Flat RAG | GraphRAG | Compiled Wiki | |
|---|---|---|---|
| Structure | Flat corpus | Entity-relationship graph | Interlinked pages |
| Retrieval | Semantic similarity | Graph traversal + semantic | Index lookup + read |
| Synthesis | At query time | At query time (graph-guided) | At ingest time |
| Example | MemPalace | MiroFish | LLM Wiki Pattern |
Can They Be Used Together?
Yes — they solve different problems:
- MemPalace (RAG) → manages conversation memory — “What did we discuss 3 weeks ago?”
- LLM Wiki → manages curated knowledge — “Deeply synthesized understanding of topic X”
Possible stack: MemPalace stores all raw session history + LLM Wiki stores curated, synthesized knowledge.