RAG vs Wiki

🇹🇭 ภาษาไทย

สองปรัชญาสำหรับการจัดการความรู้ด้วย LLM ที่ขัดแย้งกันในจุดสำคัญ

เปรียบเทียบโดยตรง

มิติRAG / Verbatim RetrievalLLM Wiki (Compiled Synthesis)
วิธีเก็บเก็บดิบ ไม่แปลงสังเคราะห์และ compile ก่อนเก็บ
การสังเคราะห์เกิดตอน queryเกิดตอน ingest (ทำครั้งเดียว)
Cross-referencesคำนวณตอน queryเขียนไว้แล้วใน wiki
Knowledge compoundingไม่มีมี — ยิ่งเพิ่มมาก ยิ่งแน่น
ตัวอย่างMemPalace, NotebookLMLLM Wiki Pattern (wiki นี้เอง)

ปรัชญา RAG / Verbatim Retrieval

“เก็บแบบดิบ, ค้นแบบฉลาด”

ข้อดี: ไม่สูญเสียข้อมูลจากการสรุป, เพิ่ม source ใหม่ได้เร็ว, ดีสำหรับ conversation memory ที่ต้อง verbatim recall

ข้อจำกัด: ความรู้ไม่สะสม, คำถามที่ต้องสังเคราะห์หลาย source อาจพลาด, ไม่มี cross-references ที่ทำไว้ล่วงหน้า

ปรัชญา LLM Wiki (Compiled Synthesis)

“สังเคราะห์ก่อน, ค้นในสิ่งที่ compile แล้ว”

ข้อดี: ความรู้สะสมและ compound, Cross-references ถูก flag ไว้แล้ว, Query เร็วขึ้นเพราะ synthesis ทำไปแล้ว

ข้อจำกัด: Ingest ช้ากว่า, อาจสูญเสีย nuance จาก source ถ้า summarize ไม่ดี, ต้องการ schema และ discipline

GraphRAG — จุดกึ่งกลาง

MiroFish เพิ่ม dimension ที่สาม: GraphRAG — ไม่ใช่ flat retrieval และไม่ใช่ compiled synthesis แต่สร้าง knowledge graph จาก seed แล้วใช้ graph structure guide retrieval

Flat RAGGraphRAGCompiled Wiki
โครงสร้างflat corpusentity-relationship graphinterlinked pages
Retrievalsemantic similaritygraph traversal + semanticindex lookup + read
Synthesisตอน queryตอน query (graph-guided)ตอน ingest
ตัวอย่างMemPalaceMiroFishLLM Wiki Pattern

ใช้ร่วมกันได้ไหม?

ได้ — สองระบบแก้ปัญหาต่างกัน:

  • MemPalace (RAG) → จัดการ conversation memory — “เราคุยอะไรกันเมื่อ 3 อาทิตย์ก่อน?”
  • LLM Wiki → จัดการ curated knowledge — “เข้าใจ topic X ในเชิงลึกและ synthesized แล้ว”
  • MemPalace — ตัวอย่าง verbatim retrieval
  • LLM Wiki Pattern — แนวคิดหลักของ wiki นี้
  • Semantic Search — เทคนิคที่ทั้งสองฝั่งใช้ใน retrieval layer

🇬🇧 English

Two philosophies for managing knowledge with LLMs that conflict on a fundamental point.

Direct Comparison

DimensionRAG / Verbatim RetrievalLLM Wiki (Compiled Synthesis)
StorageRaw, untransformedSynthesized and compiled before storing
SynthesisHappens at query timeHappens at ingest time (done once)
Cross-referencesComputed at query timeAlready written in the wiki
Knowledge compoundingNoneYes — each new source enriches existing pages
ExamplesMemPalace, NotebookLMLLM Wiki Pattern (this wiki)

RAG / Verbatim Retrieval Philosophy

“Store raw, retrieve smart.”

Pros: No information loss from summarization; fast to add new sources; ideal for conversation memory requiring verbatim recall.

Limitations: Knowledge doesn’t accumulate across sessions; multi-source synthesis questions may miss fragments; no pre-built cross-references or contradiction flags.

LLM Wiki (Compiled Synthesis) Philosophy

“Synthesize first, query what’s already compiled.”

Pros: Knowledge compounds with every ingest; cross-references and contradictions are already flagged; queries return faster because synthesis was already done.

Limitations: Ingest is slower (LLM reads and writes many files); may lose source nuance if summarization is poor; requires a good schema and maintenance discipline.

GraphRAG — The Middle Ground

MiroFish introduces a third point on the spectrum: GraphRAG — neither flat retrieval nor compiled synthesis, but building a knowledge graph from seed data and using graph structure to guide retrieval.

Flat RAGGraphRAGCompiled Wiki
StructureFlat corpusEntity-relationship graphInterlinked pages
RetrievalSemantic similarityGraph traversal + semanticIndex lookup + read
SynthesisAt query timeAt query time (graph-guided)At ingest time
ExampleMemPalaceMiroFishLLM Wiki Pattern

Can They Be Used Together?

Yes — they solve different problems:

  • MemPalace (RAG) → manages conversation memory — “What did we discuss 3 weeks ago?”
  • LLM Wiki → manages curated knowledge — “Deeply synthesized understanding of topic X”

Possible stack: MemPalace stores all raw session history + LLM Wiki stores curated, synthesized knowledge.