Второй мозг на LLM-вики: альтернатива RAG для личных знаний
Классический RAG — не единственный способ строить личную базу знаний. Разбираем идею Андрея Карпати: LLM как библиотекарь, который сам поддерживает тематическую вики из ваших заметок. Когда это работает лучше RAG, как устроена структура и что делать, когда подход ломается.
СреднийКонтент30 минObsidian, Claude, Markdown
1
RAG для личных знаний — чемодан без дна
Вы прочитали десять статей про context engineering. Скинули тезисы в Obsidian. Через месяц появился вопрос: «что я читал про cache warming?». Классический RAG проходит по всем заметкам, находит три фрагмента, LLM синтезирует ответ. Работает. Но каждый раз он делает ту же самую работу с нуля.
Есть другой путь — Карпати описал его, разбирая свою личную базу знаний. Вместо «хранить сырые заметки, а LLM заново их читает» — «LLM сам структурирует заметки в вики, и при следующем вопросе достаточно открыть готовую страницу». Это переворачивает направление: не поиск по большому, а аккуратная курация маленького.
🔍 Классический RAG
- Сырые заметки + векторный поиск
- Синтез ответа на каждом вопросе заново
- Знания не накапливаются — переспрос стоит так же
📚 LLM-вики
- LLM поддерживает тематические страницы
- Ответ уже написан — вы просто читаете
- Каждая новая заметка делает вики умнее
Попробуйте сначала на одной теме — той, которую давно читаете и часто вспоминаете. Через неделю сравните, быстрее ли стало находить нужную мысль и в каком виде она теперь приходит — как поиск или как готовая страница.
2
LLM — библиотекарь, а не читатель
В обычной RAG-схеме LLM — это читатель в библиотеке: вы задаёте вопрос, он бежит к полкам, хватает пачку книг, ищет нужную страницу, переписывает своими словами. Каждый вопрос — новая экспедиция. Задали тот же вопрос неделю назад? Процедура повторяется полностью.
LLM-вики переворачивает роль: LLM становится библиотекарем. Когда вы добавляете новую заметку, он решает, куда её положить, какие страницы обновить, какие перекрёстные ссылки поставить. Когда вам нужен ответ, вы просто открываете нужную страницу и читаете. Никакого поиска, никакого синтеза в момент вопроса.
Почему это работает? Курирование — разовая работа. Чтение готового — многоразовая. RAG делает наоборот: чтение каждый раз стоит одинаково, потому что синтез запускается заново. Если ваши заметки переживают вас — wiki окупается кратно.
Ключевой сдвиг в голове: вики — это не «дамп всего, что вы читали». Это «то, что LLM понял из вашего дампа и собрал в учебник». Сырые заметки остаются как архив, но работаете вы уже с курированным слоем.
Не пытайтесь заменить Obsidian или Notion этой системой. Вики живёт рядом с сырыми заметками: вы пишете в свободном формате, а LLM поддерживает структурированный слой поверх — без ломки вашей привычной работы.
3
Три уровня — index, темы, заметки
Вики должна иметь три уровня, не больше. Index-файл — оглавление всех тем с одной строкой про каждую, только эту часть вы держите руками. Темы — файлы на каждую область интереса (context-engineering.md, agents.md, rag.md), которые LLM обновляет за вас. Заметки — сырые фрагменты, цитаты, выписки, всё, что вы просто скинули.
В отличие от RAG, заметки не векторизуются и не ищутся на запросе. LLM использует их только в момент обновления соответствующей тематической страницы. Всё чтение идёт через темы и индекс.
Важно: структура выбирается под ваш стиль мышления. Думаете проектами — темы это проекты. Думаете концептами — темы это концепты. Нет правильного ответа, есть только последовательный.
index.md
оглавление тем — держите руками
topics/*.md
тематические страницы — LLM поддерживает
notes/YYYY-MM-DD-*.md
сырые заметки — архив, не рабочий слой
Держите index-файл руками. Это единственная часть системы, куда LLM не лезет — она ваша карта. Если LLM начнёт его перестраивать под себя, вы потеряете точку входа и перестанете различать темы в голове.
4
Главная команда: «я добавил заметку, обнови вики»
Вся система держится на одной команде: «я добавил заметку X, обнови связанные страницы». LLM читает заметку, находит релевантные тематические файлы, решает, куда её вплести — новая секция, расширение старой, отдельная сноска — и обновляет нужные страницы. Параллельно проверяет, не противоречит ли новая мысль уже записанному.
Именно это ловля противоречий делает вики ценным. Когда LLM замечает «раньше ты писал, что RAG — для динамического контекста, а здесь говоришь, что wiki лучше, как это согласуется?» — вы сами становитесь внимательнее. Это не баг, а фича: заметки больше не накапливаются как кипа бумаги, они постоянно интегрируются в живое понимание.
Новая заметка
LLM читает
Находит темы
Обновляет страницы
Ловит противоречия
Вики умнее
команда: "я добавил notes/2026-04-10-context.md, обнови вики"
LLM:
1. читает новую заметку
2. находит темы: context-engineering.md, rag.md
3. обновляет обе страницы: новая секция или расширение
4. добавляет cross-links между темами
5. отмечает противоречия, если есть
6. обновляет index.md, если появилась новая темаНе давайте LLM автоматически переписывать сами заметки — только обновлять тематические файлы. Заметки должны остаться такими, какими вы их набросали, иначе вы потеряете исходный контекст и не сможете проверить, правильно ли LLM их понял.
5
Когда wiki проигрывает — и нужен RAG
Вики не универсален. Есть три ситуации, когда он проиграет классическому RAG — и важно видеть их заранее.
Первая: данных много и они часто меняются. Миллион документов с ежедневным апдейтом — wiki не успевает поддерживать структуру, LLM сжигает контекст на итерациях. Вторая: вопросы непредсказуемы и прыгают по произвольным углам. Тематические страницы бесполезны, когда нужно «найди упоминание X где угодно». Третья: важна аудируемость — нужны конкретные цитаты со ссылками, а wiki синтезирует, а не цитирует.
Личная база знаний почти никогда не попадает в эти категории: данных мало, темы стабильны, источники не критичны. Но стоит проверить флаги, прежде чем переводить всю систему.
Wiki или RAG — что выбрать?
Стабильные темы, растущее личное понимание
Небольшой объём (сотни заметок, не миллионы)
Вы возвращаетесь к одним и тем же вопросам
Миллион документов с ежедневным приростом
Нужны точные цитаты со ссылками на источники
Вопросы произвольны и не группируются по темам
Гибрид работает лучше всего: wiki для того, что вы хотите понимать, RAG для того, что нужно просто найти. В Obsidian это совмещается естественно — тематические файлы в верхнем слое, плагин поиска по заметкам во втором.
Результат
Живая личная вики, которую LLM поддерживает вместе с вами: три уровня (index + темы + сырые заметки), обновление одной командой, ловля противоречий при каждом добавлении. Место, где знания не копятся слоем пыли, а собираются в книгу, которую вы же и перечитываете.