Что не так с ручным ресёрчем

Ручной мониторинг рынка — это не аналитика. Это ручной труд с высокой ценой.

Пока аналитик собирает данные из сотни источников, ситуация уже меняется. Пока структурирует — появляются новые данные. Пока пишет выводы — часть фактов устарела. К моменту когда отчёт готов, в нём нет ничего про последние две недели. Те самые две недели, которые он на него потратил.

Конкретно: три человека, восемь часов в день, две недели. Сотни человеко-часов на один отчёт. Это без правок, согласований и онбординга нового аналитика когда кто-то уходит.

Меня это не устраивало не потому что дорого — хотя и дорого. А потому что информация с двухнедельной задержкой в быстром рынке бесполезна. Это как читать прогноз погоды за прошлую неделю.

Почему «просто ChatGPT» не работает

Я пробовал. В 2023-м начал с того, что заставлял ChatGPT суммировать ссылки и писать обзоры. Работало нормально ровно до тех пор, пока задача была несложной: прочитай, сократи, перепиши.

Но у этого подхода жёсткие ограничения, которые не решаются лучшим промтом:

Нет памяти между сессиями. Каждый раз с нуля. Контекст недельного мониторинга в одно сообщение не влезает.

Нет автономности. Надо постоянно сидеть рядом и давать следующий шаг. Это всё ещё ты делаешь работу, только с помощью инструмента.

Нет источников. ChatGPT генерирует ответ из обучающих данных, но не мониторит 200 источников каждые 20 минут. Это принципиально разные задачи.

Нет координации. Один промт — одна задача. Для нормального ресёрча нужны десятки задач, связанных между собой с передачей данных.

Это инструмент для работника, а не автономная система. Разница примерно как между отвёрткой и станком с ЧПУ. Оба работают с металлом, но это разные классы инструментов.

Архитектура: восемь агентов

Система, которую я собрал за месяц, — это не один большой промт. Это восемь специализированных агентов, каждый со своей зоной ответственности.

Trend Radar

Глаза системы. Сканирует 200+ источников каждые 20 минут: новости, научные публикации, Reddit, LinkedIn, специализированные RSS-ленты. Фильтрует шум, выделяет сигналы, тегирует по категориям.

Infra Radar

Следит за AI-инфраструктурой. Новые модели, обновления API, изменения в ценообразовании от Anthropic, OpenAI, Google. Если вышла новая версия Claude или изменились лимиты — узнаю утром.

ELF Radar

Мониторинг конкурентов. Не по имени, а по паттернам активности: новые публикации, изменения на сайтах, сигналы о найме, активность в соцсетях.

Council

Совет из нескольких моделей. Когда нужно стратегическое решение — задача уходит параллельно в Claude Sonnet, Gemini и локальные модели через Ollama. Ответы сравниваются. Дороже, но для важных решений разница в качестве заметна.

Агент-контент

Берёт всё, что собрали Radar-агенты за сутки, и генерирует дайджест. С цитатами, ссылками на источники. Работает только с тем, что реально нашёл Trend Radar — поэтому галлюцинаций нет.

Care-система

Мониторинг самой системы. Проверяет что агенты живые, нет ошибок, память не переполнена. Если что-то сломалось — уведомление в Telegram.

Оркестратор всего — OpenClaw. Управляет агентами, памятью, расписанием задач. Основная рабочая лошадка — Claude Sonnet. Бесплатные задачи (суммаризация, форматирование) — Gemini Flash. Приватные вычисления без отправки данных в облако — Ollama на локальном железе.

Память — LCM (Lossless Context Management). Это не просто хранилище промтов. Умеет сжимать контекст без потери смысла — критично когда агенты работают 24/7 и накапливают историю месяцами.

Один день из жизни системы

В 07:00 агент-контент собирает дайджест. К этому моменту Trend Radar уже восемь часов работал с ночи — просканировал новости азиатских рынков, обновления GitHub, ранние публикации европейского времени.

Я открываю Telegram в 10:00. Там готовый дайджест. Не список ссылок — структурированный обзор: что произошло, откуда источник, почему это релевантно для моего контекста.

Вижу сигнал который требует глубокого анализа. Одна команда — Council запускает параллельный анализ. Через 15-20 минут у меня сравнение трёх точек зрения на один вопрос от разных моделей.

Это не заменяет мышление. Это убирает работу по сбору данных — ту часть, которая раньше занимала большую часть времени аналитика и не требовала никакой экспертизы.

Если care-система ночью зафиксировала сбой — тоже уведомление в Telegram. Обычно это агент упал из-за превышения лимитов API или проблемы с сетью. Починить занимает пять минут.

Экономика

600К₽ в месяц — три аналитика по 200К₽
~9К₽ в месяц — API система ($80–100)
20 мин вместо двух недель на отчёт
1 мес на сборку, параллельно с работой

Дисклеймер: зарплаты взяты усредненные по данным хх.ру

Антропик + Google AI — примерно $80-100 в месяц. Ollama на локальном железе — бесплатно. Это не значит, что аналитики не нужны. Это значит, что их время теперь стоит тратить на интерпретацию, а не на сбор.

Хороший аналитик с такой системой за один рабочий день делает то, на что раньше уходила неделя. И его работа при этом интереснее — он не копирует ссылки в таблицу, а думает над тем, что с ними делать.

Настоящая ценность — не в экономии денег, хотя разница очевидна. В том, что информация перестала устаревать. Дайджест — это сегодняшнее утро, а не две недели назад.

Что я бы сделал иначе

Собирал бы дольше. Месяц параллельно с основной работой — это очень сжато. Первые две недели система была нестабильной: агенты падали, память переполнялась, care-система сама нуждалась в мониторинге. Нужно было заложить полтора-два месяца.

Начал бы с меньшего числа источников. 200+ — это сейчас. На старте запустил бы 30-40 самых релевантных, отладил бы систему нормально, потом масштабировал. Я пытался охватить всё сразу и получил много шума в первых дайджестах.

Раньше занялся фильтрацией. Trend Radar умеет отделять сигнал от шума, но калибровка требует времени и данных. Первые недели дайджесты были перегружены нерелевантным контентом — я это недооценил.

Council — осторожнее с бюджетом. Параллельные запросы к нескольким моделям бьют по API-бюджету быстро. Сейчас Council включается только для действительно важных решений. На старте я запускал его слишком часто и за первую неделю потратил половину месячного бюджета.

Что в итоге

Систему я строил не чтобы заменить людей. Строил чтобы не тратить человеческое время на то, что машина делает лучше: мониторинг, агрегацию, форматирование, дедупликацию.

Если хочется попробовать — начните с одного агента. Не с восьми. Один Trend Radar, 30 источников, дайджест раз в день в Telegram. Это неделя работы и хорошее понимание того, стоит ли масштабировать.

Система работает. Не идеально — care-мониторинг периодически ловит сбои, которых без него я бы не заметил неделями. Но каждое утро в 10:00 дайджест уже там. Со ссылками, источниками и тем, что произошло пока я спал.

Для меня это изменило качество решений, а не только скорость их принятия.