Articles

Нейросети как команда

Под капотом: как солопренёр заменяет целую компанию

На проектах по аналитике рынка труда я классический солопренёр (solo - один, entrepreneur - предприниматель). Это новый вид занятости, когда ты в одиночку делаешь работу, которую раньше могла выполнять небольшая компания, обложившись нейросетями и правильными инструментами. Хочу рассказать, как выстроена моя работа изнутри и чем я пользуюсь для достижения результатов.

Основной фундамент: инструменты организации знаний

Obsidian — главный рабочий инструмент хранения и обработки информации. У него большой порог входа, мне несколько дней пришлось въезжать просто в то, как тут работать, хотя в базе это маркдаун-заметочник — супер простой формат, который может читать любое устройство. Его прелесть в том, что ты можешь настроить любой воркфлоу под себя с помощью плагинов, которые разрабатывает комьюнити.

Наибольшую ценность от этого инструмента ощущаешь благодаря возможности перелинковки заметок. Их можно вручную устанавливать, визуально отображать на графе связей, делать канвасы (проекты по типу майндкарт). Можно проводить семантический анализ текста нейросетями и искать сходство в других заметках. Можно использовать математические и логические алгоритмы, когда программа на основе информации "Заметка А связана с заметкой Б, и заметка Б связана с заметкой В, тогда вероятно заметка А связана с заметкой В". На основе всего этого могут родиться инсайты и неочевидные связи, которые ты потом анализируешь.

Notion использую для "сбора" отчётов как инструмент all in one. Ему можно скармливать практически любой тип файлов, выстраивая последовательную структуру текста и итоговой презентации. Я считаю, что PDF потихоньку уходят на второй план — будущее за таким форматом, который даёт Notion: ты можешь на лету сделать клиенту КП, отправить его и при необходимости что-то поменять в процессе переговоров, не плодя версии файлов.

Экосистема нейросетей: каждой задаче — свой инструмент

Нейросети сейчас серьёзно развиваются, и каждую неделю выходит что-то новое. Мой текущий арсенал выглядит так:

Базовые модели для аналитики:
  • Claude Sonnet 3.7 — основная база. Это умная модель, на мой взгляд, лучше других понимающая бизнес-контекст и более клиентоориентированная. Особенно нравится, когда по итогам генерации модель предлагает навскидку 3 варианта возможного продолжения беседы — это подкидывает массу неочевидных идей.
  • Для глубоких задач, требующих внутренних рассуждений, использую Reasoning версию Claude. Такие версии есть у большинства популярных моделей — они показывают, как "думает" модель перед тем, как ответить пользователю.
  • Gemini Flash 2.0 для обработки больших объемов информации — у неё огромное контекстное окно, и она может обрабатывать целые книги или исследования. Правда, у неё есть особенность — она иногда теряет информацию из середины контекста, что заметно при генерации кода.

Для программирования:
  • O1 mini от OpenAI для генерации кода, например, для парсинга вакансий. Она выдаёт целый работающий код, который можно сразу копировать и тестировать.
  • Это называется Vibe программирование — когда без глубоких навыков программирования, с начальным пониманием того, как это должно работать, я могу собрать приложение или скрипт за несколько итераций. Это открывает новые горизонты: задачи иногда возникают нестандартные, и я бы тратил уйму средств на разработчиков, чтобы проверить идею, которая понадобится всего раз.

Для визуализации:
  • Картинки я перестал генерировать нейросетями — у меня развилась "точечная слепота" на сгенерированный контент. Однако если возникает необходимость, использую Dall-e от OpenAI — она хоть и хуже Midjourney, но дешевле, доступна по API и решает базовые задачи.
  • Для диаграмм и майнд-карт я использую Claude Sonnet 3.7 с форматом вывода в mermaid диаграммах, а затем собираю их в Miro.

Для исследований:
  • Когда нужно найти информацию или возможные связи в научных работах, использую набор: Perplexity, Consensus, Elixit, You, Deepseek.
  • У каждого есть преимущества и недостатки. Например, Deepseek часто подгоняет ответ под искомый результат, даже если в реальности таких данных нет (как в случае с исследованием влияния текучести на эффективность нематериальной мотивации). Perplexity, на мой взгляд, честнее признает, когда данных просто нет.

RAG-система: собственный помощник на основе личных данных

У меня есть своя RAG-система (Retrieval-Augmented Generation), основанная на собственной базе знаний. Она решает задачу генерации информации на основе только моих файлов, заметок и мыслей, а не общедоступных данных из интернета.

Важно понимать, что это не просто поисковый инструмент. RAG работает эффективно тогда, когда нужно найти информацию в разных местах разных документов и на её основе создать что-то новое. Процесс разделяется на два этапа:

  1. Кластеризация информации — использую векторное представление, когда текст режется на чанки и эти чанки выстраиваются в структуру Embedding. Для этого применяю BGE-M3 — мультиязычную модель, которая хорошо работает с русским языком.
  2. Итоговая генерация — в зависимости от сложности задачи использую Sonnet 3.7 для серьезных вещей или 4o OpenAI/Gemini Flash 2.0 для более простых.

RAG-систему я строю на Msty — он позволяет подключать различные источники и инструменты. Можно делать ветки диалогов (полезно, когда надо понять, галлюцинирует ли модель) или ветки с разными нейросетями, когда нужно выбрать ту, которая лучше подходит под задачу.

Я применяю RAG для разных целей: можно прикрутить чат-бот на внутренние данные по компании, чтобы пользователь общался с ЛНА, например. Но чаще всего я использую эту технологию для генерации ответов на основе пачки исследований по рынку труда.

Промт-инжиниринг: магия постановки задач

Нейросети — это инструмент, которым нужно уметь пользоваться. Ключевую роль играет промт-инжиниринг: что спросишь на входе, то и получишь на выходе. В своей работе я не беру чужие промты, лишь подсматриваю идеи. Свои пишу сам. Да, иногда это простыня текста, но так экономишь время на последующие итерации. Не верю, что существует какой-то универсальный промт, подходящий под все задачи.

Полезные лайфхаки по промтам, которые я применяю:

  1. Ролевая модель: "Действуй как [коммерческий директор/копирайтер/учёный]". Это позволяет нейросети найти в огромном массиве информации именно ту, которая подходит под нужный контекст. Она начинает ориентироваться на статьи по коммерции, копирайтингу или научные работы.
  2. Пошаговый подход: "Действуй пошагово и задавай вопросы, если тебе не хватает контекста". У меня задачи почти всегда сложные, поэтому сразу сгенерированный ответ редко бывает подходящим. Когда нейросети не хватает информации, она задаёт уточняющие вопросы, что помогает сформировать более качественный ответ.
  3. Самопроверка: "Проверь сам себя". Добавляет инструмент критика к задаче. Перед выдачей ответа нейросеть анализирует свою работу. Это уже реализовано в Reasoning-моделях, но если используете более простую модель — это рабочий приём.
  4. Чёткая постановка задачи: "Твоя задача [сформулировать ответ/дать таблицу/нарисовать диаграмму]". Это позволяет модели понять, какой именно результат от неё ожидается. Можно также дать несколько примеров желаемого результата (техника few-shot).
  5. Переформулирование задачи: "Сначала скажи, как ты понял задачу пользователя, потом приступай к генерации". Это помогает убедиться, что вы с моделью на одной волне, особенно когда задача сформулирована неоднозначно.
  6. Реверсивный промтинг: "Напиши возможные вопросы для дальнейшего раскрытия темы". Нечто похожее реализовано в выдаче Google, когда он подсказывает дополнительные вопросы по теме, и очень часто это оказывается полезным.

Полезно при написании промта представлять, что ты ставишь задачу новенькому зелёному сотруднику, которому надо разжевать все детали. Да, это требует времени, но переделывать потом ещё дольше.

Философия и ограничения

При такой работе важно помнить: за итоговый результат отвечаешь только ты сам. Конечное звено всегда — человек.

Необходимо учитывать множество ограничений. Например, нельзя вырвать любую информацию из интернета ввиду её огромного разнообразия. В своей работе по аналитике рынка труда почти всю входную информацию я регулирую сам, так как модель может быть просто не натренирована на узкоспециализированных данных. Я использую Источники аналитики рынка труда, которые отобраны вручную. Нейросети просто помогают трансформировать эту информацию, выполняя скорее черновую работу.

С задачей написать "под ключ" кабинетное исследование модели, на текущий момент, не справятся. Я верю в развитие ИИ-агентов, копилотов — вспомогательных нейросетей, которые не забирают весь процесс работы на себя, а делают его эффективнее.

Заключение

Такой подход к работе позволяет мне в одиночку справляться с объемом задач, для которого раньше требовалась команда специалистов. Конечно, солопренёрство с использованием нейросетей — это не замена полноценной компании для всех типов задач, но для многих проектов в аналитике рынка труда это оказывается не только возможным, но и более эффективным решением.

Правильно подобранные инструменты, отлаженные процессы обработки информации и умение взаимодействовать с нейросетями помогают мне доставлять клиентам качественный результат, не уступающий работе консалтинговых компаний.