
AI Meeting Manager
Превратите каждую встречу в живую и searchable память вашей команды
Available now
Meeting intelligence без черного ящика
AIMM - это не просто транскрибация. Это AI pipeline для памяти команды.
Приложение берет аудио или видео встречи и проводит его через управляемые этапы: конвертацию, локальную транскрибацию, семантическую очистку, minutes, summary, поиск и management-плагины. На выходе не простыня текста, а структурированные знания, которые можно проверить, переиспользовать и автоматизировать.
Для пользователей
Меньше заметок, больше присутствия
Запишите встречу, запустите pipeline и вернитесь к чистому транскрипту, читаемым minutes и контексту, готовому для summary.
Для команд
Встречи становятся базой знаний
Решения, риски, вопросы и задачи перестают жить только в памяти. Они становятся артефактами, которые можно искать, проверять и связывать.
Для покупателей
Платформа, а не закрытое приложение
Платная версия может расти через плагины: LLM-провайдеры, management extraction, поиск, интеграции, управление промптами и автоматизация.
Как работает pipeline
AIMM создает ощущение AI-магии за счет понятной инженерии. У каждого этапа есть задача, у каждого плагина есть границы, а каждый полезный результат становится артефактом.
Этап 01
Convert
Приложение готовит аудио и видео к надежной AI-обработке до того, как данные попадут в модель.
- Нормализует media в стабильный внутренний аудиоформат
- Сохраняет timing и метаданные источника для отслеживаемости
- Использует runtime-инструменты, включенные в release package
Этап 02
Transcribe
Локальная Whisper-транскрибация превращает речь в текст и сохраняет приватность процесса по умолчанию.
- Free installer включает Whisper Tiny для быстрого первого запуска
- Более сильные Whisper-модели можно скачать прямо в мастере установки
- Есть auto-detect языка и явный language mode для надежных запусков
Этап 03
Understand
Text processing и LLM-плагины превращают сырой транскрипт в полезные знания о встрече.
- Semantic blocks помогают быстро читать длинные обсуждения
- Minutes extraction находит решения, задачи, риски и вопросы
- Локальные или облачные LLM-плагины дают более сильные summary
Включено в free release
Сильный локальный стартовый набор
Бесплатная сборка дает ценность без долгой настройки: локально транскрибировать, очистить текст, извлечь структуру и попробовать локальные summary.
Whisper Advanced Local Transcription
Приватный speech-to-text, который работает сразу.
Запускает whisper.cpp локально и поставляется с Whisper Tiny для быстрого первого теста. Более сильные модели можно скачать в installer, когда важнее точность.
Semantic Refiner
Превращает сырой транскрипт в смысловые блоки.
Очищает шум транскрипции, группирует разговор в semantic blocks и извлекает важные keywords, чтобы пользователь быстрее понял встречу.
Minutes Heuristic v2
Находит практическую структуру разговора.
Создает structured minutes с решениями, задачами, проектами, вопросами и рисками. Это первый слой порядка до тяжелой LLM-обработки.
Llama.cpp Local LLM
Локальные summary без отправки встреч наружу.
Использует llama.cpp и локальные GGUF-модели для генерации summary. Installer может заранее скачать стартовые Qwen-модели, чтобы первый серьезный запуск не выглядел зависшим.
Платная версия и plugin-платформа
Коммерческая ценность раскрывается через экосистему плагинов
AIMM спроектирован так, чтобы продвинутые возможности поставлялись как плагины. Покупатель может начать с бесплатного local core, а затем добавить поиск, management, облачные LLM, интеграции и автоматизацию.
Local LLM
Ollama LLM
Подключает Ollama runtime для команд, которые уже управляют локальными моделями и хотят гибкие offline-summary.
Для приватных команд, которым нужен выбор моделей без cloud calls.
Cloud LLM
OpenRouter Gateway
Одна интеграция для множества cloud-моделей: можно выбирать скорость, стоимость или качество под тип встречи.
Для покупателей, которым нужна премиальная модель без привязки к одному провайдеру.
Cloud LLM
DeepSeek LLM
Добавляет DeepSeek-модели для экономичных summary и более сильного reasoning на сложных аналитических встречах.
Для длинных технических, юридических и стратегических обсуждений.
Cloud LLM
Z.ai
Еще один LLM-маршрут для команд, которым нужны сильные multilingual summary и long-context обработка.
Для мультиязычных команд и больших стратегических сессий.
Management
Unified Management
Извлекает кандидаты в задачи, проекты, повестки и follow-up без бесконтрольного автосоздания мусора.
Для команд, которым нужны AI-suggestions с человеческим подтверждением.
Search
Smart Semantic Search
Находит фрагменты встреч по смыслу, а не только по точным словам, и может отвечать с привязкой к источникам.
Для превращения архива встреч в рабочий слой памяти.
Search
Simple Search
Быстрый полнотекстовый поиск по артефактам встреч, когда пользователь знает точные термины.
Для мгновенного поиска по транскриптам и summary.
Workflow
Prompt Manager
Централизует prompt profiles для коротких summary, подробных minutes, task-only extraction и командных форматов.
Для стабильного AI-результата между отделами.
Workflow
Meeting Topic Suggester
Предлагает чистые названия встреч на основе AI-артефактов, чтобы архив оставался читаемым без ручной работы.
Для команд, которые обрабатывают много записей.
Automation
Management Index
Создает компактный machine-readable index задач, проектов, повесток и решений.
Для downstream automation и внутренних систем.
Automation
AI Meeting Bridge
Экспортирует задачи и итоги встреч в инструменты вроде Todoist и Trello.
Для перехода от обсуждения к исполнению.
Integration
Webhook Ingest Reference
Показывает, как доставлять результаты встреч во внешние HTTP endpoints и кастомную инфраструктуру.
Для enterprise-интеграций и собственных workflow.
Free
Приватное local core
Полноценная стартовая редакция для пользователей и небольших команд, которые хотят проверить workflow на реальных записях.
- Portable Windows installer
- Whisper Tiny включен для быстрого старта
- Локальная транскрибация, semantic cleanup, minutes и local LLM support
- Опциональная загрузка моделей в процессе установки
Commercial
Расширяемый meeting intelligence
Платная версия может включать premium plugins, командные workflow, выбор LLM-провайдеров и интеграции.
- Advanced management extraction и approval workflows
- Cloud и local LLM provider packs
- Semantic search и answer-with-sources плагины
- Prompt governance, интеграции и automation hooks
Часто задаваемые вопросы
Мои данные в безопасности?
Free workflow работает по принципу local-first. Записи, транскрипты и артефакты хранятся на машине пользователя по умолчанию. Cloud LLM плагины подключаются явно, а не работают скрыто в фоне.
Почему installer предлагает скачать модели?
В релиз уже включена маленькая Whisper-модель для быстрого теста. Installer может заранее скачать более сильные Whisper, semantic или summary модели, чтобы позже pipeline не выглядел зависшим.
Какие форматы поддерживаются?
Pipeline рассчитан на распространенные audio и video форматы: WAV, MP3, M4A, MP4, MKV. Конвертация выполняется до AI-этапов, чтобы вход был предсказуемым.
Можно ли переобработать встречу позже?
Да. AIMM сохраняет исходники и артефакты, чтобы пользователь мог перезапустить этапы с более сильными моделями, другим языком или новыми плагинами.
Чем это отличается от AI note taker?
AIMM - это pipeline и plugin platform. Notes - только один из выходов. Главная цель: meeting memory system с поиском, management, интеграциями и автоматизацией.
Начните с бесплатной локальной версии
Публичная загрузка будет открыта после добавления серверной free-лицензии, политики обязательных обновлений и signed release manifest. Это нужно, чтобы все установки можно было мягко перевести на безопасную версию.
Шаг 01
Free activation
Первый запуск получает бесплатную серверную лицензию и device token.
Шаг 02
Update policy
Приложение проверяет optional, required и blocked обновления для всех установок.
Шаг 03
Signed release
Пользователь скачивает файл с checksum, manifest и подписью релиза.
Дистрибутив не опубликован намеренно: текущая сборка еще не подключена к серверному контролю лицензии и обновлений.
Кнопка скачивания будет вести через серверный endpoint с учетом счетчика скачиваний. Сам файл будет опубликован только как защищенный release asset.