Маленька команда: AI-інженери та highload-архітектори
З 2013 року займаємус архітектурою та highload-системами; з 2023-го системно ведемо AI-інтеграції. Не «AI-стартап на хайпі» та не «інтегратори, які почули про LLM» — це два повноцінні напрями однієї інженерної команди.
Як ми працюємо
Ці принципи — не «корпоративна мантра», а фільтр, через який ми пропускаємо кожен AI-проєкт та архітектурне рішення під навантаженням.
- Технологія — інструмент, а не самоціль LLM, мікросервіси, Kubernetes — кожне рішення має оправдовувати складність. Якщо задачу вирішить SQL або монолит — так і скажемо.
- Міряємо якість, а не «подобається / не подобається» Golden datasets, eval-pipeline, faithfulness, context precision, A/B на користувачах. Без цього «поліпшення» — це смакування.
- Cost — це product-метрика Рахуємо вартість токена, кеш-хіт-рейт та cost-per-request з першого дня. AI-проєкти падають частіше не від якості, а від рахунку у хмарі.
- Production — це серйозно SLO, on-call, постмортеми, observability, ratelimit, fallback. Релід AI-фічи — це не «виложили demo», це експлуатація під навантаженням.
- Безпека з першого спринту PII-фільтри, prompt-injection захист, аудит-trail. Не «потім додамо», а в архітектурі з самого початку.
- Команда клієнта — наша команда Парне проєктування, ревю, передача знань. Після нас команда має вміти сама змінювати промпти, моделі та оркестрацію.
Команда
На кожному проєкті — виділений архітектор та 2–4 інженери залежно від масштабу. Без довгих ланцюжків узгоджень та менеджерів між вами та інженерами.
Slava Konashkov
12+ років у архітектурі highload-систем: фінтех, AdTech, SaaS, e-commerce. Останні роки веде напрям AI-інтеграції — RAG, агенти, LLM-інфраструктура. Відповідає за архітектурні рішення та роботу з CTO клієнтів.
AI-команда
RAG, агенти, prompt-інженерія, fine-tuning, eval-pipeline. Знають, чим cross-encoder відрізняється від bi-encoder та коли LoRA краще full-tuning. І чому частіше за все потрібен ні той, ні інший.
Backend-команда
Go, Node.js, Python. Будують API навколо моделей, gateway-шари, черги та інтеграції з внутрішніми системами. Всі мають досвід роботи у продуктових командах з власним on-call.
Платформена команда
Kubernetes, vLLM, Terraform, observability, FinOps. Піднімають inference-кластери та LLM gateway, на яких продуктові команди релізять AI-фічи кожен день, не «коли GPU звільниться».
Data-інженери
Postgres / pgvector, ClickHouse, Qdrant, Weaviate, Kafka, Whisper-pipeline. Доводять vector-інфраструктуру та unstructured data pipeline до production-ready.
Eval-інженери
Golden datasets, Ragas, Langfuse, A/B-тести, регресійні тести на промпти та моделі. Ми не віримо у «релізим — подивимось, ругатимуться ли користувачі». Рахуємо заздалегідь.
Розкажіть про задачу
AI-фіча, оптимізація highload-сервісу або архітектура з нуля — опишіть, що у вас зараз, та куди хочете прийти. Ми повернемось протягом робочого дня.