Malý tým: AI inženýři a highload architekti
Od roku 2013 se zabýváme architekturou a highload systémy; od roku 2023 systematicky vedeme AI integrační projekty. Nejsme "hype-driven AI startup" ani "integrátoři, kteří jen zaslechli o LLM" — jsou to dva plnohodnotné směry jednoho inženýrského týmu.
Jak pracujeme
Tyto principy nejsou "korporátní mantra", ale filtr, skrz který procházíme každý AI projekt a architektonické řešení pod zátěží.
- Technologie je nástroj, ne cíl LLM, mikroservisy, Kubernetes — každé řešení musí ospravedlňovat složitost. Kdyby SQL nebo monolitý vyřešil úlohu — tak to řekneme.
- Měříme kvalitu, ne "líbí se / nelíbí se" Golden datasets, eval-pipeline, faithfulness, context precision, A/B na uživatelích. Bez toho jsou "zlepšení" pouze osobní chuť.
- Náklady jsou produktová metrika Počítáme náklady na token, cache-hit-rate a cost-per-request od prvního dne. AI projekty selhávají často ne od kvality, ale od účtu v cloudu.
- Produkce je vážná věc SLO, on-call, postmortemy, observability, ratelimit, fallback. Release AI funkce není "vyložili demo", je to provoz pod zátěží.
- Bezpečnost od prvního sprintu PII filtry, prompt-injection ochrana, audit-trail. Ne "později přidáme", ale v architektuře od začátku.
- Tým klienta je náš tým Párové programování, code review, přenos znalostí. Po nás by tým měl umět sám měnit prompty, modely a orchestraci.
Tým
Na každém projektu — vyhrazený architekt a 2–4 inženýři v závislosti na měřítku. Bez dlouhých řetězců schválení a manažerů mezi vámi a inženýry.
Slava Konashkov
12+ let v architektuře highload systémů: fintech, AdTech, SaaS, e-commerce. Poslední roky vede směr AI integrace — RAG, agenti, LLM infrastruktura. Odpovídá za architektonická řešení a komunikaci s CTO klientů.
AI tým
RAG, agenti, prompt inženýrství, fine-tuning, eval-pipelines. Vědí, čím se cross-encoder liší od bi-encoderu a kdy je LoRA lepší než full-tuning. A proč často není potřeba ani jedno.
Backend tým
Go, Node.js, Python. Stavějí API kolem modelů, gateway vrstvy, fronty a integraci s vnitřními systémy. Všichni mají zkušenost v produktových týmech s vlastním on-call.
Platformní tým
Kubernetes, vLLM, Terraform, observability, FinOps. Zvedají inference clustery a LLM gateway, na kterých produktové týmy releasují AI funkce každý den, ne "až se GPU uvolní".
Data inženýři
Postgres / pgvector, ClickHouse, Qdrant, Weaviate, Kafka, Whisper pipeline. Vedou vector infrastrukturu a unstructured data pipeline do production-ready.
Eval inženýři
Golden datasets, Ragas, Langfuse, A/B testy, regresní testy na prompty a modely. Neuvěřujeme "releasíme — podíváme se jestli uživatelé řvou". Počítáme dopředu.
Povězte nám o projektu
AI funkce, optimalizace highload služby nebo architektura od nuly — popište, kde jste teď a kam se chcete dostat. Vrátíme se během pracovního dne.