MLOps
MLOps або Machine Learning Operations — це набір практик, процесів та інструментів для керування повним життєвим циклом моделей машинного навчання: від експериментів і навчання до deployment, monitoring, retraining, governance і безпечного використання в production.
MLOps поєднує підходи з machine learning, DevOps, data engineering, software engineering, security, cloud infrastructure і business governance.
Основна ідея: MLOps потрібен для того, щоб ML-модель не залишалась експериментом у notebook, а стабільно, безпечно й контрольовано працювала в реальному бізнес-процесі.
Загальний опис
У класичному software development достатньо контролювати код, тести, deployment і monitoring застосунку. У machine learning цього недостатньо, тому що якість моделі залежить не лише від коду, а й від даних, features, параметрів, навчання, версії моделі, середовища виконання й змін у реальному світі.
MLOps відповідає за:
- керування datasets;
- experiment tracking;
- training pipelines;
- feature engineering;
- model versioning;
- model registry;
- validation;
- deployment;
- inference;
- monitoring;
- data drift detection;
- concept drift detection;
- retraining;
- rollback;
- governance;
- security;
- audit trail;
- compliance;
- cost control.
Перевага: MLOps дозволяє перетворити ML із разового експерименту на повторюваний, контрольований і вимірюваний production-процес.
Для чого потрібен MLOps
MLOps потрібен тоді, коли ML-модель використовується не лише для дослідження, а впливає на реальні процеси.
Типові задачі MLOps:
- автоматизувати навчання моделі;
- зберігати версії моделей;
- відтворювати експерименти;
- швидко розгортати модель;
- контролювати якість після запуску;
- виявляти деградацію;
- відстежувати data drift;
- запускати retraining;
- робити rollback;
- забезпечувати безпеку доступів;
- логувати прогнози;
- пояснювати рішення;
- відповідати вимогам governance.
Важливо: модель, яка показує хороші метрики під час навчання, може швидко втратити якість у production, якщо зміняться дані, поведінка користувачів або бізнес-процес.
Життєвий цикл ML-моделі
Типовий життєвий цикл ML-моделі включає кілька етапів:
- Постановка задачі.
- Збір даних.
- Підготовка dataset.
- Feature engineering.
- Навчання моделі.
- Оцінювання якості.
- Реєстрація моделі.
- Deployment.
- Inference.
- Monitoring.
- Аналіз помилок.
- Retraining.
- Rollback або оновлення.
- Документування й аудит.
Суть життєвого циклу: ML-модель не закінчується на training. Після запуску її потрібно спостерігати, оновлювати й контролювати.
ML pipeline
ML pipeline — це автоматизована послідовність кроків для підготовки даних, навчання, перевірки, deployment або inference.
ML pipeline може включати:
- data ingestion;
- data validation;
- preprocessing;
- feature engineering;
- training;
- evaluation;
- model registration;
- deployment;
- monitoring;
- retraining.
Приклад:
Raw data
→ Data validation
→ Preprocessing
→ Feature engineering
→ Training
→ Evaluation
→ Model registry
→ Deployment
→ Monitoring
Практична роль: pipeline робить ML-процес повторюваним, а не залежним від ручних дій конкретного спеціаліста.
Training pipeline
Training pipeline — це pipeline для навчання або перенавчання моделі.
Він може виконувати:
- завантаження даних;
- перевірку schema;
- очищення даних;
- створення features;
- розбиття на train/validation/test;
- training;
- hyperparameter tuning;
- evaluation;
- збереження моделі;
- реєстрацію в model registry;
- створення training report.
Суть training pipeline: модель повинна навчатися відтворювано, з контрольованими даними, параметрами, метриками й версіями.
Inference pipeline
Inference pipeline — це pipeline для використання навченої моделі.
Він може включати:
- отримання input data;
- validation input;
- preprocessing;
- feature transformation;
- model prediction;
- postprocessing;
- business rules;
- logging;
- explanation;
- response formatting;
- monitoring.
Практична роль: inference pipeline гарантує, що модель у production отримує дані в тому самому форматі, в якому вона очікує їх після training.
Model registry
Model registry — це сховище версій моделей і їхніх metadata.
Model registry зберігає:
- назву моделі;
- версію;
- training dataset;
- metrics;
- параметри;
- artifacts;
- author або owner;
- stage;
- approval status;
- дату створення;
- deployment history;
- lineage.
Типові stages:
- development;
- staging;
- production;
- archived.
Важливо: без model registry важко зрозуміти, яка саме модель зараз працює в production і на яких даних вона була навчена.
Experiment tracking
Experiment tracking — це збереження результатів ML-експериментів.
Потрібно зберігати:
- dataset version;
- code version;
- model version;
- hyperparameters;
- metrics;
- logs;
- artifacts;
- plots;
- runtime;
- environment;
- notes;
- errors.
Популярні інструменти:
- MLflow;
- Weights & Biases;
- Neptune;
- Comet;
- ClearML;
- TensorBoard.
Практична користь: experiment tracking дозволяє порівнювати експерименти й відтворювати результат, а не покладатися на пам’ять або випадкові notebook-файли.
Model versioning
Model versioning — це контроль версій моделей.
Версії потрібні для:
- rollback;
- порівняння моделей;
- audit;
- A/B testing;
- відтворення прогнозів;
- аналізу помилок;
- governance;
- controlled deployment.
Суть model versioning: production має знати не просто “модель”, а конкретну версію моделі з конкретними даними, параметрами й кодом.
Data versioning
Data versioning — це контроль версій datasets.
Це потрібно, тому що модель залежить від даних так само сильно, як від коду.
Data versioning допомагає:
- відтворити training;
- зрозуміти походження даних;
- порівняти datasets;
- знайти помилки;
- відстежити data lineage;
- виконати audit;
- контролювати compliance.
Інструменти:
- DVC;
- lakeFS;
- Delta Lake;
- Apache Iceberg;
- Pachyderm;
- custom data lineage systems.
Критично: якщо немає версії даних, неможливо чесно відтворити модель і пояснити, чому вона дала певний результат.
Feature store
Feature store — це централізоване сховище features для training і inference.
Feature store допомагає:
- повторно використовувати features;
- уникати training-serving skew;
- контролювати feature definitions;
- зберігати offline features;
- подавати online features;
- версіонувати features;
- підтримувати consistency;
- прискорювати розробку моделей.
Практична роль: feature store допомагає зробити features однаковими для навчання моделі й використання моделі в production.
Training-serving skew
Training-serving skew — це ситуація, коли модель у production отримує features, які відрізняються від features під час навчання.
Причини:
- різний preprocessing;
- різні джерела даних;
- різний час оновлення;
- різні правила обчислення;
- помилки в online features;
- відсутність feature store;
- зміни в business logic.
Небезпека: training-serving skew може непомітно знизити якість моделі, навіть якщо training metrics були високими.
Model deployment
Model deployment — це розгортання моделі для використання.
Форми deployment:
- REST API;
- gRPC service;
- batch inference;
- streaming inference;
- embedded model;
- edge deployment;
- mobile deployment;
- database scoring;
- cloud endpoint;
- serverless function;
- containerized service.
Суть deployment: модель стає частиною реальної системи, яка отримує запити й повертає прогнози.
Batch inference
Batch inference — це запуск моделі на великій кількості даних за розкладом або подією.
Приклади:
- нічний скоринг клієнтів;
- щоденний прогноз попиту;
- класифікація документів;
- генерація рекомендацій;
- обробка логів;
- створення embeddings;
- прогноз відтоку.
Практична роль: batch inference підходить, коли прогноз не потрібен миттєво, а може бути підготовлений заздалегідь.
Online inference
Online inference — це прогноз у реальному часі або майже реальному часі.
Приклади:
- рекомендація на сайті;
- fraud scoring під час платежу;
- персоналізація сторінки;
- chatbot response;
- real-time pricing;
- moderation;
- risk decision.
Важливо: online inference має вимоги до latency, reliability, fallback і scaling.
Model serving
Model serving — це інфраструктура для обслуговування запитів до моделі.
Model serving відповідає за:
- API endpoint;
- batching;
- scaling;
- latency;
- model loading;
- version routing;
- canary deployment;
- monitoring;
- logging;
- authentication;
- resource management.
Інструменти:
- KServe;
- Seldon;
- BentoML;
- Ray Serve;
- TensorFlow Serving;
- TorchServe;
- Triton Inference Server;
- custom FastAPI service.
Практична роль: model serving робить модель доступною для інших систем як стабільний сервіс.
CI/CD для ML
CI/CD для ML — це автоматизація перевірки, збірки, тестування й deployment ML-систем.
CI/CD для ML може включати:
- code tests;
- data validation;
- pipeline tests;
- model evaluation;
- security checks;
- artifact build;
- container build;
- deployment to staging;
- approval gate;
- deployment to production;
- rollback.
Суть CI/CD для ML: зміни в коді, даних або моделі мають проходити автоматичні перевірки перед production.
CT: Continuous Training
Continuous Training або CT — це регулярне або подієве перенавчання моделі.
Retraining може запускатися:
- за розкладом;
- після появи нових даних;
- при data drift;
- при падінні метрик;
- після зміни бізнес-процесу;
- після ручного approval;
- при зміні source data.
Увага: автоматичне перенавчання без контролю може розгорнути гіршу модель. Потрібні evaluation gates і approval.
Model monitoring
Model monitoring — це спостереження за моделлю після deployment.
Потрібно контролювати:
- prediction distribution;
- input distribution;
- data drift;
- concept drift;
- model quality;
- latency;
- errors;
- throughput;
- resource usage;
- business metrics;
- fairness metrics;
- alerting.
Критично: ML-модель у production без monitoring може довго давати погані прогнози, поки це не помітить бізнес.
Data drift
Data drift — це зміна розподілу вхідних даних у production порівняно з training data.
Приклади:
- змінилася поведінка клієнтів;
- з’явився новий продукт;
- змінився сезон;
- змінився канал продажів;
- змінилася структура документів;
- змінився формат даних;
- зламався upstream pipeline.
Важливо: data drift не завжди означає, що модель стала поганою, але це сигнал для перевірки.
Concept drift
Concept drift — це зміна зв’язку між input data і target.
Наприклад:
- раніше певна поведінка означала високу ймовірність покупки, а тепер уже ні;
- шахрайські схеми змінилися;
- клієнти інакше реагують на промо;
- змінилися правила бізнес-процесу;
- нова політика змінила рішення операторів.
Небезпека: concept drift може зруйнувати якість моделі навіть тоді, коли формат і розподіл даних здаються нормальними.
Model degradation
Model degradation — це погіршення якості моделі з часом.
Причини:
- data drift;
- concept drift;
- зміна бізнес-процесу;
- нові типи користувачів;
- зміна джерел даних;
- помилки upstream systems;
- неправильне retraining;
- seasonality;
- зміни ринку.
Критично: model degradation потрібно виявляти метриками й alerting, а не випадковими скаргами користувачів.
Retraining
Retraining — це повторне навчання моделі на нових або оновлених даних.
Retraining може бути:
- manual;
- scheduled;
- trigger-based;
- continuous;
- approval-based;
- automated with evaluation gates.
Перед retraining потрібно перевірити:
- якість нових даних;
- зміни schema;
- leakage;
- target availability;
- metrics;
- fairness;
- comparison with current model;
- rollback plan.
Практична роль: retraining допомагає моделі адаптуватися до нових даних, але потребує контролю якості.
Rollback
Rollback — це повернення до попередньої стабільної версії моделі.
Rollback потрібен, якщо:
- нова модель працює гірше;
- зросли помилки;
- зросла latency;
- з’явився bias;
- порушився business process;
- deployment був неправильний;
- production monitoring показує ризики.
Практична порада: кожен model deployment має мати план rollback до попередньої робочої версії.
Canary deployment
Canary deployment — це поступове розгортання нової моделі на невелику частину traffic.
Наприклад:
- 1% користувачів;
- 5% запитів;
- окремий регіон;
- окремий сегмент;
- внутрішні користувачі.
Суть canary deployment: нова модель перевіряється на малому обсязі реального traffic перед повним запуском.
A/B testing
A/B testing — це порівняння двох або більше версій моделі на реальних користувачах або запитах.
A/B testing допомагає оцінити:
- якість прогнозів;
- business impact;
- conversion;
- revenue;
- user behavior;
- fairness;
- latency;
- error rate.
Практична роль: A/B testing дозволяє перевірити, чи нова модель справді краща для бізнесу, а не лише для offline metrics.
Shadow deployment
Shadow deployment — це режим, коли нова модель отримує реальні input, але її прогнози не впливають на користувача або бізнес-рішення.
Це корисно для:
- перевірки latency;
- збору прогнозів;
- порівняння з production model;
- виявлення помилок;
- безпечного тестування;
- підготовки до rollout.
Практична користь: shadow deployment дозволяє протестувати модель у реальних умовах без ризику для користувачів.
Governance
ML governance — це керування правилами, відповідальністю, аудитом і контролем ML-систем.
Governance включає:
- model ownership;
- approvals;
- documentation;
- risk classification;
- audit trail;
- access control;
- compliance;
- data lineage;
- model lineage;
- explainability;
- fairness;
- monitoring requirements;
- incident response.
Важливо: що сильніше ML-модель впливає на людей, гроші або юридичні рішення, то важливіші governance і human review.
Model card
Model card — це документ, який описує модель, її призначення, обмеження, метрики й ризики.
Model card може містити:
- назву моделі;
- призначення;
- training data;
- evaluation data;
- metrics;
- known limitations;
- intended use;
- out-of-scope use;
- fairness analysis;
- privacy considerations;
- deployment details;
- owner;
- approval status.
Практична роль: model card допомагає зрозуміти, для чого модель створена, де її можна використовувати, а де не можна.
Data lineage
Data lineage — це відстеження походження даних і шляху їх обробки.
Data lineage показує:
- звідки прийшли дані;
- які transformations застосовувалися;
- які pipeline їх обробляв;
- яка версія dataset використовувалася;
- які features створені;
- яка модель була навчена на цих даних.
Суть data lineage: команда має знати, з яких даних і через які кроки була створена модель.
Explainability
Explainability — це здатність пояснити, чому модель дала певний прогноз.
Explainability важлива для:
- фінансових рішень;
- медицини;
- HR;
- fraud detection;
- compliance;
- юридичних процесів;
- customer-facing decisions;
- debugging;
- довіри користувачів.
Методи:
- feature importance;
- SHAP;
- LIME;
- counterfactual explanations;
- partial dependence;
- interpretable models.
Практична роль: explainability допомагає не лише пояснювати рішення, а й знаходити помилки в даних, features або моделі.
Fairness і bias monitoring
Fairness monitoring — це контроль того, чи модель не створює нерівномірну якість або шкоду для різних груп.
Потрібно перевіряти:
- різницю в error rates;
- bias у training data;
- proxy variables;
- fairness metrics;
- segment performance;
- adverse impact;
- drift по групах;
- explainability для чутливих рішень.
Критично: ML-моделі, які впливають на людей, потрібно перевіряти не лише на середню якість, а й на справедливість для різних груп.
Security в MLOps
MLOps має включати security.
Ризики:
- data poisoning;
- model stealing;
- adversarial examples;
- insecure model endpoint;
- exposed API keys;
- supply chain attacks;
- insecure containers;
- unauthorized model access;
- leakage через logs;
- unsafe model artifacts;
- dependency vulnerabilities.
Критично: ML-модель у production — це software artifact, тому вона потребує security review, access control, secrets management і monitoring.
Privacy в MLOps
ML-системи часто працюють із чутливими даними.
Потрібно контролювати:
- персональні дані;
- consent;
- data minimization;
- anonymization;
- pseudonymization;
- encryption;
- retention policy;
- access logs;
- training data permissions;
- model outputs;
- deletion requests;
- compliance requirements.
Правило: якщо дані не потрібні для моделі, їх не потрібно збирати, зберігати або передавати в training pipeline.
LLMOps
LLMOps — це MLOps-практики для Large Language Models.
LLMOps включає:
- prompt versioning;
- model selection;
- evaluation datasets;
- RAG pipeline;
- vector database monitoring;
- hallucination tracking;
- guardrails;
- prompt injection defense;
- cost monitoring;
- latency monitoring;
- response quality;
- human feedback;
- tool calling monitoring;
- safety evaluation.
Суть LLMOps: для LLM важливо контролювати не лише модель, а й prompts, context, retrieval, tools, hallucinations, cost і safety.
GenAIOps
GenAIOps — це ширший підхід до operational practices для генеративного AI.
GenAIOps може охоплювати:
- LLM;
- image generation;
- video generation;
- speech models;
- AI agents;
- multimodal pipelines;
- content safety;
- copyright controls;
- human review;
- prompt management;
- model routing;
- cost governance.
Практична роль: GenAIOps розширює MLOps на генеративні системи, де результатом є текст, зображення, відео, код або голос.
MLOps і DevOps
MLOps багато взяв із DevOps, але має додаткові складності.
| Критерій | DevOps | MLOps |
|---|---|---|
| Основний артефакт | Код застосунку | Код, дані, features, модель, metrics |
| Тестування | Unit, integration, system tests | Code tests, data tests, model evaluation, drift checks |
| Deployment | Версія застосунку | Версія моделі + inference pipeline |
| Monitoring | Errors, latency, uptime | Errors, latency, data drift, model quality, business metrics |
| Зміна якості | Часто через зміну коду | Може змінюватися навіть без зміни коду |
Висновок: MLOps включає DevOps-практики, але додає контроль даних, моделей, метрик, drift і retraining.
MLOps і DataOps
DataOps — це практики керування data pipelines, якістю даних і доставкою даних.
MLOps залежить від DataOps, тому що ML-моделі потребують якісних даних.
| Критерій | DataOps | MLOps |
|---|---|---|
| Основний фокус | Дані й data pipelines | Моделі й ML lifecycle |
| Контроль | Data quality, lineage, schema, freshness | Training, evaluation, deployment, monitoring |
| Взаємозв’язок | Подає якісні дані | Використовує дані для моделей |
Висновок: без DataOps складно побудувати надійний MLOps, тому що модель залежить від стабільності й якості даних.
Інструменти MLOps
Популярні інструменти MLOps:
- MLflow;
- Kubeflow;
- Airflow;
- Prefect;
- Dagster;
- DVC;
- lakeFS;
- Feast;
- TensorBoard;
- Weights & Biases;
- Neptune;
- ClearML;
- BentoML;
- KServe;
- Seldon;
- Ray;
- Docker;
- Kubernetes;
- Terraform;
- Prometheus;
- Grafana;
- Evidently AI;
- WhyLabs.
Практична роль: MLOps-стек зазвичай складається з кількох інструментів: orchestration, tracking, registry, serving, monitoring і infrastructure.
MLflow
MLflow — це open-source платформа для experiment tracking, model packaging, model registry і ML lifecycle.
MLflow може допомагати:
- логувати експерименти;
- зберігати metrics;
- зберігати artifacts;
- реєструвати моделі;
- порівнювати runs;
- пакувати моделі;
- підтримувати deployment workflows.
Для старту: MLflow часто є зручним першим інструментом для experiment tracking і model registry.
Kubeflow
Kubeflow — це платформа для ML workflows на Kubernetes.
Kubeflow може використовуватися для:
- training pipelines;
- experiment orchestration;
- distributed training;
- model serving;
- notebooks;
- Kubernetes-native ML;
- production ML workflows.
Важливо: Kubeflow потужний, але потребує Kubernetes-експертизи й не завжди потрібен для невеликих команд.
Airflow, Prefect і Dagster
Airflow, Prefect і Dagster використовуються для orchestration pipelines.
Вони можуть керувати:
- data pipelines;
- training jobs;
- batch inference;
- retraining;
- validation;
- scheduled workflows;
- dependency management;
- monitoring pipeline runs.
Практична роль: orchestration tools допомагають запускати ML-процеси за розкладом, подіями або залежностями.
Ray у MLOps
Ray використовується для масштабування ML workloads.
Ray може допомагати з:
- distributed training;
- hyperparameter tuning;
- batch inference;
- model serving;
- reinforcement learning;
- large-scale Python workloads;
- LLM inference;
- Ray Serve;
- Ray Train;
- Ray Tune.
Практична роль: Ray корисний, коли ML workload потрібно масштабувати на багато CPU, GPU або machines.
Docker і Kubernetes
Docker використовується для пакування ML-сервісів у containers.
Kubernetes використовується для orchestration containers у production.
Вони допомагають:
- відтворювати середовище;
- ізолювати dependencies;
- масштабувати сервіси;
- керувати rollout;
- запускати model serving;
- контролювати resources;
- інтегрувати monitoring;
- автоматизувати deployment.
Суть: Docker допомагає запакувати модель і код, а Kubernetes — запускати й масштабувати їх у production.
Cloud MLOps
MLOps може реалізовуватися в cloud-платформах.
Приклади напрямів:
- AWS SageMaker;
- Google Vertex AI;
- Azure Machine Learning;
- Databricks Machine Learning;
- Snowflake ML;
- managed model registry;
- managed feature store;
- managed endpoints;
- cloud monitoring;
- cloud pipelines.
Практична порада: managed cloud MLOps може пришвидшити старт, але потрібно контролювати vendor lock-in, cost, security і governance.
MLOps maturity levels
Рівні зрілості MLOps можна умовно поділити так:
| Рівень | Опис |
|---|---|
| Level 0 | Manual ML: notebook, ручний training, ручний deployment |
| Level 1 | Automated training pipeline і базовий model registry |
| Level 2 | CI/CD/CT, monitoring, retraining, governance, rollback |
| Level 3 | Platform MLOps: self-service, standardized workflows, full observability, policy automation |
Практична роль: зрілість MLOps потрібно нарощувати поступово, починаючи з tracking, registry, deployment і monitoring.
MLOps у бізнесі
У бізнесі MLOps допомагає:
- скоротити шлях від експерименту до production;
- зменшити ризики помилок;
- підвищити стабільність моделей;
- забезпечити audit;
- контролювати якість;
- швидше оновлювати моделі;
- підтримувати compliance;
- зменшити ручні дії;
- покращити collaboration між data scientists, engineers і business owners.
Бізнес-цінність: MLOps робить ML не разовою ініціативою, а керованою частиною бізнес-системи.
Ролі в MLOps
У MLOps можуть брати участь різні ролі:
- Data Scientist;
- ML Engineer;
- Data Engineer;
- MLOps Engineer;
- DevOps Engineer;
- Cloud Engineer;
- Software Engineer;
- Security Engineer;
- Product Owner;
- Business Owner;
- Risk або Compliance Officer;
- Data Steward.
Практична роль: MLOps — це командна дисципліна. Її не можна повністю покласти лише на data scientist або лише на DevOps.
MLOps і відповідальне AI
MLOps підтримує responsible AI через:
- governance;
- documentation;
- model cards;
- fairness checks;
- explainability;
- audit trail;
- privacy controls;
- human review;
- monitoring;
- incident response;
- rollback;
- risk classification.
Професійний підхід: responsible AI має бути вбудований у ML lifecycle, а не додаватися наприкінці перед запуском.
Типові сценарії використання
MLOps використовується у різних ML-сценаріях.
Приклади:
- recommendation system;
- fraud detection;
- churn prediction;
- demand forecasting;
- credit scoring;
- dynamic pricing;
- predictive maintenance;
- document classification;
- NLP-система;
- computer vision model;
- batch scoring;
- real-time personalization;
- LLM/RAG assistant;
- AI-agent workflow;
- anomaly detection.
Практична порада: MLOps особливо потрібен там, де модель регулярно оновлюється, впливає на бізнес-рішення або працює з критичними даними.
Типові помилки MLOps
Поширені помилки:
- модель залишається тільки в notebook;
- немає experiment tracking;
- немає data versioning;
- немає model registry;
- ручний deployment;
- немає monitoring;
- немає rollback;
- відсутній owner моделі;
- невідомо, яка модель у production;
- немає retraining strategy;
- не контролюється drift;
- немає security review;
- немає human approval для ризикових моделей;
- немає model card;
- business metrics не пов’язані з model metrics.
Небезпека: ML без MLOps може виглядати успішно на демо, але бути нестабільним, невідтворюваним і ризикованим у production.
Хороші практики MLOps
Рекомендовано:
- почати з experiment tracking;
- версіонувати код, дані й модель;
- створити model registry;
- автоматизувати training pipeline;
- перевіряти дані перед training;
- використовувати validation gates;
- запускати staging deployment;
- додавати monitoring;
- контролювати data drift;
- мати retraining policy;
- мати rollback;
- документувати model card;
- обмежувати доступи;
- логувати прогнози;
- пов’язувати model metrics із business metrics.
Головне правило: MLOps має робити ML-процес відтворюваним, контрольованим, безпечним і вимірюваним.
Приклади MLOps workflow
Batch scoring
1. Щодня завантажити нові дані.
2. Перевірити schema і data quality.
3. Створити features.
4. Запустити модель.
5. Зберегти прогнози.
6. Записати metrics і logs.
7. Відправити alert, якщо розподіл прогнозів змінився.
Online model deployment
1. Навчити модель.
2. Оцінити на validation і test set.
3. Зареєструвати модель у registry.
4. Задеплоїти в staging.
5. Запустити integration tests.
6. Розгорнути canary на 5% traffic.
7. Перевірити monitoring.
8. Розгорнути на 100% або зробити rollback.
Retraining workflow
1. Monitoring виявив data drift.
2. Pipeline збирає нові дані.
3. Дані проходять validation.
4. Модель перенавчається.
5. Нова модель порівнюється з production.
6. Якщо metrics кращі — модель переходить у staging.
7. Після approval запускається deployment.
LLMOps workflow
1. Оновити prompt template.
2. Запустити evaluation dataset.
3. Перевірити hallucination rate.
4. Перевірити retrieval quality.
5. Перевірити latency і cost.
6. Задеплоїти нову версію prompt.
7. Моніторити user feedback і safety events.
Підказка: MLOps workflow має описувати не лише “як навчити модель”, а й “як перевірити, запустити, спостерігати й відкотити”.
Джерела
- Документація MLflow.
- Документація Kubeflow.
- Документація Airflow, Prefect і Dagster.
- Документація Ray.
- Документація KServe, Seldon, BentoML і Ray Serve.
- Документація Docker і Kubernetes.
- Документація DVC, Feast і lakeFS.
- Матеріали щодо MLOps, LLMOps, DataOps, model monitoring, data drift, responsible AI і ML governance.
- Документація cloud-платформ щодо production ML і model deployment.
Висновок
MLOps — це практики й інфраструктура для керування ML-моделями в production. Він охоплює experiment tracking, data versioning, model registry, training pipelines, deployment, monitoring, data drift, concept drift, retraining, rollback, governance, security і privacy.
MLOps потрібен для того, щоб machine learning працював стабільно, відтворювано й безпечно в реальних бізнес-процесах. Без MLOps модель може залишитися експериментом у notebook або стати неконтрольованим production-ризиком.
Головна думка: MLOps перетворює ML із разового експерименту на керований production-процес із версіями, перевірками, monitoring, retraining, rollback і відповідальністю.
Див. також
- Machine Learning
- Штучний інтелект
- Генеративний штучний інтелект
- Deep Learning
- Natural Language Processing
- LLMOps
- GenAIOps
- DataOps
- Model deployment
- Model monitoring
- Data drift
- Feature store
- Model registry
- MLflow
- Kubeflow
- Ray
- Docker
- Kubernetes
- CI/CD
- RAG
- AI Agents
- Приватність даних
- Безпека AI