Перейти до вмісту

Deep Learning

Матеріал з K2 ERP Wiki Ukraine — База знань з автоматизації та санкцій в Україні
Версія від 19:49, 8 травня 2026, створена R (обговорення | внесок) (Створена сторінка: {{SEO|title=Deep Learning — глибинне навчання, нейронні мережі, CNN, RNN, Transformer, PyTorch, Keras і практичне використання AI|description=Deep Learning — Wiki-стаття про глибинне навчання як підхід машинного навчання на основі багатошарових нейронних мереж. Розглянуто neural networks, layers, weights, ac...)
(різн.) ← Попередня версія | Поточна версія (різн.) | Новіша версія → (різн.)

SEO title: Deep Learning — глибинне навчання, нейронні мережі, CNN, RNN, Transformer, PyTorch, Keras і практичне використання AI SEO description: Deep Learning — Wiki-стаття про глибинне навчання як підхід машинного навчання на основі багатошарових нейронних мереж. Розглянуто neural networks, layers, weights, activation functions, loss, backpropagation, gradient descent, CNN, RNN, LSTM, Transformer, autoencoders, GAN, diffusion models, embeddings, PyTorch, Keras, TensorFlow, GPU, datasets, overfitting, transfer learning, fine-tuning, MLOps, MLflow, обмеження, безпеку та практичне використання deep learning у бізнесі, розробці, документації, комп’ютерному зорі, NLP і генеративному AI. SEO keywords: Deep Learning, глибинне навчання, нейронні мережі, neural networks, machine learning, CNN, RNN, LSTM, Transformer, backpropagation, gradient descent, loss function, activation function, PyTorch, Keras, TensorFlow, MLflow, computer vision, NLP, generative AI, diffusion models, embeddings, transfer learning, fine-tuning, GPU, MLOps, deep neural networks, штучний інтелект Alternative to: ручне програмування правил; класичне машинне навчання без нейронних мереж; shallow learning; експертні системи старого типу; ручна класифікація зображень; ручне розпізнавання тексту; прості статистичні моделі для складних даних; rule-based AI; NLP без нейронних мереж; комп’ютерний зір без deep learning


Deep Learning або глибинне навчання — це напрям машинного навчання, який використовує багатошарові нейронні мережі для розпізнавання закономірностей у даних, навчання на прикладах і побудови складних AI-систем.

Deep Learning лежить в основі багатьох сучасних AI-технологій: комп’ютерного зору, розпізнавання мовлення, машинного перекладу, великих мовних моделей, рекомендаційних систем, генерації зображень, AI-відео, медичного аналізу, робототехніки та генеративного AI.

Коротко: deep learning — це машинне навчання з багатошаровими нейронними мережами. Замість ручного опису всіх правил модель вчиться знаходити патерни в даних сама.

IBM визначає deep learning як підмножину machine learning, що використовує багатошарові нейронні мережі й лежить в основі багатьох state-of-the-art AI-систем: від computer vision і generative AI до self-driving cars і robotics. [1]

Головна ідея

Головна ідея deep learning — навчити модель самостійно виділяти корисні ознаки з даних.

У класичному підході людина часто вручну створює features:

  • форма об’єкта;
  • колір;
  • частота слова;
  • довжина речення;
  • кількість кліків;
  • статистичні показники;
  • правила класифікації.

У deep learning модель сама вчиться будувати внутрішні представлення даних через багато шарів.

Наприклад, у задачі розпізнавання зображень ранні шари можуть реагувати на краї та прості форми, середні — на частини об’єктів, а глибші — на складні об’єкти.

Проста аналогія: класичне програмування каже комп’ютеру правила. Deep learning показує багато прикладів, а модель сама вчиться знаходити правила всередині даних.

Deep Learning і Machine Learning

Machine Learning — ширша галузь.

Deep Learning — її піднапрям, який використовує deep neural networks.

Підхід Ідея Типові задачі
Класичне ML Людина часто явно готує features, модель вчиться на них tabular data, scoring, прості класифікації, регресія
Deep Learning Нейронна мережа сама вчиться складних представлень зображення, мова, текст, аудіо, відео, генеративний AI

Deep learning не завжди кращий за класичне ML. Для табличних бізнес-задач іноді XGBoost, LightGBM або логістична регресія можуть бути простішими, швидшими й зрозумілішими.

Нейронна мережа

Нейронна мережа — це модель, яка складається з шарів і вузлів.

Вона приймає вхідні дані, пропускає їх через layers і повертає prediction.

Google Machine Learning Crash Course пояснює neural networks через key components: nodes, hidden layers, activation functions, inference process і training через backpropagation. [2]

Типова нейронна мережа має:

  • input layer;
  • hidden layers;
  • output layer;
  • weights;
  • biases;
  • activation functions;
  • loss function;
  • optimizer.

Шари

Layer — це шар нейронної мережі.

Типи шарів:

  • Dense;
  • Convolutional;
  • Pooling;
  • Recurrent;
  • Embedding;
  • Attention;
  • Normalization;
  • Dropout;
  • Transformer blocks.

Багато шарів дозволяють моделі будувати складні представлення.

Саме тому навчання називається deep — модель має глибину.

Weights і Biases

Weights — числові параметри, які модель змінює під час навчання.

Biases — додаткові параметри, які допомагають зсувати результат.

Під час training модель поступово змінює weights і biases так, щоб її predictions ставали ближчими до правильних відповідей.

Activation function

Activation function додає нелінійність.

Без activation functions нейронна мережа була б значно обмеженішою.

Поширені activation functions:

  • ReLU;
  • sigmoid;
  • tanh;
  • softmax;
  • GELU;
  • Swish.

ReLU часто використовується в базових deep learning моделях.

Softmax часто використовується в output layer для багатокласової класифікації.

Loss function

Loss function показує, наскільки prediction моделі відрізняється від правильного результату.

Приклади:

  • Mean Squared Error — для регресії;
  • Cross Entropy — для класифікації;
  • Binary Cross Entropy — для binary classification;
  • Categorical Cross Entropy — для multi-class classification;
  • Contrastive loss — для embeddings і similarity learning.

Практична думка: якщо вибрати неправильну loss function, модель може “чесно” оптимізувати не те, що потрібно бізнесу.

Backpropagation

Backpropagation — алгоритм, який дозволяє нейронній мережі зрозуміти, як змінювати weights, щоб зменшити loss.

Спрощено:

  1. модель робить prediction;
  2. loss function рахує помилку;
  3. backpropagation обчислює gradients;
  4. optimizer оновлює weights;
  5. процес повторюється багато разів.

PyTorch tutorial пояснює, що neural network package містить modules і loss functions, які є будівельними блоками deep neural networks. [3]

Gradient descent

Gradient descent — метод оптимізації, який рухає параметри моделі в напрямку зменшення помилки.

Варіанти:

  • Batch Gradient Descent;
  • Stochastic Gradient Descent;
  • Mini-batch Gradient Descent;
  • Adam;
  • AdamW;
  • RMSprop.

У сучасному deep learning часто використовують Adam або AdamW.

Epoch і Batch

Epoch — один повний прохід по training dataset.

Batch — невелика частина dataset, яку модель обробляє за один крок.

Наприклад, якщо dataset має 100 000 прикладів, а batch size = 100, одна epoch містить приблизно 1000 training steps.

Batch size впливає на:

  • швидкість;
  • стабільність навчання;
  • пам’ять GPU;
  • якість generalization.

Dataset

Dataset — набір даних для навчання, перевірки або тестування.

Зазвичай dataset ділять на:

  • training set;
  • validation set;
  • test set.

Training set використовується для навчання.

Validation set — для налаштування й контролю якості.

Test set — для фінальної оцінки.

Важливо: deep learning не рятує погані дані. Якщо dataset шумний, упереджений або має витоки, модель навчиться на цих проблемах.

Overfitting

Overfitting — ситуація, коли модель добре працює на training data, але погано на нових даних.

Ознаки:

  • training loss падає;
  • validation loss росте;
  • training accuracy висока;
  • validation accuracy нижча;
  • модель запам’ятовує приклади замість узагальнення.

Методи боротьби:

  • більше даних;
  • data augmentation;
  • dropout;
  • regularization;
  • early stopping;
  • простіша модель;
  • transfer learning;
  • правильний train/test split.

Underfitting

Underfitting — ситуація, коли модель занадто проста або погано навчена.

Ознаки:

  • погана якість на training data;
  • погана якість на validation data;
  • модель не вивчила закономірності;
  • loss залишається високим.

Причини:

  • модель занадто мала;
  • мало epochs;
  • неправильний learning rate;
  • погані features;
  • неправильна архітектура;
  • помилки в preprocessing.

Data leakage

Data leakage — витік інформації з test або validation set у training.

Приклади:

  • дублікати в train і test;
  • нормалізація до split;
  • future data у time series;
  • feature, який фактично містить відповідь;
  • неправильний split по користувачах;
  • leakage через timestamps.

Data leakage може зробити метрики штучно хорошими, а production-якість — поганою.

CNN

CNN або Convolutional Neural Network — згорткова нейронна мережа.

CNN історично дуже важливі для computer vision.

Вони використовуються для:

  • класифікації зображень;
  • object detection;
  • segmentation;
  • OCR;
  • medical imaging;
  • defect detection;
  • face recognition;
  • satellite images.

CNN добре працюють із локальними патернами: краями, текстурами, формами.

RNN

RNN або Recurrent Neural Network — рекурентна нейронна мережа.

RNN використовувалися для послідовностей:

  • текст;
  • часові ряди;
  • аудіо;
  • signals;
  • language modeling.

Класичні RNN мали проблеми з довгими залежностями, тому з’явилися LSTM і GRU.

Сьогодні багато NLP-задач перейшли на Transformer, але RNN залишаються важливою історичною й концептуальною архітектурою.

LSTM і GRU

LSTM і GRU — покращені рекурентні архітектури.

Вони краще зберігають інформацію в послідовностях, ніж прості RNN.

Використовуються для:

  • time series;
  • speech;
  • NLP;
  • sequence classification;
  • forecasting;
  • anomaly detection.

Для багатьох сучасних мовних задач Transformer витіснив LSTM, але в деяких time-series або embedded сценаріях LSTM досі корисні.

Transformer

Transformer — архітектура, яка стала основою сучасних великих мовних моделей.

Transformer використовує attention-механізм для роботи з послідовностями.

Він лежить в основі:

IBM описує Transformer як архітектуру, що особливо добре працює із sequential data й стала фундаментальною для LLM. [4]

Attention

Attention дозволяє моделі фокусуватися на важливих частинах input.

У тексті attention допомагає зв’язувати слова, які можуть стояти далеко одне від одного.

У зображеннях attention може допомагати виділяти важливі regions.

Transformer став настільки важливим, що робота “Attention Is All You Need” стала однією з ключових основ сучасного AI. [5]

Autoencoders

Autoencoder — нейронна мережа, яка вчиться стискати дані й відновлювати їх.

Autoencoders використовуються для:

  • compression;
  • denoising;
  • anomaly detection;
  • embeddings;
  • representation learning;
  • generative models.

Ідея: модель вчиться представляти дані в компактному latent space.

GAN

GAN або Generative Adversarial Network — генеративна архітектура з двома мережами:

  • generator;
  • discriminator.

Generator створює дані.

Discriminator намагається відрізнити реальні дані від згенерованих.

GAN були важливими для генерації зображень до широкого поширення diffusion models.

Diffusion models

Diffusion models — генеративні моделі, які вчаться створювати дані через поступове видалення шуму.

Вони лежать в основі багатьох сучасних image generation систем, зокрема Stable Diffusion Models.

Diffusion models використовуються для:

  • генерації зображень;
  • image editing;
  • inpainting;
  • video generation;
  • audio;
  • scientific generation.

Embeddings

Embedding — числове представлення об’єкта.

Embedding може представляти:

  • слово;
  • речення;
  • документ;
  • зображення;
  • користувача;
  • товар;
  • аудіофрагмент.

Embeddings використовуються для:

  • semantic search;
  • RAG;
  • рекомендацій;
  • класифікації;
  • clustering;
  • anomaly detection;
  • similarity search.

Transfer learning

Transfer learning — використання вже навченої моделі для нової задачі.

Наприклад:

  • взяти pretrained image model;
  • замінити output layer;
  • донавчити на власних категоріях.

Transfer learning корисний, коли:

  • мало даних;
  • training з нуля дорогий;
  • задача схожа на вже відому;
  • потрібен швидкий baseline.

Fine-tuning

Fine-tuning — донавчання моделі на спеціальних даних.

У deep learning fine-tuning використовують для:

  • image classification;
  • NLP;
  • speech;
  • domain adaptation;
  • medical images;
  • document processing;
  • LLM;
  • embeddings.

Fine-tuning потрібно робити обережно: модель може overfit або втратити частину загальних здібностей.

Data augmentation

Data augmentation — штучне розширення dataset через перетворення прикладів.

Для зображень:

  • crop;
  • rotate;
  • flip;
  • color jitter;
  • blur;
  • noise;
  • resize.

Для тексту:

  • paraphrasing;
  • back translation;
  • masking;
  • synonym replacement.

Data augmentation допомагає зменшити overfitting і покращити generalization.

Regularization

Regularization — методи, що допомагають моделі не перенавчатися.

Приклади:

  • L1;
  • L2;
  • dropout;
  • early stopping;
  • data augmentation;
  • label smoothing;
  • weight decay.

Regularization особливо важлива для великих моделей і малих dataset.

Dropout

Dropout — метод, який випадково вимикає частину neurons під час training.

Це змушує модель не покладатися на один вузький шлях і краще узагальнювати.

Dropout часто використовується в dense networks і деяких deep learning architectures.

Batch normalization

Batch normalization нормалізує activations усередині мережі.

Це може допомогти:

  • стабілізувати training;
  • пришвидшити convergence;
  • зменшити чутливість до initialization;
  • полегшити навчання глибоких мереж.

Learning rate

Learning rate — один із найважливіших hyperparameters.

Занадто великий learning rate:

  • training нестабільний;
  • loss може “стрибати”;
  • модель не сходиться.

Занадто малий learning rate:

  • training повільний;
  • модель може застрягти;
  • потрібно більше epochs.

Learning rate scheduler може змінювати learning rate під час training.

Hyperparameters

Hyperparameters — налаштування, які задає людина до training.

Приклади:

  • learning rate;
  • batch size;
  • number of layers;
  • hidden units;
  • dropout rate;
  • optimizer;
  • weight decay;
  • epochs;
  • architecture.

Hyperparameter tuning може суттєво вплинути на якість.

GPU і TPU

Deep learning часто потребує прискорювачів.

Найчастіше використовуються:

  • GPU;
  • TPU;
  • NPU;
  • спеціалізовані AI accelerators.

GPU важливі, бо neural network training — це багато матричних операцій.

Без GPU тренування великих моделей може бути дуже повільним.

PyTorch

PyTorch — популярний deep learning framework.

Він часто використовується для:

  • research;
  • production ML;
  • computer vision;
  • NLP;
  • LLM;
  • custom models;
  • training loops;
  • AI experimentation.

PyTorch tutorials пояснюють типовий ML workflow: робота з data, створення models, оптимізація parameters і збереження trained models. [6]

TensorFlow

TensorFlow — deep learning framework від Google.

Він використовується для:

  • training;
  • deployment;
  • mobile ML;
  • TensorFlow Lite;
  • TensorFlow Serving;
  • production ML;
  • Keras workflows.

TensorFlow guide зазначає, що TensorFlow 2 фокусується на simplicity, eager execution, high-level APIs і flexible model building. [7]

Keras

Keras — високорівневий API для deep learning.

Keras корисний для:

  • швидкого прототипування;
  • навчання;
  • Sequential API;
  • Functional API;
  • training через model.fit();
  • callbacks;
  • transfer learning;
  • production workflows.

Офіційна сторінка Keras описує його як deep learning API designed for human beings, not machines, із фокусом на debugging speed, elegance, maintainability і deployability. [8]

MLflow і MLOps

MLflow допомагає керувати deep learning експериментами.

Він може зберігати:

  • parameters;
  • metrics;
  • artifacts;
  • models;
  • training curves;
  • evaluation reports;
  • model registry;
  • deployment metadata.

Deep learning без MLOps швидко перетворюється на хаос: різні моделі, різні datasets, різні weights, різні metrics і незрозуміло, що саме працює в production.

Computer Vision

Deep learning зробив великий прорив у computer vision.

Задачі:

  • image classification;
  • object detection;
  • segmentation;
  • OCR;
  • face detection;
  • medical imaging;
  • defect detection;
  • autonomous driving;
  • satellite imagery.

CNN, Vision Transformers і diffusion models є основними підходами в цій сфері.

NLP

NLP — Natural Language Processing, обробка природної мови.

Deep learning використовується для:

  • machine translation;
  • summarization;
  • sentiment analysis;
  • question answering;
  • embeddings;
  • chatbots;
  • large language models;
  • document classification;
  • information extraction.

Сучасний NLP значною мірою базується на Transformer і великих мовних моделях.

Speech і Audio

Deep learning використовується для:

  • speech recognition;
  • text-to-speech;
  • speaker identification;
  • audio classification;
  • noise removal;
  • music generation;
  • voice conversion.

AI-аудіоінструменти на кшталт ElevenLabs і музичні генератори на кшталт Suno використовують deep learning під капотом.

Generative AI

Generative AI — AI, який створює новий контент.

Deep learning лежить в основі:

  • text generation;
  • image generation;
  • music generation;
  • video generation;
  • code generation;
  • voice synthesis;
  • 3D generation.

Приклади:

Deep Learning і LLM

Великі мовні моделі — це один із найважливіших сучасних прикладів deep learning.

LLM використовують:

  • Transformer;
  • embeddings;
  • attention;
  • large-scale training;
  • instruction tuning;
  • reinforcement learning або preference optimization;
  • long context;
  • tool use;
  • RAG.

Deep learning дав основу для GPT, Claude, Gemini, Llama, Mistral і DeepSeek.

Deep Learning у бізнесі

У бізнесі deep learning може використовуватися для:

  • прогнозування попиту;
  • computer vision;
  • OCR;
  • класифікації документів;
  • рекомендацій;
  • anomaly detection;
  • customer support;
  • fraud detection;
  • speech analytics;
  • text classification;
  • генеративних AI-помічників;
  • автоматизації обробки документів.

Але бізнес-цінність не виникає просто від “нейронної мережі”.

Потрібні:

  • якісні дані;
  • правильна метрика;
  • інтеграція в процес;
  • контроль помилок;
  • MLOps;
  • monitoring;
  • human review;
  • безпека.

Deep Learning і ERP-системи

Deep Learning не є ERP-системою.

Він не веде облік, не проводить документи, не керує складом і не рахує фінансову логіку.

У контексті K2 ERP deep learning може бути допоміжним AI-шаром:

  • OCR документів;
  • класифікація звернень;
  • прогноз попиту;
  • anomaly detection;
  • пошук по документації;
  • RAG;
  • AI-помічник для користувачів;
  • аналіз текстів;
  • прогнозування затримок;
  • рекомендації.

Але deep learning модель не повинна безконтрольно змінювати облікові дані, проводити документи або обходити права доступу.

Безпека

Deep learning системи мають ризики:

  • adversarial examples;
  • data leakage;
  • model inversion;
  • membership inference;
  • prompt injection для LLM;
  • bias;
  • hallucinations;
  • privacy leaks;
  • insecure model files;
  • unsafe agent tools;
  • supply chain risks;
  • використання неперевірених checkpoints.

Для production потрібні:

  • security review;
  • access control;
  • logging;
  • monitoring;
  • model registry;
  • data governance;
  • validation;
  • human approval;
  • rollback.

Bias

Bias — упередження в моделі.

Модель може навчитися упередженням із даних.

Приклади:

  • нерівномірна якість для різних мов;
  • перекіс у training data;
  • несправедлива класифікація;
  • неправильна робота з менш представленими групами;
  • помилки через історичні дані.

Bias потрібно вимірювати й зменшувати через dataset review, evaluation і fairness analysis.

Explainability

Deep learning моделі часто менш прозорі, ніж прості алгоритми.

Проблема: модель може давати хорошу prediction, але важко пояснити, чому саме.

Методи explainability:

  • feature attribution;
  • saliency maps;
  • SHAP;
  • LIME;
  • attention visualization;
  • counterfactual examples;
  • model cards;
  • evaluation reports.

Для regulated domains explainability може бути критичною.

Model Cards

Model Card — документ, який описує модель.

Він може містити:

  • призначення;
  • dataset;
  • architecture;
  • metrics;
  • limitations;
  • risks;
  • ethical considerations;
  • license;
  • intended use;
  • out-of-scope use.

Model cards допомагають відповідально використовувати deep learning models.

Production Deployment

Розгортання deep learning у production потребує:

  • API;
  • inference server;
  • model registry;
  • monitoring;
  • versioning;
  • latency control;
  • cost control;
  • scaling;
  • fallback;
  • rollback;
  • data drift monitoring;
  • security;
  • logging.

Навчити модель — це лише частина роботи. Production підтримка часто складніша.

Data Drift

Data drift — зміна розподілу даних після deployment.

Наприклад:

  • змінилися клієнти;
  • з’явилися нові товари;
  • змінилася мова звернень;
  • змінилися сезонні патерни;
  • система почала отримувати інші документи.

Data drift може погіршити якість моделі, навіть якщо вона була хорошою під час запуску.

Reproducibility

Повторюваність deep learning складна.

На результат впливають:

  • random seed;
  • GPU;
  • library versions;
  • dataset version;
  • preprocessing;
  • augmentation;
  • batch order;
  • model initialization;
  • nondeterministic operations;
  • mixed precision.

Для reproducibility потрібно зберігати:

  • код;
  • datasets;
  • parameters;
  • metrics;
  • weights;
  • environment;
  • seed;
  • artifacts;
  • logs.

Типові помилки в Deep Learning

Поширені помилки:

  • починати з надто складної моделі;
  • не мати baseline;
  • не перевіряти data leakage;
  • не ділити train/validation/test;
  • обирати неправильну metric;
  • не нормалізувати дані;
  • не контролювати overfitting;
  • тренувати без GPU-плану;
  • не логувати експерименти;
  • не перевіряти production drift;
  • використовувати модель там, де достатньо SQL;
  • не робити human review у критичних задачах.

Хороші практики

Під час роботи з deep learning варто:

  1. Починати із простого baseline.
  2. Перевіряти якість dataset.
  3. Правильно ділити train, validation і test.
  4. Вибирати metric під бізнес-задачу.
  5. Контролювати overfitting.
  6. Використовувати transfer learning, якщо даних мало.
  7. Логувати experiments через MLflow або аналог.
  8. Зберігати model artifacts і parameters.
  9. Робити evaluation на реальних edge cases.
  10. Перевіряти bias.
  11. Не використовувати model output без контролю в критичних рішеннях.
  12. Налаштовувати monitoring після deployment.
  13. Документувати модель через model card.
  14. Регулярно перевіряти drift.

Коли Deep Learning особливо корисний

Deep learning особливо корисний для:

  • зображень;
  • відео;
  • аудіо;
  • тексту;
  • мови;
  • складних патернів;
  • великих datasets;
  • embeddings;
  • генеративного AI;
  • LLM;
  • computer vision;
  • OCR;
  • speech recognition;
  • рекомендацій;
  • anomaly detection;
  • AI-агентів.

Коли Deep Learning може бути зайвим

Deep learning може бути зайвим, якщо:

  • задача вирішується SQL;
  • достатньо простого правила;
  • dataset малий;
  • потрібна повна explainability;
  • потрібна проста статистика;
  • класичне ML дає хорошу якість;
  • немає GPU або бюджету;
  • немає якісних даних;
  • немає production-процесу;
  • результат критичний, але немає human review.

Практичний принцип: не треба використовувати deep learning тільки тому, що це модно. Почніть із найпростішого підходу, який вирішує задачу.

Практичний висновок

Deep Learning — фундаментальна технологія сучасного AI.

Сильні сторони:

  • автоматичне вивчення ознак;
  • робота зі складними даними;
  • computer vision;
  • NLP;
  • speech;
  • embeddings;
  • generative AI;
  • LLM;
  • transfer learning;
  • масштабованість;
  • висока якість у багатьох задачах.

Обмеження:

  • потреба в даних;
  • GPU-витрати;
  • складність training;
  • overfitting;
  • bias;
  • низька explainability;
  • data leakage;
  • production drift;
  • MLOps-складність;
  • потреба в безпеці й monitoring.

Deep learning найкраще використовувати там, де є достатньо даних, складний патерн і реальна користь від навчання моделі. Це потужний інструмент, але не заміна здоровому глузду, якісним даним, тестуванню, безпеці й відповідальності.

Пояснення термінів

  • Deep Learning — глибинне навчання, піднапрям machine learning на основі багатошарових нейронних мереж.
  • Machine Learning — машинне навчання.
  • Neural Network — нейронна мережа.
  • Layer — шар нейронної мережі.
  • Weights — параметри моделі, які змінюються під час навчання.
  • Bias — додатковий параметр нейрона або упередження моделі залежно від контексту.
  • Activation Function — функція, що додає нелінійність.
  • Loss Function — функція помилки.
  • Backpropagation — алгоритм обчислення gradients для оновлення weights.
  • Gradient Descent — метод оптимізації.
  • Epoch — один повний прохід по training dataset.
  • Batch — частина dataset для одного training step.
  • Overfitting — перенавчання на training data.
  • Underfitting — недостатнє навчання моделі.
  • Data Leakage — витік інформації з validation/test у training.
  • CNN — convolutional neural network.
  • RNN — recurrent neural network.
  • LSTM — long short-term memory network.
  • Transformer — архітектура з attention-механізмом.
  • Attention — механізм фокусування на важливих частинах input.
  • Autoencoder — модель для стискання й відновлення даних.
  • GAN — generative adversarial network.
  • Diffusion Model — генеративна модель, що працює через denoising.
  • Embedding — числове представлення об’єкта.
  • Transfer Learning — використання pretrained model для нової задачі.
  • Fine-tuning — донавчання моделі.
  • Data Augmentation — штучне розширення dataset.
  • Regularization — методи проти overfitting.
  • Dropout — випадкове вимикання neurons під час training.
  • GPU — графічний процесор для прискорення обчислень.
  • MLOps — практики розгортання й супроводу ML-моделей.
  • Data Drift — зміна розподілу production data.
  • Model Card — документ з описом моделі, її призначенням і обмеженнями.

Дивіться також

Джерела