Deep Learning
Deep Learning або глибинне навчання — це напрям машинного навчання, який використовує багатошарові нейронні мережі для розпізнавання закономірностей у даних, навчання на прикладах і побудови складних AI-систем.
Deep Learning лежить в основі багатьох сучасних AI-технологій: комп’ютерного зору, розпізнавання мовлення, машинного перекладу, великих мовних моделей, рекомендаційних систем, генерації зображень, AI-відео, медичного аналізу, робототехніки та генеративного AI.
Коротко: deep learning — це машинне навчання з багатошаровими нейронними мережами. Замість ручного опису всіх правил модель вчиться знаходити патерни в даних сама.
IBM визначає deep learning як підмножину machine learning, що використовує багатошарові нейронні мережі й лежить в основі багатьох state-of-the-art AI-систем: від computer vision і generative AI до self-driving cars і robotics. [1]
Головна ідея
Головна ідея deep learning — навчити модель самостійно виділяти корисні ознаки з даних.
У класичному підході людина часто вручну створює features:
- форма об’єкта;
- колір;
- частота слова;
- довжина речення;
- кількість кліків;
- статистичні показники;
- правила класифікації.
У deep learning модель сама вчиться будувати внутрішні представлення даних через багато шарів.
Наприклад, у задачі розпізнавання зображень ранні шари можуть реагувати на краї та прості форми, середні — на частини об’єктів, а глибші — на складні об’єкти.
Проста аналогія: класичне програмування каже комп’ютеру правила. Deep learning показує багато прикладів, а модель сама вчиться знаходити правила всередині даних.
Deep Learning і Machine Learning
Machine Learning — ширша галузь.
Deep Learning — її піднапрям, який використовує deep neural networks.
| Підхід | Ідея | Типові задачі |
|---|---|---|
| Класичне ML | Людина часто явно готує features, модель вчиться на них | tabular data, scoring, прості класифікації, регресія |
| Deep Learning | Нейронна мережа сама вчиться складних представлень | зображення, мова, текст, аудіо, відео, генеративний AI |
Deep learning не завжди кращий за класичне ML. Для табличних бізнес-задач іноді XGBoost, LightGBM або логістична регресія можуть бути простішими, швидшими й зрозумілішими.
Нейронна мережа
Нейронна мережа — це модель, яка складається з шарів і вузлів.
Вона приймає вхідні дані, пропускає їх через layers і повертає prediction.
Google Machine Learning Crash Course пояснює neural networks через key components: nodes, hidden layers, activation functions, inference process і training через backpropagation. [2]
Типова нейронна мережа має:
- input layer;
- hidden layers;
- output layer;
- weights;
- biases;
- activation functions;
- loss function;
- optimizer.
Шари
Layer — це шар нейронної мережі.
Типи шарів:
- Dense;
- Convolutional;
- Pooling;
- Recurrent;
- Embedding;
- Attention;
- Normalization;
- Dropout;
- Transformer blocks.
Багато шарів дозволяють моделі будувати складні представлення.
Саме тому навчання називається deep — модель має глибину.
Weights і Biases
Weights — числові параметри, які модель змінює під час навчання.
Biases — додаткові параметри, які допомагають зсувати результат.
Під час training модель поступово змінює weights і biases так, щоб її predictions ставали ближчими до правильних відповідей.
Activation function
Activation function додає нелінійність.
Без activation functions нейронна мережа була б значно обмеженішою.
Поширені activation functions:
- ReLU;
- sigmoid;
- tanh;
- softmax;
- GELU;
- Swish.
ReLU часто використовується в базових deep learning моделях.
Softmax часто використовується в output layer для багатокласової класифікації.
Loss function
Loss function показує, наскільки prediction моделі відрізняється від правильного результату.
Приклади:
- Mean Squared Error — для регресії;
- Cross Entropy — для класифікації;
- Binary Cross Entropy — для binary classification;
- Categorical Cross Entropy — для multi-class classification;
- Contrastive loss — для embeddings і similarity learning.
Практична думка: якщо вибрати неправильну loss function, модель може “чесно” оптимізувати не те, що потрібно бізнесу.
Backpropagation
Backpropagation — алгоритм, який дозволяє нейронній мережі зрозуміти, як змінювати weights, щоб зменшити loss.
Спрощено:
- модель робить prediction;
- loss function рахує помилку;
- backpropagation обчислює gradients;
- optimizer оновлює weights;
- процес повторюється багато разів.
PyTorch tutorial пояснює, що neural network package містить modules і loss functions, які є будівельними блоками deep neural networks. [3]
Gradient descent
Gradient descent — метод оптимізації, який рухає параметри моделі в напрямку зменшення помилки.
Варіанти:
- Batch Gradient Descent;
- Stochastic Gradient Descent;
- Mini-batch Gradient Descent;
- Adam;
- AdamW;
- RMSprop.
У сучасному deep learning часто використовують Adam або AdamW.
Epoch і Batch
Epoch — один повний прохід по training dataset.
Batch — невелика частина dataset, яку модель обробляє за один крок.
Наприклад, якщо dataset має 100 000 прикладів, а batch size = 100, одна epoch містить приблизно 1000 training steps.
Batch size впливає на:
- швидкість;
- стабільність навчання;
- пам’ять GPU;
- якість generalization.
Dataset
Dataset — набір даних для навчання, перевірки або тестування.
Зазвичай dataset ділять на:
- training set;
- validation set;
- test set.
Training set використовується для навчання.
Validation set — для налаштування й контролю якості.
Test set — для фінальної оцінки.
Важливо: deep learning не рятує погані дані. Якщо dataset шумний, упереджений або має витоки, модель навчиться на цих проблемах.
Overfitting
Overfitting — ситуація, коли модель добре працює на training data, але погано на нових даних.
Ознаки:
- training loss падає;
- validation loss росте;
- training accuracy висока;
- validation accuracy нижча;
- модель запам’ятовує приклади замість узагальнення.
Методи боротьби:
- більше даних;
- data augmentation;
- dropout;
- regularization;
- early stopping;
- простіша модель;
- transfer learning;
- правильний train/test split.
Underfitting
Underfitting — ситуація, коли модель занадто проста або погано навчена.
Ознаки:
- погана якість на training data;
- погана якість на validation data;
- модель не вивчила закономірності;
- loss залишається високим.
Причини:
- модель занадто мала;
- мало epochs;
- неправильний learning rate;
- погані features;
- неправильна архітектура;
- помилки в preprocessing.
Data leakage
Data leakage — витік інформації з test або validation set у training.
Приклади:
- дублікати в train і test;
- нормалізація до split;
- future data у time series;
- feature, який фактично містить відповідь;
- неправильний split по користувачах;
- leakage через timestamps.
Data leakage може зробити метрики штучно хорошими, а production-якість — поганою.
CNN
CNN або Convolutional Neural Network — згорткова нейронна мережа.
CNN історично дуже важливі для computer vision.
Вони використовуються для:
- класифікації зображень;
- object detection;
- segmentation;
- OCR;
- medical imaging;
- defect detection;
- face recognition;
- satellite images.
CNN добре працюють із локальними патернами: краями, текстурами, формами.
RNN
RNN або Recurrent Neural Network — рекурентна нейронна мережа.
RNN використовувалися для послідовностей:
- текст;
- часові ряди;
- аудіо;
- signals;
- language modeling.
Класичні RNN мали проблеми з довгими залежностями, тому з’явилися LSTM і GRU.
Сьогодні багато NLP-задач перейшли на Transformer, але RNN залишаються важливою історичною й концептуальною архітектурою.
LSTM і GRU
LSTM і GRU — покращені рекурентні архітектури.
Вони краще зберігають інформацію в послідовностях, ніж прості RNN.
Використовуються для:
- time series;
- speech;
- NLP;
- sequence classification;
- forecasting;
- anomaly detection.
Для багатьох сучасних мовних задач Transformer витіснив LSTM, але в деяких time-series або embedded сценаріях LSTM досі корисні.
Transformer
Transformer — архітектура, яка стала основою сучасних великих мовних моделей.
Transformer використовує attention-механізм для роботи з послідовностями.
Він лежить в основі:
- GPT;
- Claude Models;
- Google Gemini;
- Llama;
- Mistral AI;
- DeepSeek Models;
- багатьох translation і NLP-систем;
- vision transformers;
- multimodal AI.
IBM описує Transformer як архітектуру, що особливо добре працює із sequential data й стала фундаментальною для LLM. [4]
Attention
Attention дозволяє моделі фокусуватися на важливих частинах input.
У тексті attention допомагає зв’язувати слова, які можуть стояти далеко одне від одного.
У зображеннях attention може допомагати виділяти важливі regions.
Transformer став настільки важливим, що робота “Attention Is All You Need” стала однією з ключових основ сучасного AI. [5]
Autoencoders
Autoencoder — нейронна мережа, яка вчиться стискати дані й відновлювати їх.
Autoencoders використовуються для:
- compression;
- denoising;
- anomaly detection;
- embeddings;
- representation learning;
- generative models.
Ідея: модель вчиться представляти дані в компактному latent space.
GAN
GAN або Generative Adversarial Network — генеративна архітектура з двома мережами:
- generator;
- discriminator.
Generator створює дані.
Discriminator намагається відрізнити реальні дані від згенерованих.
GAN були важливими для генерації зображень до широкого поширення diffusion models.
Diffusion models
Diffusion models — генеративні моделі, які вчаться створювати дані через поступове видалення шуму.
Вони лежать в основі багатьох сучасних image generation систем, зокрема Stable Diffusion Models.
Diffusion models використовуються для:
- генерації зображень;
- image editing;
- inpainting;
- video generation;
- audio;
- scientific generation.
Embeddings
Embedding — числове представлення об’єкта.
Embedding може представляти:
- слово;
- речення;
- документ;
- зображення;
- користувача;
- товар;
- аудіофрагмент.
Embeddings використовуються для:
- semantic search;
- RAG;
- рекомендацій;
- класифікації;
- clustering;
- anomaly detection;
- similarity search.
Transfer learning
Transfer learning — використання вже навченої моделі для нової задачі.
Наприклад:
- взяти pretrained image model;
- замінити output layer;
- донавчити на власних категоріях.
Transfer learning корисний, коли:
- мало даних;
- training з нуля дорогий;
- задача схожа на вже відому;
- потрібен швидкий baseline.
Fine-tuning
Fine-tuning — донавчання моделі на спеціальних даних.
У deep learning fine-tuning використовують для:
- image classification;
- NLP;
- speech;
- domain adaptation;
- medical images;
- document processing;
- LLM;
- embeddings.
Fine-tuning потрібно робити обережно: модель може overfit або втратити частину загальних здібностей.
Data augmentation
Data augmentation — штучне розширення dataset через перетворення прикладів.
Для зображень:
- crop;
- rotate;
- flip;
- color jitter;
- blur;
- noise;
- resize.
Для тексту:
- paraphrasing;
- back translation;
- masking;
- synonym replacement.
Data augmentation допомагає зменшити overfitting і покращити generalization.
Regularization
Regularization — методи, що допомагають моделі не перенавчатися.
Приклади:
- L1;
- L2;
- dropout;
- early stopping;
- data augmentation;
- label smoothing;
- weight decay.
Regularization особливо важлива для великих моделей і малих dataset.
Dropout
Dropout — метод, який випадково вимикає частину neurons під час training.
Це змушує модель не покладатися на один вузький шлях і краще узагальнювати.
Dropout часто використовується в dense networks і деяких deep learning architectures.
Batch normalization
Batch normalization нормалізує activations усередині мережі.
Це може допомогти:
- стабілізувати training;
- пришвидшити convergence;
- зменшити чутливість до initialization;
- полегшити навчання глибоких мереж.
Learning rate
Learning rate — один із найважливіших hyperparameters.
Занадто великий learning rate:
- training нестабільний;
- loss може “стрибати”;
- модель не сходиться.
Занадто малий learning rate:
- training повільний;
- модель може застрягти;
- потрібно більше epochs.
Learning rate scheduler може змінювати learning rate під час training.
Hyperparameters
Hyperparameters — налаштування, які задає людина до training.
Приклади:
- learning rate;
- batch size;
- number of layers;
- hidden units;
- dropout rate;
- optimizer;
- weight decay;
- epochs;
- architecture.
Hyperparameter tuning може суттєво вплинути на якість.
GPU і TPU
Deep learning часто потребує прискорювачів.
Найчастіше використовуються:
- GPU;
- TPU;
- NPU;
- спеціалізовані AI accelerators.
GPU важливі, бо neural network training — це багато матричних операцій.
Без GPU тренування великих моделей може бути дуже повільним.
PyTorch
PyTorch — популярний deep learning framework.
Він часто використовується для:
- research;
- production ML;
- computer vision;
- NLP;
- LLM;
- custom models;
- training loops;
- AI experimentation.
PyTorch tutorials пояснюють типовий ML workflow: робота з data, створення models, оптимізація parameters і збереження trained models. [6]
TensorFlow
TensorFlow — deep learning framework від Google.
Він використовується для:
- training;
- deployment;
- mobile ML;
- TensorFlow Lite;
- TensorFlow Serving;
- production ML;
- Keras workflows.
TensorFlow guide зазначає, що TensorFlow 2 фокусується на simplicity, eager execution, high-level APIs і flexible model building. [7]
Keras
Keras — високорівневий API для deep learning.
Keras корисний для:
- швидкого прототипування;
- навчання;
- Sequential API;
- Functional API;
- training через
model.fit(); - callbacks;
- transfer learning;
- production workflows.
Офіційна сторінка Keras описує його як deep learning API designed for human beings, not machines, із фокусом на debugging speed, elegance, maintainability і deployability. [8]
MLflow і MLOps
MLflow допомагає керувати deep learning експериментами.
Він може зберігати:
- parameters;
- metrics;
- artifacts;
- models;
- training curves;
- evaluation reports;
- model registry;
- deployment metadata.
Deep learning без MLOps швидко перетворюється на хаос: різні моделі, різні datasets, різні weights, різні metrics і незрозуміло, що саме працює в production.
Computer Vision
Deep learning зробив великий прорив у computer vision.
Задачі:
- image classification;
- object detection;
- segmentation;
- OCR;
- face detection;
- medical imaging;
- defect detection;
- autonomous driving;
- satellite imagery.
CNN, Vision Transformers і diffusion models є основними підходами в цій сфері.
NLP
NLP — Natural Language Processing, обробка природної мови.
Deep learning використовується для:
- machine translation;
- summarization;
- sentiment analysis;
- question answering;
- embeddings;
- chatbots;
- large language models;
- document classification;
- information extraction.
Сучасний NLP значною мірою базується на Transformer і великих мовних моделях.
Speech і Audio
Deep learning використовується для:
- speech recognition;
- text-to-speech;
- speaker identification;
- audio classification;
- noise removal;
- music generation;
- voice conversion.
AI-аудіоінструменти на кшталт ElevenLabs і музичні генератори на кшталт Suno використовують deep learning під капотом.
Generative AI
Generative AI — AI, який створює новий контент.
Deep learning лежить в основі:
- text generation;
- image generation;
- music generation;
- video generation;
- code generation;
- voice synthesis;
- 3D generation.
Приклади:
Deep Learning і LLM
Великі мовні моделі — це один із найважливіших сучасних прикладів deep learning.
LLM використовують:
- Transformer;
- embeddings;
- attention;
- large-scale training;
- instruction tuning;
- reinforcement learning або preference optimization;
- long context;
- tool use;
- RAG.
Deep learning дав основу для GPT, Claude, Gemini, Llama, Mistral і DeepSeek.
Deep Learning у бізнесі
У бізнесі deep learning може використовуватися для:
- прогнозування попиту;
- computer vision;
- OCR;
- класифікації документів;
- рекомендацій;
- anomaly detection;
- customer support;
- fraud detection;
- speech analytics;
- text classification;
- генеративних AI-помічників;
- автоматизації обробки документів.
Але бізнес-цінність не виникає просто від “нейронної мережі”.
Потрібні:
- якісні дані;
- правильна метрика;
- інтеграція в процес;
- контроль помилок;
- MLOps;
- monitoring;
- human review;
- безпека.
Deep Learning і ERP-системи
Deep Learning не є ERP-системою.
Він не веде облік, не проводить документи, не керує складом і не рахує фінансову логіку.
У контексті K2 ERP deep learning може бути допоміжним AI-шаром:
- OCR документів;
- класифікація звернень;
- прогноз попиту;
- anomaly detection;
- пошук по документації;
- RAG;
- AI-помічник для користувачів;
- аналіз текстів;
- прогнозування затримок;
- рекомендації.
Але deep learning модель не повинна безконтрольно змінювати облікові дані, проводити документи або обходити права доступу.
Безпека
Deep learning системи мають ризики:
- adversarial examples;
- data leakage;
- model inversion;
- membership inference;
- prompt injection для LLM;
- bias;
- hallucinations;
- privacy leaks;
- insecure model files;
- unsafe agent tools;
- supply chain risks;
- використання неперевірених checkpoints.
Для production потрібні:
- security review;
- access control;
- logging;
- monitoring;
- model registry;
- data governance;
- validation;
- human approval;
- rollback.
Bias
Bias — упередження в моделі.
Модель може навчитися упередженням із даних.
Приклади:
- нерівномірна якість для різних мов;
- перекіс у training data;
- несправедлива класифікація;
- неправильна робота з менш представленими групами;
- помилки через історичні дані.
Bias потрібно вимірювати й зменшувати через dataset review, evaluation і fairness analysis.
Explainability
Deep learning моделі часто менш прозорі, ніж прості алгоритми.
Проблема: модель може давати хорошу prediction, але важко пояснити, чому саме.
Методи explainability:
- feature attribution;
- saliency maps;
- SHAP;
- LIME;
- attention visualization;
- counterfactual examples;
- model cards;
- evaluation reports.
Для regulated domains explainability може бути критичною.
Model Cards
Model Card — документ, який описує модель.
Він може містити:
- призначення;
- dataset;
- architecture;
- metrics;
- limitations;
- risks;
- ethical considerations;
- license;
- intended use;
- out-of-scope use.
Model cards допомагають відповідально використовувати deep learning models.
Production Deployment
Розгортання deep learning у production потребує:
- API;
- inference server;
- model registry;
- monitoring;
- versioning;
- latency control;
- cost control;
- scaling;
- fallback;
- rollback;
- data drift monitoring;
- security;
- logging.
Навчити модель — це лише частина роботи. Production підтримка часто складніша.
Data Drift
Data drift — зміна розподілу даних після deployment.
Наприклад:
- змінилися клієнти;
- з’явилися нові товари;
- змінилася мова звернень;
- змінилися сезонні патерни;
- система почала отримувати інші документи.
Data drift може погіршити якість моделі, навіть якщо вона була хорошою під час запуску.
Reproducibility
Повторюваність deep learning складна.
На результат впливають:
- random seed;
- GPU;
- library versions;
- dataset version;
- preprocessing;
- augmentation;
- batch order;
- model initialization;
- nondeterministic operations;
- mixed precision.
Для reproducibility потрібно зберігати:
- код;
- datasets;
- parameters;
- metrics;
- weights;
- environment;
- seed;
- artifacts;
- logs.
Типові помилки в Deep Learning
Поширені помилки:
- починати з надто складної моделі;
- не мати baseline;
- не перевіряти data leakage;
- не ділити train/validation/test;
- обирати неправильну metric;
- не нормалізувати дані;
- не контролювати overfitting;
- тренувати без GPU-плану;
- не логувати експерименти;
- не перевіряти production drift;
- використовувати модель там, де достатньо SQL;
- не робити human review у критичних задачах.
Хороші практики
Під час роботи з deep learning варто:
- Починати із простого baseline.
- Перевіряти якість dataset.
- Правильно ділити train, validation і test.
- Вибирати metric під бізнес-задачу.
- Контролювати overfitting.
- Використовувати transfer learning, якщо даних мало.
- Логувати experiments через MLflow або аналог.
- Зберігати model artifacts і parameters.
- Робити evaluation на реальних edge cases.
- Перевіряти bias.
- Не використовувати model output без контролю в критичних рішеннях.
- Налаштовувати monitoring після deployment.
- Документувати модель через model card.
- Регулярно перевіряти drift.
Коли Deep Learning особливо корисний
Deep learning особливо корисний для:
- зображень;
- відео;
- аудіо;
- тексту;
- мови;
- складних патернів;
- великих datasets;
- embeddings;
- генеративного AI;
- LLM;
- computer vision;
- OCR;
- speech recognition;
- рекомендацій;
- anomaly detection;
- AI-агентів.
Коли Deep Learning може бути зайвим
Deep learning може бути зайвим, якщо:
- задача вирішується SQL;
- достатньо простого правила;
- dataset малий;
- потрібна повна explainability;
- потрібна проста статистика;
- класичне ML дає хорошу якість;
- немає GPU або бюджету;
- немає якісних даних;
- немає production-процесу;
- результат критичний, але немає human review.
Практичний принцип: не треба використовувати deep learning тільки тому, що це модно. Почніть із найпростішого підходу, який вирішує задачу.
Практичний висновок
Deep Learning — фундаментальна технологія сучасного AI.
Сильні сторони:
- автоматичне вивчення ознак;
- робота зі складними даними;
- computer vision;
- NLP;
- speech;
- embeddings;
- generative AI;
- LLM;
- transfer learning;
- масштабованість;
- висока якість у багатьох задачах.
Обмеження:
- потреба в даних;
- GPU-витрати;
- складність training;
- overfitting;
- bias;
- низька explainability;
- data leakage;
- production drift;
- MLOps-складність;
- потреба в безпеці й monitoring.
Deep learning найкраще використовувати там, де є достатньо даних, складний патерн і реальна користь від навчання моделі. Це потужний інструмент, але не заміна здоровому глузду, якісним даним, тестуванню, безпеці й відповідальності.
Пояснення термінів
- Deep Learning — глибинне навчання, піднапрям machine learning на основі багатошарових нейронних мереж.
- Machine Learning — машинне навчання.
- Neural Network — нейронна мережа.
- Layer — шар нейронної мережі.
- Weights — параметри моделі, які змінюються під час навчання.
- Bias — додатковий параметр нейрона або упередження моделі залежно від контексту.
- Activation Function — функція, що додає нелінійність.
- Loss Function — функція помилки.
- Backpropagation — алгоритм обчислення gradients для оновлення weights.
- Gradient Descent — метод оптимізації.
- Epoch — один повний прохід по training dataset.
- Batch — частина dataset для одного training step.
- Overfitting — перенавчання на training data.
- Underfitting — недостатнє навчання моделі.
- Data Leakage — витік інформації з validation/test у training.
- CNN — convolutional neural network.
- RNN — recurrent neural network.
- LSTM — long short-term memory network.
- Transformer — архітектура з attention-механізмом.
- Attention — механізм фокусування на важливих частинах input.
- Autoencoder — модель для стискання й відновлення даних.
- GAN — generative adversarial network.
- Diffusion Model — генеративна модель, що працює через denoising.
- Embedding — числове представлення об’єкта.
- Transfer Learning — використання pretrained model для нової задачі.
- Fine-tuning — донавчання моделі.
- Data Augmentation — штучне розширення dataset.
- Regularization — методи проти overfitting.
- Dropout — випадкове вимикання neurons під час training.
- GPU — графічний процесор для прискорення обчислень.
- MLOps — практики розгортання й супроводу ML-моделей.
- Data Drift — зміна розподілу production data.
- Model Card — документ з описом моделі, її призначенням і обмеженнями.
Дивіться також
- Великі мовні моделі
- GPT
- Claude Models
- Google Gemini
- Llama
- Mistral AI
- DeepSeek Models
- Stable Diffusion Models
- PyTorch
- Keras
- MLflow
- LangChain
- Ollama
- GitHub Copilot
- Cursor
- Tabnine
- Штучний інтелект
- Генеративний AI
- API K2 ERP
- Інтеграції K2 ERP
- Розробка в K2 ERP
- Тестування коду
- Звітність K2 ERP
Джерела
- IBM — What is Deep Learning
- IBM — What is a Neural Network
- Google Machine Learning Crash Course — Neural Networks
- Google Machine Learning Crash Course
- IBM — What is a Transformer Model
- Attention Is All You Need
- PyTorch Tutorials — Neural Networks
- PyTorch Tutorials — Learn the Basics
- TensorFlow Core Guide
- TensorFlow Guide — Keras
- Keras — Deep Learning for humans
- Stanford HAI — 2025 AI Index Report
- MediaWiki — Help:Formatting
- MediaWiki — Help:Links
- ↑ https://www.ibm.com/think/topics/deep-learning
- ↑ https://developers.google.com/machine-learning/crash-course/neural-networks
- ↑ https://docs.pytorch.org/tutorials/beginner/blitz/neural_networks_tutorial.html
- ↑ https://www.ibm.com/think/topics/transformer-model
- ↑ https://arxiv.org/abs/1706.03762
- ↑ https://docs.pytorch.org/tutorials/beginner/basics/intro.html
- ↑ https://www.tensorflow.org/guide
- ↑ https://keras.io/