Рассмотрен полный каскад разработки моделей искусственного интеллекта. Проанализирована область Data Science, из которой выделены все необходимые для прикладной сферы алгоритмы машинного обучения, расположенные по уровню возрастания сложности работы с ними.
Для студентов, изучающих информационные технологии. Может быть полезно как начинающим программистам, так и специалистам высокого уровня.

РАЗБИЕНИЕ ВЫБОРКИ.
Ещё одним важным моментом в машинном обучении при работе с данными является разбиение данных на обучающие, проверочные и валидационные наборы.
Представим, что у нас есть все данные (миллион значений) и нам нужно по этим данным понять какая модель машинного обучения лучше работает и самое главное - какую точность эта модель дает. Если мы, например, обучаем модель на всем миллионе назначений, потом проверим как модель обучилась, то в ряде случаев можно получить точность в 100%. И внешне всё кажется идеальным.
Но соотносится ли представленная точность с реальной жизнью будет совершенно непонятно. Модель может переобучиться (о переобучении в следующих главах) и её точность на всех данных, которые ей передали, будет максимальной, но при этом она не будет обладать никакой практической точностью в реальной жизни.
ОГЛАВЛЕНИЕ.
Предисловие.
Часть 1. Процесс машинного обучения.
Задачи машинного обучения.
Модель и процесс машинного обучения.
Понятие ETL.
Понятие EDA.
Подготовка данных.
Разбиение выборки.
Оптимизация гиперпараметров.
Недообучение и переобучение.
Смещение, разброс и ошибка данных.
Использование HDF.
Часть 2. Метрики и модели общие.
Метод максимального правдоподобия.
Метод наименьших квадратов.
Аппроксимация пропусков в данных.
Среднеквадратичная ошибка.
Метрики и расстояния.
Часть практических навыков к 1-2.
Процесс ETL.
Интерполяция и экстраполяция.
Оценка модели.
Линейная регрессия.
Оптимизация потребления памяти.
EDA и исследование зависимостей в данных.
Заполнение пропусков в данных.
Часть 3. Модели линейной регрессии.
Линейная регрессия и L1_L2-регуляризация.
Изотоническая регрессия.
BIC и AIC.
Полиномиальная регрессия.
Линеаризация регрессии.
Часть практических навыков к 3.
Обогащение данных.
Иерархия моделей.
Оптимизация регрессии.
Экспорт и импорт данных.
Ансамбль регрессионных моделей.
Расчет результатов.
Часть 4. Модели классификации и её метрики.
Точность и полнота.
F-мера.
ROC AUC и Gini.
Оценка Каппа Коэна.
Взвешенная квадратичная оценка Каппа Коэна.
Логистическая функция потерь.
Метод ближайших соседей.
Часть практических навыков к 4.
Страховой скоринг.
F1 и Каппа оценки классификации.
Метод ближайших соседей.
Наивный Байес в задаче классификации скоринга и оптимизации
потребления памяти.
Логистическая регрессия.
Иерархия логистической ргерессии.
Метод опорных векторов (Support-Vector Machine).
Часть 5. Ансамблевые модели.
Ансамблевые модели.
Бутсрэп.
Бэггинг.
Случайный лес.
Out-of-Bag.
Сверхслучайные деревья.
Адаптивный бустинг.
LogitBoost, BrownBoost и L2Boost.
Градиентный спуск.
Градиентный бустинг и XGBoost.
Стохастический градиентный бустинг.
Часть практических навыков к 5.
Решающие деревья.
Случайный лес.
Бустинг с XGBoost.
Часть 6. Продвинутые ансамбли.
LightGBM.
CatBoost.
Ансамбль стеки ига.
Часть практических навыков к 6.
LightGBM.
CatBoost.
Ансамбль классификации.
Расчет результатов.
Часть 7. Искусственные нейронные сети.
Искусственные нейронные сети.
Слои в нейросетях.
Нейрон смещения.
Функции активации.
Обратное распространение ошибки.
Многослойный перцептрон.
Часть практических навыков к 7.
Задача предсказания формы облаков.
Предобработка изображений.
Опорные векторы и коэффициент сходства.
Двухслойный перцептрон.
Часть 8. Обучение нейросети.
Эпохи, пакеты, итерации.
Оптимизация нейронной сети по Нестерову.
Адаптивная оптимизация нейронной сети.
RMSprop, Adadelta, Adam.
Оптимизация нейронных сетей.
Пакетная нормализация.
Регуляризация обучения нейронных сетей.
Методы инициализации весов в нейронных сетях.
Дополнение данных.
Свертка и подвыборка.
Сверточные нейронные сети.
Часть практических навыков к 8
Свертка и предвыборка.
Активация и оптимизаторы.
Нормализация и переобучение.
Дополнение изображений.
Часть 9. Архитектуры сверточных нейросетей.
LeNet.
AlexNet.
VGG.
GoogLeNet.
Inception.
ResNet.
ResNetXt.
SE-ResNet.
EfficientNet.
DenseNet.
MobileNet.
Часть практических навыков к 9.
LeNet и AlexNet.
VGG16 и VGG19.
GoogLeNet и Inception-BN.
Inception V3 и V4.
ResNet.
Архитектура нейросети.
MobileNet для различных предметных областей.
Библиографический список.
Приложение 1. Варианты заданий для самостоятельной реализации алгоритмов машинного обучения.
Приложение 2. Варианты заданий для исследовательских работ в области машинного обучения.
Приложение 3. Варианты заданий, включающие в себя самостоятельный этап Data Mining, для построения End-To-End решений в области машинного обучения.
Бесплатно скачать электронную книгу в удобном формате, смотреть и читать:
Скачать книгу Алгоритмы Data Science и их практическая реализация на Python, Протодьяконов А.В., Пылов П.А., Садовников В.Е., 2022 - fileskachat.com, быстрое и бесплатное скачивание.
Скачать pdf
Ниже можно купить эту книгу, если она есть в продаже, и похожие книги по лучшей цене со скидкой с доставкой по всей России.Купить книги
Скачать - pdf - Яндекс.Диск.
Дата публикации:
Хештеги: #учебник по программированию :: #программирование :: #Протодьяконов :: #Пылов :: #Садовников :: #нейросеть :: #алгоритм
Смотрите также учебники, книги и учебные материалы:
Предыдущие статьи:








