Элементы методов оптимизации, Ахметов И.З., Галимянов А.Ф., 2023

Элементы методов оптимизации, Ахметов И.З., Галимянов А.Ф., 2023.

   В данной учебном пособии будет попытка последовательно, понятно изложить симплекс-метод. По опыту авторов книги простое заучивание симплекс-метода как некой таблицы с кучей разных условий и алгоритмов крайне неэффективно. В этом учебном пособии предложен другой подход к его понимаю: с помощью понятия градиента. Так же в книге дано подробное описание линейной регрессии с различных сторон, рассмотрены теоретические проблемы ее применения.
Книга не претендует на абсолютную математическую строгость и точность. Главной целью было сделать материал доступным для понимания студентами. Материал снабжен минимально необходимой теорией, и. насколько это возможно, освобожден от излишней математизации. Акцент сделан па понимание интуиции и идей, стоящих за линейной регрессией и симплекс-методом.

Элементы методов оптимизации, Ахметов И.З., Галимянов А.Ф., 2023


Метод наименьших квадратов.
В этой и особенно следующей главах очень желательно обладать базовыми знаниями теории вероятностей и математической статистики.

Метод наименьших квадратов, сокращенно МНК - часто используемый метод для нахождения параметров неизвестной функции при известных значениях в некоторых точках. На самом деле с помощью данного метода мы вывели уравнение линейной регрессии в прошлой главе, но там мы использовали матричные производные. Здесь же будет дан вывод беря производные поэлементно.

На рисунке выше проиллюстрирован смысл метода наименьших квадратов. Нужно найти такую функцию, что сумма значений расстояний (здесь это черные отрезки между синими точками и красной прямой) между значениями искомой функции f(х) и данными у в точках х была наименьшей. Вернее, ищут сумму квадратов расстояний, т.к доказано, что именно они, а не абсолютные значения определяют оптимальную кривую.

Содержание.
1. Линейная модель аппроксимации.
1.1. Линейная регрессия. Постановка задачи.
1.2. Минимизация невязки.
1.3. Примеры.
1.3.1. Случай одной переменной №1.
1.3.2. Случай одной переменной №2.
1.3.3. Случай многомерной регрессии.
1.4. Полиномиальная регрессия.
1.5. Линеаризация некоторых нелинейных задач.
1.6. Общий случай линейной модели.
1.7. Матричные производные.
1.8. Метод наименьших квадратов.
1.9. Теоретические аспекты линейной регрессии.
1.9.1. Постановка задачи.
1.9.2. Вывод уравнения.
1.9.3. Метод максимального правдоподобия.
1.9.1. Вероятностная природа коэффициентов линейной регрессии и предсказаний модели.
1.9.5. Проблемы, встречающиеся при применении линейной регрессии.
2. Понятие Градиента.
2.1. Производная по направлению.
2.2. Градиент.
2.3. Свойства градиента функции.
2.4. Примеры градиента функции.
2.4.1. Параллельные прямые.
2.4.2. Окружности с общим центром.
2.4.3. Градиент в физике.
2.4.4. Применение. Градиентный спуск.
2.4.5. Графическая иллюстрация метода градиентного спуска.
3. Симплекс Метод.
3.1. Задачи, приводящие к линейному программированию.
3.1.1. Изготовление деталей на продажу.
3.1.2. Задача о пищевом рационе для животных.
3.2. Каноническая задача.
3.3. Основная задача линейного программирования.
3.3.1. Пример 1.
3.3.2. Пример 2.
3.3.3. Пример 3.
3.3.4. Пример 4.
3.3.5. Пример 5.
3.3.6. Пример 6. Симплекс-таблица.
3.4. Двойственная задача линейного программирования (dual problem).
4. Литература.



Бесплатно скачать электронную книгу в удобном формате, смотреть и читать:
Скачать книгу Элементы методов оптимизации, Ахметов И.З., Галимянов А.Ф., 2023 - fileskachat.com, быстрое и бесплатное скачивание.

Скачать pdf
Ниже можно купить эту книгу по лучшей цене со скидкой с доставкой по всей России.Купить эту книгу



Скачать - pdf - Яндекс.Диск.
Дата публикации:





Хештеги: :: :: :: ::


Следующие учебники и книги:
Предыдущие статьи: