Глубокие нейронные сети (DNN) становятся неотъемлемой частью IT-продуктов, провоцируя появление нового направления кибератак. Хакеры пытаются обмануть нейросети с помощью
данных, которые не смогли бы обмануть человека. Кэти Уорр рассматривает мотивацию подобных атак, риски, которые влечет вредоносный ввод, а также методы повышения устойчивости ИИ к таким взломам. Если вы специалист по data science, архитектор системы безопасности и стремитесь повысить устойчивость систем с ИИ или вас просто интересует различие между искусственным и биологическим восприятием, то эта книга для вас.
Понимание реальных угроз.
В части II рассмотрены математические и алгоритмические методы, с помощью которых можно создать входные данные, способные обмануть ГНС. В части III на примере этих методов вы увидите, с какими угрозами приходится иметь дело в реальных ситуациях, когда целевая ГНС входит в состав более крупной компьютерной системы. Такой более крупной системой может быть, например, устройство с голосовым управлением, программное обеспечение для фильтрации вебконтента или автономное транспортное средство. В главе 7 речь пойдет о том, какие методы может использовать злоумышленник для запуска вредоносной атаки в случае ограниченного доступа к целевой системе. Вы узнаете, что может усложнить (или упростить) для злоумышленника проведение атаки, а также ознакомитесь с существующими схемами атак: прямой, с копированием и с переносом. Будет также рассмотрен вопрос о том, может ли атака, созданная с расчетом на одну целевую систему, сработать против другой системы.
Краткое содержание.
Предисловие.
ЧАСТЬ I.ОБЩИЕ СВЕДЕНИЯ ОБ ОБМАНЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА.
Глава 1.Введение.
Глава 2.Мотивация к атакам.
Глава 3.Основные понятия ГНС.
Глава 4.ГНС-обработка изображений, аудио- и видеоданных.
ЧАСТЬ II.ГЕНЕРАЦИЯ ВРЕДОНОСНЫХ ВХОДНЫХ ДАННЫХ.
Глава 5.Базовые принципы вредоносных входных данных.
Глава 6.Методы генерации вредоносных искажений.
ЧАСТЬ III.ПОНИМАНИЕ РЕАЛЬНЫХ УГРОЗ.
Глава 7.Схемы атак прогив реальных систем.
Глава 8.Атаки в физическом мире.
ЧАСТЬ IV.ЗАЩИТА.
Глава 9.Оценка устойчивости модели к вредоносным входным данным.
Глава 10.Защита от вредоносных входных данных.
Глава 11.Дальнейшие перспективы: повышение надежности ИИ.
Приложение. Справочник математических обозначений.
Об авторе.
Об обложке.
Купить .
По кнопкам выше и ниже «Купить бумажную книгу» и по ссылке «Купить» можно купить эту книгу с доставкой по всей России и похожие книги по самой лучшей цене в бумажном виде на сайтах официальных интернет магазинов Лабиринт, Озон, Буквоед, Читай-город, Литрес, My-shop, Book24, Books.ru.
По кнопке «Купить и скачать электронную книгу» можно купить эту книгу в электронном виде в официальном интернет магазине «ЛитРес», и потом ее скачать на сайте Литреса.
По кнопке «Найти похожие материалы на других сайтах» можно найти похожие материалы на других сайтах.
On the buttons above and below you can buy the book in official online stores Labirint, Ozon and others. Also you can search related and similar materials on other sites.
Хештеги: #Уорр :: #книги по программированию :: #программирование :: #нейросети
Смотрите также учебники, книги и учебные материалы:
- Осваиваем Ethereum, Создание смарт-контрактов и децентрализованных приложений, Антонопулос А., Вуд Г., 2021
- Объекты, Стильное ООП, Нобак М., 2023
- Облачные архитектуры, Разработка устойчивых и экономичных облачных приложений, Лащевски Т., Арора К., Фарр Э., Зонуз П., 2022
- Непрерывное развитие API, Правильные решения в изменчивом технологическом ландшафте, Меджуи М., Уайлд Э., Митра Р., Амундсен М., 2023
- Наглядный CSS, Сидельников Г., 2021
- Head First, Изучаем Swift, Мэннинг Д., Баттфилд-Эддисон П., 2023
- Микросервисы, От архитектуры до релиза, Митра Р., Надареишвили И., 2023
- Здесь должен быть текст, Профессиональный UX-райтинг, Меттс М.Д., Уэлфл Э., 2024