Реферат на тему "Реферат | Угроза раскрытия информации о модели машинного обучения [ID 55704]"
0
Эта работа представлена в следующих категориях:
Реферат на тему: Угроза раскрытия информации о модели машинного обучения
Был выполнен в 2025 году и сдан на отлично.
Оригинальность работы от 70% по версии антиплагиат ру.
Ниже выкладываю часть реферата в ознакомительных целях. Полный файл сможете скачать в личном кабинете после оплаты.
Был выполнен в 2025 году и сдан на отлично.
Оригинальность работы от 70% по версии антиплагиат ру.
Ниже выкладываю часть реферата в ознакомительных целях. Полный файл сможете скачать в личном кабинете после оплаты.
Демо работы
Описание работы
Тема: Угроза раскрытия информации о модели машинного обученияОглавление
Введение 2
Глава 1. Природа угроз раскрытия информации о модели машинного обучения и их источники 3
Глава 2. Методы атак, приводящих к раскрытию информации о моделях машинного обучения, и способы защиты 4
Заключение 6
Список использованной литературы 7
Введение
Машинное обучение (МО) занимает центральное место в современном технологическом развитии, обеспечивая возможности анализа данных, прогнозирования, автоматизации процессов и построения интеллектуальных систем. Рост применений МО в промышленности, медицине, бизнесе, финансах, телекоммуникациях и государственной сфере приводит к увеличению значимости вопросов безопасности данных и моделей. Одной из наиболее актуальных проблем является угроза раскрытия информации о модели машинного обучения — её структуры, параметров, обучающих данных и внутренних механизмов работы.
Современные модели, особенно глубокие нейронные сети, являются результатом значительных вычислительных затрат и интеллектуальных усилий разработчиков. Они включают уникальные архитектуры, алгоритмы оптимизации и наборы данных, которые зачастую обладают коммерческой ценностью или содержат конфиденциальную информацию. Утечка таких данных может привести к серьёзным последствиям: копированию модели конкурентами, нарушению прав на интеллектуальную собственность, раскрытию персональных данных, повышению уязвимостей системы, а в некоторых случаях — к подрыву доверия к искусственному интеллекту.
Угроза раскрытия информации о модели возникает как из-за внешних атак, так и из-за особенностей самой модели: утечки могут происходить через API, побочные каналы, поведение модели на некорректных данных или её архитектурные особенности. Характер угроз зависит от типа модели, методов её обучения, особенностей инфраструктуры и набора предоставляемых пользователям интерфейсов.
Цель работы — проанализировать угрозы раскрытия информации о модели машинного обучения, рассмотреть типы атак, механизмы утечек и способы защиты моделей. Особое внимание уделяется методам, которые позволяют злоумышленникам получить доступ к внутренним параметрам модели или обучающим данным, а также оценке значимости таких угроз в контексте безопасности искусственного интеллекта.
Список использованной литературы
1. Goodfellow I., McDaniel P., Papernot N. Machine Learning Security. — Springer, 2018.
2. Shokri R., Stronati M., Song C. Membership Inference Attacks Against Machine Learning Models. — IEEE S&P, 2017.
3. Fredrikson M., Jha S., Ristenpart T. Model Inversion Attacks. — USENIX Security, 2015.
4. Abadi M. Deep Learning with Differential Privacy. — ACM CCS, 2016.
5. Carlini N., Wagner D. Towards Evaluating the Robustness of Neural Networks. — IEEE S&P, 2017.
6. Papernot N. Practical Black-Box Attacks Against Machine Learning. — AsiaCCS, 2017.
7. Tramer F. Stealing Machine Learning Models via Prediction APIs. — USENIX Security, 2016.
8. Jagielski M. Threats to Data Privacy in Machine Learning Systems. — Journal of ML Research, 2019.