сегодня: 29.11.2021

[сделать стартовой]

Рубрики
Общество
Экономика
Политика
Спорт
Наука
Культура
Образование
Здравоохранение
Информационные технологии
Силовые структуры
Криминал
Происшествия
Экология
Недвижимость
Нск-риэлт
Байкал
Национальные проекты
Лес - богатство Сибири
Нефть и газ Сибири
Сибирский уголь
Научно-технический прогресс
Сибиряки
Мир вокруг нас
Интервью
Актуально

Сибирский федеральный округ
Наука и жизнь

Луна образовалась в результате ядерного взрыва


Видеокамеры для "супермена"


"Конец света" в прямом смысле слова


Земные океаны и атмосфера появились благодаря метеоритной бомбардировке


Солнце на Земле


Искусственный интеллект совсем рядом



ТОП-20 инженерных чудес света



Четвероногий друг


Новости Байкала

2021-09-25 07:25:00 /РИА "Сибирь" /Томск

В Томске молодой учёный исследуетт отражение хакерских атак на нейросети





С внедрением новых IT-технологий расширяется и спектр киберугроз. Одно из новых направлений хакерского воздействия – атаки на машинное обучение. Учёные всего мира сейчас работают над поиском эффективных, опережающих способов защиты нейросетей.

Молодой ученый института прикладной математики и компьютерных наук Томского госуниверситета Антон Николаев исследует атаки на машинное обучение и механизмы их предотвращения. Результаты его исследований послужат основой для разработки новых подходов к защите нейронных сетей от разного рода кибернападений.

"Эта задача сейчас крайне актуальна, поскольку методы машинного обучения всё активнее используются в самых разных областях – автономном вождении, распознавании лиц и голоса, биометрии, задачах классификации и обнаружения объектов, медицинской диагностике, - рассказывает аспирант ТГУ Антон Николаев. - Соответственно, те или иные методы и алгоритмы, работающие в данных областях, подвержены всевозможным атакам. Сложность (как для атакующего, так и для защищающего) заключается в том, что обозначенные системы крайне сложны в своем устройстве, и защита, как и нападение, требуют сложного многоуровневого подхода на всех этапах взаимодействия системы с пользователем".

Как отмечает молодой ученый, успешная атака на систему, работающую на базе машинного обучения и различных обучающихся алгоритмов, может привести к критичным последствиям не только для бизнеса, но и для жизни человека. Например, внедрение в системы автономного вождения - к тому, что системы распознавания знаков «перепутают» сигнал "стоп" с ограничением скорости, не увидят запрещающий сигнал светофора или сам автомобиль сойдет с дороги на огромной скорости.

Успешная атака на биометрические системы и распознавание лиц может открыть доступ к секретным помещениям, данным или даже финансовым счетам в системах онлайн-банкинга. Все эти проблемы могут привести к серьезным репутационным рискам и финансовым потерям.

"Механизмы атак на подобные системы могут быть совершенно разными. Самые популярные включают генерацию некоторых небольших изменений в объекте (звуке, изображении, тексте) или, проще говоря, специального "шума", который ведет к тому, что система неправильно распознает или классифицирует данный объект, - объясняет Антон Николаев. - Например, определенного рода наклейка на дорожный знак может заставить систему распознавания дорожных знаков увидеть вместо одного знака другой. Или же специальный макияж на лице может заставить систему распознавания лиц увидеть в одном человеке другого".

В процессе машинного обучения возможно появление "зазоров" или неоднозначных ситуаций, благодаря им злоумышленники могут замещать одни результаты другими. Задача исследований аспиранта ТГУ - выявить наиболее эффективные методы приближения к границам таких "зазоров" или пограничных значений. Это знание позволит понять, как именно можно снизить число подобных "слабых звеньев" при атаках и в эксплуатации.

На основе результатов проведённых исследований молодой учёный создаст новые алгоритмы либо платформенное решение для защиты методов машинного обучения от внешнего влияния.

Добавим, что наряду с этим учёные института прикладной математики и компьютерных наук Томского госуниверситета разрабатывают подходы для обеспечения конфиденциальности данных, хранимых в облачных сервисах. В качестве инструмента повышения безопасности они используют специализированные шифры и реализуют схемы защиты, менее подверженные взлому, чем просто "прозрачное" шифрование.

"Технологии безопасности" - одно из приоритетных направлений, активно развиваемых в Томском госуниверситете и включенных в заявку на участие в программе "Приоритет 2030". Этот стратегический проект направлен на разработку комплекса передовых цифровых и инженерных решений для обеспечения безопасности и антитеррористической деятельности государства, соответствующих приоритетам стратегии научно-технологического развития и стратегии национальной безопасности РФ. 

 

Источник: https://www.tsu.ru/



Cмотрите также:  Наука  Томская область
Архив
пн вт ср чт пт сб вск
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
 
Поиск по сайту
Что? Где? Когда?
Сохраним Байкал!

Экологический кризис на Байкале: новый эпизод с сине-зелеными водорослями
Все о клещах

Новосибирские ученые: как уберечься от заболеваний, переносимых клещами

Планета Земля

2036 год: Апофеоз или Апокалипсис?


Катастрофы: возможность или неизбежность
Реклама

Универсальная вебкамера за 1190 рублей, функция автоматической записи
*******
О проекте Контакты Партнеры  
Rambler's Top100
Copyright © 2004-2021 РИА "Сибирь"
E-mail: rian@cn.ru
Телефон: 8(383) 214-20-12