Правительство планирует проверять системы, которые реализуют технологию искусственного интеллекта (ИИ), «на наличие угроз безопасности государства и обороны страны», говорится в утвержденном в кабмине паспорте федерального проекта «Цифровое госуправление», который войдет в нацпроект «Экономика данных», пишет «Коммерсант».
Для этого в 2025-2026 годах планируется провести научно-исследовательскую разработку принципов анализа моделей ИИ, обученных на госданных, а в 2027-2028 годах создать и внедрить первую версию программы, которая будет анализировать такие модели.
В документе говорится, что на это до 2030 года планируется выделить 8,1 млрд руб. из федерального бюджета, а за реализацию мероприятия отвечает ФСБ.
«Один из самых главных рисков — утечки данных, которые можно «деобезличить». Другая проблема — это недостоверность предсказаний. Ошибки в обучении модели или целенаправленные манипуляции могут привести к искаженным рекомендациям для госуправления или стратегических решений. А если модель содержит уязвимости, то она может стать входной точкой для атак на государственные системы», — заявила специалист по машинному обучению «Инфосистемы Джет» Надежда Гаврикова.
Фото: pixabay
Теги по теме
Искусственный интеллект использует треть российских компаний
Искусственный интеллект уровня интеллекта человека может появиться в течение трех лет
В Китае искусственный интеллект заменил прокурора
Искусственный интеллект EXAM научился предсказывать смерть от коронавируса