Он считает, что в нейросети нужно ввести ограничивающие механизмы.
Спикер Государственной Думы Вячеслав Володин предупредил о потенциальных опасностях искусственного интеллекта (ИИ) и призвал к усилению контроля за его использованием. Заявление последовало на фоне сообщений о случаях, когда нейросети в сложных ситуациях предлагали решения, которые приводили к "трагическим последствиям". Например, в США.
Для исправления ситуации разработчики этой нейросети планируют внедрить ряд защитных функций. Например,
родительский контроль, возможность добавления в чат-бот контакта доверенного лица для связи в чрезвычайных ситуациях и прямой вызов экстренных служб.
По мнению Володина, подобные механизмы должны быть интегрированы создателями и других нейромоделей, "не дожидаясь трагедий". Он подчеркнул, что "излишняя цифровизация, отсутствие контроля могут нести опасность и вред" и что "далеко не на все вопросы можно и нужно искать ответы в нейросетях".
Спикер Госдумы напомнил, что искусственный интеллект – это "набор алгоритмов, инструментов и баз данных", который "не бывает полностью объективен и, как оказалось, может содержать в себе скрытые угрозы". Он призвал граждан помнить об этом при использовании таких сервисов.
Вячеслав Володин также анонсировал, что в ноябре текущего года в Госдуме планируется обсудить вопросы внедрения технологий ИИ и цифровизации. Особое внимание будет уделено "безопасности и защите граждан от негативных последствий использования нейросетей".