В Роскомнадзоре обсудили риски развития искусственного интеллекта без достаточного регулирования

Фото: Роскомнадзор

Участники заседания Экспертного совета по искусственному интеллекту Главного радиочастотного центра обсудили тренды развития ИИ и методы его регулирования. Мероприятие состоялось 19 июня, сообщили в Роскомнадзоре.


Присутствовали представители Минэкономразвития, Центра азиатских правовых исследований юридического факультета МГУ им. Ломоносова, Центра ИИ и науки о данных СПбГУ, Департамента права цифровых технологий НИУ ВШЭ, а также руководители крупных компаний и общественных организаций.


Глава Роскомнадзора Андрей Липов отметил, что в нашей стране наука о технологиях искусственного интеллекта начала развиваться с 1960-х годов. Этим вопросом занималась целая плеяда выдающихся российских ученых под руководством Г.С. Поспелова. Первый симпозиум по искусственному интеллекту прошел в СССР в 1974 году. В 1986 году был образован Научный совет по вопросам ИИ. В 1991 году приняли государственную программу «Перспективные информационные технологии», куда включили раздел по созданию интеллектуальных технологий.


Реклама на Я Игрок


 

«Сегодня важно возрождать советскую школу искусственного интеллекта. Современные ИИ-модели, например GPT, стремительно развиваются. Необходимо понимать, как они устроены, какой и чей код в них работает и на базе какого массива информации он работает. У используемой в GPT информации есть четыре важных критерия: полнота, достоверность, актуальность и легальность. Манипулируя этими четырьмя параметрами, разработчики кода могут управлять восприятием, объемом знаний и в итоге самим человеком», — обратил внимание Андрей Липов.

 

Он добавил, что параллельно есть риск потери навыков критического мышления, самостоятельного поиска и анализа информации и получения знаний, в первую очередь молодежью. У нас только один путь – создавать собственные технологии и сервисы в сфере ИИ.


Советник генерального директора ГРЧЦ по научно-техническому развитию Евгения Рыжова рассказала, что одна из сегодняшних тенденций в области ИИ – развитие технологий управления эмоциями. Например, это чат-боты для комфортного общения или успокоения, психологические консультации для родителей.

 

«Злоумышленники с помощью таких технологий могут собирать информацию об интересах и потребностях людей, выявлять слабые места и, используя эти сведения, влиять на их выбор, подчинять своим интересам. Евгения Рыжова считает, что необходимо ввести регулирование сценариев применения ИИ на уровне федерального закона, установить стандарты безопасности искусственного интеллекта, рассмотреть вопрос введения ответственности за нарушение требований и причинение вреда с использованием технологий ИИ», — пояснила Рыжова.

 

Главный научный сотрудник сектора информационного права и международной информационной безопасности ИГП РАН Виктор Наумов в числе рисков, связанных с развитием ИИ, назвал отсутствие идентификации и маркировки этих технологий, злоупотребление доверием пользователей, которые не знают о негативных последствиях использования технологий, радикальную концентрацию власти в руках производителей ИИ.

Кроме того, эксперт отметил еще одну угрозу: спустя несколько десятилетий, вероятно, произойдет деградация многих свойств человека, например, его творческих и коммуникационных способностей в условиях построения отношений с безальтернативным использованием ИИ.


Помощник руководителя московского отделения «Союза православных женщин» Инна Ямбулатова среди принципов использования ИИ в интересах человека выделила соблюдение духовно-нравственных и моральных ограничений и правил перед внедрением искусственного интеллекта.

 

«Без этого духовного фильтра мы рискуем стать заложниками технологий, которые способны поработить человеческую личность», – отметила Инна Ямбулатова.

 

Она также добавила, что нельзя допускать цифровое насилие над личностью в семье и обществе. Внедрение этических принципов при разработке систем ИИ и запрет на антропоморфизацию (прим.: приписывание объекту или явлению человеческих качеств) во многом способны защитить, прежде всего, несовершеннолетних граждан страны. При этом важно помнить, что главный защитный код – семья и внимание родителей к детям.

 

Здесь может быть ваша реклама:

Если вам понравилась статья, пожалуйста, поделитесь с друзьями:

 

 Вы стали свидетелем интересного события или у вас есть история, которой Вы хотите поделиться?
Пришлите нам вашу информацию для публикации, фото, видео:
Эл.почта: Адрес электронной почты защищен от спам-ботов. Для просмотра адреса в браузере должен быть включен Javascript.
Тел./Viber/WhatsApp: +7 (902) 544 39 51


«Я Игрок»  в популярных соцсетях:

Одноклассники

«Автос 38» ВКонтакте ВКонтакте

 «Автос 38» YouTubeYouTube

 «Автос 38» RUTUBERUTUBE

Телеграм канал Автос 38 Наш Telegram-канал «Я Игрок»

Я Игрок в СОЦСЕТЯХ: