В Госудуме прошел круглый стол «Развитие искусственного интеллекта в России: угрозы и возможности»

В Госудуме прошел круглый стол «Развитие искусственного интеллекта в России: угрозы и возможности»

В Госудуме прошел круглый стол «Развитие искусственного интеллекта в России: угрозы и возможности»

Фракция КПРФ в Государственной Думе 22 мая провела круглый стол на актуальную тему – «Развитие искусственного интеллекта: угрозы и возможности».

Отрасль искусственного интеллекта на данный момент регулируется в России в соответствии с Указом Президента РФ от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» и Национальной стратегией развития искусственного интеллекта на период до 2030 года, которую данный Указ утвердил.

В соответствии с Национальной стратегией искусственный интеллект определен как комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая самообучение и поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые, как минимум, с результатами интеллектуальной деятельности человека. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений.

Развитие нейросетей и искусственного интеллекта ставит перед российским обществом целый ряд проблем и вызовов. В том числе возникает вопрос доверия граждан результатам применения этих технологий в общественно-политической жизни страны.

С одной стороны, появляется все больше примеров использования нейросетей в государственном управлении, и граждан беспокоит тот факт, что государство станет менее человечным, а решения будут приниматься «бездушной машиной» без учета конкретных обстоятельств и ситуаций.

А, с другой – велика вероятность распространения фейков и недостоверных информационных сообщений, сгенерированных нейросетями. В этой ситуации политические партии и общественные организации хотят понимать, что намерены делать органы власти, чтобы защитить граждан от подобных технологий.

В этой связи тема искусственного интеллекта в последние годы становится одной из главных. И это вполне понятно. Обратимся к главному изобретению природы. Это, конечно же, человек с его уникальными возможностями, памятью, честью, волей, великими гуманистическими идеями. В  то же время человечество прошло через серию страшных войн. Поэтому это вопрос будущего и он требует очень качественной законодательной проработки. На круглый стол были приглашены представители всех ведущих специалистов, что свидетельствует об этом.

Отдельного рассмотрения требует вопрос о влиянии нейросетей и искусственного интеллекта на процесс волеизъявления граждан в ходе выборов. Впереди нас ждут выборы в единый день голосования 10 сентября 2023 г. и президентские выборы в 2024 году. От результатов этих двух голосований зависит будущее страны и почти половины регионов. Как известно, нейросети позволяют разнообразить агитацию кандидатов, их взаимодействие с избирателем. При этом они создают реальные риски для кандидатов в связи с отсутствием соответствующего законодательного регулирования использования нейросетей и искусственного интеллекта в избирательном процессе.

«Конечно же, говоря об ИИ, хотелось бы подчеркнуть, что необходимой и насущной является работа по разработке классификации систем ИИ, их последующей регистрации и законодательному определению регулятора их деятельности. Представляется, что базовым может стать принцип, согласно которому системы ИИ, даже гипотетически позволяющие манипулировать поведением человека, оказывать воздействие на его свободное волеизъявлением должны быть запрещены», – об этом на круглом столе сообщил эксперт Кирилл Сердюков.

КПРФ инициировали разбирательство с ИИ и готовят на него правовую управу. Об этом перед началом круглого стола объявили лидеры КПРФ в Государственной Думе Геннадий Зюганов и Николай Коломейцев: «Актуально стоит вопрос: чему будет служить искусственный интеллект? Он будет служить целям гуманизма: культуре, образованию, высокой духовности? Либо искусственный интеллект начнут использовать для того, чтобы истреблять и подчинять человечество? В этой парадигме сегодня происходит очень жесткая и принципиальная борьба».

Фракция «Справедливая Россия – За правду» в Государственной Думе предложила законодательно взять под контроль искусственный интеллект. Первый заместитель председателя Комитета Государственной Думы по контролю Дмитрий Гусев выступил на заседании с инициативой создать в Госдуме межфракционную рабочую группу по разработке закона, жестко регулирующего искусственный интеллект и внес на этот счет конкретные предложения.

Прокомментировала ситуацию руководитель ряда ежегодных социально значимых Всероссийских конкурсов и проектов, член-корреспондент РМА Ирина Яшина: «Сегодня искусственный интеллект можно сравнить с ножом в руках, и основополагающим фактором является тот аспект, в чьих руках он окажется: в руках компетентного врача-хирурга или невоспитанного злоумышленника. В первом случае его применение может быть весьма полезным, во втором же ситуация может оставлять желать лучшего…», – заключила она.

У нас есть гуманистическая, духовная, культурная программа. Какую бы вы машину не взяли, она не обладает одним крайне важным качеством. В ней нет духовности, совести и сострадания. И если этот вопрос не будет решен, то есть вероятность получить самый злобный и страшный результат. Даже нынешние талантливые предводители вдруг задумались об этом. Они потребовали притормозить внедрение искусственного интеллекта. Базовые принципы требуют закрепления уже на уровне конкретных решений органов власти и законодательного регулирования. Участники заседания разобрались с ситуацией вместе.

На круглом столе выступили ведущие эксперты в области искусственного интеллекта, цифровизации экономики и государственного управления, представители общественных организаций и органов государственной власти.

Перейти к обсуждению

Только зарегистрированные пользователи могут оставлять комментарии.