Эксперты обсудили риски и преимущества ИИ

Эксперты обсудили риски и преимущества ИИ

Представители ведущих юридических компаний обсудили, какие вызовы несет ИИ и какими нормами его регулировать.
30 мая
12:40

Источник: rawpixel.com Freepik

Искусственный интеллект стремительно проникает во все сферы жизни. Успевает ли человечество установить «правила игры» или нейросети обгоняют законодателя? Как адаптировался бизнес? Какие риски для обычного человека несет ИИ? Эти и другие темы рассмотрели эксперты российских и международных юридических вузов и компаний на конференции «Искусственный интеллект для права и право для искусственного интеллекта», организованная Аналитическим центром УП и Криминологии 29 мая 2024 года.

На пленарном заседании в Москве обсудили национальный и международный подход к регулированию ИИ. Зарубежным опытом поделились представители юридического сообщества Китая, Европейского Союза, Турции и Аргентины.

Актуальными темами для дискуссий на секциях стали:

  • Применение искусственного интеллекта в транспортных средствах и системе правосудия;
  • Обучение и ответственность разработчиков ИИ;
  • Искусственный интеллект и права человека.

Проблему рисков искусственного интеллекта в сфере приватности прокомментировали специально для нашей редакции спикеры секции «Искусственный интеллект и права человека», представители компании «Инноправо».

Игорь Трещенко обозначил следующие риски:

  • Проблемы раскрытия информации, порой неподконтрольного человеку;
  • Сложность обеспечения информированного согласия;
  • Агрегация данных и повторная идентификация — агрегация маркированных данных из нескольких источников может непреднамеренно привести к повторной идентификации людей;
  • Проблемы предвзятости и дискриминации — при неправильном формировании обучающего набора данные могут быть использованы для увековечивания существующих предубеждений;
  • Непреднамеренное распознавание. Эта проблема тесно связана с понятием «переобучения» (оverfitting); Если у модели недостаточно данных для того, чтобы понять общие закономерности, она может сохранить часть тренировочных данных, не делая выводов из них.

1716983239_igorjpg.jpg

Игорь Трещенко ведущий специалист Центра правовых исследований цифровых технологий ГАУГН, управляющий партнёр компании «Инноправо»

Сергей Афанасьев предложил для обсуждения некоторые законодательные инициативы и практики:

  • Градация систем ИИ по уровню риска и соответствующие ограничения/запреты;
  • Ответственность разработчиков за генерируемый контент;
  • Регуляторные «песочницы» (экспериментальные правовые режимы);
  • Privacy by design;
  • Соответствие систем ИИ социальным ценностям, этическим представлениям;
  • Публичные реестры компаний и лиц, которые используют ИИ и несут ответственность за причинённые риски. 

1716983359_sergeyjpg.jpg

Сергей Афанасьев научный сотрудник Центра правовых исследований цифровых технологий ГАУГН, партнёр компании «Инноправо».

Разработка и внедрение соответствующих правовых норм и стандартов требуют тщательного анализа и обсуждения с участием всех заинтересованных сторон: государства, бизнеса, научного сообщества и общественности. Только так можно создать эффективную систему правового регулирования искусственного интеллекта, которая будет способствовать его развитию и использованию на благо человечества.


Читайте также
11 декабря
17:50
В Третьяковской галерее были объявлены лауреаты премии «Вызов»
06 ноября
22:35
В рамках образовательного марафона «Знание» прошла лекция для молодежи от Дмитрия Пескова
11 октября
20:20
В «Фундаментальной библиотеке МГУ» состоялось открытие 19-го Международного фестиваля «Наука 0+»