Как регулировать ошибки искусственного интеллекта?
Рынок искусственного интеллекта (ИИ) в России на сегодняшний день законодательно не урегулирован.
Это может создавать проблемы для граждан, - уведомляет комиссия по правовому обеспечению цифровой экономики московского отделения (МО) АЮР. Организация уже отправила письма Совету Федерации, Госдуме, Минцифры и Роскомнадзору с предложением разработать законодательную регулировку ИИ.

ИИ может дискриминировать граждан и организации, - считают авторы обращения. Проблемы могут возникнуть из-за ошибок в алгоритмах, некачественных или неполных данных, с помощью которых проходило обучение ИИ. Более того, независимым экспертам выявить и обжаловать недостатки в ИИ невозможно, поскольку разрабока ИИ засекречена.
На государственном уровне ИИ сейчас используется для привлечения граждан к административной ответственности, например, видео- и фотофиксации правонарушений. Иногда системы ИИ дают сбой.
«Такого рода системы применялись для привлечения к ответственности весной прошлого года в Москве за нарушение режима самоизоляции. В СМИ фигурировало много курьезных случаев ошибочного привлечения к ответственности, например, парализованных граждан», - заметил один из представителей МО АЮР. (Цитата по «Ведомости»)
Также, зафиксированы случаи, когда ИИ без каких-либо оснований отклоняет заявки на денежные займы в банке. Так происходит из-за интерпретированных данных и некачественных алгоритмов. Реальный работник банка мог бы совершенно иначе подойти к этому вопросу.

Развитие нейросетей на автодорогах предполагает, что в текущем году объем этой сферы рынка составит 48 миллиардов рублей, а к 2024 году вырастет до 160 миллиардов рублей.
Представители МО АЮР заявляют, что «такого рода решения следует начать регулировать с госорганов, а не коммерческих компаний, ведь именно решения, принимаемые государством, имеют значительное влияние и последствия для человека. После апробирования такого регулирования на государственных информационных системах следует рассмотреть возможность формирования законодательства для коммерческих компаний». (Цитата по «Ведомости»)
Юристы считают, что правовое урегулирование ИИ необходимо в сферах, где юридические последствия принятого решения наиболее значимы. Так, Франция ввела запрет на прогнозирование ИИ действий судебных органов, так как это может повлиять на исход разбирательства.
Для этого, по зампредседателя комиссии по правовому обеспечению цифровой экономики МО АЮР Бориса Единина, не потребуется радикального изменения законодательства. Можно просто внести изменения в закон «о персональных данных»: «В нем можно прописать необходимость оценки ИИ-систем независимыми экспертами, предусмотреть на сайтах госструктур предупреждения о том, что на них используется ИИ, потребовать от внедряющих ИИ-системы предусматривать наличие запасного плана на случай сбоев и иных непредвиденных ситуаций», - считает Единин. (Цитата по: «Ведомости»)

В Минцифры собираются изучить предложения МО АЮР. Компании, уже использующие ИИ, отказались от комментариев.
Разработчики ИИ не желают определять его как объект права, ведь так вся ответственность за ошибки ИИ будет ложиться на их плечи. В таком случае встанет вопрос о компенсации разработчиками ИИ убытков.
Ирина Левова, директор по стратегическим проектам Института исследований интернета, считает, что юридическое урегулирование может замедлить развитие рынка ИИ. При этом защита граждан и организаций от него не улучшится. Левова считает, что выход – усиление саморегулирования.
«У Ассоциации больших данных есть Кодекс этики и «Белая книга», т. е. набор лучших практик, который регулярно обновляется и добавляется новыми рекомендациями для проектов в области данных. Рекомендации МО АЮР можно включить в качестве еще одного кейса в «Белую книгу», - комментирует Левова. (Цитата по: «Ведомости»)
Фото: unsplash.com, pixabay.com
DIGITAL WORLD
Медиацентр БРИКС+
СОВРЕМЕННЫЙ РУССКИЙ