12.03.20
00:00
Общество
Российский ученый представит в ЮНЕСКО этику для искусственного интеллекта
Российского учёного Максима Федорова пригласили в экспертную группу ЮНЕСКО по выработке рекомендаций этических принципов разработки и использования искусственного интеллекта.
Об этом сообщает корреспондент tvbrics.com со ссылкой на D-Russia.ru и газету «Взгляд». Профессор Фёдоров является директором Центра по научным и инженерным вычислительным технологиям для задач с большими массивами данных Сколковского института науки и технологий (Сколтех). В ноябре 2019 года Фёдоров стал победителем ежегодной международной премии Lenovo AI Innovation Challenge в области применения технологий ИИ и высокопроизводительных вычислений для решения глобальных проблем человечества.
Всего в экспертной группе состоят более десяти человек из Британии, США, Китая и Евросоюза. Как отмечается, первая встреча группы пройдет 20-24 апреля, вторая — в августе. В промежутке между этими встречами некоторые члены группы примут участие в национальных и региональных консультационных мероприятиях. Предполагается, что составленный рабочей группой документ должен быть одобрен странами-участницами ЮНЕСКО к концу 2021 года.
В феврале текущего года Фёдоров уже принимал участие в учредительном заседании комитета по вопросам искусственного интеллекта при Комиссии России по делам ЮНЕСКО. Комитет ставит задачей выработать единый подход к вопросу этики ИИ со стороны РФ.
Отечественные ученые давно востребованы в высокотехнологичных областях за рубежом, они считаются экспертами международного уровня. Но если ранее такие специалисты просто переезжали в другую страну и работали там, то теперь ситуация изменилась, считает профессор Фёдоров.
«Если посмотреть на разработчиков программ обеспечения искусственного интеллекта, то у многих из них российские корни. Кроме того, большое количество отделов в Google, Amazon, Apple укомплектовано людьми из России. Но при этом проживают они уже не в родной стране», – отмечает учёный.
Но специалисты международного уровня, живущие и работающие именно в России, – это новый тренд, отмечает профессор.
«Можно сказать, я оказался одним из первых. И это говорит о смене парадигмы. Мы в России уже начали что-то разрабатывать, а не только экспортировать мозги», – подчеркнул учёный.
Так, к примеру, Москва стала уже, «как второй Сан-Франциско», по разработкам искусственного интеллекта в сфере городского управления, по обработке данных и так далее, считает профессор.
Известно, что ИИ позволяет более эффективно использовать системы видеонаблюдения в общественных местах в целях профилактики. Видеозаписи непрерывно анализируются специальными программами, которые фиксируют агрессивные действия и могут быстро поднять тревогу. Однако обеспокоенность у научного сообщества вызывает целый комплекс проблем этического характера. Среди них - риск вторжения в личную жизнь человека, а также рост числа ошибок.
Еще одним поводом для беспокойства является то, что использование интеллектуальных систем и методов расового и социального профилирования может вести к злоупотреблениям. Например, когда по лицу человека определяется его внутренняя склонность к преступлению.
Аналитики признают, что в целом искусственный интеллект может использоваться для повышения эффективности таких дискриминационных мер, как расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей. Возникающие при этом вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий ИИ.
Об этом сообщает корреспондент tvbrics.com со ссылкой на D-Russia.ru и газету «Взгляд». Профессор Фёдоров является директором Центра по научным и инженерным вычислительным технологиям для задач с большими массивами данных Сколковского института науки и технологий (Сколтех). В ноябре 2019 года Фёдоров стал победителем ежегодной международной премии Lenovo AI Innovation Challenge в области применения технологий ИИ и высокопроизводительных вычислений для решения глобальных проблем человечества.
Всего в экспертной группе состоят более десяти человек из Британии, США, Китая и Евросоюза. Как отмечается, первая встреча группы пройдет 20-24 апреля, вторая — в августе. В промежутке между этими встречами некоторые члены группы примут участие в национальных и региональных консультационных мероприятиях. Предполагается, что составленный рабочей группой документ должен быть одобрен странами-участницами ЮНЕСКО к концу 2021 года.
В феврале текущего года Фёдоров уже принимал участие в учредительном заседании комитета по вопросам искусственного интеллекта при Комиссии России по делам ЮНЕСКО. Комитет ставит задачей выработать единый подход к вопросу этики ИИ со стороны РФ.
Отечественные ученые давно востребованы в высокотехнологичных областях за рубежом, они считаются экспертами международного уровня. Но если ранее такие специалисты просто переезжали в другую страну и работали там, то теперь ситуация изменилась, считает профессор Фёдоров.
«Если посмотреть на разработчиков программ обеспечения искусственного интеллекта, то у многих из них российские корни. Кроме того, большое количество отделов в Google, Amazon, Apple укомплектовано людьми из России. Но при этом проживают они уже не в родной стране», – отмечает учёный.
Но специалисты международного уровня, живущие и работающие именно в России, – это новый тренд, отмечает профессор.
«Можно сказать, я оказался одним из первых. И это говорит о смене парадигмы. Мы в России уже начали что-то разрабатывать, а не только экспортировать мозги», – подчеркнул учёный.
Так, к примеру, Москва стала уже, «как второй Сан-Франциско», по разработкам искусственного интеллекта в сфере городского управления, по обработке данных и так далее, считает профессор.
Известно, что ИИ позволяет более эффективно использовать системы видеонаблюдения в общественных местах в целях профилактики. Видеозаписи непрерывно анализируются специальными программами, которые фиксируют агрессивные действия и могут быстро поднять тревогу. Однако обеспокоенность у научного сообщества вызывает целый комплекс проблем этического характера. Среди них - риск вторжения в личную жизнь человека, а также рост числа ошибок.
Еще одним поводом для беспокойства является то, что использование интеллектуальных систем и методов расового и социального профилирования может вести к злоупотреблениям. Например, когда по лицу человека определяется его внутренняя склонность к преступлению.
Аналитики признают, что в целом искусственный интеллект может использоваться для повышения эффективности таких дискриминационных мер, как расовое профилирование, прогнозирование поведения и даже определение сексуальной ориентации людей. Возникающие при этом вопросы этического свойства требуют выработки законодательства, способного обеспечить ответственный подход к развитию технологий ИИ.