Активное развитие ИИ-технологий позволяет автоматизировать процессы во многих сферах деятельности, повышая производительность и общее качество жизни. Однако, высокая автономность интеллектуальных алгоритмов, обеспечиваемая высокой сложностью архитектуры и производимых вычислений, неизбежно приводит к возникновению проблемы объяснимости действий и решений такого ИИ (проблема «чёрного ящика»). Низкая интерпретируемость интеллектуальной системы существенно усложняет применение традиционных правовых институтов и механизмов, обеспечивающих права человека, среди которых: деликтная ответственность, получение согласия на обработку персональных данных и медицинское вмешательство. Анализ применимого международного регулирования и национального законодательства позволяет рассматривать объяснимость как одно из ключевых юридических свойств систем искусственного интеллекта.
Язык оригиналарусский
Число страниц7
СостояниеОпубликовано - 2022
СобытиеХХХV Международная научно-практическая конференция «Международные Плехановские Чтения» (секция аспирантов и молодых ученых) - Российский экономический университет имени Г.В. Плеханова, Москва, Российская Федерация
Продолжительность: 7 апр 20228 апр 2022
https://www.rea.ru/ru/org/managements/orgnirupr/Pages/Plekhanovskie-chtenia-aspiranty.aspx

конференция

конференцияХХХV Международная научно-практическая конференция «Международные Плехановские Чтения» (секция аспирантов и молодых ученых)
Страна/TерриторияРоссийская Федерация
ГородМосква
Период7/04/228/04/22
Сайт в сети Internet

    Области исследований

  • искусственный интеллект, объяснимость, проблема черного ящика, черный ящик, принцип прозрачности

ID: 94939305