Активное развитие ИИ-технологий позволяет автоматизировать процессы во многих сферах деятельности, повышая производительность и общее качество жизни. Однако, высокая автономность интеллектуальных алгоритмов, обеспечиваемая высокой сложностью архитектуры и производимых вычислений, неизбежно приводит к возникновению проблемы объяснимости действий и решений такого ИИ (проблема «чёрного ящика»). Низкая интерпретируемость интеллектуальной системы существенно усложняет применение традиционных правовых институтов и механизмов, обеспечивающих права человека, среди которых: деликтная ответственность, получение согласия на обработку персональных данных и медицинское вмешательство. Анализ применимого международного регулирования и национального законодательства позволяет рассматривать объяснимость как одно из ключевых юридических свойств систем искусственного интеллекта.
Original languageRussian
Number of pages7
StatePublished - 2022
EventХХХV Международная научно-практическая конференция «Международные Плехановские Чтения» (секция аспирантов и молодых ученых) - Российский экономический университет имени Г.В. Плеханова, Москва, Russian Federation
Duration: 7 Apr 20228 Apr 2022
https://www.rea.ru/ru/org/managements/orgnirupr/Pages/Plekhanovskie-chtenia-aspiranty.aspx

Conference

ConferenceХХХV Международная научно-практическая конференция «Международные Плехановские Чтения» (секция аспирантов и молодых ученых)
Country/TerritoryRussian Federation
CityМосква
Period7/04/228/04/22
Internet address

ID: 94939305