Кто несет ответственность, когда ИИ причиняет кому-то вред?

Возможно, вскоре калифорнийскому суду придется принять решение. В декабре 2019 года человек, управлявший Tesla с системой управления искусственным интеллектом, убил двух человек в Гардене в результате несчастного случая. Водителю Tesla грозит несколько лет тюрьмы. В свете этого и других инцидентов Национальная администрация безопасности дорожного движения (NHTSA) и Национальный совет по безопасности на транспорте расследуют аварии Tesla, а NHTSA недавно расширила свое расследование, чтобы изучить, как водители взаимодействуют с системами Tesla. На государственном уровне, в штате Калифорния рассматривает возможность сокращения использования функций автономного вождения Tesla.

Наша текущая система ответственности — наша система определения ответственности и наказания — совершенно не готова к ИИ. Правила ответственности были разработаны для того времени, когда люди совершали большинство ошибок или получали и наносили много травм. Таким образом, большинство механизмов ответственности налагают наказания на конечного пользователя, врача, водителя или другого человека, который причинил травму. Но с ИИ ошибки могут возникать вообще без участия человека. Система ответственности должна быть соответствующим образом скорректирована. Плохая политика ответственности нанесет ущерб пациентам, потребителям и разработчикам ИИ.

Сейчас самое время подумать об ответственности, поскольку ИИ внедряется повсеместно, но остается недостаточно регулируемым. Системы, основанные на ИИ, уже привели к травмам. В 2018 году пешеход был убит беспилотным автомобилем Uber. Хотя речь шла об ошибке водителя, ИИ не смог обнаружить пешехода. Недавно чат-бот по охране психического здоровья на основе ИИ призвал пациента с имитацией самоубийства покончить с собой. Алгоритмы ИИ дискриминируют резюме соискателей женского пола. И, в одном особенно драматическом случае, алгоритм ИИ неверно идентифицирован подозреваемого в нападении при отягчающих обстоятельствах, что привело к ошибочному аресту. Тем не менее, несмотря на ошибки, ИИ обещает произвести революцию во всех этих областях.

Правильное распределение ответственности важно для раскрытия потенциала ИИ. Неопределенные правила и потенциально дорогостоящие судебные разбирательства будут препятствовать инвестициям в разработку и внедрение систем ИИ. Более широкое внедрение ИИ в здравоохранении, автономных транспортных средствах и в других отраслях зависит от структуры, которая определяет, кто, если вообще кто-либо, несет ответственность за ущерб, причиненный системами искусственного интеллекта.

ИИ бросает вызов традиционной ответственности. Например, как мы назначаем ответственность, когда алгоритм “черного ящика”, в котором идентификация и вес переменных динамически меняются, поэтому никто не знает, что входит в прогноз, рекомендует лечение, которое в конечном итоге наносит вред, или ведет машину безрассудно, прежде чем ее водитель—человек может отреагировать? Это действительно вина врача или водителя? Это вина компании, которая создала ИИ? И с какой ответственностью должны столкнуться все остальные — системы здравоохранения, страховщики, производители, регулирующие органы, если они поощряли усыновление? Эти вопросы остаются без ответа и имеют решающее значение для установления ответственного использования ИИ в потребительских товарах.

Как и все разрушительные технологии, ИИ является мощным. Алгоритмы ИИ, если они правильно созданы и протестированы, могут помочь в диагностике, исследовании рынка, прогнозной аналитике и любом приложении, требующем анализа больших массивов данных. Недавнее глобальное исследование McKinsey показало, что уже более половины компаний по всему миру сообщили об использовании ИИ в своих повседневных операциях.

Тем не менее, ответственность слишком часто фокусируется на самой легкой цели: конечном пользователе, который использует алгоритм. Расследования об ответственности часто начинаются и заканчиваются с водителя разбившегося автомобиля или врача, который дал неправильное решение о лечении.

Конечно, если конечный пользователь неправильно использует систему ИИ или игнорирует ее предупреждения, то ответственность должны нести оба. Но ошибки ИИ часто не являются виной конечного пользователя. Кто может обвинить врача отделения неотложной помощи в том, что алгоритм ИИ пропускает папилломатоз (отек сетчатки)? Неспособность ИИ обнаружить заболевание может задержать лечение и потенциально привести к слепоте пациента. Тем не менее, папилломатоз сложно диагностировать без осмотра офтальмолога, потому что для обследования часто требуется больше клинических данных, включая визуализацию мозга и остроту зрения. Несмотря на революционный потенциал ИИ во всех отраслях, конечные пользователи будут избегать использования ИИ, если они будут нести единоличную ответственность за потенциально фатальные ошибки.

Перекладывание вины исключительно на разработчиков или разработчиков ИИ также не решает проблему. Конечно, разработчики создали рассматриваемый алгоритм. Но должна ли каждая авария Tesla по вине Tesla решаться путем дополнительного тестирования перед запуском продукта? Действительно, некоторые алгоритмы ИИ постоянно самообучаются, принимая их входные данные и динамически используя их для изменения выходных данных. Никто не может быть уверен в том, как именно алгоритм ИИ пришел к определенному выводу.

Главное — обеспечить, чтобы все заинтересованные стороны — пользователи, разработчики и все остальные по цепочке от разработки продукта до использования — несли достаточную ответственность для обеспечения безопасности и эффективности ИИ, но не настолько, чтобы они отказались от ИИ.

Чтобы защитить людей от неисправного ИИ, одновременно продвигая инновации, мы предлагаем три способа пересмотра традиционных рамок ответственности.

Во-первых, страховщики должны защитить страхователей от чрезмерных затрат, связанных с предъявлением иска в связи с травмой ИИ, путем тестирования и проверки новых алгоритмов ИИ перед использованием, точно так же, как автостраховщики годами сравнивали и тестировали автомобили. Независимая система безопасности может предоставить заинтересованным сторонам ИИ предсказуемую систему ответственности, которая адаптируется к новым технологиям и методам.

Во-вторых, некоторые ошибки ИИ должны рассматриваться в специальных судах с опытом рассмотрения дел ИИ. Эти специализированные трибуналы могли бы развивать экспертизу в конкретных технологиях или вопросах, таких как взаимодействие двух систем ИИ (скажем, двух автономных транспортных средств, которые врезаются друг в друга). Такие специализированные суды не новы: например, в США специализированные суды десятилетиями защищали производителей детских вакцин, рассматривая случаи травм от прививок и развивая глубокие знания в этой области.

В-третьих, нормативные стандарты федеральных органов власти, таких как Управление по контролю за продуктами и лекарствами США (FDA) или NHTSA, могут компенсировать чрезмерную ответственность разработчиков и некоторых конечных пользователей. Например, федеральные правила и законодательство заменили определенные формы ответственности за медицинские устройства или пестициды. Регулирующие органы должны счесть некоторые ИИ слишком рискованными для внедрения на рынок без стандартов тестирования, повторного тестирования или валидации. Федеральные регулирующие органы должны активно сосредоточиться на стандартных процессах разработки ИИ. Это позволило бы регулирующим органам оставаться проворными и предотвращать травмы, связанные с ИИ, вместо того, чтобы реагировать на них слишком поздно. Напротив, хотя государственные и местные агентства по защите прав потребителей и здравоохранению не смогли создать национальную систему регулирования, они могли бы помочь уточнить отраслевые стандарты и нормы в конкретной области.

Создание препятствий ИИ с помощью устаревшей системы ответственности было бы трагично: самоуправляемые автомобили обеспечат мобильность многим людям, у которых нет доступа к транспорту. В здравоохранении ИИ поможет врачам выбирать более эффективные методы лечения, улучшать результаты лечения пациентов и даже сокращать расходы в отрасли, печально известной перерасходами. Отрасли, начиная от финансов и заканчивая кибербезопасностью, находятся на пороге революции ИИ, которая может принести пользу миллиардам людей по всему миру. Но эти преимущества не должны быть сведены на нет плохо разработанными алгоритмами. Таким образом, ИИ 21-го века требует системы ответственности 21-го века.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *