Проблема определения ответственности третьих лиц за совершение юнитами искусственного интеллекта причиняющих вред действий
Использование автономных юнитов искусственного интеллекта детерминирует возникновение новых проблем и сложностей в рамках существующих моделей ответственности, которые, главным образом, основаны на концепции причинно-следственной связи между действием (или бездействием) и его последствиями.
В случае когда использование подобных машин привело к совершению серьёзного сбоя, ошибки, возникает вопрос: что именно стало причиной случившегося: изначальные дефекты сложного оборудования или некорректное его программирование и обучение?[444]В большинстве случаев разумно и обоснованно привлечение к ответственности за ошибки, совершённые юнитом искусственного интеллекта, разработчиков, создателей и программистов такого юнита. Но не в ситуациях, когда юнит искусственного интеллекта начинает функционировать таким образом, как невозможно было предсказать ранее, в особенности - если такой юнит взаимодействует с другими агентами в т.н. Интернете вещей[445], самообучается и за счёт этого тоже.
При ограничении возможности потребителей (эксплуатантов юнита искусственного интеллекта) принимать меры предосторожности, вероятно, бремя ответственности перейдёт (должно быть перенесено) на плечи производителей, особенно - в ситуациях, когда, с точки зрения управления рисками, производители находятся в более благоприятном положении, чем потребители. Во многих подобных ситуациях наблюдение за всеми пользователями и, в случае необходимости, вмешательство могут оказаться неосуществимыми или чрезмерно затратными для производителей. Следовательно, важно обеспечение того, чтобы сами пользователи технологий и юнитов искусственного интеллекта были в достаточной мере заинтересованы принимать меры предосторожности и вкладываться в собственное обучение в этой области. В ситуациях, когда внешние факторы оказывают значительное влияние, регулирующие органы могут посчитать необходимым потребовать прохождение такого обучения пользователями технологий и юнитов искусственного интеллекта.
К примеру, может потребоваться получение специального водительского удостоверения для управления беспилотным автомобилем. Или же, например, врачам может потребоваться прослушать минимальное количество уроков по работе с робототехнической системой, прежде чем они будут допущены к проведению некоторых типов процедур для447
пациентов .
Сущность автономности юнита искусственного интеллекта как раз означает, что введение каких-то определённых данных и программирование такого юнита определённым образом не обязательно приводит к конкретному результату в ответ на заданные обстоятельства (введённые команды)[446] [447].
В пункте «Z» Введения к Резолюции Европейского Парламента вместе с рекомендациями Комиссии по гражданско-правовому регулированию в сфере робототехники Европейского Парламента от 16.02.2017 «Нормы гражданского права о робототехнике»[448] подчёркивается, что роботы сейчас способны не просто выполнять определённый круг действий, которые обычно присущи и типичны для человека, но и учиться на собственном опыте и принимать квазинезависимые решения, что делает их всё более похожими на агентов, взаимодействующих с окружающей средой и способных значительно её изменять, и в таком контексте проблема определения юридической ответственности за вредные действия робота становится решающей.
Сложный и полиморфный характер таких систем не позволяет чётко определять ответственность за сбои таких программ. Кроме того, если говорить, к примеру, о сложном оборудовании, оснащённом искусственным интеллектом и используемом в военных целях, то принятие решений таким оборудованием, вероятно, будет распределено между несколькими разными программами (разрабатываемыми, возможно, разными незнакомыми друг с другом программистами) и процессорами на основании данных, получаемых от датчиков различных типов. Принятие решений таким оборудованием будет зависеть от обстановки, в которой оно используется, от контекста, а также от возлагаемых на него задач.
И в таком случае нецелесообразно и некорректно возлагать ответственность на проектировщиков и разработчиков[449].Кроме того, существует и подлежит принятию во внимание очень серьёзная проблема, связанная с существенной уязвимостью юнитов искусственного интеллекта от взлома (несанкционированного вскрытия) и перепрограммирования злоумышленниками. Такое обстоятельство весьма усложняет установление лица, ответственного за вредные действия такой системы.
Помимо всего прочего, на сегодня нет внятных (законодательно урегулированных или даже просто научно обоснованных - на уровне правопонимания) ответов на вопрос о том, кто, на каких основаниях, при каких условиях, в какой мере и в каком порядке должен нести ответственность за ущерб (и возмещать ущерб), причинённый или спровоцированный:
- ошибкой (невиновным деянием), совершённой юнитом искусственного интеллекта, например, если робот-диагност поставил неверный диагноз, в результате чего пострадал человек-пациент, или иным дефектом его функционирования;
- производственными дефектами юнита искусственного интеллекта или его актуаторов (физически осязаемых исполнительных механизмов);
- взломом и/или несанкционированным перепрограммированием программной составляющей юнита искусственного интеллекта;
- поведением юнита искусственного интеллекта, аналогичным человеческому сумасшествию;
- непринятием юнитом искусственного интеллекта мер по предотвращению самоубийства человека, которые потенциально могли быть реализованы (если на месте этого юнита был бы другой человек);
- действиями двух юнитов искусственного интеллекта, которым их статус позволяет выступать истцами в суде и которые встретились как разные стороны дела, по совместному злоупотреблению правом в судебном процессе, что парализовало деятельность судебной инстанции; аналогичными ситуациями в других сферах;
- самостоятельным отключением себе юнитом искусственного интеллекта части своих программных и аппаратных функций, блокирующих возможность причинения вреда человеку;
- произвольным созданием юнитом искусственного интеллекта по своему усмотрению робота, способного причинить вред человеку и предназначенного для этой цели;
- несанкционированным самопроизвольным образованием несколькими юнитами искусственного интеллекта коллективного (интегрального) сетевого искусственного суперразума с полным или существенно значимым выходом из-под контроля человека.
Таким образом, применительно к юнитам искусственного интеллекта объективно очень много вопросов, требующих незамедлительного урегулирования.
3.1.5.