<<
>>

Общее описание исследуемого круга проблем

По словам Т.Я. Хабриевой и Н.Н. Черногора, «новая цифровая реальность предъявляет новые требования к правовой науке и юридической практике, касающиеся в том числе разработки эффективных инструментов и моделей правового регулирования различных областей общественной жизни.

Задача юристов - придать этой реальности правовую форму»[414].

В настоящее время всё более актуальной становится тема возможного юридического конструирования и признания определённой специфической правосубъектности юнитов искусственного интеллекта[415].

Развитие искусственного интеллекта, по словам О.А. Ястребова, стало одной из предпосылок возникновения в перспективе принципиально

416

новых подходов и инструментов правового регулирования .

Однако вопрос особой правосубъектности искусственного интеллекта в настоящее время, главным образом, является предметом осмысления много более научным сообществом, нежели законодателями.

Маршал Уиллик указывал в своем исследовании, проведённом в 1983 году, что по мере развития технологий, позволяющих более полно взаимодействовать человеку и компьютеру, возможно размытие границ между инструментом (в качестве которого выступает как раз компьютер) и

417

оператором, управляющим таковым .

Ныне, по прошествии 35 лет, нельзя говорить о хоть сколько- нибудь значимом размытии этих границ, однако вопрос правосубъектности юнита искусственного интеллекта (или, как ещё его называют, «цифрового существа») приобретает актуальность в силу иных причин и факторов, в числе которых то, что современные технологии позволяют добиваться всё более независимого поведения юнитов искусственного интеллекта.

И если юнит искусственного интеллекта является по-настоящему автономным и способен к самообучению, становится всё более сложно приписывать последствия его поведения (действий) его создателю . [416] [417] [418]

В 2017 году Европейский Парламент в своей резолюции вместе с рекомендациями Комиссии «Нормы гражданского права о робототехнике»[419] обозначил необходимость определения особого правового статуса для роботов в долгосрочной перспективе таким образом, чтобы хотя бы наиболее сложные автономные роботы могли быть наделены статусом электронных лиц, которые несут ответственность за свои действия и могут принимать независимые решения или иным образом независимо взаимодействовать с третьими лицами.

При этом исследователи отмечают, что характер предлагаемой правосубъектности электронного лица, предложенного Европейским Парламентом, не был разъяснён в названном документе и пока не ясен; возможно, будет определён в будущем[420].

Речь идёт о потенциально возможном наделении робототехники некоторой определённой правосубъектностью.

Соответственно, возникает обоснованная и выраженная необходимость научного осмысления данного круга вопросов.

Необходимо исследовать юридические и фактические возможности применения концептов правосубъектности к юнитам искусственного интеллекта, глубоко осмыслить и оценить вопросы и задачи, которые, действительно, могут быть релевантно решены только именно посредством введения нового правового субинститута электронных лиц, а также проблемы и риски, которые может повлечь воплощение данного концепта в жизнь, проанализировать тенденции, модели и проблемы правосубъектности искусственного интеллекта.

Тема нормативного правового регулирования разработки, производства, программирования, оборота, применения (задействования), функционирования, самообучения и саморазвития, прекращения жизнедеятельности (разрушения) и утилизации юнитов искусственного интеллекта, правосубъектности юнитов искусственного интеллекта, ответственности за действия и последствия действий юнитов искусственного интеллекта, за ущерб, вызванный юнитом искусственного интеллекта, иных аспектов искусственного интеллекта детерминирует научные дискуссии относительно правового статуса юнитов искусственного интеллекта.

В рамках одного из существующих подходов предлагается наделять юниты искусственного интеллекта определённой специфической правосубъектностью - для того чтобы эти юниты несли (были способны нести) ответственность за свои действия.

Однако такой подход кажется наименее корректным и наиболее слабым в части обоснования такой правосубъектности.

Так, Джеймс Гэрфорт выделяет следующие случаи противоправных действий юнита искусственного интеллекта:

- использование юнитом искусственного интеллекта, осуществляющим сбор и хранение информации о людях, такой информации в ненадлежащих целях, передача её сторонам, которые не имеют доступа к такой информации, а также сбор такой информации без наделения его правами на доступ к ней;

- нарушение юнитом искусственного интеллекта прав человека неправомерным публичным раскрытием персональной или иной частной информации о нём;

- нарушение юнитом искусственного интеллекта прав человека взаимодействием с ним в выраженно оскорбительной манере;

- принятие юнитом искусственного интеллекта

дискриминирующих человека или группу лиц решений;

- нарушение юнитом искусственного интеллекта, создающим результаты интеллектуальной деятельности, законодательства о праве интеллектуальной собственности[421].

Однако подобного рода ситуации могут произойти лишь в случае некорректного программирования юнита искусственного интеллекта человеком, намеренного или в результате ошибки. В будущем же, указанные вероятные ситуации могут произойти абсолютно

непредсказуемо, в частности - в результате сложных процессов самообучения юнитом искусственного интеллекта. Однако и тогда весьма затруднительно будет говорить о намеренном причинении юнитом искусственного интеллекта вреда человеку, во всяком случае - в устоявшемся понимании понятия намеренности. А объективное вменение возможно лишь за ограниченные виды деяний, и его цели не будут достигаться в этом случае.

При этом наделение юнита искусственного интеллекта

правосубъектностью всё же может способствовать решению вопроса о том, кто именно несёт ответственность за его неправомерные действия или бездействие, в частности - для решения проблемы определения надлежащего ответчика.

Поэтому ключевой правовой проблемой использования юнитов искусственного интеллекта на современном этапе уже является проблема определения юридической ответственности за наступление вредных последствий в результате действий (или бездействия) юнита искусственного интеллекта. Причём если ошибка юнита искусственного интеллекта, используемого при управлении коммерческой организацией либо при оказании информационных услуг, может быть сравнительно

легко отслежена и исправлена и может не иметь глобальных негативных последствий, то, например, совершение ошибки таким юнитом при принятии решения в рамках государственного управления может нанести очень значительный вред публичным интересам, правам и законным интересам граждан.

В силу того что юниты искусственного интеллекта по мере развития технологий становятся всё более сложными и получают всё большее распространение, всё менее однозначной становится одна из фундаментальных концепций, согласно которой конечным субъектом принятия любого решения является человек, что, в свою очередь, поднимает проблему определения юридической ответственности[422] [423].

Джон Байерс отмечает, что до относительно недавнего времени проблема определения ответственности за действия машины разрешалась однозначно и традиционно: такая машина должна была рассматриваться исключительно как инструмент лица, обладающего или управляющего ей. Не возникало вопроса о личной ответственности такой машины или её правосубъектности, поскольку машины не были способны осуществлять

423

автономную или полуавтономную деятельность .

Так, в Пояснительной записке Секретариата Комиссии ООН по праву международной торговли об использовании электронных средств связи в международных соглашениях отмечалось, что лицо (как физическое, так и юридическое), от имени которого компьютер был запрограммирован, должно нести ответственность за любое сообщение (коммуникативный сигнал), сгенерированное машиной (статья 12)[424] [425].

В настоящее же время следующие ключевые характеристики юнитов искусственного интеллекта актуализируют проблему определения их правосубъектности и способности нести юридическую ответственность за свои действия:

425

- автономность и самоорганизация;

- способность к обучению и самообучению;

- способность к разумному мышлению и поведению.

Сочетание названных параметров приводит к вероятности

совершения действий, не предусмотренных производителем или программистом изначально.

При этом также имеет значение возможный диапазон таких непредвиденных действий.

Риски, касающиеся безопасности роботов нового поколения, ряд авторов обоснованно подразделяют на 2 категории:

- риски, проистекающие из стандартов производства таких роботов (такие риски поддаются управлению посредством нормативно-правового и нормативного технического регулирования, посредством процессов оценки и планирования);

- риски, проистекающие из автономной деятельности роботов (автономная деятельность роботов нового поколения делает связанные с их деятельностью риски сложными, изменчивыми и непредсказуемыми и, следовательно, требует совершенно иного подхода к оценке рисков)[426].

Возрастающее использование юнитов искусственного интеллекта переносит ответственность за их безопасное функционирование с оператора на разработчика, со всеми вытекающими из этого нравственно - этическими и юридическими последствиями. Поэтому, по мнению Королевской инженерной академии наук Великобритании, возможно, необходимо установление требований к своего рода лицензированию осуществления деятельности в этой сфере, в частности - требований, касающихся изучения и учёта нравственно-этических принципов в этой области[427].

Для подобных целей Королевская инженерная академия наук Великобритании выпустила руководство «Инженерная этика на практике: руководство для инженеров»[428].

В случае если презюмировать, что юнит (агент, система) искусственного интеллекта не в состоянии непосредственно самостоятельно нести ответственность за свои действия, что такой юнит не может обладать правосубъектностью, то возникает иная проблема. Эта проблема связана с определением надлежащего субъекта ответственности, поскольку круг лиц, участвующих в регулировании и администрировании поведения юнита искусственного интеллекта, в действительности, чрезмерно широк. К этому кругу могут быть отнесены владельцы, операторы, проектировщики и программисты. Если же предполагать возможность разделения ответственности между ними, то возникает проблема определения и распределения степени вины таких лиц, в особенности - если говорить не о тех ситуациях, когда кто-либо из них намеренно программирует робота на причинение смерти человеку, а о тех ситуациях, когда затруднительно доказать намерение конкретного лица причинить вред, доказать, что это лицо знало о том, что вред может быть

.. 429

причинен .

Традиционным решением может стать так называемый институт строгой ответственности, предполагающий привлечение к ответственности без вины, но, как отмечает Джек Балкин, это, во-первых, может существенно ограничить, «задушить» инновации в этой сфере, а во-вторых - может быть не вполне корректным с точки зрения уголовного права[429] [430].

Некоторые сбои в работе юнитов искусственного интеллекта могут быть опасными для отдельных человеческих индивидов и общества, могут приводить к причинению ущерба. Габриэль Халлеви приводит в качестве примера следующую ситуацию: на программный комплекс, оснащенный искусственным интеллектом, предназначенный для тюремной охраны, возложены функции по предотвращению побегов из тюрьмы с минимизацией применения силы, которая может нанести вред здоровью и жизни беглых заключенных. Для выполнения названной задачи такой программный комплекс может использовать силу с помощью киберфизических систем (с актуаторами). В какой-то момент заключенный предпринимает попытку побега. Программный комплекс эту попытку обнаруживает и отправляет киберфизическую систему (физически осязаемого робота) для решения проблемы. В данном случае не имеет значения, является ли этот робот частью программного комплекса с искусственным интеллектом или же он обладает собственным автономным искусственным интеллектом. Отправленный для решения проблемы робот предотвращает попытку побега, крепко схватив (удерживая) заключённого. В результате этот заключённый пострадал и заявляет о злоупотреблении физической силой. Анализ действий робота показывает, что, хоть он и мог выбрать более мягкую меру воздействия, он всё же выбрал определённое пагубное действие. Причиной этому служило то, что робот значительно переоценил риски. Следовательно, правовой вопрос в такой ситуации заключается в определении того, кто именно несёт юридическую ответственность за причинение вреда здоровью

431

заключённого .

На настоящем этапе развития технологий неизвестно, насколько простым будет разрешение споров, касающихся привлечения третьих лиц к ответственности за действия юнита искусственного интеллекта (или привлечения самого такого юнита), в досудебном порядке, в сравнении со спорами, связанными с другими технологиями. В частности, сложность этих новых технологий и некоторых типов взаимодействия между человеком и машиной может негативно влиять на шансы сторон достигнуть компромисса[431] [432].

Согласно нашему подходу, обоснованно выделять следующие основные модели определения ответственности за действия юнита искусственного интеллекта, повлёкшие за собой наступление вредных последствий (в том числе в сфере права интеллектуальной собственности):

- модель инструмента реального актора, в рамках которой юнит искусственного интеллекта презюмируется как принципиально

невиновный («безвинный») агент, инструмент действительного

исполнителя правонарушения;

- модель естественных вероятных последствий, в рамках

которой презюмируется, что юнит искусственного интеллекта реализует действия, являющиеся естественным, логически закономерным и вероятным следствием (производным) его

производства / программирования, а лицо, создавшее и/или запрограммировавшее машину, презюмируется проявившим преступную небрежность;

- модель прямой ответственности непосредственно юнита искусственного интеллекта за его действия (или бездействие);

- модель квази-субститутивной ответственности

(ответственность за небрежность других лиц) владельца и/или эксплуатанта юнита искусственного интеллекта за неспособность надлежащим образом истолковать намерения и действия этого юнита и предупредить эти действия.

Очевидно, что принятие каждой из этих моделей и воплощение таковой в жизнь потребует в каждом из этих вариантов применения различных наборов законодательных подходов и мер.

3.1.2.

<< | >>
Источник: МОРХАТ Петр Мечиславович. ПРАВОСУБЪЕКТНОСТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА В СФЕРЕ ПРАВА ИНТЕЛЛЕКТУАЛЬНОЙ СОБСТВЕННОСТИ: ГРАЖДАНСКО-ПРАВОВЫЕ ПРОБЛЕМЫ. ДИССЕРТАЦИЯ на соискание учёной степени доктора юридических наук Москва 2018. 2018

Скачать оригинал источника

Еще по теме Общее описание исследуемого круга проблем:

- Авторское право России - Аграрное право России - Адвокатура - Административное право России - Административный процесс России - Арбитражный процесс России - Банковское право России - Вещное право России - Гражданский процесс России - Гражданское право России - Договорное право России - Европейское право - Жилищное право России - Земельное право России - Избирательное право России - Инвестиционное право России - Информационное право России - Исполнительное производство России - История государства и права России - Конкурсное право России - Конституционное право России - Корпоративное право России - Медицинское право России - Международное право - Муниципальное право России - Нотариат РФ - Парламентское право России - Право собственности России - Право социального обеспечения России - Правоведение, основы права - Правоохранительные органы - Предпринимательское право - Прокурорский надзор России - Семейное право России - Социальное право России - Страховое право России - Судебная экспертиза - Таможенное право России - Трудовое право России - Уголовно-исполнительное право России - Уголовное право России - Уголовный процесс России - Финансовое право России - Экологическое право России - Ювенальное право России -