читать блог
Мечтают ли андроиды об электроовцах?
Получив в конце прошлого года (не иначе как в подарок на Новый год) законопроект Dentons о внесении изменений в ГК в части совершенствования правового регулирования в области робототехники, я смог подготовить отзыв на него только сейчас. Слишком сильное впечатление произвели на меня некоторые его положения, для традиционного цивилиста весьма экстравагантные. Но современные цифровые технологии способны разрушить самые устойчивые представления о правовом регулировании. Так что хотелось бы подойти к законопроекту непредвзято.
Итак, в ГК предлагается ввести новую Главу 6 «Роботы-агенты». Эта глава, по замыслу разработчиков, должна находиться в конце Подраздела 2 «Лица». Правда, непонятно, почему ей дан номер 6, ведь такая глава в ГК уже есть. Логичнее было бы дать ей номер 5.1. Размещение этой главы в Подразделе 2 содержит указание на то, что роботы-агенты являются лицами, т.е. субъектами гражданского права. Об этом же прямо говорит и первая статья законопроекта под номером 127.1: «Роботом-агентом признается робот, который по решению собственника и в силу конструктивных особенностей предназначен для участия в гражданском обороте». Робот-агент имеет все признаки юридического лица (ст. 48 ГК), за исключением организационного единства, т.е. он имеет обособленное имущество, выступает в обороте от своего имени и несет самостоятельную ответственность. Робот-агент наделяется гражданской правоспособностью при соблюдении определенных формальностей…
Признание роботов-агентов субъектами права предполагает, что они обладают сознанием и волей, достаточными для участия в гражданском обороте. Из такого предположения исходит ГК применительно к любому субъекту гражданского права – и гражданину, и юридическому лицу, и государственному (муниципальному) образованию. Правда, настоящими сознанием и волей обладают только люди (граждане). Остальные субъекты предполагаются наделенными этими качествами постольку, поскольку в их деятельности участвуют люди, которые вступают в гражданские правоотношения от их имени. Если таких людей нет, юридические лица и государственные (муниципальные) образования, формально существуя, в гражданском обороте участвовать не могут. В случае с роботами-агентами обязательное участие людей предполагается на стадии создания соответствующего субъекта права, который впоследствии сам, без посредства людей, может вступать в гражданские правоотношения с другими субъектами.
Значит, робот-агент должен иметь такие конструктивные особенности, которые позволили бы его считать наделенным сознанием и волей, сопоставимыми с человеческими. Не предрешая вопрос о том, способен ли в будущем искусственный интеллект сравняться с человеком, можно ли сделать такой вывод прямо сейчас, исходя из достигнутого уровня техники? На мой взгляд, пока нет. Робот не в состоянии оторваться от человеческого интеллекта ни на стадии определения общих условий его функционирования, ни при вступлении в конкретные гражданские правоотношения. Поэтому признание его самостоятельным субъектом права, который без постоянного содействия людей может участвовать в гражданском обороте, будет фикцией. Применительно к роботам-агентам приходит на ум теория «целевого имущества», при помощи которой некоторые цивилисты объясняли природу юридического лица в XIX веке.
Законопроект рассматривает робота агента не только в качестве субъекта, но и в качестве объекта права. Ведь у него всегда есть собственник. Значит, робот-агент – это вещь, наделенная сознанием и волей. В истории права такие вещи существовали – это были рабы (instrumentum vocale), в отношении которых римское право содержало довольно большой объем норм. Однако рабы с точки зрения наличия у них сознания и воли были обычными людьми, просто их не признавали субъектами права. Напротив, роботы-агенты признаются субъектами права, хотя они пока не наделены достаточными для людей сознанием и волей. Двойственный статус робота-агента – он одновременно и субъект, и объект права – порождает множество теоретических проблем.
Если у робота-агента есть имущество, то какое право на это имущество ему принадлежит – право собственности или ограниченное вещное право – с учетом того, что сам робот – объект права собственности его собственника? Есть ли у собственника робота-агента право собственности на имущество, принадлежащее последнему? Тут возможны варианты: 1) собственник имеет право на робота-агента, но не его имущество, которое принадлежит только роботу-агенту; 2) собственник имеет право и на робота-агента, и на его имущество, одновременно робот-агент считается собственником своего имущества; 3) собственник имеет право и на робота-агента, и на его имущество, а робот-агент обладает в отношении своего имущества ограниченным вещным правом. Первый и третий варианты вполне вписываются в континентальную систему права. Второй вариант ближе к англо-американской системе. Но при первом варианте возникают сложности с обоснованием ответственности собственника по обязательствам робота.
В ограничении ответственности собственника (иного владельца) за действия робота, пожалуй, и состоит основной смысл законопроекта. В нем сказано, что собственник и владелец робота-агента несут ответственность за его действия в пределах находящегося в их собственности имущества, переданного во владение и (или) пользование робота-агента (ст. 127.4 проекта). Иными словами, взыскание по долгам может быть обращено лишь на имущество робота-агента. Имущество его собственника (иного владельца) забронировано от претензий кредиторов. Настолько ограниченной ответственности у юридических лиц сейчас нет! Пожалуй, лишь государство установило для себя такую ответственность по долгам подавляющего большинства созданных им юридических лиц. Можно ли устанавливать подобные правила для роботов-агентов, наличие у которых сознания и воли вызывает сомнения?! Вопрос риторический… Переложение же ответственности при определенных условиях лишь на разработчика, изготовителя или лицо, осуществляющее техническое обслуживание робота, еще сильнее ущемит права потерпевшего.
Большие сложности вызовет предлагаемое законопроектом разграничение фигуры собственника и владельца робота-агента. Владеть роботом-агентом можно на праве собственности, ограниченном вещном праве или по договору (ст. 127.3 законопроекта: кстати, непонятно, почему из числа владельцев исключены государственные и муниципальные образования). Это приведет к удвоению, а то и к утроению титулов на робота-агента, а ведь у последнего еще есть и собственное право на имущество. Как будут при таких обстоятельствах решаться вопросы возмещения убытков, причиненных роботом-агентом? Понимая возможные трудности в этом деле, разработчики предложили при наличии сомнений считать ответственным лицом последнего собственника или владельца. А почему только последнего, а не всех их в солидарном порядке? Процесс взыскания убытков в любом случае, к сожалению, усложнится. И наконец, я не представляю, как роботы-агенты будут участвовать в судебных заседаниях, даже если те не предполагают личного участия…
Владельцем робота-агента, согласно законопроекту, может быть и другой робот-агент. При такой модели отношений право роботов-агентов на их имущество не должно быть правом хозяйственного ведения или правом оперативного управления (см. третий вариант). Наше гражданское законодательство только недавно избавилось от дочерних предприятий, которые создавались унитарными предприятиями. С учетом ограниченной ответственности по долгам роботов-агентов появление таких «матрешек» с различными титулами сделает еще более эфемерным реальное возмещение причиненных ими убытков.
Наконец, особо хочется отметить создание саморегулируемых организаций (СРО) роботов-агентов, которое предусмотрено ст. 127.9 законопроекта. Роботы будут выдумывать правила для других роботов? До СРО роботов не додумались даже самые изощренные научные фантасты, исходившие из того, что искусственный интеллект един!
Завершая краткий обзор законопроекта, хотелось бы подчеркнуть, что проблему правового регулирования отношений с участием роботов-агентов можно было бы гораздо проще решить, не признавая их субъектами гражданского права. Для этого следовало бы признать их имуществом особого рода, подробно урегулировав его режим. И при любых обстоятельствах на стадии введения данного объекта в гражданский оборот нельзя ограничивать ответственность его собственника (владельца), какими бы благими намерениями ни руководствовались разработчики законопроекта.
Похожие материалы
-
Никита РогожкинРуководитель юридической компании Континент24.03.202417
-
Георгий СенюкPartner12.02.202410
-
Павел Дробышев17.01.20248
-
Антон ИвановНаучный руководитель факультета, ординарный профессор28.11.202381
-
Денис Плотников16.09.20232
-
Халид ТаибовЮрист08.09.20233
Комментарии(54)
2) обсуждаемый же законопроект, мягко говоря, никуда не годится.
С трудом верится, что эту мешанину несочетаемых друг с другом юридических терминов составили не просто живые люди, а лица с дипломами о высшем юридическом образовании.
Законопроект напоминает результат работы шуточной программы SCIgen, генерирующей наукообразные, но бессмысленные тексты (см.: общественная акция "Корчеватель").
Вещь (робот) у авторов законопроекта не только объект прав, но еще и... субъект правоотношений! Причем субъект, к которому применяются правила о... юридических лицах!
Спасибо еще, что авторы остановились на этом, а то ведь могли пойти дальше в соединении несоединимого. Например, могли объявить роботов одновременно: субъектами правоотношений + объектами прав + сделками + деликтами + источниками норм гражданского права
Нужны ли нам восстания роботов, требующих наделения их правосубъектностью? Нужны ли нам рОбовладельческие войны между людьми, которые расценивают роботов исключительно в качестве объектов прав и прогрессивной частью человечества, сражающихся за их права? В конце концов, нужен ли нам судный день, предсказанный в "Терминаторе"? )) Есть о чем задуматься!
Всех с пятницей, коллеги!
2022 год. На одном из митингов роботы потребовали предоставления избирательных прав.
2023 год. Роботам предоставлено активное избирательное право.
2024 год. Робот оспорил в КС отсутствие у него пассивного избирательного права. КС признал норму закона, ограничивающую права роботов, неконституционной. В этом же году роботам предоставлено право вступать в партии.
2025 год. На выборах в Госдуму большинство мест получили роботы, выдвинутые партией <...>
2026 год. Робот-депутат предложил поправки в ГК об исключении из Подраздела 2 ГК "Лица" Главы 3 "Граждане (физические лица)" и о дополнении Подраздела 3 "Объекты гражданских прав" главой 8.1 "Представители Homo sapiens". Большинством голосов законопроект был одобрен.
_________________________________
http://kpfu.ru/news/rektor-254492.html
"Задачу перед участниками проекта поставил ректор КФУ Ильшат Гафуров: «Мне бы хотелось увидеть такую систему, которая могла бы на основании имеющихся данных выдавать возможный вариант решения судьи. В случае если данных для принятия решения не хватает, она бы показала, чего именно не достает».
Впрочем, система может решать гораздо больше задач. Введение стороннего объективного контроля, основанного на анализе данных законодательства и принятых в прошлом решений суда, может сократить количество возможностей для коррупции. Принятие нелогичных решений становится заметным и может быть проще оспорено в судах высшей инстанции, а значит, количество судебных ошибок может уменьшится.
Конечно, никто не собирается передавать власть в руки машины - решение должен принимать человек. Но сама система, упрощающая процедуру принятия справедливого решения, должна быть создана."
_________________________________
(либо в ректорате не знают о существования системы "Консультант Плюс", либо не осознают того, что автоматизировать неформализуемую (на сегодняшнем уровне техники) человеческую деятельность по отправлению правосудия попросту невозможно. Все что, технически реалистично, уже воплощено в справочных правовых системах и поисковых "машинах", типа Гугла и Яндекса)
https://pda.pravo.ru/review/view/124329/
Так что, при определенном уровне правопорядка предсказать решение не так уж и сложно.
Как раз роботам митинговать и сейчас не запрещено, возможно даже имеет сысл разработать роботов-манифестантов, для обхода заретительного законодательства о массовых мероприятиях
Заена большинства ныне имеющихся депутатов Госдумы и, тем более, Совета Федерации, и ныне на работе данных органов отразилась бы мало, но сократило бы издержки на содержание депутатского корпуса...
Коллеги его обсудили очень бурно, но кратко. Единственный вопрос, который заслуживает обсуждения на сегодняшний день, это как распределять ответственность между создателем (программистом) робота и его собственником. Все остальное не вышло за пределы категории "чушь". При чем писать закючение нужно только под саундтрек из Терминатора 2.
Приятно, что автор статьи взял волю в кулак и написал заключение. Я не смог.
Аста ля виста, беби..
Что касается вопроса ответственности, то его можно поставить так: необходимо ли вообще особое распределение гражданско-правовой ответственности, отличное от уже существующих правил (скажем, правил законодательства о защите прав потребителей и положений об источнике повышенной опасности)? Если необходимы lex specialis, то какие и почему?
Например, бытовая техника, средства связи, автомобили весьма автоматизированы, практически в каждой из таких вещей - микропроцессор, одна или множество программ для ЭВМ и баз данных (подчас, крайне сложных).
Даже в средней стиральной машине есть сложный софт, в т.ч. с элементами нечеткой логики, не говоря о смартфонах. Например, функция распознавания лиц на фото, такая простая в использовании, является плодом весьма серьезных изысканий специалистов по т.н. "искусственному интеллекту".
Но на сегодня пока что как-то оборот неплохо себя чувствует и при существующих правилах о распределении ответственности.
Нужны ли некие особые правила? Возможно, нужны. Но это потребует соответствующего обоснования (политико-правового, инженерно-технического и т.д.).
В существующем же виде законопроект и заложенная в него концепция - наглядное пособие на тему того, как нельзя подходить к нормотворческой работе. В особенности, если речь идет о новых и сложных областях регулирования, таких, как робототехника.
Так что Вы правы, Павел, саундтрек. Из шоу Бенни Хилла.
Но следует учесть один аспект, к сожалению если автоматизировать право, то будет повышаться риск взлома и манипулирования подобной информацией тем же хакерами.
- "робот-агент" может вообще не иметь материализации (эту ветку здесь не разбираю) или оперировать сразу множеством объектов-железяк, расположенных в разных местах
- программное обеспечение может быть набором обновляемых в режиме онлайн сервисов от разных авторов, в т.ч. анонимных, в т.ч. опенсорс
- сама "железяка" может быть трансформером из блоков от разных производителей
- даже сборка конструкции "железяки" может не иметь одного автора; представим, что прилетел дистанционно управляемый дрон и подключил новый модуль к трансформеру; представим, что десятки, сотни или тысячи людей и роботов-агентов (и пойди пойми где кто) таким образом участвуют в изменении конфигурации этого трансформера
- доступ к оперативному управлению железякой или разными её компонентами может иметь как одно, так и множество лиц и роботов-агентов
- и так далее
Или вот представим, что для решения о каком-то действии робот-агент обращается к некому чат-боту Васе и на основании ответов действует. За "Васей" теоретически могут стоять (и надо смотреть, кто конкретно отвечает на каждый конкретный запрос): тысячи разных людей и скриптов, которые в свою очередь могут состоять из тысяч разных людей и скриптов, которые в свою очередь...
Технически все это уже не фантастика. Ближайшие 5-10 лет необходимо будет решить, как регулировать в правовом поле, надо с чего-то начинать.
Выдавать доверенность своему собственнику?))
У всех этих вещей - своя правосубъектность, свое собственное обособленное имущество. Кстати, что это – «имущество робота»? Аккумуляторы, что ли?
Осталось непонятным, почему авторы законопроекта обошли своим вниманием сообразительных кошек и собак. Гражданский оборот мог бы заиграть новыми яркими красками
из законопроекта:
"Статья 127.1. Понятие роботизированного агента
1. Роботизированным агентом (роботом-агентом) признается робот, который по волеизъявлению собственника и в силу конструктивных особенностей предназначен для участия в гражданском обороте. Роботизированный агент имеет обособленное имущество и отвечает им по своим обязательствам, может ОТ СВОЕГО ИМЕНИ приобретать и осуществлять гражданские права и нести гражданские обязанности, быть истцом и ответчиком в суде."
Пока нет, это верно. Исходя из тех известных мне исследований, которые проводились коллегами в Европейском союзе, можно сделать вывод о том, что в ближайшей перспективе фундаментальных изменений в законодательство, таких как наделение правосубъектностью автономных агентов, не требуется. Скорее всего, вполне достаточно будет применения имеющегося законодательства, и, при необходимости, решения новых спорных вопросов различными методами небуквального толкования закона и применением аналогии закона. См., напр. Koops B-J, Hildebrandt M and Jaquet-Chiffelle D, ‘Bridging the Accountability Gap: Rights for New Entities in the Information Society’ (2010) 11 Minnesota Journal of Law, Science and Technology 497.
Очень хорошо подмечено. Это было бы юридической фикцией, как и наделение правосубъектностью юридического лица. При этом для робота как овеществлённой версии интеллектуального агента хотя бы существует материально осязаемый артефакт в реальности (ассоциируемый непосредственно с ним, а не с его имуществом), в отличие от отсутствия такового для юридического лица. С этой точки зрения, у робота даже, в каком-то смысле, больше оснований претендовать на правосубъектность.
Надо при этом отметить, что и физическое лицо именно как субъект права - также фикция. В том смысле, что всё право является чисто умозрительной конструкцией, которую мы создали для своего удобства. В природе, за пределами деятельности нашего головного мозга, никакого права не сушествует - не существует ни лиц физических, ни юридических. Есть только материальные объекты, в том числе биологические. В нашем же выдуманном мире, праве, мы мысленно создали некоего двойника биологического объекта Homo sapiens sapiens, и для решения наших практических задач мы придали этому двойнику свойство правосубъектности. Правовому двойнику материального объекта под названием "камень", обозначив его имуществом, мы придали, опять же для решения практических задач, свойства объекта прав.
Спустя какое-то время, мы пришли к выводу, что для удобства хорошо бы выдумать такую мысленную конструкцию, не имеющую материального аналога в природе, как юридическое лицо. Потому что нам показалось, что такая конструкция поможет там опять же решать какие-то практические задачи в нашем всё усложняющемся мире.
Точно так же, спустя какое-то время, мы можем решить, что с позиций практичности хорошо было бы создать в праве ещё одну фиктивную конструкцию, похожую на юридическое лицо, но отличную от него по признаку автономии действия в обороте. Интеллектуального агента, может быть воплощённого в роботе, а может быть сугубо программного. Если управляющее его материальной основой программное обеспечение будет в достаточной мере способно управлять имуществом, которым мы его наделим, и это не будет вредно, а будет полезно для оборота.
Всё это возможно - и потешаться над очередной ментальной фикцией, дорогие коллеги, вовсе не обязательно. Мало ли мы видели фикций? Мне гораздо больше импонирует взвешенный подход Антона Александровича.
Что касается ближайшей перспективы, я скорее придерживаюсь оценки, данной в обзорной работе Купса (Koops) и др. (см. выше). В ближайшее время для целей удобства оборота наделение автономных агентов правосубъектностью нецелесообразно.
Наверное, Сознания? Которое на сегодняшний день заключено в биологическую оболочку... Завтра этой оболочкой будет "другое"...
Может надо определить понятие "Сознание, проявляющее волю"...
Однако снова соглашусь с Вами в том, что даже при таком подходе юр. лицо с коллективным сознанием - это "высший пилотаж" правовой мысли...
Кстати, совсем забыл о приведениях ...:)
Пагалло (Pagallo), автор The Laws of Robots, насколько помню, рецепцию пекулия предлагал рассмотреть.
Я не знаю, зачем, если у нас уже есть концепция юридического лица, гораздо более совершенный институт. Кому надо ограничить ответственность за автономных агентов, тот передаёт их под контроль юридического лица, и решает эту задачу таким образом.
Зачем пекулий в современном праве, если всё можно структурировать через ООО / LLC и т. п.?
Честно говоря, перевод ответственности на вещь - очень не приятная тенденция...
А как же концепция повышенно-опасной деятельности и принцип ответственности за неё лица, осуществляющего такую деятельность, независимо от вины?
Вы или я задействовали опасный объект в момент проявления им опасных свойств? Если я у вас купил собаку или пулемёт, и использую их, я разве не принял тем самым риск непредсказуемого причинения ими вреда окружающим?
Т.е. если ДТП произошло в результате действий/бездействия человека - отвечает этот человек. Сюда входит как намеренный перехват управления с целью совершения ДТП, так и ручное управление в состоянии опьянения, и многие другие случаи, перечень можно привести обширный. Сюда же - банальное непрохождение техобслуживания по зависящим от владельца машины причинам (о ДТП по причине отказавших тормозов/отпавшего колеса, думаю, мы оба слышали).
Если же ДТП произошло в результате сбоя в работе автопилота (как было с Тесла 07.05.2016) - отвечает производитель автопилота.
Андрей, мне кажется, вы немного запутались в видах ответственности. Административная или уголовная ответственность действительно наступят лишь в случае вины. Но вы же не о ней говорите, а о "вреде, причинённом автомобилем". Это гражданская ответственность за деликт. Гражданская ответственность за вред, причинённый в ходе повышенно-опасной деятельности, наступает независимо от вины и несёт её лицо, осуществляющее такую деятельность. В данном случае - владелец автомобиля как источника повышенной опасности.
Правила эти просты и понятны: если кто-то решил, что ему удобнее или эффективнее переместить себя или груз из точки А в точку Б не на своих двоих, а на самодвижущейся повозке со значительной массой, или возвести химический завод, или снести динамитом свою дачу, окружающие не должны страдать от такого решения, принятого кем-то, но повышающим риск причинения вреда окружающим. И этот кто-то несёт ответственность за вред независимо от вины.
Если вред произошёл из-за некачественности динамита, промышленного оборудования или автомобиля (автоматизированного или нет - не важно), эксплуатант обратится с иском к их производителям и взыщет с них причитающееся. Но перед окружающими несёт ответственность именно он.
Во-первых, в Тесле уровень автоматизации SAE 2. При этом уровне система технически не способна к управлению автомобилем вместо водителя даже в ограниченных сценариях, не говоря уже о всех видах дорожной обстановке, водитель обязан контролировать ситуацию постоянно. Ни одна система на массовом рынке сейчас не достигла даже SAE Level 3 и сидеть в машине как пассажир невозможно даже непродолжительное время. Никаких автономных автомобилей на дорогах пока нет, есть лишь авто с той или иной степенью автоматизации и совершенства систем _помощи_ водителю. Это первое.
Второе. Почему вы полагаете, что ДТП произошло по неисправности системы? Официальное расследование NHTSA установило, что дефектов в ней не было, а вина водителя очевидна - не реагировал на очевидно приближающийся грузовик длительное время.
https://www.facebook.com/alexander.tyulkanov/posts/1291618144261325
Пулемёт - автоматическое огнестрельное оружие, предназначенное для поражения живой силы противника, т.е. любое его использование по назначению предполагает причинение вреда людям. Ответственность за "неправильную работу" производителя робота-пулемёта, тем не менее, может иметь место: например, если устройство используется в контртеррористической операции для нейтрализации террористов, но вместо этого вследствие сбоя в работе "автопилота" оно разворачивается и начинает стрелять по силам правопорядка/мирным гражданам.
Собака в качестве примера не подходит потому, что в отличие от робота, "сознание" которого представляет собой набор чётких алгоритмов, - собака является живым существом, обладающим сознанием (или его зачатками) и мощными инстинктами, следовательно, поведение животного может быть прогнозируемо только с определённой степенью достоверности, притом достоверность тем меньше, чем к более "бойцовой" породе принадлежит эта собака. Т.е. собака ещё менее, чем робот, способна действовать самостоятельно, без контроля извне.
Что касается роботов, если речь о таком примитивном, о котором говорите вы, то это, очевидно, инструмент в руках владельца / эксплуатанта, и мы с лёгкостью возложим вину на него, как лицо, имеющее контроль над таким инструментом и наиболее способного, и, стало быть, обязанного предотвратить вред, причиняемый таким инструментом.
Однако "сознание" автономных систем всё чаще НЕ представляет собой набор заранее заложенных производителем алгоритмов. Сложность современных самообучающихся систем такова, что спрогнозировать их поведение бывает сложно. Но это также не вызывает большого затруднения с позиций возложения ответственности. Если поведение предсказать и полностью проконтролировать невозможно, а артефакт способен причинить вред, налицо повышение риска случайного причинения вреда, и, следовательно, налицо основания признать артефакт источником повышенной опасности и ответственность опять же возложить на владельца по правилам об ответственности за повышенно-опасную деятельность.
Во втором случае я вас не понимаю, поскольку сейчас по русскому праву потерпевший в ДТП, произошедшем ввиду конструктивного недостатка ТС, имеет право на иск к владельцу ТС вне зависимости от вины последнего по ст. 1079 ГК РФ. Также, возможно, он имеет право на иск напрямую к производителю по ст. 1095 ГК РФ напрямую к производителю ТС с конструктивным недостатком, если ТС использовалось в потребительских целях.
В первом случае я не понимаю, почему вы хотите лишить потерпевшего права на иск к владельцу ТС с конструктивным недостатком? Каково ваше обоснование такого сужения прав потерпевшего? Ведь от того, что машина станет автономной, она не перестанет быть источником повышенной опасности, вводимой в оборот всегда только по желанию владельца.
Но что мы имеем на сегодняшний день (если именно сегодня задумываться о правосубъектности роботов)?
Обычный промышленный робот - это просто автоматизированный механический манипулятор.
С другой стороны, роботами, как вульгарные жаргонизмы, принятые в некоторых видах деятельности, называют наборы алгоритмов, реализованных с помощью языков программирования и исполняемые компьютерами.
Предлагая придать роботам правосубъектность, видимо под впечатлением обывательского представления о них как о зачатках искусственного интеллекта, имеют в виду именно такие алгоритмы (похоже боты, реализованные на разных сайтах и участвующие в общении, производят сильное впечатление на лиц, наделенных воображением, было бы забавно, если бы ботов наделили правосубъектностью).
Такие программы не только не имеют какой-либо овеществленности, но вообще могут быть не обособлены в какой-либо точке пространства, будучи распределенными среди большого количества компьютеров, подключенных к Интернету.
На сегодняшний день, на мой взгляд, нет ни малейшего основания рассуждать о роботах как о субъектах обладающих хоть какой-нибудь автономностью воли.
Предложение о предоставлении правосубъектности роботам означает, что правосубъектность с неизбежностью будет придана игрушечным роботам, работающим на батарейках, мигающим разноцветными огнями и произносящими разные фразы - зеленый огонек может означать согласие на совершение сделки. :)
В принципе, с должным усилием оттолкнувшись от фикции физического лица, можно допрыгнуть до фикции правосубъектности робота, особенно если это востребовано оборотом (имеющими влияние ушлыми дельцами). Некоторые люди видят перспективу и идеальный вариант для ограничения личной ответственности в том, чтобы подставить вместо себя Фёрби.
Наверно также начиналась история юридических лиц. Сначала появилась идея ограничения ответственности, потом над ней смеялись, потом боролись, потом юридические лица стали участниками оборота, теперь развивается практика и теория пронзания корпоративной вуали.
2020 год. Роботам предоставлено право проводить митинги.
2022 год. На одном из митингов роботы потребовали предоставления избирательных прав."
А для начала они-роботы уже в 2017 году должны потребовать выдачи им личных сертификатов
http://soft.lissi.ru/ls_product/mobile_application/
для доступа на сайт Госуслуг
http://soft.lissi.ru/solution/gosuslugi_linux/
http://radiomayak.ru/shows/episode/id/1468856/
Вступал А.П. Кулешов, ректор Сколковского института науки и технологий, академик РАН.
Очень интересно. Например, кстати, а что будет, если наш простой российский пешеход будет абсолютно уверен, что ИИ-автомобиль его никогда ни за что не собьёт?!....
В литературе по автоматизированным автомобилям есть разные мнения на счёт того, при каком уровне навыков вождения автономные автомобили будут наиболее благосклонно приняты обществом. Некоторые специалисты полагают, что для этого система должна попадать в ДТП не чаще среднего водителя-человека. Другие более требовательны: не чаще самого лучшего водителя-человека.
Многие, думаю, мысленно согласятся и на первый вариант, когда статистика аварийности системы уже не хуже, чем у Homo sapiens sapiens, а комфорт и экономическая выгода от почти круглосуточной 100% утилизации транспортного средства уже налицо (очевидно, что владеть автономным автомобилем для целей лишь личного пользования имеет мало смысла, выгода наступает, если отпускать его в свободную коммерческую эксплуатацию в режиме, максимально приближенном к 24/7).
Однако и в этом размышлении о приемлемом уровне аварийности есть некоторый изъян: в действительности статистика аварийности, как утверждает та же Тесла, уже снижается, хотя на дорогах сейчас нет никаких автономных автомобилей: всё, что сейчас на дорогах общего пользования, по уровню автоматизации не превышает SAE Level 2 (когда система не в состоянии заменить водителя даже в отдельных сценариях вождения, и водитель обязан всегда следить за дорогой). До полной автономиии (SAE Level 5) автомобилям, разрешённым для эксплуатации на дорогах общего пользования, ещё как до Луны.
То есть даже на сегодня, когда никакой автономии нет, а есть только ADAS, аварийность уже падает. И с ростом уровня автоматизации по SAE будет продолжать падать.
Однако если целью является достичь уровень мастерства среднего водителя или несколько превысить его, очевидно, что какие-то ДТП будут происходить. Да, автоматизированные автомобили, как говорят специалисты, должны скорее всего программироваться на поведение, основной целью которого является избежание столкновений (collision avoidance). И после каждого ДТП программное обеспечине систем автомобиля будет, скорее всего, автоматически обновляться по воздуху для того, чтобы подобное ДТП по возможности не повторилось больше никогда с этого момента ни в одном другом автономном автомобиле той же модели. Тут мы имеем очевидное преимущество в обучаемости техники перед человеком.
Но и это не подразумевает 100% гарантии успеха. Законы физики никто не отменял, и если тормозной путь будет недостаточен, неожиданно выбежавший на дорогу пешеход будет сбит. Думаю, понимание этого и инстинкт самосохранения у людей вряд ли пропадёт.