Что есть Искусственный Интеллект с точки зрения права? Чем опасны разговоры о субъектности ИИ и перекладывание ответственности за результаты работы машин с разработчика и собственника оборудования на неодушевленный предмет? Об этом и многом другом компетентное мнение эксперта, знающего о ИИ не понаслышке. Исполнительный директор компании «Фрактал» Иван Пургин рассказывает о тонкостях «ИИ в Законе».
Специфичного законодательства в сфере регулирования искусственного интеллекта (далее – ИИ) в России на сегодняшний день нет. Дискуссий о правовом регулировании ИИ достаточно много и все они сводятся к следующим темам:
По поводу правосубъектности есть много работ юристов. Это сейчас благодатная почва для размышлений, особенно если задаться вопросом правового статуса роботов и ИИ.
Но прежде, чем рассуждать о правовом положении объекта, следует дать ему определение. Юридическая наука восприняла из философии искусственного интеллекта Джона Сёрла понятия «сильного» и «слабого» ИИ. «Слабый» ИИ способен решать ряд конкретных задач по заданным алгоритмам, а «сильный» ИИ (когда появится) сможет решать широкий спектр задач без заранее заданного алгоритма, обладая при этом волей и сознанием.
На законодательном уровне в России и за ее пределами закреплено понятие «слабого» ИИ. На наш взгляд, это логично, поскольку сама возможность появления «сильного» ИИ все еще представляется фантастической и рассуждения о правовом статусе программы или программно-аппаратного комплекса, обладающего сознанием, носит сугубо теоретический характер.
Определения же ИИ в нормативных актах различаются и шириной, и глубиной. Так, в иностранных законодательных актах мы встречаем следующие определения ИИ:
Китай. В «Положении о содействии развития индустрии ИИ в Шанхае» ИИ определяется как система теорий, методов, технологий и программного обеспечения, использующая компьютеры и машины, чтобы симулировать, расширять и дополнять человеческий интеллект, воспринимать окружающую среду, обретать знания и использовать их для получения наилучших результатов.
Европа. В Регламенте Европейского союза об искусственном интеллекте, принятом Европейским парламентом в 2024 году, нет определения ИИ, но называются ключевые характеристики систем ИИ. К системам искусственного интеллекта относят такие системы, которые нацелены на автоматическое выполнение операций и способны делать выводы. «Эта способность делать выводы относится к процессу получения выходных данных, таких как прогнозы, контент, рекомендации или решения, которые могут влиять на физическую и виртуальную среды, а также к способности систем искусственного интеллекта выводить модели или алгоритмы, или и то, и другое, из входных данных.
В законодательстве РФ ИИ получил определение в Указе Президента РФ № 490 от 10.10.2019 года «О развитии искусственного интеллекта в РФ»: «искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их. Комплекс технологических решений включает в себя информационно-коммуникационную инфраструктуру, программное обеспечение (в том числе, в котором используются методы машинного обучения), процессы и сервисы по обработке данных и поиску решений».
На сегодняшний день, когда говорят об ИИ, чаще всего имеют в виду технологии «машинного обучения», которые представляют собой построение математических моделей, производящих анализ на основе большого объема данных. Но если говорить об ИИ в широком смысле, то это вся совокупность научных теорий и технологий по созданию программ, имитирующих когнитивные функции человека.
Возвращаясь к вопросу правосубъектности ИИ, нужно сказать, что в прикладном смысле имеет значение оценивать только правосубъектность «слабого» ИИ. Существует несколько концепций правового статуса ИИ и роботов, созданных на основе нейросетевого подхода. ИИ предлагают рассматривать как:
На наш взгляд, рассуждения о субъектности технологии ИИ в любом виде опасны, поскольку перекладывают ответственность за результаты работы машины с разработчика и собственника оборудования на неодушевленный предмет.
ИИ при любом из определений – это объект права, эффективный инструмент, который усовершенствует работу машин и упрощает работу людей, именно так он и должен рассматриваться в праве. При таком подходе специфических, принципиально новых норм для регулирования использования ИИ в РФ пока не требуется, но задуматься об адаптации существующих законов потребность уже возникла, и вопросы будут возникать в будущем.
Одной из широко обсуждаемых проблем в профессиональном сообществе является проблема доступа к большим данным. Она поднималась неоднократно в рамках сессий CIPR в этом году.
Дело в том, что для того, чтобы натренировать нейросеть, необходим большой объем информации, «очищенный» от персональных данных граждан. Например, компания хочет создать приложение, которое будет по фотографии определять вероятность злокачественного образования на коже человека. Для этого нужно получить и обработать огромное количество изображений различных образований. Вопрос: где их взять и как не нарушить Федеральный закон «О персональных данных». Для решения этой проблемы создана Ассоциация больших данных (в нее входят «Яндекс», VK, Сбербанк, Газпромбанк, Тинькофф Банк, «Мегафон», «Ростелеком», Qiwi, билайн, МТС, Фонд «Сколково», ВТБ, Avito и др.), которая совместно с Минцифры разрабатывает законопроект о создании системы обмена и доступа к большим данным.
Пока подход, устраивающий как бизнес, так и государство, не выработан, и это сильно тормозит разработчиков в секторе малого и среднего бизнеса. Но с другой стороны, угроза персональным данным при стремительной цифровизации более, чем реальна и может быть чувствительна для огромного количества граждан в случае, если созданная система будет способствовать созданию канала утечки персональных данных.
На наш взгляд, дополнительной защиты требует и право использования изображения гражданина в связи с распространением технологий дипфейка. Согласно п. 1 ст. 152.1 Гражданского кодекса Российской Федерации обнародование и дальнейшее использование изображения гражданина (в том числе его фотографии, а также видеозаписи или произведения изобразительного искусства, в которых он изображен) допускаются только с согласия этого гражданина, но в случае нарушения этого права гражданин вправе требовать удаления этого изображения, а также пресечения или запрещения дальнейшего его распространения.
Полагаю, что в данной сфере нужно более строгое регулирование. В Китае, например, в январе прошлого 2023г. вступило в силу положение, которое запрещает использовать дипфейк, если применение приложения угрожает нацбезопасности и социальной стабильности, нарушает общественный порядок, посягает на законные права и интересы граждан. Приложение может быть использовано только при условии наличия маркировки, указывающей на изготовление контента по технологии DeepFake.
Надо сказать, что Китай далеко продвинулся в использовании технологий ИИ, в правоприменении, в правовом регулировании ИИ. Например, там технологии ИИ широко используются в судопроизводстве, в том числе уголовном. В 2015 году была создана система «Умный суд». Верховный Суд КНР недавно постановил, что судьи при принятии решений обязаны консультироваться с ИИ. При отклонении рекомендации ИИ, судья обязан предоставить письменные объяснения своих действий. И вероятно, эти объяснения также станут основой для обучения нейросетей.
Использование ИИ в правосудии вопрос очень спорный. С одной стороны, технология машинного обучения позволяет обработать огромное количество схожих материалов дел и рекомендовать вынести решение, основанное на сотнях подобных решений, делая судебную практику однородной, исключая коррупционную составляющую. Но машина, даже самая умная, может допустить ошибку и упустить важную деталь, принципиально меняющую обстоятельства дела, либо изначально в алгоритм обучения может закрасться ошибка, человеческий фактор при обучении модели никто пока не отменял. Отсюда следует снова вывод о том, что не должна машина, даже самая умная вершить судьбы, ответственным за принятое решение должен оставаться человек.
Например, в отрасли фотовидеофиксации нарушений ПДД в РФ именно такой принцип и используется. Камеры работают в автоматическом режиме, программа должна быть создана таким образом, чтобы не допускала вмешательства извне в процесс формирования и передачи фотоматериала для доказательной базы совершения правонарушения. Но решение о назначении штрафа принимает не камера, а инспектор ГИБДД, который получает эти фотоматериалы.
В мире сформировалось на сегодняшний день два подхода к правовому регулированию ИИ. Первый, назовем его, «системный» предполагает необходимость всеобъемлющего регулирования ИИ, то есть единовременного установления универсальных правил во всех отраслях, в которых используется все виды, модели, технологии ИИ. К сторонникам этого подхода можно отнести страны Евросоюза.
Второй подход, назовем его, «оперативный», предполагает точечное правовое регулирование применение технологий ИИ, по мере появления запроса общества и государства на это и развития технологий. В такой парадигме движется Китай, США, Япония и, очевидно, Россия.
Недостатки и достоинства есть у обоих подходов. При первом подходе неоспоримым достоинством является его комплексность, исключающая противоречия в нормативных и подзаконных актах, но очевидным недостатком является неспешность такого регулирования и высокий уровень запретов хоть и с целью защиты прав граждан, но не способствующих развитию технологий.
Так, упомянутый выше Регламент ЕС по искусственному интеллекту полноценно вступит в силу только в 2026 году. При «оперативном» подходе, напротив, законодатель быстрее реагирует на необходимость регулирования применения технологий, оценивая глубину регулирования таким образом, чтобы способствовать развитию инноваций, однако, в конкретных временных отрезках такой подход может нарушать права граждан.
Примером может служить технология распознавания лиц в Китае, на базе которой выстроена система социального рейтинга граждан, и применение которой в Китае на сегодняшний день ограничено.
Если говорить о российском законодательстве, то кроме названных выше проблем в части защиты персональных данных и изображения гражданина, о необходимости дополнительного регулирования в связи с использованием технологий ИИ говорят и в рамках трудового права (например, законно ли использовать системы видеонаблюдения с технологиями ИИ без предупреждения работника), и в рамках права интеллектуальной собственности: кто является правообладателем созданного ИИ произведения, пользователь или обладатель прав на программное обеспечение, его создавшее, является ли то, что создано, произведением. Но все эти вопросы, на наш взгляд, носят точечный характер и не требуют кардинального пересмотра законодательства.
Если говорить о специальных нормах, которые были приняты в сфере регулирования ИИ, то кроме обозначенного выше Указа Президента РФ в России действует Кодекс этики в сфере ИИ, во многом развивающий «Три закона робототехники» Азимова. Есть еще свод законов,
созданный «Альянсом в сфере искусственного интеллекта» и согласующийся с принятой в 2020 году Европарламентом резолюцией «Этические принципы в сфере искусственного интеллекта, робототехники и связанных с ними технологий».
Это все – всего лишь так называемое «мягкое право», призывающее во главу угла ставить интересы человека при разработке программного обеспечения с использованием ИИ.
Очевидно, что законодательство всех стран будет развиваться в направлении более строго надзора и контроля за разработкой и использованием программного обеспечения с использованием ИИ. Но также очевидно, что «революции права» с сфере ИИ не случится и нормы, отвечающие требованиям времени, будут встраиваться в уже существующую ткань законодательства.