IT
Новости и аналитика Аналитические статьи Нейросети против людей. Кто является собственником цифровых произведений

Нейросети против людей. Кто является собственником цифровых произведений

 Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
 © yourapechkin / Фотобанк 123RF.com

Нейросети пишут дипломы, рисуют картины, создают компьютерные программы, генерируют новости. Мир стремительно погружается в эпоху искусственного интеллекта. Однако, это вызывает множество вопросов о правовом статусе таких творений. Пока ни одна страна мира не имеет полноценного законодательства, регулирующего деятельность нейронных сетей. Тем не менее судебные прецеденты уже существуют. Как в эпоху неопределенности зарегистрировать право на объект, созданный ИИ? Что поможет отстоять это право в суде? Можно ли креативы нейросетей использовать в коммерческих целях, например, в рекламе?

В этом материале:

Нейросеть в законе: пробелы в регулировании 

Мы входим в новую эру, в которой человек будет работать вместе с искусственным интеллектом. Первое громкое заявление о введении регулирования в этой области прозвучало в 2017 году. Тогда известный предприниматель Илон Маск заявил о том, что риск неконтролируемого развития ИИ слишком высок. Он указал на то, что законодательство порой существенно отстает от развития технологий. Нередко новое регулирование появляется в результате происшествий и катастроф. По его мнению, еще 8 лет назад у человечества не было запаса времени на разработку соответствующих законов.

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
Николай Титов

Сегодня законодательство многих стран пытается адаптироваться к новым технологиям. В России, например, существует определение искусственного интеллекта, данное в Федеральном законе от 24 апреля 2020 года № 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации – городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных". Согласно этому определению, ИИ представляет собой комплекс технологических решений, способных имитировать когнитивные функции человека, в частности самообучение и генерацию результата, сопоставимого с результатом интеллектуальных усилий человека. Схожая дефиниция содержится в Указе Президента РФ от 10 октября 2019 г. № 490 "О развитии искусственного интеллекта в Российской Федерации".

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
Оксана Федорова

Что касается понятия нейросети, то в нормативных правовых актах она не отождествляется с искусственным интеллектом. Ее определение не закреплено в законах РФ. "Ряд исследователей обращает внимание на проблему отсутствия в российском законодательстве юридических терминов "дипфейк", "нейросеть" и необходимость установления четких правил их использования путем принятия отдельного федерального закона", – отмечает Николай Титов, адвокат, соучредитель юридической компании a.t.Legal.

Вместе с тем в этой сфере постоянно вводится новое регулирование. "В России на текущий момент действует ряд ГОСТов в области искусственного интеллекта, в частности ГОСТ Р 59898, которым установлены общие требования к оценке качества систем ИИ, – рассказывает Оксана Федорова, старший юрисконсульт Института AIRI. – Также есть Кодекс этики в сфере искусственного интеллекта, который постоянно дорабатывается. Его положения носят рекомендательный характер. Однако по последним данным уже насчитывается 869 организаций, которые присоединились к документу".

Простыми словами

Нейросеть – это сложная система, состоящая из множества взаимосвязанных элементов, которые работают вместе, чтобы находить закономерности в данных и решать задачи. Говоря упрощенно, ее можно сравнить с большим калькулятором, который учится на примерах и постепенно становится умнее, понимая, как правильно выполнять свою работу.

Например, вы хотите научить нейросеть различать кошек и собак на фотографиях. Для этого ей показывают много фотографий животных, отмеченных как кошки или собаки. Нейросеть изучает эти фотографии, находит общие черты (уши, хвосты, морды) и запоминает, какие признаки характерны для кошек, а какие – для собак. Со временем она научится сама определять, кто изображен на новой фотографии.

Такими способами нейросети помогают людям решать разные задачи: распознавать речь, управлять автомобилями, писать тексты, анализировать медицинские снимки и многое другое.


Новые ГОСТы для искусственного интеллекта 

1 января 2025 года в России вступили в силу сразу несколько стандартов, регулирующих применение искусственного интеллекта в различных сферах, включая здравоохранение, образование и дорожное строительство1. Эти ГОСТы, по словам Николая Титова, направлены на обеспечение безопасности, конфиденциальности, эффективности и этичности при использовании ИИ-технологий. "Например, ГОСТ Р 71657-2024 регулирует использование искусственного интеллекта в образовании, устанавливая правила применения ИИ при создании научных публикаций, – уточняет Николай Титов. – Утверждены и стандарты, касающиеся применения ИИ в строительно-дорожной технике и проектировании новых композитных материалов2. Стоит также отметить ГОСТ Р 71675-2024 "Системы дистанционного мониторинга на основе искусственного интеллекта в здравоохранении. Общие требования", утвержденный Приказом Росстандарта от 7 октября 2024 г. № 1388-ст."

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
Вита Власова

Кроме того, в январе начали действовать другие стандарты в области ИИ, введенные приказами Росстандарта3. "Все они направлены на установление минимальных требований к безопасности систем ИИ, – говорит Вита Власова, патентный поверенный РФ, руководитель направления по интеллектуальной собственности Института AIRI. – ГОСТы помогут сформировать доверие к технологиям ИИ и обеспечить их ответственное развитие и внедрение в различных отраслях экономики".

Среди введенных ГОСТов эксперты выделяют следующие:

Также вводятся стандарты, закрепленные за техническим комитетом по стандартизации № 053 "Основные нормы и правила по обеспечению единства измерений" (ТК 053), включая:

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры

Кто является правообладателем продуктов, созданных нейросетями

Вопрос о праве собственности на продукты, созданные нейросетями, вызывает активные дебаты среди юристов и исследователей. Эксперты предлагают разные подходы к решению проблемы. Одни полагают, что результаты работы нейросетей следует считать общественным достоянием, другие настаивают на разделении права собственности между пользователями и разработчиками. Есть также мнение, что автором произведений должен считаться пользователь, поскольку именно он формулирует запросы для нейросети. Последний подход представляется более естественным. Например, если компания разработала программу, использующую искусственный интеллект для генерации контента, она не будет считаться владельцем авторских прав на результат работы этой программы.

"В России автором произведения признается гражданин, творческим трудом которого оно создано, – говорит Николай Титов. – Поскольку ИИ не обладает правосубъектностью, результаты его деятельности не могут быть напрямую объектом авторского права. Правообладателем считается лицо, использующее ИИ в качестве инструмента для создания произведения".

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
Кирилл Дьяков

"Перечень объектов авторского права, содержащийся в п. 1 ст. 1259 ГК РФ, не является исчерпывающим, – разъясняет Кирилл Дьяков, старший юрист MTS AI. – Как указано в п. 80 Постановления Пленума ВС РФ от 23 апреля 2019 г. № 10, "при разрешении вопроса об отнесении конкретного результата интеллектуальной деятельности к объектам авторского права следует учитывать, что по смыслу ст. 1228, 1257 и 1259 ГК РФ в их взаимосвязи таковым является только тот результат, который создан творческим трудом. При этом надлежит иметь в виду, что, пока не доказано иное, результаты интеллектуальной деятельности предполагаются созданными творческим трудом. Творческий характер создания произведения не зависит от того, создано произведение автором собственноручно или с использованием технических средств. Вместе с тем результаты, полученные с помощью технических средств в отсутствие творческого характера деятельности человека (например, фото- и видеосъемка работающей в автоматическом режиме камерой видеонаблюдения, применяемой для фиксации административных правонарушений), объектами авторского права не являются.

"Субъектом творческой деятельности признается исключительно человек, – рассуждает Кирилл Дьяков. – ИИ сам по себе пока не обладает сознанием, присущим человеку, и не может быть субъектом творческой деятельности. Таким образом, в тех случаях, когда объект создается (генерируется) силами исключительно ИИ, он не может рассматриваться в качестве авторского произведения и регулироваться законодательством об интеллектуальной собственности. А если ИИ используется как техническое средство, благодаря которому был создан объект, то такое произведение может считаться авторским и регулироваться законодательством об интеллектуальной собственности. Пока существует только один ответ: человек может считаться правообладателем произведения, созданного с помощью нейросети, только если его вклад в создание был очевидным. Это определяется в каждом конкретном случае и требует индивидуального подхода".

ИИ и закон: технологии меняют правила игры

Ситуация становится сложнее, когда речь идет о творчестве нейросетей, работающих автономно, без прямого вмешательства человека. В таком случае возникает вопрос: кому принадлежат права на произведение, созданное машиной?

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
Данила Кистенев

За рубежом уже несколько лет активно развивается судебная практика по вопросу авторских прав "субъектов", не являющихся людьми, в частности, в США. Как рассказывает Данила Кистенев, юрист Студии Искусственного Интеллекта FOKINA.AI, первопроходцем таких дел, возникших еще до бума технологий искусственного интеллекта, но имеющих схожую природу, являются споры об авторских правах животных. "В частности, в деле Naruto v. Slater рассматривался вопрос о том, может ли животное (макака Наруто) обладать авторскими правами на фотографию, – объясняет эксперт. – Фотография была сделана, когда макака, найдя оставленную фотографом камеру, случайно нажала на кнопку спуска затвора. В результате получилось несколько снимков (селфи), один из которых приобрел мировую известность благодаря выразительному выражению лица животного. Суд отказал в регистрации прав на такие фото, обосновав свою позицию тем, что авторские права распространяются исключительно на произведения, созданные человеком, то есть физическими лицами, так как элемент интеллектуальной деятельности при создании произведения обязателен для их охраны".

С развитием технологий возникли аналогичные споры с требованием о признании наличия прав на произведения, созданные уже искусственным интеллектом. В пример можно привести дело Стивена Тэйлера (Thaler v. Perlmutter)4. Истец, пытался зарегистрировать авторские права на изображение "Недавний вход в рай", полностью созданное ИИ. Заявитель утверждал, что авторские права должны принадлежать ему как владельцу системы. Суд отказал, отметив, что авторское право основывается на концепции творческого вклада, который требует осознанного участия человека. Хотя ИИ может быть инструментом, с помощью которого создается произведение, конечный результат не может защищаться авторским правом, если в нем отсутствует творческий вклад человека.

"Стивен Тэйлер также пытался применить доктрину work-for-hire, аналог служебного произведения в российском праве, полагая, что исключительные права на произведение должны перейти к владельцу ИИ как работодателю. Однако суд указал, что это положение применимо только к произведениям, созданным людьми в рамках трудовых или договорных отношений, а искусственный интеллект стороной таких отношений быть не может", – заключает Данила Кистенев.

"В ряде государств признается, что нейросеть может выступать в роли автора, если она способна генерировать оригинальные произведения. Это ставит под сомнение традиционное понятие авторства. В качестве примера можно привести другое дело уже упомянутого Стивена Тэйлера, который пытался зарегистрировать патент на изобретение, созданное ИИ-системой DABUS. В Великобритании ему было отказано, – рассказывает Николай Титов, – однако в ЮАР патент был выдан". Комиссия по делам компаний и интеллектуальной собственности зарегистрировала право на "пищевой контейнер, основанный на фрактальной геометрии"5.

В правоприменительной и судебной практике некоторых стран не всегда можно доказать авторство произведения, созданного искусственным интеллектом. Примером может служить случай американской художницы, которая пыталась зарегистрировать комикс, созданный с использованием нейросети Midjourney. Изначально регистрация была одобрена Патентным ведомством США, но позже отменена им же на основании того, что изображения, сгенерированные нейросетью, не могут быть защищены авторским правом. В результате была предоставлена защита только отдельным элементам комикса, таким как расположение полей и текстовые блоки, но не самим изображениям.

Интересно

Если объект, созданный нейросетью, был выполнен в рамках трудовых обязанностей сотрудника, правообладателем считается компания-работодатель. Если генерация происходит вне рамок трудовой деятельности, авторские права могут принадлежать самому создателю. Однако все усложняется в случае использования библиотек и других сторонних ресурсов – тогда необходимо учитывать условия распространения информации.


Как защитить право на продукт нейросети в суде 

По мнению многих экспертов, ключевым аргументом должно стать доказательство творческого вклада. "Для защиты прав на продукт, созданный с использованием ИИ, необходимо доказать, что конечный результат является следствием творческой деятельности человека, использующего ИИ как инструмент", – считает Николай Титов.

По словам Кирилла Дьякова, необходимо иметь доказательство двух аспектов:

  1. ИИ был использован как способ создания объекта;
  2. Физическое лицо приложило творческий вклад в создание объекта.

"Для подтверждения аргументов следует предъявить доказательства авторства объекта: исходники и документы", – добавляет Дьяков. Такой вывод юрист делает исходя из анализа нескольких судебных дел (постановление Тринадцатого арбитражного апелляционного суда от 6 февраля 2024 г. по делу № А42-3966/2023, постановление Девятого арбитражного апелляционного суда от 8 апреля 2024 г. по делу № А40-200471/23).

Эту мысль развивает Данила Кистенев, рассказывая, что в деле № А40-200471/2023 суд признал, что видеоролик, созданный с применением технологии Deepfake, является объектом авторского права. "Суд мотивировал решение тем, что ИИ выполнил частичное преобразование исходного видеоряда, заменив лишь лицо актера, соответственно, не исключив творческого вклада авторов в произведение, а значит и охраноспособности произведения. Схожий вывод содержится и деле № А42-3966/2023, в котором суд признал исключительное право на изображение, созданное с использованием ИИ. В данном деле истец подтвердил, что ИИ был только инструментом для обработки изображения, предоставив исходную версию файла до его обработки. Таким образом, российская практика придерживаются позиции охраны только тех произведений, в которых присутствует творческий вклад человека, а ИИ являлся лишь инструментом для доработки", – подчеркивает Данила Кистенев.

Аналогичный подход прослеживается в правоприменительной практике других государств. "Например, в США, – рассказывает Кирилл Дьяков, – зарегистрировать объект, сгенерированный ИИ можно, если доказан достаточный уровень человеческого творчества при создании произведения. Бюро авторского права опубликовало отчет об ИИ, в котором подтвердило, что авторское право может применяться к новым технологиям, однако ключевым остается человеческое авторство. Простого ввода текстового запроса недостаточно, но, если человек "модифицирует, структурирует или творчески интегрирует ИИ-контент", он может претендовать на защиту авторских прав".

А вот китайские суды смотрят на творческую составляющую немного иначе. "В ноябре 2023 года Пекинский интернет-суд вынес решение по делу, связанному с нарушением авторских прав на использование изображений, созданных с помощью модели ИИ, – делится Кирилл Дьяков. – Суд признал, что изображение, созданное с помощью ИИ, может быть признано произведением искусства и подлежит защите авторского права. Это решение основано на том, что человек, создавший изображение, внес свой творческий вклад через постоянные промпты и корректировку параметров, что отражает "эстетический выбор и индивидуальное суждение".

Интересен подход немецкого правосудия по уже упоминавшемуся делу о регистрации изобретения, созданного искусственным интеллектом DABUS. В Германии в июле 2024 года Федеральный верховный суд принял решение, в котором подтвердил, что изобретение, созданное системами ИИ, подлежит охране, но для этого автором такого изобретения должен быть назван человек. Это дело касалось дизайна коробки для завтрака, созданной DABUS. Ученый был указан как правообладатель, но в заявке было отмечено, что продукт был разработан искусственным интеллектом.

"Во многих странах произведения, созданные исключительно ИИ без существенного человеческого вклада, не подлежат авторско-правовой охране, – рассуждает Вита Власова. – Авторским же вкладом считается существенная редакция результатов системы ИИ, задание творческих промптов. Законодательство в области защиты интересов продолжает развиваться, растет база кейсов. В целом же механизмы защиты на данный момент времени никак не отличаются от защиты прав на любые другие объекты интеллектуальной собственности".

Пользовательское соглашение определяет право на использование контента 

Как уже было отмечено, сегодня использование результатов работы нейросетей не урегулировано. Однако это не значит, что разрешено любое применение, включая коммерческое использование сгенерированных ИИ изображений. Пока в законодательстве не установлены определенные правила, эксперты рекомендуют внимательно изучать пользовательские соглашения нейросетей. Обычно именно там прописано, кто станет владельцем результата творческой деятельности.

Важно учитывать, что каждое пользовательское соглашение уникально. Некоторые из них закрепляют права на изображение за пользователем, предоставляя возможность его коммерческого использования. Другие, например нейросеть Midjourney, предусматривают передачу прав только после покупки платной подписки. Ситуация осложняется тем, что разработчики часто меняют условия таких соглашений, и пользователям приходится постоянно следить за обновлениями.

"Отсутствие четкого законодательного регулирования в этом вопросе частично компенсируется политиками платформ, – говорит Данила Кистенев. – Например, пользовательское соглашение российской платформы "Шедеврум" (Яндекс) предоставляет пользователю неисключительную лицензию на личное использование сгенерированного контента, в то время как Яндекс оставляет за собой право использования контента, сублицензирования, переработки и его распространения. Напротив, пользовательское соглашение сервиса "Kandinsky" (Сбербанк) передает пользователю исключительное право на изображения, однако при этом он предоставляет Сбербанку безвозмездную неисключительную лицензию, позволяющую использовать и модифицировать контент по своему усмотрению".

"Вопрос о правообладателях контента, созданного ИИ, находится в стадии активного обсуждения и различается в зависимости от юрисдикции и конкретного кейса, – рассказывает Вита Власова. – основная рекомендация, которую можно здесь дать: читайте пользовательское соглашение перед использованием какого-либо сервиса ИИ".

Ответственность за ошибки, совершенные нейросетями 

Отсутствие нормативной базы, которая бы регулировала этот вопрос, создает значительные трудности при определении виновной стороны в случае возникновения ошибок.

Один из ярких примеров – это судебное разбирательство по делу об ошибке чат-бота. В ноябре 2022 года пассажир приобрел билеты на рейс канадской авиакомпании "Air Canada" для прощания с бабушкой. При покупке он следовал совету чат-бота о возможной скидке на перелеты в случае утраты близких родственников. Однако, чат-бот предоставил неполную информацию: скидка действовала только при бронировании через телефон или офис Air Canada, а не через онлайн-платформу, и не могла быть применена к уже купленным билетам.

Пассажир подал иск, требуя возмещение разницы в цене билетов (880 долларов США). Air Canada отказалась выплачивать что-либо, утверждая, что не несет ответственности за ошибки чат-бота. По мнению юристов компании, пассажир должен был самостоятельно изучить правила тарифа, которые размещены на официальном сайте. Однако суд отклонил эти аргументы, он счет, что чат-бот выступает представителем авиакомпании, и пассажир правомерно доверился его рекомендациям. В результате Air Canada получила предписание выплатить своему клиенту компенсацию в размере 812 долларов США, а также проценты и судебные издержки.6 

В большинстве стран, включая Россию, суды сталкиваются с проблемой квалификации нейросетей как субъектов права. Поскольку нейросети не обладают сознанием и волей, они не могут нести прямую ответственность за свои действия. Вместо этого ответственность возлагается на разработчиков, владельцев или пользователей нейросетей, что требует дополнительного уточнения в законодательстве.

"В случае ошибок, допущенных ИИ, ответственность, как правило, несет разработчик или пользователь системы, в зависимости от условий использования и договорных обязательств, – считает Николай Титов. – Поскольку ИИ не обладает правосубъектностью, у него отсутствует имущество для расчетов по обязательствам, он не может нести ответственность самостоятельно. Для предотвращения ошибок важно проводить тщательное тестирование и сертификацию ИИ-систем перед их внедрением."

Как говорит Оксана Федорова, согласно позиции, изложенной в Кодексе этики в сфере искусственного интеллекта, ответственность за работу и последствия применения систем искусственного интеллекта, всегда должен нести человек (физическое или юридическое лицо, признаваемое субъектом ответственности в соответствии с действующим законодательством РФ). При этом единых методик разграничения зон ответственности на текущий день еще не принято, к примеру, предлагается разграничить ответственность участников в сфере отношений ИИ с учетом конкретных этапов жизненного цикла ИИ. На определенном этапе жизненного цикла ИИ такими участниками могут выступать:

  • разработчики;
  • поставщики данных, на которых происходило обучение систем ИИ;
  • эксперты, проводящие оценку параметров систем ИИ;
  • изготовители систем ИИ;
  • эксплуатанты;
  • иные лица, действия которых потенциально могут повлиять на результаты работы систем ИИ или лиц, принимающих решения с их использованием.

Данный перечень не является исчерпывающим. Для предотвращения подобных ошибок активно разрабатываются и принимаются ГОСТы, содержащие перечень стандартов, которым должны соответствовать системы ИИ. В качестве примера можно привести:

 

Безопасность ИИ в мире: подходы США, ЕС, Бразилии и Китая 

США. В Соединенных штатах действует регулирование искусственного интеллекта. Большое значение здесь уделяется вопросам безопасности и прозрачности. В октябре 2023 года был введен в действие указ о безопасном, надежном и доверенном искусственном интеллекте7. Этот акт устанавливает требования по раскрытию алгоритмов, итогов тестирования и методов, применяемых при создании технологий искусственного интеллекта. Провайдеры должны также гарантировать, что их разработки не нарушают права человека.

ЕС. В Европейском союзе действует8 Регламент ЕС об искусственном интеллекте (AI Act)9. Основой акта является риск-ориентированный подход, при котором все технологии разделены на четыре категории. Недопустимый риск – запрещен социальный рейтинг и манипулятивный ИИ. Высокий риск – системы, использующие ИИ в здравоохранении или при найме сотрудников, должны соответствовать строгим требованиям по качеству данных и управлению рисками. Ограниченный риск – чат-боты и системы, генерирующие контент, должны информировать пользователей о взаимодействии с искусственным интеллектом. Минимальный риск – системы вроде спам-фильтров и игровой ИИ не подпадают под строгие требования, для них действуют рекомендации.

Бразилия. Это государство также разрабатывает собственное законодательство, которое во многом схоже с европейским. Бразильский законопроект направлен на защиту прав пользователей, взаимодействующих с системами ИИ, и включает рекомендации по классификации различных видов в зависимости от уровня риска. Документ обязывает поставщиков ИИ предоставлять пользователям полную информацию о своих продуктах. Пользователи также могут оспорить решения искусственного интеллекта или потребовать человеческого вмешательства. В первую очередь, речь идет о решениях существенно влияющих на жизнь (транспорт, трудоустройство, кредитоспособность и т. п.).

Китай. Здесь регулирование фокусируется на безопасности и поддержании политической стабильности. В 2023 году Китай ввел "Временные меры по управлению генеративными системами искусственного интеллекта"10. Этот нормативный акт обязывает разработчиков генеративных платформ нести ответственность за весь созданный контент. Они должны следить за точностью и надежностью данных, а также предотвращать генерацию контента, который может подрывать социалистические ценности или угрожать государственному строю.


 

Маркировка объектов, сгенерированных нейросетью 

Нейросети против людей: судебные споры о праве собственности на цифровые шедевры
Кирилл Буряков

В некоторых государствах вводятся требования о необходимости маркировки созданного или в значительной степени обработанного ИИ. Так, в США указом о безопасном, надежном и доверенном искусственном интеллекте предусмотрена маркировка контента, создаваемого с использованием ИИ. В Евросоюзе вопрос урегулирован Регламентом ЕС об искусственном интеллекте. "Данный документ, – объясняет Оксана Федорова, – устанавливает обязанность внедрения технических решений, позволяющих маркировать в машиночитаемом формате контент, сгенерированный или обработанный ИИ. Это требование не распространяется на системы ИИ, выполняющие в первую очередь вспомогательную функцию для стандартного редактирования или не изменяющие существенно входные данные или их семантику. Подобная маркировка контента уже является обязательной в Китае в части идентификации текста, изображений, аудио и видео контента, сгенерированного ИИ. При этом в разных регионах мира наблюдается и общий принцип, согласно которому ИИ должен быть технологией, ориентированной на человека, права и свободы которого рассматриваются как наивысшая ценность".

Защита данных при использовании искусственного интеллекта

По словам Кирилла Бурякова, основателя и CEO Doczilla, члена Совета экспертного юридического сообщества Link, есть три подхода к защите данных при использовании нейросетей:

  • Низкая защита. Когда пользователь не предпринимает никаких дополнительных мер по защите своих конфиденциальных данных и доверяет вендору (Open AI, Antropic, DeepSeek, Yandex, Сбер) их обработку и защиту, основываясь на условиях пользовательских соглашений. Как правило, вендоры в соглашениях обещают не использовать персональные данные пользователей для дообучения моделей и гарантируют их сохранность. Но есть и исключения, поэтому соглашения на сайтах изучать важно.
  • Средняя защита. Если вы не хотите, чтобы конфиденциальная информация уходила в нейросеть, то можно использовать анонимайзеры. Это отдельные продукты на нейросетях. Они устанавливаются локально (вам на сервер), и пропускают через себя всю информацию, которую вы отправляете в AI. Анонимайзеры находят в ваших запросах к AI конфиденциальные данные, шифруют их, а только потом пересылают ваш запрос в искусственный интеллект. И когда анонимайзеры получают ответ от AI, они дешифруют полученную информацию и возвращают вам ответ в удобном для прочтения виде. Это недорогие инструменты, которые может позволить себе любая компания. Физические лица, как правило, этот инструмент не используют, потому что требуются специальные знания для его развертывания и запуска в работу.
  • Высокая защита. Самым безопасным способом использования AI является установка языковых моделей на сервер компании. Это требует инвестиций в инфраструктуру, но опять таки сумма таких инвестиций не велика - 50+ тысяч долларов США. Зато взамен компания получает AI у себя на серверах без риска утечки чувствительных данных.

    "Мы видим высокий спрос на такие продукты от крупного и среднего бизнеса и реализовываем проекты по безопасному внедрению AI в работу компаний", – заключает эксперт".

Этические проблемы генеративного ИИ

Этика использования искусственного интеллекта – это многогранная тема, включающая вопросы справедливости, непредвзятости и ответственности. Одной из проблем является предвзятость алгоритмов. Примером такого случая может служить ситуация, когда нейросеть, обученная на данных, содержащих исторические предубеждения, начинает их воспроизводить в своих выводах.
Другой важный аспект – это прозрачность и объяснимость решений, принимаемых нейросетями. Необходимо понимать, каким образом нейросеть пришла к своему выводу, чтобы оценить его обоснованность и законность.

Третий аспект – морально-этическая составляющая. Известен также случай, когда канадские и южнокорейские пользователи генерировали эротический контент с помощью нейросети. Такой контент запрещен законодательством этих стран. Соответственно пользователи понесли ответственность за созданные ИИ объекты. В данном случае возникает вопрос, какова ответственность разработчика и владельца нейросети, если он не запретил данный вид контента?

"Решение этических проблем является комплексным и включает в себя как технические решения, так и общественные и правовые, – считает Вита Власова. – Во многих компаниях-разработчиках сейчас действуют этические комитеты, проводится регулярный аудит систем ИИ. Чтобы избежать предвзятости и дискриминации, проводится диверсификация данных, тестирование на различных социальных группах, переобучение с использованием новых данных.

В целях обеспечения справедливости и равноправия систем ИИ применяется человеческий контроль при принятии критических решений, развивается направление объяснимого ИИ.

"Важно и формирование определенных правил на государственном уровне. В России таким документом можно назвать Кодекс этики в сфере искусственного интеллекта11. Он устанавливает принципы предотвращения предвзятости и дискриминации в алгоритмах, а также обеспечения справедливости и равноправия при принятии решений ИИ, – говорит Николай Титов. – В Европе также действуют принятые в 2023 года Правила прозрачности и управления рисками для искусственного интеллекта".

Чем ИИ полезен в юридической практике

1
Анализ документов. Нейросети позволяют автоматически обрабатывать большие объемы данных, что существенно сокращает время на их изучение и выявление ключевых положений. Это особенно полезно при анализе договоров, где требуется точное определение рисков и предложение рекомендаций по улучшению условий.

2
Предсказание исходов судебных дел. Модели на базе нейросетей могут анализировать прошлые судебные решения и факторы, влияющие на результаты, помогая адвокатам оценивать вероятность успеха в конкретных делах. Это позволяет выбирать оптимальные стратегии защиты и планировать тактику ведения дела.

3
Автоматизация рутинных задач. Административные процессы, такие как заполнение форм, ведение учета и обработка запросов, могут быть автоматизированы с помощью нейросетей. Это снижает нагрузку на персонал и повышает общую эффективность работы юридических организаций.

4
Юридическая аналитика и исследования. Нейросети помогают находить связи между различными документами, судебными делами и законодательными актами, облегчая поиск нужной информации. Анализ больших объемов данных позволяет выявлять тенденции и закономерности в законодательстве и правоприменительной практике.

5
Электронное правосудие и арбитраж. В некоторых странах нейросети используются для автоматизации процессов электронного правосудия, включая подготовку и подачу исков, отслеживание сроков и участие в арбитражах. Это ускоряет рассмотрение дел и уменьшает затраты на судебные процедуры

Нейросеть в помощь юристу

Нейросети уже нашли широкое применение в юридической практике, оказывая значительное влияние на скорость работы юристов. По словам Николая Титова, искусственный интеллект активно применяется для автоматизации рутинных задач, таких как анализ юридических документов, прогнозирование исхода дел и поиск правовой информации. Это повышает эффективность работы юристов, позволяя им сосредоточиться на более сложных и творческих аспектах деятельности".

Для автоматизации процесса подбора нормативных документов и подготовки текста с их упоминанием воспользуйтесь продуктом "ГАРАНТ-КОННЕКТ" в составе пакета "ГАРАНТ – LEGAL TECH".

Попробовать сейчас

Такой же точки зрения придерживается и Оксана Федорова: "Нейросети помогают юристам в решении таких задач, как поиск релевантных норм права, генерация отдельных видов документов, поиск формулировок по различным параметрам, выполнение анализа текста. В отдельных случаях нейросети могут помогать с переводом документов и их адаптацией под различные юрисдикции. Кроме того, ИИ полезен в проведении мониторинга и отслеживания изменений в законодательстве".

"Однако ни одна нейросеть не сможет заменить профессионального юриста в интерпретации сложных проектов с нестандартной стратегией и тактикой реализации. ИИ может помочь с обработкой информации и поиском правовых норм, но человеческий фактор остается определяющим в юридической практике", – уверен Николай Титов.

_____________________________

1 ГОСТы приняты на основе Плана разработки стандартов в области ИИ на 2021-2025 годы, утвержденного распоряжением Правительства РФ от 23 марта 2018 г. № 482-р "Об утверждении плана мероприятий ("дорожной карты") по совершенствованию законодательства и устранению административных барьеров в целях обеспечения реализации Национальной технологической инициативы по направлению "Технет" (передовые производственные технологии)".
2 Национальный стандарт РФ ГОСТ Р 71750-2024 "Технологии искусственного интеллекта в строительно-дорожной технике. Термины и определения" (утв. и введен в действие приказом Федерального агентства по техническому регулированию и метрологии от 28 октября 2024 г. № 1546-ст) (411008766).
3 В частности, приказы Росстандарта от 28 октября 2024 года (№ 1541-ст, 1542-ст, 1550-ст) и от 30 октября 2024 года (№ 1553-ст, 1554-ст, 1555-ст, 1556-ст).
4 https://ecf.dcd.uscourts.gov/cgi-bin/show_public_doc?2022cv1564-24.
5 https://iponline.cipc.co.za/Publications/PublishedJournals/E_Journal_July%202021%20Part%202.pdf.
6 Moffatt v. Air Canada, 2024 BCCRT 149 https://www.canlii.org/en/bc/bccrt/doc/2024/2024bccrt149/2024bccrt149.html.
7 https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/.
8 Отдельные положения документа начнут действовать лишь со 2 августа 2026 года.
9 https://artificialintelligenceact.eu/ai-act-explorer/.
10 https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm.
11 Разработан Альянсом в сфере и и Аналитическим центром при Правительстве РФ в 2021 году.

Документы по теме:

Читайте также: