Об актуальных изменениях в КС узнаете, став участником программы, разработанной совместно с АО ''СБЕР А". Слушателям, успешно освоившим программу, выдаются удостоверения установленного образца.
Программа разработана совместно с АО ''СБЕР А". Слушателям, успешно освоившим программу, выдаются удостоверения установленного образца.
Искусственный интеллект завоевывает все больше места в бизнес-процессах. Но от того, насколько осознанно мы будем его использовать, зависит, станет ли он фактором риска или преимуществом.
Сейчас мы находимся в точке, когда происходят заметные технологические изменения. Если сравнить ситуацию с первой индустриальной революцией в 18-19 веках, мы точно так же не всегда понимаем, как работать с новыми технологиями, и многому учимся на ошибках.
Неосмотрительность или необдуманные решения в использовании ИИ могут привести к негативным последствиям для бизнеса. Разделим их на две части: риски безопасности и бизнес-риски.
К ним относятся:
Несанкционированный доступ и утечки данных из промтов, если учетка пользователя будет скомпрометирована либо утечка произойдет на стороне провайдера. Персональные данные сотрудников – один из видов информации, а значит, на них распространяется действие Федерального закона от 27 июля 2006 г. № 149-ФЗ № 149-ФЗ "Об информации, информационных технологиях и защите информации". Персональные данные сотрудников относятся к информации ограниченного доступа, поэтому работодатель обязан принимать меры по их защите от неправомерного доступа, утечки, уничтожения и модификации.
Передача данных третьим лицам, если провайдер использует их не только для предоставления ИИ, но и для других целей (например, исследование аудитории, разработка сторонних продуктов и т. д.), что нарушает Федеральный закон от 27 июля 2006 г. № 152-ФЗ "О персональных данных". Согласно этому закону, операторы персональных данных обязуются не распространять персональные данные сотрудников третьим лицам без согласия самих субъектов персональных данных.
Кибератаки и мошенничество. В случае утечки данных на стороне провайдера может собираться профайл под определенного человека для атак на компанию через конкретных сотрудников.
Пользователи в компании, работающие с ИИ, должны, во-первых, точно знать, какая информация является в компании конфиденциальной, какие правила работы и обращения (в том числе, какую информацию можно передавать в ИИ) с такой информацией предусмотрены в компании. А, во-вторых, у компании должны быть правовые основания (а у сотрудников доступ / разрешение) на то, чтобы делиться определенным данными, имеющими отношение к компании, с облачным ИИ-решением.
Выбирая ИИ-решение, ознакомьтесь с документацией в отношении использования данных в ИИ. Например, обратите внимание на фразы или пункты о том, что данные используются для целей, которые выходят за рамки предоставления ИИ (например, анализ аудитории).
Соблюдайте меры безопасности вашей учетной записи – используйте сложные пароли, регулярно их обновляйте. Не давайте доступ к аккаунтам третьим лицам.
К этой категории относятся последствия использования результатов работы с ИИ, которые могут нанести серьезный урон репутации компании – нарушения авторских прав, этики, предоставление недостоверной информации и т. д. Сегодня ИИ чаще всего используют в разработке, маркетинге и продажах. Рассмотрим риски в каждом направлении.
Беспечность при разработке с помощью ИИ может приводить к рискам создания уязвимого кода, к проблемам с лицензированием и даже к манипуляциям со стороны ИИ.
Исследование компании Apiiro показало, что разработчик, использующий ИИ-ассистенты, в среднем генерирует в 3-4 раза больше коммитов, чем разработчик без доступа к ИИ. При этом количество ошибок снизилось на 60%, а количество уязвимостей выросло в 10 раз!
Показателен пример одного из ИИ-помощников, который обучался на массивах открытого кода, и в конце концов начал генерировать код с комментариями других разработчиков или фрагменты кода, которые закрывались Open Source лицензиями, например, GPL.
В этой сфере неосмотрительное использование ИИ может привести к проблемам в сфере авторского права, а также поднять этические вопросы при использовании изображений или голоса. Согласно ст. 1257 Гражданского кодекса, автором произведения науки и искусства признается человек, благодаря труду которого оно создано. По действующим нормам российского законодательства, ИИ не может быть признано субъектом авторского права. Однако если объект авторских прав был создан с помощью ИИ при значительном участии человека, суд может принять это во внимание и признать авторское право за создателем произведения.
Вспомним нашумевшую историю с рекламой, в которой использовался deep-fake Джейми Ли Кертис. Рекламу пришлось удалить по требованию актрисы, так как использование ее образа было признано незаконным.
Другим путем пошла Coca-Cola со своим роликом, в котором оживали произведения искусства. Компания заранее озаботилась получением прав на использование этих изображений.
Использование чат-ботов с ИИ в продажах и поддержке стало абсолютно естественным для бизнеса. Но используя ИИ в этой сфере, нужно понимать, что именно человек несет ответственность за некорректные ответы ИИ, за ошибочную информацию.
Бизнес отвечает не только за ложные сведения, предоставляемые чат-ботом, но и за контекст, в котором подается правдивая информация. Так, например, если чат-бот начнет активно "нахваливать" свою компанию и при этом приводит необоснованные сравнения с другими игроками рынка, компанию могут призвать к ответственности в части недобросовестной конкуренции.
Важно донести до сотрудников две ключевые мысли:
Следить за тем, что вы отдаете ИИ, – не попадают ли в промт персональные данные, пароли, финансовая информация о компании или сведения о клиентских проектах.
Оценивать то, что возвращает ИИ, – насколько достоверны ответы, не нарушают ли они авторские права, не скажется ли результат на репутации компании.
У себя в компании мы используем ИИ практически повсеместно. Это и наш собственный АI-ассистент, и внешние модели. При этом мы регулярно обучаем своих сотрудников – проводим как небольшие локальные митапы для отдельных команд, так и онлайн-конференции для всех заинтересованных сотрудников. Ландшафт ИИ-технологий постоянно меняется, поэтому наша задача – дать всеобъемлющую информацию:
Мы поделимся собственным опытом обучения сотрудников и внедрения ИИ в бизнес-процессы.
Лучше, если ваше обучение будет системным и основанным на определенной базе.
Для начала мы рекомендуем определиться с тем, как в целом организована в компании работа с ИИ-инструментами и кто отвечает за их безопасное использование. Это может быть руководитель ИТ-отдела или выделенная команда специалистов, которые обладают всей информацией об ИИ в компании, о мерах безопасности. У ответственных за ИИ-комплаенс должны быть полномочия разрешать или запрещать использование конкретных инструментов. Управление использованием ИИ должно быть централизовано и согласовано со всеми участниками процесса.
Далее будет полезно провести аудит и сформировать собственный список рекомендованных ИИ-решений. Оцените, какие задачи чаще всего приходится решать вашим специалистам с помощью ИИ, например, писать код, генерить рекламные креативы и презентации или анализировать продажи. Посмотрите, какие модели для этого подходят и какие конкретные решения выглядят наиболее безопасными с точки зрения политик конфиденциальности и известных инцидентов ИБ. Оформите корпоративные подписки на нужные инструменты, так вы снизите риск использования непроверенных моделей.
Если ресурсы компании позволяют, то лучше использовать self-hosted модели, хотя бы для тех задач, где наиболее высок риск утечки конфиденциальных данных.
И, наконец, сформулируйте максимально четко и однозначно, какая информация является конфиденциальной для вашей компании, и донесите это определение до всех сотрудников, с пояснением о запрете использования ее при работе с ИИ.
У нас в компании обучение сотрудников основам информационной безопасности начинается еще на этапе онбординга. На специальном курсе, прохождение которого занимает не более часа, мы в обязательном порядке рассказываем о базовых вещах: о работе с персональными данными и конфиденциальной информацией, и сопровождаем теорию примерами из реальной жизни. По окончании курса требуется успешное прохождение тестирования.
Тема безопасности должна быть включена во все обучающие мероприятия по ИИ. Например, недавно наш CMO проводил внутренний вебинар по вайб-кодингу для "гуманитариев" – маркетологов, пиарщиков, юристов. И одной из ключевых тем встречи была именно безопасность данных при работе с ИИ.
У себя в компании мы используем разные форматы, принимая во внимание и специфику отделов, и то, что у сотрудников может быть разный уровень знания ИИ-технологий. Например, проводим регулярные AI Picks – короткие встречи с разбором 2-3 практических кейсов применения ИИ в любых сферах: в разработке, маркетинге, обучении.
Ежегодно проводим большую онлайн-конференцию, где коллеги выступают с самыми разными докладами и темами. Это могут быть и кейсы, и обзоры новых технологий и рекомендации по работе с ИИ. На подобных мероприятиях коллеги простым языком объясняют, что такое MCP, в чем особенности рассуждающих моделей, как работать с AI-агентами. Приводится много практики для разных специалистов: как правильно готовить данные для RAG, как создавать анимацию и цепляющие визуалы с помощью нейросетей, как использовать ИИ в разработке и как вообще выбирать AI-модель для своих задач. И в обязательном порядке представляется доклад о безопасном и осмысленном использовании ИИ – именно из него и родилась идея этой статьи.
Привязывайте обучение к реальным процессам. Проводите мероприятия для конкретных команд, на реальных задачах: для юристов, маркетинга, разработчиков, продаж и т. д. Сформируйте программу обучения, проводите постоянные мероприятия, а не отдельные мастер-классы.
В каждой команде или отделе разделите сотрудников на группы по уровню владения технологиями ИИ: новички, продвинутые, практикующие. Готовьте блоки программы под каждый сегмент, чтобы выровнять уровень знаний.
Мотивируйте более опытных сотрудников делиться своим опытом, демонстрировать использование ИИ-инструментов на реальных задачах.
Формируйте навыки за счет регулярных встреч. Проводите еженедельные разборы кейсов, мастермайнды для решения сложных задач. Организуйте общий чат для обмена идеями и полезными промптами. Такие короткие и постоянно повторяющиеся активности превращают ИИ в привычный инструмент в повседневной работе.
Материал подготовлен в соавторстве с заместителем директора по правовым вопросам Битрикс24 Эльвирой Зориной.