Искусственный интеллект и бизнес: эксперимент, закон, ответственность — СКБ Контур

Искусственный интеллект и бизнес: эксперимент, закон, ответственность

25 августа 2020 1 8011

1 июля в Москве стартовал эксперимент по разработке и внедрению искусственного интеллекта. Он продлится пять лет и объединит юрлица и ИП, которые зарегистрированы в столице и связаны по своей деятельности с искусственным интеллектом.

До этого технология искусственного интеллекта (ИИ) практически не регулировалась, и сейчас возникает много вопросов:

  • кто может обладать правами на объекты, созданные ИИ?
  • как надежно обезличить и защитить персональные данные, особенно связанные с распознаванием лиц?
  • как получить доступ к big data и общедоступным данным, чтобы позволить ИИ полноценно развиваться?
  • кто несет ответственность за действия ИИ и как доказать эту ответственность?

В этой статье мы рассмотрим следующие аспекты:

Искусственный интеллект и законодательная база

Эксперимент регулируется Федеральным законом от 24.04.2020 № 123-ФЗ и Федеральным законом от 27.07.2006 № 152-ФЗ. Он призван создать регуляторную песочницу для компаний в Москве. Цель — за пять лет создать условия для разработки и внедрения ИИ в Москве и разработать нормативные акты на основе этого регулирования.

Участвовать в эксперименте могут юрлица или ИП, зарегистрированные в Москве и разрабатывающие искусственный интеллект или отдельные услуги на его основе. У предпринимателей или ответственных лиц не должно быть непогашенной или неснятой судимости. При соответствии требованиям они могут подать заявку на регистрацию в соцреестре.

Пока закон не содержит подробного описания целей, задач и бонусов для участников эксперимента и владельцев данных, он будет дополняться и корректироваться правительством Москвы. Поэтому эксперты советуют следить за обновлениями закона и подзаконных актов.

Эксперимент сможет установить правовые основы применения ИИ в госуправлении, — считает Андрей Шевченко, партнер юридической компании «Можно». – Пока непонятно, как поведет себя компьютерная программа, которой нужно решить много переменных задач, какими правами её нужно наделить и какое правовое регулирование для этого потребуется. Определить это можно только экспериментальным путем.

ИИ — это технология, которая потенциально может заменить человека благодаря самообучению, приобретенному опыту и знаниям. ИИ позволяет оптимизировать многие процессы в промышленности, медицине, автомобильной отрасли, ритейле, платформах с развлекательным контентом, логистике и других отраслях. Например, ИИ может выявлять заболевания на ранних стадиях, анализируя МРТ и рентгеновские снимки, и отслеживать привычки покупателей, предсказывая их выбор.

Игорь Иофчу, руководитель юридического департамента Gaskar Group, считает важным урегулировать технологии ИИ, которые позволят высвободить ресурсы и оптимизировать расходы, например, сервисы распознавания речи для чат-ботов и распознавание лиц для поиска пропавших, технологии машинного обучения и бизнес-приложения со встроенными механизмами ИИ.

Искусственный интеллект может быть адаптирован под любую индустрию. Huawei и Ростелеком используют ИИ для игровых роутеров, которые выбирают оптимальный режим скорости в зависимости от трафика онлайн-игр, а Deep Mind создали технологию, которая обыгрывает лучших киберспортсменов.

Михаил Зуб, владелец ИТ-компании «Зионек», считает, что эксперимент позволит быстрее развивать технологии, излишне зарегулированные законодательством, связанные с персональными данными и медицинской информацией, но в этом случае нужно будет тщательнее продумывать защиту данных.

Сергей Свиридов, директор по исследования и разработкам «Цифра» видит пользу эксперимента для беспилотного транспорта, видеоаналитики (например, распознавание ношения масок в общественных местах и больницах) и медицины (например, анализ компьютерной томографии легких).

В «Цифре» обдумывают участие в эксперименте с технологией прогнозирования вредных выбросов в Москве и видеоаналитикой соблюдения требований Роспотребнадзора на промышленных предприятиях в Москве.

Эксперимент предоставит компаниям площадку для обсуждения и шанс повлиять на разработку нормативно-правовой базы, а также позволит экспериментировать с технологиями, с которыми они раньше опасались экспериментировать из-за отсутствия регулирования и диалога со стороны государства, — говорит Свиридов.

Искусственный интеллект и ответственность

Сейчас закон не отвечает на вопрос, может ли ИИ быть субъектом права и нести ответственность за происшествия или получать прибыль за свои произведения. Есть версия, что в студии Артемия Лебедева ИИ под именем Николая Иронова создает логотипы для компаний. В этом случае прибыль от логотипов получает юридическое лицо. 

Алгоритм ИИ принадлежит создателю, результат его использования — необязательно. Результат алгоритма сильно зависит от исходных данных, и разработчик не всегда может его предсказать. В этом случае авторскому праву нужна правосудебность юрлица, потому что ИИ может настраивать целая команда сотрудников.

Всё движется к тому, что работы, созданные ИИ, будут охраняться на основании творческого результата, а не на основании творческого процесса, — размышляет Ирина Шурмина, старший юрист IP/Digital CMS Russia.

В Гражданском кодексе указано, что только гражданин может обладать авторским правом (ст. 1257 ГК РФ).

Зарубежная практика

Прецеденты в США и Австралии показывают, что авторское право не охраняет произведения, не созданные человеком, будь то селфи, которое сделала обезьяна камерой фотографа, или HTML-код, написанный ИИ.

Патентное бюро ЕС со ссылкой на Патентную конвенцию отказало технологии Dabus в выдаче патента на изобретения, так как в запросе на выдачу патента должно содержаться имя изобретателя — это один из гарантов использования прав. Отчет Европарламента указывает, что ИИ не может быть правообладателем и правом будет обладать тот, кто подготовил объект.

Тем не менее в Китае в 2020 году финансовый отчет робота Dreamwriter компании Tencent был признан объектом авторского права, когда этот отчет скопировали.

В США беспилотный автомобиль Uber сбил велосипедистку, в 2019 году прокуратура сняла обвинения с компании и начала дополнительное испытание в отношении водителя, который не смотрел на дорогу во время испытания и не смог предотвратить аварию.

В результате власти запретили испытания беспилотных автомобилей в этом округе, и они были восстановлены только в некоторых штатах в хорошую погоду и по утвержденному маршруту, — рассказывает Ксения Даньшина, юрист CMS Russia. – Компания понесла ущерб даже без юридической ответственности.

В одном из докладов ЕС указано, что в законодательстве достаточно положений для регулирования ИИ, кроме случаев, когда невозможно установить виновного в причинении вреда.

Юрист Ирина Шурмина напоминает, что в европейской практике ответственность может нести либо разработчик (backend operator), либо администратор/настройщик (deployer), либо конечный пользователь (end user). Как правило, когда речь идет о рисковых системах, например, медицинских технологиях или беспилотных автомобилях, ответственность несет настройщик. В этом смысле он приравнивается к владельцу автомобиля или домашнего животного. За причинение ущерба и вреда здоровью устанавливаются штрафы от 2 до 10 млн евро.

В CMS Russia предлагают посмотреть на ответственность ИИ с точки зрения смежного права, которое необязательно связано с творческим трудом и может возникать при работе с объектами, которые не являются объектами авторского права. Так работают фонограммы, базы данных и телетрансляции.

Сложности и спорные вопросы

Предприниматель Михаил Зуб считает, что у эксперимента есть потенциальные плюсы для ИТ-компаний: новые рынки, клиенты и источники данных. Но компаниям важно уметь защищать корпоративные данные. Если нужно их раскрывать другим участникам рынка, они могут в итоге оказаться на площадках, торгующих данными.

Чтобы защитить себя, предприниматель советует бизнесу внимательно следить за законодательством и менять юрисдикцию на Московскую область или другие регионы при угрозе потери информации.

Илья Дурницын, юрист компании «Проспектаси», считает, что само определение ИИ в Федеральном законе от 24.04.2020 № 123-ФЗ спорно, и допускает несколько интерпретаций. Раньше можно было считать, что калькулятор имитирует когнитивные способности человека, в законе не указано, контролируется ли самообучение машинами. 

Эксперт ставит вопрос, можно ли считать ИИ нейронную сеть, которая может точно прогнозировать котировки рынка, но не способна воспринимать свои действия, и напоминает о непринятом «законе Гришина», который в 2017 году предложил трактовку ИИ через «умного робота», который самостоятельно действует и оценивает свои действия.

Определение в Федеральном законе от 24.04.2020 № 123-ФЗ охватывает большой круг деятельности для будущего развития ИИ, но не объясняет понятие четко и лаконично, — отмечает Илья Дурницын. – Тем не менее важно вообще закрепить определение ИИ в праве.

Андрей Шевченко, партнер юридической компании «Можно» напоминает, что сам по себе закон не регулирует применение ИИ, передавая эти функции Москве, которая вправе определять правила в области применения ИИ на своей территории. Именно город будет определять ход эксперимента и развитие технологии ИИ в стране.

Так как эксперимент предполагает обработку данных обычных москвичей, Александр Барышников, директор департамента консалтинга и аудита в НИП «Информзащита», предлагает выбрать уполномоченное лицо, создать общедоступный реестр участников экспериментального правового режима, перечень обрабатываемых персональных данных граждан, субъектов и категорий субъектов данных.  

Эксперт советует работать над безопасностью данных и ввести соглашения между участниками эксперимента с обязательным рассмотрением ответственности за нарушения обязательств.

Правовое регулирование технологий ИИ: вопросы и перспективы

В июне 2020 года 20 стран запустили партнерство Gee-Pay, которое поможет правильно выстроить ограничения и развивать ИИ совместными силами компаний и юристов. В Евросоюзе принято несколько документов, регулирующих вопросы ответственности, интеллектуальной собственности и работы с данными.

В Канаде этот вопрос регулирует Директива и пилотный проект о внедрении ИИ в госсекторе, в США – AI Initiative, нацеленная на совместное сотрудничество разных стран. Китай намерен к 2025 году принять первоначальные версии законов, регулирующих ИИ.

В московском эксперименте примут участие ИТ-компании, которые используют ИИ в сфере медицины, для распознавания лиц и городской инфраструктуры. В идеале регуляторная песочница поможет адаптировать способы безопасного развития ИИ и позволит ему развиваться быстрее.

Илья Дурницын предлагает проводить похожие правовые эксперименты в других субъектах РФ по аналогии с исследовательскими и научными центрами в Переславле-Залесском, Краснодаре и Санкт-Петербурге.

Павел Катков, владелец компании «Катков и партнеры», считает, что эксперимент с искусственным интеллектом изменит правовое регулирование технологий, например, защиту персональных данных, тайны переписки и частной жизни.

Чтобы узаконить некоторые действия ИИ, законодателю нужно исключить нормы, защищающие соответствующие гражданские права, — говорит Катков. – Обезличивание персональных данных сейчас упоминается в федеральных законах, но нельзя исключать, что нужно будет внести корректировки и в Конституцию. Например, ст. 23 защищает неприкосновенность частной жизни, личную и семейную тайну. Возможно, в этой норме придется пробивать брешь.

Персональные данные: вопрос обезличенности, ответственность за утечку

В эксперименте предполагается использовать предварительно обезличенные персональные данные, их можно будет передавать только участникам эксперимента, они будут храниться только на территории Москвы. Регулированием условий обработки данных займутся мэрия Москвы и Минкомсвязи. Эксперимент призван дать больше информации о персональных данных.

Михаил Зуб считает, что еще до начала любого проекта целесообразно законодательно обязать указывать людей и компании, ответственные за несанкционированную утечку данных, а также установить административную и уголовную ответственность за нарушения.

По мнению Игоря Иофчу, защита персональных данных — ключевой момент эксперимента. Он требует тщательной проработки, так как фактически использоваться могут данные всех жителей Москвы.

Закон предусматривает, что обезличенные персональные данные могут передаваться только участникам правового эксперимента, ограничивает круг тех, кто может обрабатывать данные, но не защищает от противоправных действий, например, взлома баз данных.

Важный вопрос — разграничение деанонимизации и псевдодеанонимизации данных. В одном случае данные невозможно деобезличить и они действительно конфиденциальны, во втором случае личность человека можно определить с помощью дополнительной информации, которая должна быть хорошо защищена.

Многие компании уже активно используют персональные данные для работы с клиентами. Альфа-Банк открыл офис с распознаванием лиц с точностью на 98 %. Клиенту достаточно просто зайти в офис, и система автоматически узнает его и поймет, какими сервисами он пользуется.

В одном из кафе KFC система распознавания лиц будет фотографировать пользователя и позже предлагать ему любимые блюда на основе истории его заказов. Фото преобразуется в уникальный цифровой код, поэтому в компании считают, что они не хранят персональные данные.

Здесь важно обращать внимание, как получается согласие на обработку персональных данных, можно ли отказаться от него и всё равно получить услугу, обезличены ли они безвозвратно и как они защищены, — обращает внимание Ирина Шурмина. – Возможно, в случае с KFC речь идет о псевдонимизации, раз повторное использование и идентификация лица возможны, но так как в российском законодательстве нет такой концепции, это вызывает вопросы.

Технология распознавания лиц в режиме реального времени Clearview.ai получила коллективный иск после продажи данных частным компаниям, таким как Walmart и Bank of America, так как в штате Иллинойс запрещено использовать биометрическую информацию в коммерческих целях. Теперь компания работает только с государством и использует публично доступную информацию для поиска жертв и правонарушителей.

Препятствовать в получении данных ИИ нецелесообразно, данные должны быть полными и корректными, иначе ИИ может совершать нелепые ошибки. Например, ИИ визуально сложно распознавать похожие фотографии — отличать маффины и чихуахуа, круассаны и шарпеев.

Сергей Свиридов уверен, что участники эксперимента отдают себе отчет о возможных рисках и постараются их минимизировать, в том числе с помощью ИИ-инструментов: данные можно обезличить, никуда не передавая, или использовать без обезличивания, например, с помощью федеративного машинного обучения или дифференцированной приватности.

Безопасность
Минимизируйте риски: убедитесь в том, что персональные данные защищены в соответствии с ФЗ-152
Узнать больше
Безопасность
Минимизируйте риски: убедитесь в том, что персональные данные защищены в соответствии с ФЗ-152
Узнать больше
Раз в неделю — дайджест материалов, достойных вниманияАктуальные материалы раз в неделю
Подписаться
Подписываясь, вы соглашаетесь на обработку персональных данных и получение информационных сообщений от группы компаний СКБ Контур.

Статьи по теме

Все статьи
1 комментарий
Алексей Румак 27 ноября 2020
w