С развитием искусственного интеллекта и робототехники возникает всё больше вопросов, на которые раньше не было необходимости отвечать. Кто несёт ответственность, если автономный автомобиль попал в ДТП? Можно ли назвать робота юридическим лицом? Как регулировать взаимодействие между человеком и машиной?
Право постепенно начинает меняться, чтобы соответствовать новым реалиям. Рассказываем, как именно.
Автономные системы и ответственность за них
Один из самых острых вопросов — это ответственность за действия автономных систем. Если машина-робот сбивает пешехода или дрон доставляет товар и повреждает имущество, кто должен отвечать: производитель, владелец или сам ИИ?
- В Евросоюзе уже обсуждаются законопроекты, где предполагается создание специального статуса для «электронных агентов»;
- Некоторые эксперты предлагают ввести обязательное страхование владельцев автономных устройств;
- В США суды уже рассматривают дела, связанные с автономными автомобилями, где главный вопрос — чья вина: программиста, водителя или самого авто.
Права на интеллектуальную собственность
Ещё один сложный момент — кто является автором произведения, созданного с помощью робота? Например, если нейросеть написала музыку, нарисовала картину или напечатала статью — кому принадлежат права? Сейчас большинство стран считают, что только человек может быть автором, но тут тоже возможны исключения.
- В Великобритании есть закон, который формально признаёт авторство программиста, если ИИ использовал его алгоритмы;
- В Японии активно разрабатывают законодательные изменения, чтобы учитывать роль ИИ при регистрации патентов;
- В России пока нет четких норм, регулирующих этот вопрос, хотя такие споры уже возникают.
Регулирование использования роботов в общественных местах
По мере того как роботы выходят в города — будь то доставка еды дронами, уборка улиц автоматическими машинами или охрана территорий роботами, — возникает необходимость их регулирования. Где они могут двигаться? Как общаться с людьми? Нужно ли получать разрешение на их использование?
- В Сингапуре уже появились правила для дронов, включая зоны полётов и ограничения высоты;
- В некоторых городах США запрещено использовать роботов для слежки без разрешения;
- ЕС рассматривает возможность введения «паспортов» для автономных устройств — своего рода аналог техосмотра.
Этические и правовые рамки для ИИ
Многие страны уже понимают, что регулировать нужно не только поведение роботов, но и принципы их создания. Возникает понятие этического ИИ — когда программы должны действовать прозрачно, справедливо и безопасно.
- ЕС работает над «Законом об искусственном интеллекте», который будет классифицировать риски разных типов ИИ;
- Канада и Австралия внедряют этические кодексы для компаний, занимающихся разработкой ИИ;
- В ООН уже несколько лет ведутся дискуссии о возможности запретить боевых автономных роботов.
Роботы на рабочем месте
Автоматизация затрагивает не только быт, но и трудовую сферу. Чем больше роботов появляется на производстве, тем больше вопросов возникает у работников и профсоюзов. Может ли робот быть сотрудником? Подпадает ли он под трудовое право? Кто платит налоги, если вместо человека работает машина?
- В Южной Корее обсуждается идея «робото-налога» — сбора с компаний, массово заменяющих людей на автоматы;
- В ОАЭ уже есть министр будущего, который занимается подготовкой законов для роботизированной экономики;
- В Германии существуют ограничения на использование роботов в сферах, где они могут полностью вытеснить людей.
Безопасность данных и конфиденциальность
Роботы собирают много информации — голоса, лица, данные о маршрутах, видеозаписи. Это значит, что они могут становиться объектами утечки персональных данных. Поэтому важно определить:
- сколько можно хранить данные;
- можно ли использовать их повторно;
- как обеспечить защиту от взлома и злоупотребления.
GDPR в Европе уже частично регулирует этот вопрос, но для роботов нужны более точные правила.
Международное сотрудничество и стандарты
Поскольку технологии развиваются быстро и выходят за границы одной страны, важно создавать международные соглашения по регулированию ИИ и робототехники. Такие проекты уже есть:
- Группа G7 инициировала диалог по этике искусственного интеллекта;
- ЮНЕСКО разработала рекомендации по этичному использованию ИИ;
- ISO (Международная организация по стандартизации) работает над сертификатами для автономных систем.
Что дальше?
Хотя многие законы пока находятся в стадии обсуждения, ясно одно: правовая система должна успевать за технологиями. Иначе мы рискуем столкнуться с ситуациями, где ответственность некому предъявить, а права никто не защитит. Возможно, через 10–20 лет мы увидим появление новых категорий правовых субъектов, специальных судов для дел с участием ИИ и даже «робото-лицензий» для владельцев автономных устройств.