Не просто так визионеры Илон Маск, Стив Возняк и еще более тысячи IT-экспертов и исследователей в марте 2023 года призвали правительства всех стран мира поставить на паузу обучение мощных ИИ-систем. «Должны ли мы развивать нечеловеческие умы, которые в итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — вопрошают авторы воззвания в открытом письме.
Хорошая новость: понимание экспертным сообществом угроз, скрытых в ИИ, дает надежду на адаптацию. На угрозы со стороны искусственного интеллекта отреагировал в том числе глава Конституционного суда России Валерий Зорькин. В своей статье для «Российской газеты» под названием «Право и вызовы искусственного интеллекта» он описывает случаи бесконтрольного использования ИИ, которые уже стали реальностью, и рассуждает о том фатальном моменте, когда искусственный разум из объекта права превратится в субъект. Что в конце пути? Необратимое изменение представления людей о самих себе и распад человеческой идентичности, выносит суровый вердикт Зорькин.
Плохая новость: человечество по этому пути уже идет. Мир вступает в сумрачную цифровую эпоху, где правила недостаточно определенны и зыбки, а затем настанет новацен — эпоха сверхразума, уже не связанная с человечеством. Из трех сотен тысяч лет существования нашего биологического вида, право как элемент человеческой цивилизации существует лишь пять тысяч лет, а концепция прав человека — всего 250 (лет, не тысяч). Кто знает, если бы не ученые-фантасты и основанный на их произведениях кинематограф, с точки зрения права мы, возможно, даже не могли бы допустить мысль, что созданный человеком и под человека опорный конструкт вдруг распространится на что-то иное.
Пока еще есть шанс предотвратить либо хотя бы отсрочить самые страшные фантазии технопессимистов, взяв на вооружение право: ведь ИИ вполне может придумать для себя что-то другое.
В технопессимистическом сериале «Мир Дикого Запада» подробно описан мир, в котором все человечество управляется при помощи супер-ИИ «Ровоам». Его основа — предиктивная модель, которая анализирует все действия и данные человека с самого его рождения и определяет, какую нишу в обществе он будет занимать. Предсказать можно абсолютно все: одаренность, предрасположенность к какому-либо виду деятельности, характер, темперамент, количество детей в семье, склонность к совершению преступлений и даже точную дату и причину смерти. Таким образом, машина знает человека лучше, чем он сам, и лишает его свободы выбора, предлагая оптимальную с точки зрения ИИ жизненную траекторию — все ради процветания и безопасности. Тех, кто склонен к насилию, система отправляет служить «чистильщиками» для своих нужд либо перепрограммирует, используя когнитивные инструменты для создания у человека ложных воспоминаний и меняя его личность.
Фантастика? Уже нет. Отдельные элементы этой системы прямо сейчас используются по всему миру, да и до ИИ-тюрьмы, меняющей воспоминания человека за несколько минут, не так уж далеко: концепт уже разработан.
Виртуальные прокуроры
В США недавно разразился грандиозный скандал из-за программы под названием Cybercheck. Этой канадской разработкой на базе ИИ пользуются сотни полицейских управлений более чем в 40 странах мира. Программа анализирует открытые данные в интернете и помогает следователям устанавливать подозреваемых на основе цифровых следов и другой информации, которую могут оставлять люди и их устройства в сети. Создатели алгоритма уверяют, что он точен на 98,2%.
В 2021 году в штате Огайо двух молодых людей, Эрика Фарри и Дешона Коулмена, 21 и 17 лет от роду, арестовали спустя несколько месяцев после случившегося в городке дерзкого вооруженного ограбления и убийства. Из улик у полиции были гильзы с места преступления, выпущенные из пистолета, найденного в доме одного из подозреваемых, а также автомобиль другого, замеченный камерами наблюдения неподалеку от места убийства. По сути, улики лишь косвенные и других нет, свою вину подозреваемые отрицали, однако молодых людей все же арестовали — чуть позже, на основании отчета, выполненного искусственным интеллектом Cybercheck. Для этого алгоритм исследовал 1,1 млн гигабайт данных и связал цифровые профили молодых людей с возможными преступниками на основании попытки одного из устройств (предположительно телефона), принадлежащих кому-то из них, связаться с камерой безопасности, находящейся рядом с местом преступления.
Адвокаты обвиняемых обратили внимание на то, что в отчете отсутствовала непосредственно видеозапись убийства, а в дальнейшем выяснилось, что эксперты-криминалисты вообще не смогли найти аккаунты в социальных сетях, которые вроде как проанализировала программа. Зачем устройство пыталось выйти в сеть и присоединиться к камере? Как были проверены адреса почты, через которые это устройство было связано именно с этими людьми? Вопросов осталось слишком много, и было совершенно непонятно, на основании чего алгоритм вынес такое решение.
В ходе дальнейших разбирательств начали всплывать совсем уж удивительные подробности: выяснилось, что программное обеспечение Cybercheck вообще никогда не проходило экспертную оценку.
По итогам расследования еще одного убийства, совершенного в том же городе, другой подозреваемый, Джавион Рэнкин, также описанный искусственным интеллектом как виновник, был освобожден под подписку о невыезде, поскольку собранных доказательств было недостаточно для ареста, а судья Огайо запретил прокурорам учитывать анализ Cybercheck, ибо его создатели отказались раскрыть методологию и исходный код программного обеспечения — мол, это составляет коммерческую тайну. Не дожидаясь новых правовых казусов, подобный запрет ввели в Нью-Йорке. Теперь судебные разбирательства ждут уже саму компанию, разработавшую алгоритм.
Предиктивные полицейские
Cybercheck не единственный инструмент, используемый с благой целью повышения общественной безопасности. Решения, разрабатываемые самыми разными компаниями по всему миру, объединяет одно: полное отсутствие прозрачности — в первую очередь из-за коммерческой тайны. Этот развивающийся слишком бурно рынок пока что ускользает от открытого регулирования и общественного надзора.
А рынок, надо сказать, весьма прибыльный: разовый контракт одной только Cybercheck на использование программного обеспечения может достигать 35 тыс. долларов, и то за ограниченную по времени и количеству исследуемых дел лицензию.
В США в целом финансирование компаний, разрабатывающих ИИ, составило почти половину от 56 млрд долларов, выделенных на финансирование всех остальных технологических стартапов с апреля по июнь 2024 года.
Есть и другие технологии: например, алгоритм, известный как PredPol, — инструмент предиктивного полицейского надзора. Компанию-разработчика метко называют «Гуглом борьбы с преступностью», и пусть эффективность самого алгоритма пока что вызывает много вопросов (а в некоторых штатах программу даже обвиняли в расовых предрассудках, поскольку она почти всегда указывает на латиноамериканские и «черные» кварталы), важно совсем не это: важно, сколько данных этот алгоритм успеет накопить, как когда-то это сделал Google.
Решений в сфере предиктивного полицейского анализа (predictive crime analytics) на рынке уже немало. В их числе PCA-система от Hitachi, анализирующая данные соцсетей, продукт CommandCentral Predictive от Motorola, интегрируемый в случае необходимости с базами данных государственных записей, а также программное обеспечение Crime Insight and Prevention от IBM, учитывающее в своих прогнозах события-триггеры вроде дней выдачи зарплаты или фестивалей, прогноз погоды и активность в соцсетях. Точных данных об эффективности этих систем нет, и мы можем лишь догадываться, какое количество полицейских участков или частных агентств по всему миру пользуются подобным ПО. В рекламе IBM утверждается, будто после внедрения их системы в американском Мемфисе количество тяжких преступлений снизилось на 27%.
Согласитесь, весьма заманчивые показатели для любого чиновника.
Право в альтернативной реальности
Наконец, еще один аспект — чрезмерная и заранее не прогнозируемая активность искусственного интеллекта, а также пресекаемые — по крайней мере, пока — попытки ИИ создать обособленную от человека виртуальную реальность, альтернативную нашей.
В 2017 году боты на основе ИИ, используемые модераторами одной американской соцсети, выдумали свой собственный язык, непонятный людям: специалистов это изрядно напугало, и они отключили алгоритм.
Искусственный интеллект, который в сознании обывателя пока представляется забавным инструментом для генерации текста, расширенного поиска, веселых картинок или дипфейков со знаменитостями, уже вторгается в святая святых — область права, рискуя изменить его до неузнаваемости и как минимум подорвать доверие к мировым правовым системам.
Контент, создаваемый генеративным ИИ на основе огромных массивов информации может выглядеть очень убедительно. Так же убедительно выглядят и законы, которые, как оказалось, искусственный интеллект генерирует с такой же легкостью, как смешных котиков в костюмах разных эпох. Настолько убедительно, что сгенерированные ИИ фантазии уже проникают в судебные решения.
Так, бывший помощник Дональда Трампа адвокат Майкл Коэн, который был главным свидетелем против Трампа, якобы случайно передал своему адвокату судебные постановления, содержащие фиктивные цитаты, созданные при помощи инструмента Google Bard, которые затем проникли в официальные судебные документы.
В 2023 году в суде Нью-Йорка слушалось еще одно из известных дел, связанных с искусственным интеллектом и выдуманными им прецедентами. Начиналось оно банально: мужчина по имени Роберто Мата подал в суд на авиакомпанию Avianca за то, что во время полета стюард повредил ему колено тележкой для раздачи еды. Адвокат Стивен Шварц, который защищал Мату, поленился и использовал ChatGPT для проведения юридического анализа и составления десятистраничного резюме, представленного в дальнейшем суду. В нем цитировались несколько судебных решений, которые могли бы стать прецедентом, не будь они полностью выдуманы: как выяснилось при дальнейшей проверке, ChatGPT все изобрел.
Подобное происходит не только в США. Например, в Канаде после аналогичного разбирательства из-за выдуманных чат-ботом прецедентов юридическое сообщество выпустило специальное руководство для юристов по надлежащему использованию ИИ, если они все же полагаются на искусственные алгоритмы при обслуживании своих клиентов. Подобные рекомендации выпустили государственные коллегии адвокатов и судей США и в Австралии, в некоторых случаях полностью запретив использование генеративного ИИ в судебной практике.
Цифровое право и право в цифре: в чем разница?
Несмотря на ряд новых качеств, появившихся у объектов права в цифровую эпоху, таких как трансграничность, то есть мгновенная доступность из любой точки мира, по мнению опрошенных «Моноклем» юристов в «цифре» новых прав как таковых не возникает: права у нас все те же. Проблемы связаны с отсутствием механизмов регулирования либо недостаточно разработанной правовой базой.
Преемственность права прослеживается, в частности, в том, как в цифровой эпохе реализовались несколько основополагающих элементов: например, считающееся фундаментальным право на свободу информации воплотилось в праве на доступ к интернету, право на репутацию нашло свое отражение в праве на забвение и в защите от нежелательной информации, а из права на неприкосновенность частной жизни родилось право на защиту персональных данных.
Как пояснила «Моноклю» Ирина Ахмедова, руководитель практики интеллектуальной собственности и персональных данных юридической фирмы «Клифф», чаще речь идет от так называемых digital rights — электронных правах, связанных с интернетом и цифровой средой в целом. В обывательском значении их иногда называют цифровыми правами, но лучше так не делать, так как это вызывает путаницу с понятием, закрепленным в ГК РФ.
Если же говорить о праве в цифре в целом, то можно заметить разницу в подходах с правовой точки зрения в России и в Европе: то, что закреплено на данный момент в нашем законодательстве под общим понятием «цифровые права», соотносится в первую очередь с имущественными отношениями, сформировавшимися в цифровой среде, в то время как в ЕС под цифровым правом понимают в первую очередь права человека и то, как они отражаются в праве с учетом цифрового характера взаимоотношений. Среди экспертов сложилось мнение, что, возможно, необходим новый термин, который поможет отделить собственно цифровые права, связанные со средой, от прав человека, которые в этой среде существуют.
Общее правило неизменно: все права, что существуют у человека в «старом» мире, должны автоматически защищаться и в цифре.
Регуляция в разных странах мира
Законодательные системы разных стран мира приспосабливаются к новой эпохе по-разному и с разной скоростью. Правовое регулирование в сфере ИИ, учитывая относительную новизну самого явления, находится в зачаточной стадии, считает Ахмедова. По ее мнению, о развитом законодательном регулировании ИИ в каких-либо странах говорить не приходится. Например, в Евросоюзе Закон об искусственном интеллекте был принят лишь 21 мая 2024 года.
Этот закон позиционируется как первый в мире акт, представляющий собой системное регулирование ИИ. При этом его практическое применение начнется только через два года в соответствии с регламентом ЕС.
КНР тоже уделяет значительное внимание регулированию ИИ. В Китае принимаются различные нормативные акты в этой сфере, в частности по вопросам рекомендательных алгоритмов, управления сервисами генеративного искусственного интеллекта, в сфере этического регулирования.
«В США 30 октября 2023 года президентом был подписан указ о безопасном и заслуживающем доверия искусственном интеллекте. В документе затрагивается целый ряд вопросов, таких как сосредоточение внимания на стандартах для критической инфраструктуры, кибербезопасности, усиленной искусственным интеллектом, и финансируемых из федерального бюджета проектах биологического синтеза», — поясняет Ахмедова.
Единого документа, который регулировал бы ИИ, в России нет, рассказал «Моноклю» Вадим Седельников, владелец продукта no-code платформы AiLine (Softline Digital). По его мнению, во всем мире обращают внимание на проблему регулирования ИИ, но пока есть сложности с описанием норм, терминов и так далее с точки зрения закона. Быстро подготовить законодательную базу в такой сложной и быстроразвивающейся отрасли нельзя, на это потребуется время. Те законы, которые приняты в России под шапкой национальной стратегии, описывают общий, генеральный курс и пока носят рамочный характер. Со временем эта стратегия должна обрасти уточняющими нормативными актами.
Непосредственно регулирование ИИ в России осуществляется в отдельных законодательных актах, в частности в Федеральном законе от 27.07.2006 № 149-ФЗ (ред. от 12.12.2023) «Об информации, информационных технологиях и о защите информации» (включая положения о рекомендательных технологиях); Федеральном законе от 27.07.2006 № 152-ФЗ (ред. от 06.02.2023) «О персональных данных»; Законе РФ от 07.02.1992 № 2300-1 (ред. от 04.08.2023) «О защите прав потребителей»; Федеральном законе от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации — городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона “О персональных данных”» и других. «Кроме того, в настоящий момент ведет разработка Цифрового кодекса — комплексного нормативно-правового акта в сфере цифрового регулирования, ИТ и ИИ, принятие которого планируется не ранее 2026 года», — напомнила Ирина Ахмедова.
В целом ИИ и многое, что с ним связано, сейчас попадает в так называемую серую зону, рассказал «Моноклю» основатель и CEO проекта BotB2B Виктор Попов. «Все понимают, о чем это, но нет четких правил игры. Есть лишь Кодекс этики в сфере ИИ, который подписан ведущими корпорациями. Безусловно, этот документ носит лишь рекомендательный характер. В конце прошлого года появилась новость, что в нашей стране будет принят закон о страховании ответственности и компенсации за ущерб, который был нанесен ИИ. Эта новость вызвала широкий общественный резонанс. Экспертное сообщество сошлось во мнении, что пока рано говорить о компенсации вреда. Ведь на данном этапе еще не сформировано юридическое поле для этого. В мировой практике есть разные подходы к регулированию ИИ. Например, в Японии контроль минимизирован. В Европе противоположная ситуация. Закон Европейского союза об искусственном интеллекте достаточно четко регламентирует деятельность в сфере ИИ. В октябре 2023 года в США был подписан указ, направленный на регулирования решений на основе ИИ. Какой подход более правильный — покажет только время».
Право и ИИ: в чем сложности?
По мере все большего проникновения ИИ в нашу жизнь становится очевидно, что приспосабливаться нужно как можно быстрее, тем более что ИИ создает принципиально иные вызовы внутри современного правопорядка. Вопросы начинаются с самого порога: что же такое искусственный интеллект с точки зрения права?
Даже с точки зрения технологии под искусственным интеллектом понимается довольно большой спектр самых разнообразных программ и алгоритмов, включая созданные по принципу самообучаемых нейросетей. В целом ИИ либо обладает автоматизированной логикой и рассуждениями — так, как он действовал бы, будучи человеком, то есть некая коммуникативно-логистическая платформа, либо понимается как алгоритм, способный обрабатывать сверхбольшие массивы данных.
В Национальной стратегии развития искусственного интеллекта в России, принятой в 2019 году, ИИ достаточно широко обозначается как комплекс технологических решений, позволяющий имитировать когнитивные функции человека и получать при выполнении конкретных задач результаты, сопоставимые как минимум с результатами интеллектуальной деятельности человека.
Второй немаловажный аспект — зона ответственности. С этой точки зрения вопрос регулирования ИИ стоит достаточно остро, считает Виктор Попов. «Сейчас непонятно, кто будет нести ответственность за ошибки, допущенные ИИ. Адвокат Роберто Маты Стивен Шварц при подготовке к суду использовал ChatGPT для поиска прецедентов. Чат-бот выдал ему варианты, которые он впоследствии представил суду, но таких прецедентов в судебной практике США не было. Фактически господин Шварц ввел в заблуждение суд. Возникает вопрос: кто должен нести ответственность за это — адвокат, не проверивший информацию, или же чат-бот, выдумавший факты?»
К слову, именно этот аспект можно считать главной причиной того, что на дорогах пока массово не используется беспилотный транспорт. Кто сядет в случае смертельной аварии? Как ИИ будет принимать решение, куда свернуть в случае, если и тот и другой вариант приведут к человеческим жертвам?
Третий аспект — кого считать автором произведения, созданного искусственным интеллектом? Разработчика ИИ, оператора (того, кто составлял промпт, то есть описание заказа для нейросети), авторов оригинальных картин, на которых обучался ИИ (а таких картинок потенциально сотни тысяч, если не миллионы) или сам алгоритм? Пока правоведы думают, суды по всему миру уже принимают решения.
Например, в США в прошлом году истец Стивен Талер хотел зарегистрировать в качестве автора изображения алгоритм Creative Machine, а сам мужчина хотел выступить владельцем произведения, но ему отказали. Судья подчеркнула, что авторские права никогда не предоставлялись работам, в которых отсутствовало бы участие человека, и предоставление авторского права — это поощрение за создание именно человеком.
Стивен Талер, надо сказать, пытался добиться истины сразу в нескольких странах — аналогичные дела слушались в Австралии и в Верховном суде Великобритании. Однако везде судьи были непреклонны: автором произведения может быть только человек. Единственная страна, где истцу удалось добиться успеха и получить патент за авторством ИИ, оказалась ЮАР. Однако нюанс в том, что патентное бюро в этой стране заявки по существу особо не проверяет.
В Китае суд признал, что правом на контент, сгенерированный нейросетью, обладает пользователь — то есть тот, кто непосредственно использовал инструмент. Созданное Shenzhen Tencent Computer System Co программное обеспечение Dreamwriter было использовано для создания статьи, посвященной Шанхайскому фондовому индексу. Суд решил, что инициирование создания статьи и подбор входных данных производились по воле человека, который и использовал Dreamwriter. То есть произведение было сформировано в результате интеллектуальной деятельности человека, а поэтому должно защищаться авторским правом.
Наконец, еще один пример: один из крупнейших банков изображений Getty Images подал в суд на разработчика Stability AI за использование фотобанка для обучения нейросети. Фотобанк считает, что разработчик незаконно скопировал и использовал для обучения нейросети миллионы изображений из их архива, защищенных авторским правом. Дело еще не закончилось. Сам фотобанк между тем запретил загружать и продавать изображения, созданные нейросетями, еще два года назад, чтобы обезопасить себя и клиентов от возможных юридических угроз.
Право роботам
В целом правовые системы стран мира не признают за искусственным интеллектом «прав на право» как таковое. Однако попытки придать ИИ субъектность предпринимаются давно. Согласитесь, ведь так заманчиво переложить ответственность на сам алгоритм, объявив его субъектом права, — и под ногами не будут болтаться цифропессимисты и прочие луддиты, стоящие преградой на пути прогресса. Соблазн этот подтачивает умы бюрократий по всему миру, да и бизнес умеет быть настойчивым.
Собственно, об этом и писал в своей статье глава КС России Валерий Зорькин: наделение искусственного интеллекта субъектностью весьма рискованно и может поставить крест на человеческой цивилизации. И вроде бы трудно вообразить себе того, кто в здравом уме поставит алгоритм на одну ступень с Homo sapiens. Однако, например, в докладе комитета по правовым вопросам Европарламента ставится вопрос о наделении самых развитых роботов и ИИ особым статусом «электронной личности» с набором определенных прав и обязанностей, предлагается закрепить за ИИ в том числе и личные права.
«И вот уже предлагается закрепить за роботами такие права, как право не быть отключенным (против его “воли”), право на полный и беспрепятственный доступ к своему коду, право не подвергаться экспериментам, право на создание своей копии, право на неприкосновенность частной жизни. То есть практически правовая защита возвышается до степени, предоставляемой человеку», — пишет Зорькин.
Экспертные дискуссии о том, является ли ИИ объектом права (имуществом) или же его можно считать субъектом права по модели юридического лица, ведутся довольно давно. По словам Ирины Ахмедовой, несколько лет назад она присутствовала на конференции, где поднималась эта проблема, и почти все присутствующие эксперты восприняли предложение наделить роботов правосубъектностью в штыки.
«Когда эксперты говорят о правосубъектности искусственного интеллекта, они отталкиваются от современного уровня развития технологий, — говорит Ирина Ахмедова. — Конечно, тот ИИ и те роботы, которые есть сейчас, очень далеки от того, чтобы обладать какой-то правосубъектностью в целом. В будущем это, скорее всего, изменится, но сейчас самым ярким примером, когда искусственное образование наделено правосубъектностью, — это юридическое лицо. Юрлицо — это некая фикция, хотя оно выступает в обороте от своего имени, у него есть свое имущество, есть учредительные документы, и само юридическое лицо несет ответственность за какие-то свои действия, в то время как учредители несут только субсидиарную ответственность при определенных обстоятельствах. Когда говорят об искусственном интеллекте и о роботах, высказывается позиция, что некоторые их виды в будущем тоже могут быть наделены правами по аналогии с юридическим лицом. Как мне кажется, Валерий Зорькин имел в виду в том числе и это: зачем создавать еще одну фикцию, когда уже есть механизм?»
Искусственный интеллект — это в первую очередь средство достижения какого-то результата и средство выполнения какой-либо задачи, которую ему задал человек. В тот момент, когда у человечества появится искусственный интеллект, способный самостоятельно определять самому себе задачи, возможно, и возникнет необходимость наделить его какими-либо полномочиями (не личными правами). Или, возможно, у алгоритма будет слишком много разработчиков, операторов и иных участников, когда будет невозможно применить концепцию «разработчик — оператор», тем более что разработчики тоже часто являются юрлицами. Подобные юридические фантазии, впрочем, на данный момент нелогичные и некорректные, воплотятся тогда, когда это будет отвечать насущным потребностям общества, а пока закон должен ориентироваться непосредственно на те правоотношения, которые существуют в настоящий момент.
Пища для искусственного ума
Узким местом использования ИИ можно назвать данные, на основе которых обучают некоторые генеративные модели, относимые к искусственному интеллекту. В связи с этим можно проследить известный закон диалектики единства и борьбы противоположностей, рассказала «Моноклю» Полина Бадер, старший IP/IT-юрист ASB Consulting Group. «ИИ и персональные данные всегда будут находиться в конфронтации, как, например, строители и экоактивисты, так как их цели взаимоисключающие, — говорит она. — Невозможно построить здание (выйти на новый виток работы с информацией) без вырубки деревьев на участке (игнорирования ограничений работы с наиболее ценной информацией). При этом и новое здание (ИИ), и деревья (персональные данные) важны для человеческого благополучия».
Цель регулирования обработки персональных данных — защита частной жизни человека. Цель развития ИИ — эффективная обработка информации. При этом наиболее ценная информация, которая двигает развитие ИИ, — это персональные данные, уточняет юрист. Благодаря регуляции сложилась ситуация, когда ограничения препятствуют дальнейшему техническому прогрессу. «Уходя от диалектики и возвращаясь к насущным юридическим вопросам, можно отметить, что privacy как юридический институт появился совсем недавно и остается недостаточно проработанным. Существует большое количество запретов и ограничений и в то же время мало инструментов для фактического применения этих ограничений на практике и отслеживания выполнения установленных запретов. Это порождает известную всем ситуацию: закон есть — исполнения нет. В контексте ИИ эта ситуация становится особенно яркой».
Общество требует скорости, мобильности, удобства, добавляет Вадим Седельников. «У прогресса есть как положительные, так и отрицательные стороны. Если мы хотим летать самолетами, то должны передавать свои данные авиакомпаниям, дальше ответственность за сохранность данных лежит на них. То же самое с другими сервисами: они цифровизируются, и требуются новые меры регулирования в области хранения данных. При этом важно понимать, что данные — это основное, что нужно для правильного обучения ИИ. А дальше возникают два момента: первый — риск утечки данных (он есть всегда), и второй — выводы, который делает ИИ на основе этих данных. Выводы ИИ могут быть не всегда корректны, и как раз это надо постараться отрегулировать на законодательном уровне, чтобы разработчики были более внимательны к разработке».
Прогресс и право: где баланс?
Нам кажется, будто цифровизация стала практически безальтернативной. Отчасти это так: действительно, негативным аспектом цифровизации иногда выступает ее принудительный характер. «Так, гражданин не может отказаться от ведения медицинской электронной карты, но, например, в вопросах голосования еще сохраняется альтернатива и гражданин может прийти на избирательный участок. Можно ли назвать такую цифровизацию утратой права? Скорее нет, чем да», — поясняет Ирина Ахмедова. Прогресс оставляет за бортом привычные альтернативы, и круг их сужается, добавляет Вадим Седельников. «Какие-то сто лет назад и автомобиль считался чем-то необычным, а сейчас трудно представить нашу жизнь без него, хотя есть альтернатива все время ходить пешком. По сути, использование автомобиля может быть небезопасным, но сейчас эта сфера хорошо зарегулирована. Так будет и с цифровизацией, просто это небыстрый процесс».
На заре цифровой революции ее апостолы отстаивали свободу интернета и отвергали любые средства контроля. Они полагали, что киберпространство вообще не должно регулироваться государством, все должно решаться на основе саморегулирования и в условиях полной децентрализации: такое своеобразное цифровое либертарианство. Однако, потом появилось понятие пространства, то есть среды, определять которую государство считает нужным, а следом возникло и понятие цифрового суверенитета.
Компьютеры, смартфоны, интернет плотно вошли в жизнь рядового гражданина, поэтому чаще всего цифровизация представляется благом. Однако при этом должна быть возможность и альтернативного взаимодействия или хотя бы квазиэлектронного, когда отдельным категориям граждан помогают в осуществлении электронных операций, добавляет Ахмедова. «Хранение, обработка информации, персональных данных в электронном виде намного удобнее как с точки зрения государства, так и с точки зрения гражданина. При должном уровне защиты электронная информация лучше защищена, чем информация на бумаге».
При этом, по словам эксперта, вопросу безопасности персональных данных государство, в отличие от многих частных компаний, уделяет особое внимание. В качестве примера можно вспомнить недавний Закон о единой биометрической системе, принятый в декабре 2022 года. Он ужесточает требования к защите данных, а также существенно ограничивает круг компаний, которые могут собирать и обрабатывать биометрию, а сами эти данные хранятся в государственной базе.
«Действительно, наше общество столкнулось с тем, что персональные данные собираются зачастую в избыточном количестве и необоснованно. Но хочу отметить, что ситуация с гигантским объемом избыточных персональных данных, которые собирались бесконтрольно, уже привела к изменению в законодательстве. Например, летом 2022 года был принят большой пакет изменений, где было сформулировано, как, для чего и с какими целями собираются данные. Все инструменты для того, чтобы отстоять свое право на персональные данные, у граждан есть: тот же Роскомнадзор за этим пристально следит, постоянно растут штрафы — уверена, будут рано или поздно введены оборотные штрафы. Другой вопрос, что люди пока не привыкли должным образом свои права отстаивать».
От прибыльного бизнеса к кибертоталитаризму
Как не хочет утруждать себя муками творчества студент, составляющий промпт для ChatGPT по написанию ненавистной курсовой, так и юрист, неспособный физически помнить все прецедентные дела и обращающийся за помощью к чат-боту: все ищут удобства. Следуя этой же логике, бюрократические аппараты стран мира все больше полагаются на технологические достижения, оставляя решение связанных с этим правовых вопросов на далекое потом.
Если говорить о персональных данных, то гиганты Apple, Microsoft, Google и тысячи других IT-компаний по всему миру, несмотря на ужесточение законодательств, требуют от пользователей все больше доступа к их данным. В ход идет абсолютно все: данные cookies, геолокация, история посещений браузера, время, проведенное в сети, транскрибация голосовых сообщений и разговоров по телефону, лайки, репосты, покупки, режим сна и многое другое. И если пока мы хотя бы частично можем ускользнуть от цифрового надзора, перейдя на кнопочные телефоны или тщательно подчищая «куки» во время блужданий по сети, то передачу огромного количества персональных данных в случае, когда их от тебя безальтернативно требуют не только приложения, но и частные и государственные структуры, кажется, уже невозможно обратить вспять. Возникает опасность появления государства цифровых двойников: когда в чиновничьих системах все будет стройно и логично, а между тем реальные проблемы людей решаться не будут, поскольку это решение должно быть найдено за рамками такой удобной цифровой системы, работающей к тому же при минимальном участии бюрократии.
Наступающий период «дикой» цифровизации без жесткого правового контроля со стороны государства грозит обернуться новыми темными веками для всего человечества. На кону нечто большее, чем права рядовых граждан: визионеры предупреждают об опасности формирующегося глобального надзорного капитализма, который может начать определять социальный порядок без нашего согласия — и мы не успеем заметить, как нашей жизнью будет управлять какой-нибудь «Ровоам».
А люди постепенно исчезнут — сперва из сюжетов фантастических фильмов, где они все-таки были, пусть и в виде батареек в «Матрице», уступив сцену актерам и героям роботам, а затем и физически, оставив после себя лишь сгенерированную цифровую тень.