С экспоненциальным развитием искусственного интеллекта (ИИ) представление о том, что данные так же ценны, как нефть, с точки зрения конкурентоспособности, проникло в культурный дух времени, о чем свидетельствуют инновации, начиная от распознавания голоса и заканчивая беспилотными автомобилями. Поскольку данные в настоящее время являются источником жизненной силы технологических корпораций, степень, в которой они могут использовать эти беспрецедентные возможности, вызывает обеспокоенность по поводу рисков конфиденциальности и безопасности, вопросов регулирования и стоимости экономического роста. Эти опасения отражаются в эрозии конфиденциальности, недоверии к системам искусственного интеллекта, отсутствии амбиций в сфере регулирования в мировом технологическом центре США, а также в необходимости улучшения регулирования, о чем свидетельствует таргетинг рекламы.

Агрегирование персональных данных технологическими корпорациями с целью получения прибыли создает риски социальных последствий в виде нарушения права на информационную конфиденциальность и права контролировать поток личной информации. Что касается последствий бесконтрольного влияния корпораций, Ван и Сиау поставили в центр внимания социальные, медицинские и финансовые последствия лишения людей этого права (66). Напротив, Манхейм и Каплан подчеркивают, как нарушение прав на неприкосновенность частной жизни, которое влечет за собой сбор персональных данных с помощью систем искусственного интеллекта, может подорвать фундаментальные принципы демократии, сигнализируя о наступлении «эпохи нигилизма конфиденциальности» (118). Однако Джонсон утверждает, что, поскольку корпорации уже следуют базовым стандартам в области кибербезопасности, усиление требований к соблюдению требований в целях большей защиты прав на конфиденциальность посредством передовых правил не будет представлять собой сложную задачу. Хотя все три источника признают социальные риски, связанные с нарушением прав на неприкосновенность частной жизни из-за технологий искусственного интеллекта, исследовательские работы, похоже, расходятся в отношении характерных последствий этих рисков. В журнальной статье, напротив, подчеркивается, что в случае принятия усиленных правил эти симптоматические последствия станут неактуальными для искоренения причины проблем конфиденциальности — плохого управления ИИ.

Более того, низкая интерпретируемость внутренних структур систем ИИ может усилить эти опасения. Ван и Сиау отмечают, что надежность технологий искусственного интеллекта ограничена непрозрачной системой «черного ящика» внутри их внутренней работы (69). Манхейм и Каплан согласны с тем, что ограниченная прозрачность может подорвать доверие пользователей, добавляя, что «экосистема наблюдения», созданная технологическими компаниями, позволяет системам ИИ тайно извлекать конфиденциальные данные, снижая их надежность (126). Более того, Джонсон отмечает, что неясно, соответствует ли надежность систем ИИ уровню риска, добавляя, что даже системы с кажущимся низким уровнем риска могут давать ненадежные результаты из-за присущей человеку предвзятости в агрегированных данных. Оба исследования согласны с тем, что непрозрачность систем ИИ может снизить их надежность, в то время как Манхейм и Каплан также признают скрытую природу интеллектуального анализа данных ИИ, а Джонсон указывает на присущие этим системам человеческие предрассудки.

Учитывая законодательные инициативы США, оба исследования сходятся во мнении, что предложения по регулированию ИИ значительно отстают в решении проблем конфиденциальности и безопасности. Например, Ван и Сиау ссылаются на ограниченную прозрачность существующих алгоритмов ИИ как на причину, по которой правовые системы не могут реализовать политику защиты конфиденциальности, специфичную для ИИ (70). Напротив, Манхейм и Каплан утверждают, что обесценивание конфиденциальности информации заставляет регулирующие органы продолжать игнорировать эти опасения (129). Тем не менее, все три источника подчеркивают выраженную решительность, с которой ЕС реализует инициативы по регулированию ИИ. Например, Джонсон отмечает, что в случае ратификации Закон ЕС об искусственном интеллекте станет одной из первых в мире политик по защите людей от опасных последствий технологий искусственного интеллекта. Манхейм и Каплан отмечают, что санкции в соответствии с Общим регламентом ЕС по защите данных вдохновили технологических гигантов, в том числе Google, на трансформацию своих методов управления данными с использованием искусственного интеллекта (162). Более того, Ван и Сиау называют Правила гражданского права ЕС в отношении робототехники самой ранней попыткой регулирования систем искусственного интеллекта (70). Все три источника иллюстрируют характерную решительность нормативно-правовой базы ЕС по сравнению с США.

Хотя сложная внутренняя работа ИИ и деградация личной жизни, безусловно, препятствуют законодательным амбициям, прецеденты ЕС позволяют предположить, что отсутствие срочности регулирования может указывать на более тонкие отношения правительства США и предприятий. Действительно, использование личных данных для прироста капитала, которому потворствует пассивность регулирования, приводит к формированию того, что Манхейм и Каплан называют «наблюдательным капитализмом» (124). Как отмечает Джонсон в обсуждении Закона об искусственном интеллекте, технологические гиганты, опасаясь этой инициативы, публично лоббировали политиков ЕС, чтобы они сформировали контуры этого нормативного предложения в соответствии с их финансовыми интересами. Более того, Ван и Сиау предполагают, что Кремниевая долина может испытывать все большее раздражение из-за предлагаемых правил в области ИИ, поскольку постоянная автоматизация ранее выполняемой человеком работы может вынудить законодателей принять более строгую налоговую политику (68). Аналогичным образом, Манхейм и Каплан заявляют, что, учитывая важную роль данных в бизнес-моделях, основанных на искусственном интеллекте, технологические корпорации «всегда будут раздвигать юридические и этические границы в стремлении собрать больше данных» (119). Все три источника сходятся во мнении, что технологические предприятия часто охотно принуждают правовые учреждения добиться контроля над регулированием и вносить поправки в правила в соответствии со своими корпоративными интересами.

Экосистема наблюдения, основанная на сборе данных с помощью искусственного интеллекта, делает пользовательские данные самым ценным товаром, а их добыча является источником дохода для этих компаний. Как отмечают Манхейм и Каплан, продукты, предлагаемые в рамках этой экосистемы, являются всего лишь средством сбора личных пользовательских данных, предоставляя пользователям продукт (119). Оба исследования сходятся во мнении, что одним из очевидных способов монетизации данных этими компаниями является их продажа в целях целевой рекламы (Ванг и Сиау 67), (Манхейм и Каплан 124). Получая данные о потребительском поведении, покупательских привычках и предпочтениях пользователей, системы искусственного интеллекта могут генерировать четкие прогнозы о будущих потребностях клиентов для создания убедительной рекламы, ориентированной на конкретного пользователя. Как отмечает Джонсон в обсуждении Закона ЕС об искусственном интеллекте, Facebook выразил обеспокоенность, если мандат на «запрет на подсознательные методы манипулирования людьми» также распространится на таргетированную рекламу. Все три источника подчеркивают масштабы применения этой манипулятивной тактики, вызывая обеспокоенность по поводу превращения личных данных в товар для технологических корпораций и регулирования их хищнического поведения.

Эти компании, занимающиеся таргетингом рекламы, основанные на искусственном интеллекте, не только извлекают выгоду из личных и часто конфиденциальных данных, но делают это незаметно, оправдывая это тем, что они «информируют» о выборе пользователей. Как предполагают Манхейм и Каплан, благодаря скрытому отслеживанию профилей пользователей эта целевая реклама может быстро превратиться в тонкие, но эффективные методы убеждения (130). Хотя оба исследования показывают, что поведенческая реклама ставит под угрозу право на конфиденциальность информации, Манхейм и Каплан утверждают, что маневрирование в прогнозах о поведении пользователей также ставит под угрозу право на конфиденциальность решений (67), (130). Настолько, что Манхейм и Каплан развивают последнее понятие, утверждая, что даже отдельные «влиятельные лица», которые пытаются использовать такие методы манипуляции, часто «слишком близко подходят к линии, отделяющей убеждение от принуждения». (130). Джонсон отмечает, что одной из главных проблем Закона ЕС об искусственном интеллекте было ограничение систем искусственного интеллекта высокого риска, в том числе тех, которые предназначены для манипулирования людьми, что позволяет предположить, что таргетинг рекламы может оказаться более разрушительным, чем показывают исследования. Хотя эти три источника подчеркивают значимость эрозии прав на неприкосновенность частной жизни, они показывают расхождения в относительной важности этого эрозии на более широком уровне общества.

Таким образом, опасения по поводу использования персональных данных технологическими компаниями отражаются в проблемах внедрения надежных систем искусственного интеллекта, защиты прав на конфиденциальность и принятия нормативных мер. Все три источника согласны с тем, что компании часто раздвигают этические и юридические границы, чтобы продолжать получать прибыль от данных, таргетинг рекламы призывает к улучшению регулирования, а ЕС в настоящее время является законодательным авангардом в регулировании ИИ. Тем не менее, источники также противопоставляют друг другу последствия нарушения конфиденциальности информации, факторы, которые ставят под сомнение надежность систем ИИ, а также социальную значимость нарушения прав на неприкосновенность частной жизни.

Цитируемые работы

Джонсон, Хари. «Борьба за определение того, когда ИИ является «высоким риском»». Wired. Веб.

Манхейм, Карл и Лирик Каплан. «Искусственный интеллект: риски для конфиденциальности и демократии». Йельский журнал права и технологий, том. 21, нет. 1, 2019, стр. 106-185.

Ван, Вэйю и Кенг Сиау. «Искусственный интеллект, машинное обучение, автоматизация, робототехника, будущее труда и будущее человечества: обзор и программа исследований». Журнал управления базами данных, том. 30, нет. 1, 2019, стр. 61-79.