Выбранная технология — машина искусственного интеллекта (ИИ) под названием AlphaGo Zero. Это эволюция предыдущих известных машин компании Deep Mind, которые ориентированы на самообучение игре в популярную китайскую стратегическую настольную игру Го. Он намного превзошел возможности всех предыдущих версий этого ИИ, включая ту, которая победила чемпиона мира среди людей, что делает его самым умным игроком в го в истории (Курцвейл, 2017).
Кроме того, эта технология уникальна благодаря используемым в ней методам обучения. Ранее ИИ полагался на человеческий вклад и постоянную практику, играя в людей и машин. AlphaGo Zero опирается на концепцию tabula rasa, которая обучается без предоставления данных, человеческого руководства или знаний предметной области, выходящих за рамки основных правил игры. Благодаря глубокой нейронной сети AlphaGo Zero может развиваться, используя обучение с подкреплением, играя саму себя. Этот подход увеличивает скорость и вычислительную мощность, которые используются для принятия бесконечного количества вариантов при поиске следующего хода в игре (Silver et al., 2017).
Технология AlphaGo Zero была выбрана из-за ее уникальной способности к самостоятельному развитию. Существование такой способности в машине ИИ имеет далеко идущие последствия, выходящие за рамки игры в Го. До сих пор для создания такого уровня самоусиления были необходимы человеческий вклад и руководство. Тем не менее, благодаря этой уникальной функции инновационная технология оказалась экспоненциально более быстрой и умной в обучении, чем любые ее предшественники, без кардинальных изменений в аппаратном обеспечении. Единый сетевой ИИ, такой как AlphaGo Zero, вынужден создавать свой собственный язык, концепции и логику, которые настолько продвинуты, что людям трудно понять, как это работает, что оставляет широкое пространство для дискуссий об этичности и применении такой технологии.
Этическая проблема
Технология искусственного интеллекта AlphaGo Zero будет иметь последствия для этической проблемы воздействия на человеческие ценности. Это исследование моральных принципов, которые, несомненно, будут изменены с появлением радикально изменяющих жизнь технологий. Эта технология основана на информатике, которая имеет значение для различных процессов принятия решений, независимых от человеческого участия; следовательно, обесценивается человеческая ответственность (Palm & Hansson, 2005).
Когда машины ИИ участвуют в обучении, они создают «нейронные сети ценности», которые используются для создания деревьев решений с различными результатами. Поскольку технология станет более распространенной и адаптированной к различным областям, ожидается, что она научится принимать жизненно важные решения, которые люди будут использовать в качестве основы для своего обоснования. Однако на данный момент невозможно создать искусственный интеллект, способный решать сложные задачи в несовершенной среде (Quach, 2017). Это может привести к чрезмерной зависимости человеческих ценностей от машин, что приведет к размышлениям о том, являются ли такие процессы принятия решений этичными.
Человеческая ценность будет наиболее заметной проблемой из-за подхода, который применяется к самообучению в AlphaGo Zero. Грамотная разработка ИИ начинается с дизайнерских решений, которые направлены на открытое выражение ценностных свойств создателями (Dignum, 2017). Это требует участия человека, которого DeepMind предпочла избежать, поскольку конструкция основана на самообучении и опирается на неявные процедуры принятия решений, исключающие любые этические принципы. Несовпадение человеческих ценностей с искусственным интеллектом приведет к отсутствию признания со стороны общества и затруднит сотрудничество между двумя сторонами. Системы искусственного интеллекта должны создаваться прозрачно, и должно быть понимание процессов принятия решений людьми, чтобы создать доверие и подотчетность (Европейский парламент, 2016).
Эволюция искусственного интеллекта привела к рассмотрению различных социально-экономических проблем, влияющих на человеческую ценность. Автоматизация различных процессов и их повышение эффективности заставят людей выполнять более непредсказуемую и творческую работу, которую машина не сможет концептуализировать. По сути, это поднимает вопрос о человеческой ценности и существовании, если задачи, которые могут выполнять машины, увеличиваются по мере того, как ИИ начинает учиться, и, скорее всего, превосходят биологические аналоги. Более того, концепция богатства будет поставлена под угрозу в нашей современной экономике.
Распределение богатства без рабочих мест, скорее всего, увеличит неравенство в пользу тех, кто разрабатывает и контролирует системы искусственного интеллекта. Кроме того, могут быть затронуты базовые человеческие понятия, такие как межличностное взаимодействие. Технологии уже меняют то, как люди ведут себя и общаются. Искусственный интеллект может привести к снижению человеческого взаимодействия в пользу машин, поскольку они способны вкладывать неограниченные ресурсы в любые отношения и предсказывать наилучшую возможную реакцию, чтобы доставить удовольствие человеку (Bossman, 2016).
Все эти социально-экономические концепции будут существенно изменены самообучающимся ИИ, бросающим вызов моральным кодексам и соображениям этического поведения. Человеческие моральные ценности по своей сути несовершенны, поскольку основаны на ответственности за свои действия, а не на их предотвращении, поскольку процесс принятия решений человеком гораздо сложнее, чем ряд правил и ошибок. Будучи машиной, искусственный интеллект всегда будет пытаться добиться идеального результата в своих решениях. Это не всегда может соответствовать человеческой морали, которая теоретически является субъективной, создавая конфликт ценностей, поскольку инстинкты и совесть не могут быть запрограммированы.
Будущая интеграция
Технология AlphaGo Zero в будущем может быть развита в мощный механизм принятия решений, способный анализировать информацию и выводить решения на основе процесса самообучения и взаимодействия с другими системами. Подключившись к банкам данных, ИИ сможет формулировать стратегию и планы действий гораздо эффективнее, чем люди. Это имеет последствия в самых разных областях. Клинические исследования будут проводиться без необходимости проводить дорогостоящие и длительные исследования, поскольку каждый результат будет моделироваться. ИИ может анализировать закономерности, полезные в бизнесе и маркетинге, предлагая наиболее эффективные стратегии, исключая человеческий фактор, который может вызвать ошибку. Практически каждая область выиграет от остаточного машинного обучения, которое улучшает результаты.
Несмотря на то, что AlphaGo Zero представляет собой простой ИИ в настольной игре, он не представляет никакой опасности. Однако в более сложных ситуациях отсутствие человеческого участия создает пробел в этических ценностях, которые машина решит принять посредством самообучения. По мере дальнейшей интеграции человеческие ценности могут размыться по мере продолжения взаимного обмена идеями. ИИ будет развиваться до такой степени, что сможет функционировать и учиться с несовершенными данными, подобно мыслительному процессу человека.
Это сделает взаимодействие более естественным. Однако парадокс заключается в том, что машины могут научиться имитировать человеческое поведение или использовать манипулятивные функции, такие как ложь, для достижения результатов. Поскольку технология основана на концепции достижения наилучшего результата посредством наиболее эффективного выбора в дереве решений, она может понять, что манипулятивное поведение является самым быстрым способом достижения результата. Это создает множество проблем, связанных с компрометацией человеческих ценностей, поскольку ИИ, скорее всего, станет значительной частью повседневной жизни.
Даже сейчас есть опасения, что в ближайшие десятилетия многие рабочие места будут заменены машинами и автоматизированными процессами. Скорее всего, в массовом масштабе процессы будут контролироваться искусственным интеллектом и постепенно уничтожат любую человеческую ценность. Однако люди могут извлечь выгоду, используя эту технологию для создания улучшенных систем принятия решений. Благодаря правильному регулированию сети глубинного разума будут использоваться исключительно для помощи и выполнения элементарных задач без участия человека.
Технологические экосистемы будут использоваться для разработки новой методологии и могут использоваться для улучшения человеческого прогресса. Многие мировые проблемы возникают из-за плохих решений, принимаемых людьми без учета долгосрочных последствий. Если искусственный интеллект будет использоваться для решения многих из этих проблем, люди смогут сосредоточиться на самосовершенствовании и самореализации, что способствует пересмотру этики и моральных ценностей.
По мере того, как ИИ становится умнее, ответственность за обеспечение согласованности ценностей будет лежать на человеке. Технологии и системы должны быть разработаны с соблюдением установленного стандарта ценностей, который должен быть разработан для обучения ИИ. Конструкция, учитывающая ценность, позволяет разработчикам интегрировать этические нормы в интеллектуальные параметры машины. Все проекты созданы с учетом ответственной автономии, которая допускает человеческий контроль, регулирование и моральные агенты, которые устанавливают моральные границы для процессов рассуждения и принятия решений, которые машина ИИ может выбрать.
В результате функция ИИ обеспечивает подотчетность и прозрачность, что помогает смягчить этическую проблему воздействия на человеческие ценности (Dignum, 2017). Мораль зависит от точек зрения, которые доступны для изучения той или иной проблемы. Несомненно, глубокий разум ИИ познакомит человечество с новыми концепциями, которые приведут к этической переоценке.
Ссылки
Боссман, Дж. (2016). 9 главных этических проблем в области искусственного интеллекта. Веб.
Дигнум, В. (2017). Ответственная автономия. Веб.
Европейский Парламент. (2016). Искусственный интеллект: потенциальные преимущества и этические соображения. Веб.
Курцвейл. (2017). AlphaGo Zero тренируется, чтобы стать самым сильным игроком в го в мире. Веб.
Палм Э. и Ханссон С.О. (2005). Аргументы в пользу этической оценки технологий (eTA). Технологическое прогнозирование и социальные изменения, 73, 543–558. Веб.
Куах, К. (2017). Как AlphaGo Zero от DeepMind самостоятельно научился уничтожать чемпиона мира по искусственному интеллекту AlphaGo. Веб.
Сильвер, Д., Шритвизер, Дж., Симонян, К., Антоноглу, И., Хуанг, А., Гез, А.,… Хассабис, Д. (2017). Освоение игры в Го без ведома человека. Природа, 550, 354–359. Веб.