Есть вопросы?

Введите Ваше имя (минимум 2 символа)

Некорректный e-mail

Введите Ваш вопрос (минимум 10 символов)

Подтвердите что Вы не робот

Спасибо, мы скоро Вам ответим!

Риски, связанные с нарушением этических норм

ИИ — это основа для создания многочисленных удобных сервисов, направленных на благополучие человека и одновременно источник рисков, связанных с появлением решений, которые могут нанести человеку вред, нарушить его права, проявить неэтичное поведение.

В этой связи появилась новая область исследования — этика ИИ — совокупность принципов и методов их реализации для создания и ответственного использования технологии искусственного интеллекта для предотвращения рисков, связанных с нарушениями в области морали и нравственности.

Одним из первых, кто предвидел потенциальные проблемы, в том числе риски этического плана, при разработке автономных интеллектуальных агентов, был писатель-фантаст Айзек Азимов, который сформулировал «Три закона робототехники» как средство ограничения этих рисков. Первый закон запрещает роботам вредить людям или допускать причинение вреда людям, отказываясь действовать. Второй закон предписывает роботам подчиняться людям, если только эти приказы не противоречат первому закону. Третий закон предписывает роботам защищать себя в той мере, в какой это не противоречит первым двум законам. Позже к первым трем был добавлен четвертый: робот не может принести вред человечеству.

Приведем некоторые примеры появления этических проблем в области разработки и применения ИИ, которые возникают уже сегодня. В первую очередь это проблемы, связанные с вторжением в частную жизнь, с непрозрачностью принятия решений, с ошибочностью принятия решений.

Например, доступный нам сегодня Интернет, дополненный технологиями ИИ, становится сложно контролируемым пространством, средством культивации и тиражирования фейков, благодатной средой для преступных действий, рассадником вредоносного ПО, средством проведения кибератак, полем осуществления информационных войн.

Рассмотрим лишь один аспект проблемы — проанализируем, как использование алгоритмов искусственного интеллекта, направленных на оптимизацию прибыли, может приводить к нарушению этических норм.

На рис. 4.7 условно показано интернет-пространство, в рамках которого функционируют различные платформы, которые взаимодействуют с пользователями и рекомендуют им, какие товары и услуги следует приобретать, с кем встречаться и дружить, как относиться к тем или иным новостям и т. п.

Рис. 4.7. Задачи интернет-платформ, построенных на базе ИИ-алгоритмов, обычно направлены на максимизацию интересов владельцев и спонсоров этих платформ. 

Многие из этих систем работают на основе алгоритмов, использующих ИИ, и могут манипулировать пользователями в угоду интересам владельцев платформ. Данные интересы явно и неявно заложены в оптимизационных механизмах ИИ-систем, обучающихся на поведении пользователей. Например, умная система, направленная на оптимизацию времени проводимого пользователем в интернете (с целью оптимизации прибыли от рекламы), может отбирать и показывать ему тот новостной контент, который вместо освещения объективной картины заставляет клиента максимально вовлекаться в процесс потребления контента и проводить больше времени в Сети.

Многие лидеры индустрии верили в рациональность человеческой природы или считали, что конкурентный рынок идей защитит истину. Подобное наивное полагание открыло Интернет для людей с более реалистичным пониманием силы группового мышления и обмана. Современные бизнесмены с помощью рекламы и пропаганды могут умело подстраивать свои аргументы и образы под вкусы, доходы и политические взгляды каждого пользователя, используя ИИ как средство оптимизации прибыли на основе изучения привычек потребления контента товаров и услуг целевых групп.

Авторы рис. 4.7 демонстрируют, что в управлении социальными и политическими процессами также присутствуют интересы провайдеров разных платформ. Неслучайно появилось выражение «Если вы что-то читаете бесплатно, то скорее всего, кто-то заплатил за то, чтобы вы это прочитали».

Рост вариантов интернет-мошенничества стимулирует людей разбираться в тонкостях новых сетевых сервисов и возможных механизмах новых манипуляций, в том числе чтобы избежать обмана. С другой стороны, чем больше люди проводят времени в Сети, тем больше у них шансов подвергнуться манипуляции со стороны недружественных алгоритмов.

Для пользователей социальных сетей важными являются мнения окружающих людей, но отнюдь не всегда человек осознает, в какой мере ИИ участвует в формировании его сетевого окружения, информационной повестки, в решении социально-политических задач, направленных на достижение отдельных интересов противоборствующих групп как на уровне отдельных государств, так и в мировом масштабе. При этом задачи упомянутых платформ всегда связаны с интересами владельцев и спонсоров этих платформ и могут быть направлены на обеспечение политической стабильности того или иного государства или, напротив, подрывать эту стабильность. Можно сказать, что умные алгоритмы участвуют в решении социальных и политических задач, являясь инструментами с известной степенью автономности и способностью обучения на основе паттернов потребления контента пользователем.

Представленные выше рассуждения можно обобщить, показав механизм влияния умных алгоритмов на формирование модели внешнего мира, в котором живет человек. Наш мир, который мы видим и ощущаем и привыкли воспринимать как действительность, есть модель, построенная нашим мозгом на основе элементарных импульсов, поступающих от органов чувств (датчиков на разных участках нашего тела). Причем заметим, что набор параметров, которые мы собираем из внешнего окружения, весьма ограничен — хотя бы потому, что мы видим и слышим в ограниченных участках электромагнитного спектра. То есть мы (наш мозг) получаем из внешнего мира некую совокупность электрических импульсов, а все, что мы привыкли называть воспринимаемым миром, есть модель, продуцируемая нашим мозгом. Весьма удачное и наглядное описание данного феномена можно найти у одного из признанных авторитетов в области нейробиологии и ИИ — Джеффа Хокинса в книге «AThousand Brains: A New Theory of Intelligence». «Нервные волокна, которые идут в мозг от глаз, ушей и кожи, выглядят одинаково. Они не только выглядят одинаково, но и передают информацию с помощью одинаково выглядящих спайков. Если вы посмотрите на входы в мозг, вы не сможете различить, что они представляют. Тем не менее зрение ощущается как одно, а слух — как нечто другое, и ни то, ни другое не похоже на спайки. Когда вы смотрите на пасторальную сцену, вы не чувствуете последовательности электрических импульсов, поступающих в ваш мозг; вы видите холмы, цвет и тени».

Наш мозг строит модель мира, которая уточняется на основе повседневного опыта нашего с ним взаимодействия.

На определенном этапе развития науки и техники появились приборы, такие как телескоп или микроскоп, которые позволили человеку воспринимать дополнительную информацию о мире. Создавая данные приборы, человек стремится минимизировать искажения при обработке данных. С появлением компьютерных технологий и электронной передачи данных количество акторов, которые участвуют в обработке сигнала прежде, чем он поступит в наш мозг, многократно возросло, и степень контроля искажений снизилась. Можно сказать (и этот процесс наглядно иллюстрирует рис. 4.8), компьютерные технологии добавляют все больше стадий в обработке данных, на основе которых человек создает модель мира, в рамках которой он живет и развивается.

Рис. 4.8. Коэволюция «человек-компьютер». 

Часть данных мы получаем непосредственно от общения с внешним миром и другими людьми, другую часть собираем при помощи различного рода устройств. Все большее количество данных мы получаем после их обработки той или иной компьютерной программой. Компьютер создает некоторую модель мира и доставляет нам данные об этом мире на базе полученной модели. При этом ИИ все в большей степени принимает участие в формировании моделей, данные из которых получает человек. Сигнал, на основе которого наш мозг строит модель мира, обрабатывается алгоритмами и потом поступает к нам. Формируется замкнутая система. Человек создает алгоритмы, на базе этих алгоритмов компьютерные программы анализируют наши потребности и пытаются сформировать совокупность сигналов, которые вызовут оптимальный отклик от клиента. Люди работают в команде с машинным интеллектом, передавая ему все большую свободу действий по мере того, как уменьшается степень жесткости в программировании работы ИИ человеком. Действительно, первые интеллектуальные программы были четко запрограммированы на выполнение последовательности действий, со временем машины научились обучаться и принимать решения, оптимизируя свои действия исходя из поставленной задачи. При этом по мере роста возможностей цифровых машин и совершенствования ИИ цели перед ИИ могут ставиться во все более обобщенной форме — как например, обеспечение оптимального (с экономической точки зрения) функционирования сложной системы. Все чаще подобное управление необходимо осуществить в столь короткие промежутки времени при анализе столь большого количества параметров, что принятие решения находится за гранью физических возможностей человека. Можно сказать, что алгоритмы изучают поведение людей и создают модели их поведения, пытаясь предсказать поведение этих людей в будущем, с тем чтобы поставлять им ту часть информации об окружающем мире, которую легче монетизировать. При этом нельзя утверждать, что модель, построенная компьютером, лишена предвзятостей, привнесенных как качеством данных, так и несовершенством самой модели. Следует также иметь в виду несовершенство самого человека, который создает модели на базе ИИ как для достижения открыто декларируемых благородных целей, так и секретных (открыто не декларируемых целей), отнюдь не всегда соотносящихся с нормами морали и права.

Тот факт, что все большую часть информации мы получаем посредством компьютерных технологий, говорит о том, что модель, которая формируется у нас в голове, все в большей степени может зависеть от преднамеренных и непреднамеренных искажений, вносимых ИИ при ее формировании. И то, что наш мир становится все более виртуальным, оставляет нам меньше шансов замечать разницу между данными, воспринимаемыми непосредственно (из реального мира), и данными, поступающими через призму их обработки, с участием ИИ.

Пользователи могут стать жертвами предвзятости алгоритмов ИИ по разным причинам — это может быть недостаточное качество данных или реализации ИИ-модели, а также наличие манипулятивных целей (открытых и скрытых), заложенных в алгоритмы (см. рис. 4.9).

Рис. 4.9. Классификация негативных последствий использования ИИ. 

Негативные последствия могут быть разного рода. Например, благородные цели, связанные с созданием беспилотного транспорта, могут обернуться массовой потерей работы для водителей такси. Система видеонаблюдения решает проблему снижения правонарушений, но непреднамеренно приводит к ущемлению прав и свобод граждан. Разработчиками могут быть допущены недочеты без злого умысла (возможно, по халатности или недобросовестности) — например, сделаны ошибки в модели или собраны недостоверные данные, и это может привести к предвзятости алгоритма или другим негативным последствиям. Наконец, разработчики могут использовать ИИ, зная, что это использование неэтично или даже нарушает закон.

Само общество пока не пришло к консенсусу по поводу этичности использования той или иной формы ИИ-систем. Этично ли использовать ИИ для целей информационной войны, промышленного шпионажа? Этично ли использовать автономные боевые БПЛА, и можно ли оправдывать такие действия рассуждением о том, что в противном случае на передовую пришлось бы посылать живых солдат?

Все более актуальной становится проблема потери приватности нашей личной жизни, которая контролируется как в физической реальности с помощью видеонаблюдения (где мы находимся, что делаем, куда направляемся, с кем встречаемся, какой у нас распорядок дня), так и в цифровой реальности (какую информацию, какие услуги мы предпочитаем, что и кто нам интересен, наши планы, контакты, коммуникации).

Умные гаджеты предоставляют информацию армии алгоритмов, следящих за жизнью своих пользователей как в цифровой, так и в физической реальности.

Если областью приватности частично оставалась область наших мыслей и чувств, то, согласно публикации, этих остатков приватности люди скоро лишатся в мирах Метавселенной, присутствие в которой будет обеспечиваться новыми видами гарнитур. Так, в 2022 г. появилась гарнитура смешанной реальности для присутствия в мирах Метаверс (metaverse), разработанная Reality Labs (подразделением Meta Platforms) под названием Meta Quest Pro.

Meta Quest Pro имеет 10 камер слежения, половина из которых следят за внутренним миром агента, анализируя его мысли и чувства с помощью мониторинга движения глаз, мимики и языка тела. Отслеживая направление взгляда пользователя, можно улучшать качество изображения смешанной реальности лишь в тех местах пространства, куда смотрит человек. При этом данные, полученные о состоянии внутреннего мира пользователя на происходящее, по сути, позволяют «снимать персональные данные с лица пользователя» и, вероятно, коммерциализировать их. Новый пул больших данных слишком полезен как для обычных граждан, так и для компаний и правительств — чтобы его игнорировать.

Доступ к персональной информации, анализируемой с помощью ИИ при обязательном сотрудничестве частных компаний с властью, приводит к ситуации, когда последние получают возможности отслеживать и все больше ограничивать передвижения, общение и покупки огромного количества людей, которые были идентифицированы как действительные или возможные диссиденты.

Появление крупномасштабных языковых моделей типа GPT-3 позволяет создавать алгоритмические копии любой социальной группы, что дает новые возможности для отработки методов манипулирования людьми (в целях бизнеса или власти), а также для пропаганды, дезинформации и мошенничества, поскольку теперь эти методы можно отрабатывать на алгоритмических копиях интересующих исследователей социальных групп.

Наличие этических проблем в области применения ИИ отражается в новых терминах. Так, например, термин «data colonialism», который можно перевести как «колонизация присвоением данных», используется для выражения эксплуатации людей с помощью технологий ИИ. Здесь присвоение данных рассматривается по аналогии с колониализмом, связанным с присвоением территорий и ресурсов для получения прибыли.

Еще один новый термин Nudging (подталкивание) определяется как тонкий способ манипуляции (усиливаемый возможностями ИИ), который позволяет обходить человеческую способность к автономному принятию решений и суждений и используется для эксплуатации человека и получения прибыли .

Появился еще один новый термин — «AI Awakening» (пробуждение ИИ), который обозначает момент преодоления машиной на базе ИИ порога человеческих способностей в выполнении определенных задач4. Речь не идет о создании сильного интеллекта, а только о появлении способностей ИИ, позволяющих обойти человека в решении конкретной интеллектуальной задачи.

Например, играть в шахматы или Го лучше человека или идентифицировать изображения и выполнять другие задачи, связанные со зрением, и заменить человека. Например, заменить радиологов при интерпретация медицинских изображений.

Речь идет не столько об увольнении сотрудников, обладающих определенными навыками, сколько о коррекции занятости человека за счет передачи некоторых функций этих сотрудников машине. Например, автоматизированный магазин больше не требует продавцов, но требует специалистов по снабжению, управлению и оформлению витрин. Люди должны подстраиваться под те ниши, которые оставляет им ИИ.

Этическая сторона вопроса может быть определена фразой «Обесценивает ли машина навыки человека и лишает ли она его работы?». Оптимисты прогнозируют ситуацию, при которой машины будут дополнять навыки человека, высвобождая ему пространство для его творческой реализации в вопросах управления, обучения, создания новых интеллектуальных решений, и полагают, что решение проблемы состоит в дополнительном образовании и постоянном обучении.

Пессимисты выражают сомнения по поводу того, что перейти на эту функцию более творческой реализации и постоянного обучения смогут далеко не все сотрудники, у которых сегодняшний основной навык станет невостребованным.

ИИ внедряется во все большее количество сервисов. Показателен анализ этических вопросов, решение которых ответственно за ускорение/торможение процесса внедрения ИИ в медицине. Существуют примеры недоверия живому врачу, в силу того что он (как любой человек) может обладать разными качествами, и в том числе такими как зависть, злорадство, сарказм, нечестность, жажда наживы и т. п. Все эти качества пока не присущи машине. В этом смысле переход на общение с машиной может иметь свои плюсы.

И есть совокупность качеств, присущих человеку, которые пока недоступны машине  (эмоциональность, сострадание, любовь, эмпатия и т. п.), что затрудняет общение с машиной. Мы находимся на той стадии развития техники, когда нас раздражает не общение с машиной, а общение с глупой машиной, и на вопрос машины «Чем я могу вам помочь?» мы отвечаем: «Соедините с человеком-специалистом».

Но техника становится все более умной, и отторжение в отношении ИИ-консультанта ослабевает, если он становится действительно полезен.

Отношение пациентов к медицинским услугам на базе ИИ уже сегодня неоднозначно (рис. 4.10). Уже сегодня есть некоторые вопросы, например обсуждение сексуального здоровья/поведения человека, которые вызывают у пациента дискомфорт, в силу опасения осуждения со стороны врача-человека, и подчас пациенту проще обсуждать подобные темы с «бездушной ИИ-машиной». При этом одновременно пациенты отмечают и другую сторону — что врач обладает сочувствием, участием (неотъемлемое качество врача), без которого немыслимо само лечение.

Рис. 4.10. Отношение пациентов к медицинским услугам на базе ИИ

Многие технологии имеют две стороны (плюсы и минусы), они обещают привнести еще больше пользы в будущем при развитии технологии и одновременно могут усугублять некоторые свои негативные стороны.

Если посмотреть на вектор, направленный на переход от состояния 4 в состояние 3, то это вектор, связанный с ожиданиями преодоления минусов дня сегодняшнего за счет новых возможностей в технологии дня завтрашнего. Если смотреть на вектор 1-3, то можно видеть, как доверие к технологии дня сегодняшнего может смениться на недоверие по мере ее развития.

Опасения связаны в основном с нарушением приватности, возможности использования технологических достижений во вред пользователям со стороны тех, кто станет владельцем этих технологий.

Конечно, разные приложения в разной степени вызывают моральноэтические вопросы в силу этичности самого сервиса, основанного на новых, ранее недоступных возможностях за счет применения ИИ (рис. 4.11).

Рис. 4.11. Ответы респондентов на вопрос о желании использовать данный тип ИИ. n — количество респондентов. 

Если почти 90% респондентов готовы доверить ИИ советы по эвакуации на случай аварии, зная, что ИИ-системы слежения и оповещения превосходят человека по своим возможностям, то в вопросах взаимоотношений в паре более трети не готовы прибегать к советам ИИ, а, например, такая идея как цифровое клонирование умерших более чем у половины респондентов вызывают отторжение (рис. 4.11). Вероятно, люди сознательно или подсознательно обозначают для себя допустимые пределы подмены реального мира на цифровой, после которого психика человека находится в зоне риска, поскольку граница между реальностью и «имитируемой действительностью» становится все более размытой. Той же природы является и проблема фейковых новостей, когда смоделировать «правду» на любую аудиторию становится делом техники.

Сегодня ИИ весьма убедительно может имитировать голос, принадлежащий человеку, паттерны речевых оборотов и создавать липсинг (движение губ во времени) под любую речь, которую виртуально изображаемый человек никогда не произносил.

Активное развитие ИИ за последние 10 лет подтолкнуло экспертов к разработке мер защиты от рисков, которые представляет ИИ для человека. Одним из первых шагов на этом пути стало принятие так называемых Азиломарских принципов ИИ в январе 2017 г. В числе ключевых позиций данного документа следует выделить принцип «полезного» финансирования (инвестиции следует направлять на обеспечение полезного использования ИИ); принцип «связи науки и политики» (конструктивное взаимодействие между исследователями ИИ и теми, кто регулирует ИИ); принцип «безопасности» и «прозрачности неудач» (предписывает создание ИИ на основе общечеловеческих принципов морали). В документе также фиксируется, что разработчики систем ИИ играют ключевую роль в формировании нравственных последствий использования ИИ и обязаны влиять на такие последствия.

Искусственный интеллект позволяет решать новые задачи, однако результаты применения ИИ далеко не однозначно воспринимаются как фактор снижения уровня угроз. С одной стороны технологии искусственного интеллекта позволяют создавать все более сложные и многокомпонентные решения, безопасность которых в том числе обеспечивается средствами ИИ, с другой стороны, в эти более сложные решения вносятся риски, заключенные внутри самой технологии ИИ.

ИИ — это «палка о двух концах». С одной стороны, мы получаем автономное решение, которое должно предупредить человека об опасностях и снизить риски от мошенничества, невозврата долгов, выявить нетипичное поведение в использовании сервисов компании, выявить наличие зловредного ПО. С другой стороны, ИИ внутри себя содержит определенные опасности в виде обучения на неполных и недостоверных данных, возможных предвзятостей, потенциально возможной дискриминации в отношении разных групп пользователей и т. п. Поэтому исследование того, как профессиональная аудитория оценивает риски при внедрении ИИ (увеличение или уменьшение рисков), представляет особый интерес.

Попытка ответить на этот вопрос путем опроса специалистов представлена на рис. 4.12.

Рис. 4.12. Влияние внедрения ИИ на общерыночные риски. Источник: CCAF World Economic Forum. 

Как следует из рисунка — количество респондентов, которые полагают что риски растут, больше, чем число специалистов, которые рассчитывают, что ИИ приведет к снижению рисков. Заметим, что наименее радужные прогнозы касаются риска увеличения нарушений конфиденциальности.

Мы говорили о морально-этических проблемах, которые очевидны уже сейчас. Большее число проблем, вероятно, ожидает нас в будущем при сосуществовании интеллекта живого и превосходящего его возможности искусственного.

Можем ли мы сказать, что высокий интеллектуальный уровень человека подразумевает соблюдение им высоких морально этических норм, и можно ли ожидать, что эти нормы будут соблюдены ИИ в будущем?

Например, человек допускает использование животных в своих целях, в первую очередь оправдывая свои действия тем, что Homo sapiens обладает более развитым интеллектом. Однако остается вопросом, как будет относиться человек к изобретенному им сильному интеллекту (если такой действительно появится). И если человек работает над созданием сильного искусственного интеллекта, готов ли он признать за последним право на то, что этот ИИ будет наделен определенными правами в соответствии с уровнем его интеллекта. Как метко заметили авторы публикации, «Мысль о том, что экскаватор лучше копает ямы, не так горька, как мысль о том, что какая-то коробка умнее».

В процессе создания сложных систем, когда мы перестанем понимать, где разница между биологическим мозгом и небиологическим, возникнет вопрос, почему мы одного рассматриваем как члена общества, а другого нет.

Множество этических вопросов вызывают технологии развития интерфейса «мозг — компьютер», который позволяет на основе регистрации биопотенциалов мозга считывать простейшие команды человека, преобразуя их в сигналы для механизмов протеза так, что человек может мысленными командами регулировать работу протеза. Двунаправленные нейроинтерфейсы обеспечивают замкнутый цикл. Компьютерная система получает сигналы от мозга и отправляет в него информацию, что позволяет человеку ощущать устройства, которыми он управляет, как часть собственного тела. Установив в мозг специальный чип, можно устранить слепоту, глухоту или восстановить функции парализованного тела. По данным Neuralink (на основе успешных опытов, проведенных на обезьянах), уже в 2023 г. с помощью решений компании люди с тяжелыми травмами спинного мозга смогут восстановить функциональность своего тела.

Люди захотят усовершенствовать свои ментальные возможности: улучшить память сверх того, что сегодня считается биологической нормой, увеличить реакцию, получить новые способности по восприятию и обработке информации.

Перспективы появления данной технологии порождают вопросы из области этики. Кому в первую очередь будут доступны подобные усовершенствования? Не вызовут ли подобные усовершенствования интеллектуальный разрыв между богатыми и бедными? Смогут ли люди без чипов претендовать на престижную работу, не лишат ли подобные усовершенствования человека человечности?

Внимание к вопросам соблюдения вопросов этики в области ИИ растет. На рис. 4.13 по данным AI-Index-Report 2021 представлена статистика, отражающая темы новостных публикаций в СМИ, в которых наиболее часто обсуждается вопрос соблюдения этики в ИИ.

Рис. 4.13. Темы новостных публикаций, в которых наиболее часто обсуждается вопрос соблюдения этики в ИИ. Источник: AI-Index-Report 2021

Статистика была построена на базе анализа 60 тысяч англоязычных новостных источников и более 500 тыс. блогов в 2020 году. Материалы были сгруппированы в семь тем на основе языкового сходства. Статьи, касающиеся этических рекомендаций и рамок ИИ, возглавили список наиболее освещаемых новостных тем (21%), за ними следуют «исследования и образование» (20%) и «распознавание лиц» (20%).

Из ИИ-технологий, которые наиболее часто приводят к озабоченности, — это именно использование распознавания лица и ошибки, связанные с использованием данной практики. Известны случаи, когда людей арестовывали по ложному совпадению при ошибках распознавания лиц.

В профессиональной литературе обсуждается большое число проблем, которые связывают с разработкой этичного ИИ. Попытку классификации данных проблем можно найти в книге одного из исследователей ИИ Bernd Carsten Stahl (см. табл.4.1).Согласно этой классификации, существует три категории проблем: первые связаны с природой методов машинного обучения, вторые — возникают перед человеком, который вынужден жить в формирующемся «цифровом мире», и третьи — это метафизические экзистенциальные проблемы, связанные с попыткой осмысления перспектив жизни человека и его роли в мире, в котором ИИ будет приобретать все больше автономности.

Таблица 4.1. Категории проблем, рассматриваемых при создании этического ИИ
1. Проблемы, возникающие при машинном обучении
Конфиденциальность и защита данных

Отсутствие конфиденциальности

 

Неправомерное использование персональных данных

 

Проблемы, связанные с безопасностью

 
Надежность

Отсутствие качественных данных

 

Недостаточная точность данных

 

Проблемы целостности данных

 
Прозрачность

Отсутствие подотчетности и ответственности

 

Отсутствие прозрачности

 

Предвзятость и дискриминация

 

Недостаточная точность прогностических рекомендаций

 

Недостаточная точность неиндивидуальных рекомендаций

 
Безопасность Нанесение вреда физической целостности систем
2. Жизнь в цифровом мире
Экономические проблемы

Исчезновение рабочих мест

 

Концентрация экономической власти

 

Высокая стоимость инноваций

 
Правосудие и справедливость

Оспаривание права собственности на данные

 

Негативное влияние на систему правосудия

 

Отсутствие доступа к государственным услугам

 

Нарушение основных прав человека конечных пользователей

 

Нарушение основных прав человека в цепочке поставок

 

Негативное воздействие на уязвимые группы населения

 

Несправедливость

 
Свобода

Отсутствие свободы доступа к информации

 

Потеря возможности принятия решений человеком

 

Потеря свободы и индивидуальной автономии

 
Более широкие общественные проблемы

Неравные отношения со стороны власти

 

Асимметрия власти

 

Негативное влияние на демократию

 

Проблемы контроля и использования данных и систем

 

Отсутствие информированного согласия

 

Отсутствие доверия

 

Потенциал военного использования

 

Негативное воздействие на здоровье

 

Сокращение контактов с людьми

 

Негативное воздействие на окружающую среду

 
Проблемы неопределенности

Непреднамеренные, непредсказуемые негативные последствия

 

Приоритет «неправильных» проблем

 

Потенциал преступного и злонамеренного использования

 
3. Метафизические вопросы
Метафизические вопросы

Машинное сознание

 

«Пробуждение» искусственного интеллекта

 

Автономные моральные агенты

 

Сверхинтеллект

 

Сингулярность

 

Изменения в природе человека

 
 

Поскольку ИИ стал неотъемлемой частью продуктов и услуг, организации начинают разрабатывать этические кодексы ИИ — руководства к действию при выработке этичных решений относительно использования искусственного интеллекта.

Разработка этики ИИ имеет решающее значение для помощи законодателям в создании справедливой политики и законов, а также для руководства работой ученых и исследователей. Оно помогает соблюдать требования, принимать решения о целесообразном финансировании, делать выводы о том, как применять ИИ в своих продуктах и услугах.

Таблица 4.1 наглядно иллюстрирует, как много направлений в трактовке этических проблем в области ИИ и как трудно их иллюстрировать в виде краткой диаграммы. Подобную задачу ставили разные исследователи. В частности, авторы работы под названием «Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI» изучили 36 основных документов о принципах формирования этичного ИИ, почерпнув информацию из различных типов организаций, чтобы найти в них общие темы и ценности, и попытались свести многочисленные публикации к краткому набору общепринятых принципов в виде простой наглядной диаграммы (рис. 4.14).

Рис. 4.14. Ключевые вопросы при выработке этичного ИИ. Источник: Harward University

Основные принципы не требуют пояснения, за исключением, возможно, принципа «подотчетности», который подразумевает, что сторона, которая выполняет какие-либо действия в отношении клиентов, должна их информировать о том, что именно провайдер делает в отношении этих данных, и о причинах, по которым он это делает.

Вопрос о вероятности сценария, согласно которому развитие машин, оснащенных ИИ, на некотором этапе представит прямую угрозу самого существования человека, одна из самых обсуждаемых тем, связанных с ИИ. Специалисты, которые хотят преуменьшить серьезность проблемы, часто сводят подобное обсуждение к упрощенному вопросу «почему невозможно восстание машин», описанное в фантастических фильмах. Однако негативные последствия для человека, связанные с развитием искусственного интеллекта, могут иметь менее зрелищные, чем голливудские, но не менее опасные формы. Неслучайно лучшие умы из числа специалистов, работавших в данной области, отмечали опасное воздействие ИИ на жизнь человека

Так, например, комментируя вопрос журналиста «существует ли опасность, что вычислительные машины — когда-нибудь возьмут верх над людьми», Норберт Винер говорил, что если человек когда-то передаст вопрос о способе употребления машин самим этим машинам, то он сам таким образом «напрашивается на неприятность…». А комментируя вопрос, не изменяет ли человек окружающую среду свыше своих способностей приспосабливаться к ней, Винер говорил, что человек этого, возможно, не узнает, поскольку его просто не будет.

В перспективе возможна реализация множества приложений, с помощью которых различные инструменты в буквальном смысле слова становятся продолжением тела человека. Причем, не только будучи физически связанными с человеком, но и будучи инструментами удаленными.

В последнее время мозговые чипы разрабатывались в основном для терапевтических целей, и это скорее относится к медицине, но по мере развития технологии нейропротезирования, вероятно, такие технологии будут использоваться и для совершенствования человека в плане развития и дополнения его возможностей сверх того, что изначально было предусмотрено природой. Для этого явления уже появился термин — «биоусовершенствование».

СМОТРЕТЬ ВСЁ Add a note
ВЫ
Добавить Ваш комментарий
 

Если вы нашли ошибку, пожалуйста, выделите её и нажмите Ctrl+Enter.

Контакты:

Пользовательское соглашение
Политика конфиденциальности
ТЕЛЕФОНЫ: +7 (499) 253-93-12, +7 (499) 253-93-12
АДРЕС: 123056 Москва, Электрический, пер. 8, стр. 3
E-MAIL: info@edverest.ru

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам: