Искусство интеллекта

Искусственный интеллект может применяться в общественном секторе – в образовании, здравоохранении, правовой системе, на рынке труда. Вопрос заключается в том, насколько задачи в рамках общественного сектора и выработки экономической политики в том числе приспособлены для приложения инновационных технологий ИИ и какую выгоду в результате может получить общество.

Олег Буклемишев   |   

Одной из примет современного периода становится распространение и все более активное применение искусственного интеллекта (ИИ) в самых разнообразных приложениях. Мы определяем ИИ как теорию и практическое развитие способности компьютерной техники и алгоритмов решать задачи реального мира, имитируя работу человеческого мозга.

Алгоритмы ИИ, как правило, используют технику самообучения на основе имеющихся данных с тем, чтобы впоследствии применять усвоенные паттерны уже к новым задачам.

Ежегодный эффект использования ИИ в масштабах глобальной экономики может составлять от 3,5 до 5,8 триллионов долларов

Некоторые эксперты утверждают, что до половины современных видов занятости человека могут быть замещены с помощью основанной на ИИ автоматизации при существенно повышенной эффективности выполнения стандартных процессов. Разрабатываются все новые алгоритмы ИИ, специально приспособленные для решения различных задач. Полноценное применение инноваций в данной сфере может потребовать далеко идущих изменений организационно-структурных подходов в бизнесе и общественном секторе. Зато в результате, по оценкам экспертов McKinsey Global Institute, ежегодный эффект использования ИИ в масштабах глобальной экономики может составлять от 3,5 до 5,8 триллионов долларов, что примерно соответствует диапазону 6-7% мирового ВВП. Многочисленные потенциальные применения ИИ, в том числе, исследуются и в общественном секторе. Это, в частности, образовательная политика (предсказание результатов отдельных учителей и школьных учреждений, а также абитуриентов), здравоохранение (диагностика, отбор пациентов для наибольшей эффективности оперативного вмешательства), рынок труда (прогноз продолжительности периода пребывания без работы конкретных лиц), регуляторная сфера в широком смысле слова (определение зон, требующих наибольшего внимания; распределение регуляторных ресурсов), социальная политика (подтверждение нуждаемости; выявление мошенничеств в заявках на социальную помощь), правовая система (исследование вероятности рецидива) и т.п.  Говорится также и о задействовании ИИ в выработке экономической политики - см., в частности, возможные приложения в деятельности центральных банков.  В любом случае, по расчетам экспертов Deloitte, в результате проектного внедрения техник ИИ в течение 5-7 лет можно сэкономить до 30 процентов времени государственных служащих и миллиарды бюджетных долларов.

Поскольку для тренировки алгоритмов ИИ требуются однородные данные в больших объемах, их сбор, приобретение, обработка и накопление составляют собой смысл деятельности значительной части т.н. современной «цифровой экономики» и ее транснациональных гигантов, готовых, в частности, предоставлять бесплатные интернет-услуги потребителям в обмен на информацию о них. Преимущество в объеме и разнообразии располагаемых в эксклюзивном пользовании данных уже провозглашается в качестве ключевого конкурентного преимущества XXI века («данные – новая нефть»). В силу своего эксклюзивного положения и действующих процедур инфорсмента государства исторически являлись и продолжают быть одними из наиболее активных сборщиков, держателей и пользователей информационных баз об индивидах и самых разнообразных процессах, протекающих в обществе. Так что и с этой точки зрения задействование этих данных посредством применения технологий ИИ в общественном секторе выглядит естественно.

Вопрос здесь заключается в том, насколько на самом деле задачи в рамках общественного сектора (в широком смысле этого слова) и выработки экономической политики в том числе приспособлены для приложения инновационных технологий ИИ и какую выгоду в результате может получить общество.

Искусственный интеллект как технология

Часто ИИ воспринимается в узком смысле как техники «машинного обучения»; но на деле это лишь один из его компонентов, который приобрел особое значение на современном этапе технологического развития. Искусственный интеллект нередко рассматривают и в гораздо более широком смысле как автоматизацию, которая может и не предусматривать когнитивной «начинки». ИИ действительно представляет собой основу для автоматизации и роботизации различных бизнес-процессов, но эта технологическая связка вовсе не является неизбежной.

Первый вопрос, который обычно ставится в связи с развитием ИИ как технологии, заключается в том, насколько универсальны соответствующие приложения с точки зрения потенциального внедрения. С ответом на данный вопрос связаны другие ключевые проблемы – в частности, то, в какой степени и в каких видах занятости люди будут замещаться в производственных процессах технологиями на основе ИИ, и к каким последствиям на макроуровне это может привести.

Аналитики McKinsey Global Institute приводят следующий набор постановок задач, решение которых с высокой эффективностью может быть осуществлено с помощью различных техник ИИ:

  • классификация (в том числе поиск аномалий) и кластеризация, последующая формулировка рекомендаций для новых объектов на базе выявленных паттернов;
  • непрерывное оценивание или предсказание;
  • оптимизация (в широком смысле слова);
  • ранжирование объектов с точки зрения степени релевантности;
  • генерирование новых данных, соответствующих свойствам изучаемой совокупности.

Решение одной или нескольких из перечисленных задач с помощью ИИ не обязательно автоматически приводит к получению стабильных и содержательных результатов; для этого необходимо выполнение ряда условий. Сложные и разнообразные алгоритмы не всесильны, как представляется иной раз; напротив, они могут дать результат, только если для этого подготовлена соответствующая почва: корректно и содержательно с профессиональной точки зрения поставлена задача, собраны качественные и достаточные по объему данные, позволяющие использовать возможности нейронных сетей, а полученный по итогам их работы результат прошел проверку на робастность и получил адекватную интерпретацию.

Алгоритмическая и экономическая составляющая ИИ

Можно провести и другое важное деление – на математическую (алгоритмическую) и экономическую (содержательную) составляющие, представляющие собой два основных последовательных этапа принятия решений на основе ИИ – «предсказание» (prediction) и «суждение» (judgement).

На основе предсказаний ИИ может меняться контекст принятия решений в реальных экономических ситуациях

Важная теоретическая постановка связана с тем, как на основе предсказаний ИИ может меняться контекст принятия решений в реальных экономических ситуациях. Если точность и/или скорость предсказания действительно увеличивается, может ли это сказываться на процедурах и результатах выбора образа действий? В свете динамических подходов процедуры выработки суждений насчет будущего неизбежно сопряжены с издержками и такие суждения обычно формируются людьми не для всех возможных логических развилок, а лишь для наиболее часто встречающихся и понятных ситуаций. Таким образом, сокращение издержек и повышение точности прогнозов может приводить к изменению самого процесса принятия решений.

Предсказание и суждение в различных ситуациях способны как быть комплементарными друг к другу, так и служить субститутами (в ситуациях, когда сложность или вариативность задачи слишком высока). Первый случай, когда улучшение качества предсказания увеличивает продуктивность суждения, более естественен. В частности, он может создавать условия для расширения круга решаемых задач, например, путем «встраивания» ранее сформированных ценностных суждений в автоматизированную оболочку для кейсов с хорошо предсказуемыми исходами (особенно если число возможных состояний среды ограничено).

Более того, совершенствование предиктивных возможностей может позволить лицу, принимающему решение, формулировать более глубокие постановки для своих суждений и корректировать на этой основе их формирование. Легко вообразить и обратную взаимосвязь, когда корректировка содержательных трактовок может подталкивать к той или иной переформулировке задачи ИИ и перенастройке алгоритмов предсказания (например, речь может идти о выборе между более точным предсказанием с меньшей вероятностью и менее точным – с большей вероятностью).

В общем случае суждение здесь должно иметь приоритет над предсказанием, а междисциплинарные подходы – над узкопрофессиональными выкладками. В более сложных ситуациях, по-видимому, лучше задействовать относительно простые и безопасные эвристики или по-прежнему принимать за основу решение человека вместо автоматизированных подходов.

Особенности задач, решаемых в общественном секторе

Особое внимание решению задач ИИ в общественном секторе, несомненно, является оправданным по причине классических расхождений между интересами принципала и агентов.

Действительно, коммерческие организации в рамках действующего регулирования могут экспериментировать с ИИ на свой страх и риск и на средства своих акционеров (принципалов), осознанно дающих зеленый свет ассигнованиям на такие исследования и практические программы. Между тем, судя по имеющейся информации, рациональность частных собственников в данной сфере уже дает о себе знать, ограничивая технологические аппетиты. Так, крупная европейская сеть супермаркетов недавно отказалась от использования системы глубокого обучения, которая заметно улучшала предсказательную способность, какие конкретно продукты будут приобретаться клиентами. Исполнительные органы компании прекратили эксперимент, так как сочли, что издержки тренировки и обслуживания данной системы будут слишком высокими. Причем вычислительные издержки (прежде всего энергозатраты) прирастают непропорционально быстрее результирующего повышения точности вычислений; особенно чувствительным данный факт является с учетом соответствующего углеродного следа.

Аналогичные задачи в общественном секторе, как правило, реализуются за счет средств налогоплательщиков, которые оказываются гораздо менее информированными и способными влиять на выбор и реализацию конкретных программ исследований и разработок, нежели акционеры частных компаний. Поэтому риски перерасхода общественных ресурсов на ИИ, особенно направляемых по бюджетным статьям, которые непосредственно связаны с безопасностью, велики.

Полезность ИИ заметно зависит от структуры решаемой задачи. Идеальным вариантом служит принятие решений одним агентом с хорошо определенными и неизменными во времени целями при фиксированных правилах игры, а также в рамках заведомо ограниченного пространства (например, всевозможные игровые приложения). Сомнений в применении алгоритмов ИИ и эффективности их работы практически не возникает, если речь идет о познании окружающего нас материального мира путем открытия ранее неизвестных человеку взаимосвязей (скажем, как в случае выбора комбинации молекул, способных сформировать новое лекарственное средство, или оптимальных пропорций производственных ингредиентов), а также соответствий или несоответствий знаковых систем (автоматический перевод или поиск ошибок программного кода).

Чем больше отклонение от этого сценария, тем больше проблем вызывает работа ИИ. Иными словами, принятие решений гораздо сложнее, когда мы имеем дело с намного более вариантными, динамично меняющимися и чувствительными задачами клиентского обслуживания и социального мироустройства – то есть, ровно о той предметной области, с которой, как правило, имеет дело государственный сектор.

Задачи экономической политики оказываются ничуть не проще. Применение экспериментальных техник тут заведомо ограничено.

Перечислим ключевые характеристики задач, наиболее часто встречающихся в общественном секторе, которые значительно ограничивают, на наш взгляд, применение технологии ИИ по отношению к ним.

  1. Неоднородное качество исходных данных

Для поддержания эффективного функционирования техник ИИ в социальном контексте необходимо постоянное пополнение базы данных и перенастройка на этой основе построенных ранее моделей. Это закономерно повышает издержки получения возможных выгод от ИИ. Отмечаются многочисленные сложности, связанные с измерениями, а также неизбежно возникающие проблемы неточности и несопоставимости получаемых оценок. В частности, данные могут оцениваться по разным по своей природе шкалам, а также с помощью методов разной точности, включая качественные («экспертные») оценки, что привносит дополнительные искажения.

Измерения многих параметров, осуществляемые в общественном секторе, относятся к числу наиболее сложных. Так, в здравоохранении характерными недостатками исходных данных служат:

-  субъективность (всякий диагноз представляет собой субъективную оценку, а не объективный замер);

- селективность и смещенность (результат тестирования во многом зависит от желания пациента пройти проверку);

- искусственная привязка к определенным событиям (база данных пополняется только в моменты непосредственного контакта пациента с врачом).

При использовании в машинном обучении подобных данных они еще больше могут смещать внимание и расходы системы здравоохранения в направлении тех пациентов, которые и так обращаются к ней с повышенной частотой, а также усиливать, а не смягчать существующие когнитивные искажения у врачей и других лиц, принимающих решения.

Инструменты машинного обучения часто игнорируют фактор эндогенности данных и многочисленные причины этого. Лежащий в основе технологии ИИ процесс генерации данных на многих реальных приложениях не является экзогенно заданным естественным явлением: это результат действий множества людей, которые могут преследовать свои собственные цели (например, максимизацию шансов на то, что заявка на социальную или медицинскую помощь была удовлетворена, или чтобы потенциально мошенническая сделка, напротив, по возможности миновала внимание регулятора). Так что эти респонденты будут реагировать (осознанно или путем проб и ошибок) на алгоритмы обнаружения оппортунистического поведения, например, прилагая усилия для изменения реальной информации о себе и своих намерениях. Причем чем успешнее действует алгоритм и чем прозрачнее основы его работы, тем интенсивнее будут попытки, направленные на искажение предоставляемых данных в целях обхода содержательной регулятивной постановки. Так что регулятору необходимо будет не только уделять внимание совершенствованию алгоритмов в целях учета изменений среды, но и постоянно оценивать, как агенты реагируют (в том числе в оппортунистических целях) не только на действующий механизм прогнозирования, но и на вносимые в него изменения.

Согласно известному закону Гудхарта, если какой-то параметр среды становится для исполнителя целевым, он перестает отражать реальность

Не стоит забывать и о стимулах самих управленцев и исполнителей, часто заинтересованных в фальсификации данных. Согласно известному закону Гудхарта, если какой-то параметр среды становится для исполнителя целевым, он перестает отражать реальность. Деятельность чиновников (агентов) очень часто направлена на достижение сформулированного принципалом определенного числового результата, что делает его подверженным намеренным манипуляциям. Действует также следующий эффект: в случае наличия количественных и качественных параметров, описывающих результаты деятельности агента, последний уделяет основное внимание количественным, поскольку именно на них, как правило, ориентирован уровень вознаграждения. Использование такого количественного параметра или его производных в машинном обучении и последующих предсказаниях очевидно будет давать искаженный с точки зрения целевой функции принципала результат. 

  1. Неоднозначная интерпретация результата

Представления о том, что сама по себе доступность больших объемов данных способна на основе современных приемов работы с ними обеспечить «доказательность политики» и повысить качество принятия решений в государственном секторе, скорее всего, не могут быть признаны реалистичными.  Даже в случае наличия значительного массива качественных данных социальных сетей и относительной простоты заранее и однозначно сформулированной гипотезы независимые друг от друга коллективы профессиональных исследователей, использующих разные предпосылки и инструменты анализа, способны обосновывать различные, в том числе прямо противоположные результаты. Сопоставление полученных выводов и принятие решения на их основе может потребовать проведения нового исследования не меньшего объема и сложности.

В институционально незрелой среде при применении сколь угодно изощренных методов анализа неизбежно будут порождаться искаженные результаты.

Как правило, «предсказание», сформированное с помощью ИИ, не содержит таких выводов, как направление причинной связи между переменными, и соответствующее суждение так или иначе должен выносить человек в зависимости от конкретной проблемной постановки. При этом чем сложней модель, тем ее результаты, скорее всего, менее понятны.

Не случайно столь большое внимание в текущей дискуссии по вопросам ИИ уделяется философским и правовым понятиям «интерпретируемости» (interpretability), понимаемости (intelligibility), «объяснимости» (explainability) и прозрачности (transparency) и пр. – тесно связанным между собой, но различным характеристикам используемых моделей, которые к тому же должны рассматриваться в применении к соответствующей «аудитории» (потребители; регуляторы; лица, принимающие решения; эксперты в предметной области и в области ИИ и т.д.). «Объяснимость» служит стандартным принципом, который будет предъявляться к предписаниям ИИ в рамках различных законодательных систем; он по праву считается одним из основных барьеров для широкого внедрения технологии.

  1. Этические проблемы

Многочисленные неоднозначные этические ситуации, возникающие в связи с применением ИИ в государственном секторе, можно описать как негативные экстерналии. В частности, в дискуссиях отмечаются прежде всего следующие основания для общественной обеспокоенности:

- нарушения приватности (возможная утечка данных, несанкционированный сбор информации о гражданах, государственные и корпоративные системы слежения, осуществляющие целенаправленное и несанкционированное проникновение в частную жизнь);

- манипуляции (использование подверженности людей наджингу, патерналистским опциям, косвенному и прямому обману, а также другим эффектам, подрывающим рациональный выбор);

- непрозрачность (решения ИИ, основанные на алгоритмах машинного обучения, могут быть непонятны даже их разработчикам, не говоря уже об обычных гражданах).

Одна из проблем заключается в том, что данные системы при машинном обучении могут не просто отражать, но и устойчиво транслировать на будущее смещенные результаты, которые уже неявным образом присутствовали в данных. Так, если управляющая система реагирует на зарегистрированный ранее по тем или иным причинам повышенный уровень преступности в каком-то районе увеличением числа патрулирующих его полицейских, то это с высокой вероятностью может привести к дальнейшему росту относительного числа выявляемых преступлений (в других районах, где патрулирование сократилось, соответствующие показатели, скорее всего, снизятся). Данный пример хорошо иллюстрирует, что принятие решений в государственном секторе в рамках реакции на выводы ИИ должно быть устроено гораздо сложнее, обязательно принимая во внимание содержательные суждения и другие параметры, далеко не всегда подлежащих непосредственному измерению.

Предвзятость также может проявляться, когда выносятся несправедливые или неочевидные суждения в силу наличия предубеждений или смещений выборки в отношении членов группы, к которой принадлежит лицо.

Более того, любой набор данных будет беспристрастным только для одного вида задач, поэтому само по себе его формирование сопряжено с опасностью того, что он будет использован для другого вида задач, где свойство непредвзятости уже не гарантировано.

Помимо усвоенной предвзятости, когнитивная система человека, как правило, подвержена различным видам предубеждений, например, «предвзятости подтверждения»: люди склонны интерпретировать любую новую информацию как подтверждение того, во что они уже верят. Вопрос заключается в том, в какой степени системы ИИ способствуют такому когнитивному смещению представлений и насколько это может препятствовать принятию правильных решений.

  1. Моральный риск

Когда человек полагается в чем-то на алгоритмические и технологические решения (например, передавая управление своим автомобилем автоматизированной системе круиз-контроля), это не может не приводить к ситуациям морального риска (moral hazard). Так что применение ИИ, особенно если логика алгоритмически сформулированных рекомендаций человеку не до конца понятна, ставит перед тем непростую дилемму, насколько можно довериться принятому в автоматическом режиме решению. Отмеченный выше феномен «предвзятости подтверждения» усиливает эффект морального риска.

Однако очевидно: само по себе использование ИИ не может освободить лиц и организации, подтверждающих (или отвергающих) такое решение, от ответственности за ошибки (например, в случае неверной диагностики). Тем самым, если продолжать аналогию с беспилотными автомобилями, то в сложных и неоднозначных ситуациях в какой-то момент человек должен иметь возможность переключить управление на себя. Критериальное определение такого момента, особенно в динамике, может оказаться непростым. Парадоксальным образом прогресс в виде совершенствования прогностических алгоритмических методик ИИ и снижение затрат предсказания увеличивает значение проблемы морального риска, связанной с суждением, что должно приводить к появлению схем стимулирования, которые поощряют именно суждение, а не прогнозирование.

Существуют примеры связанного с ИИ морального риска другого рода. Одной из перспективных областей применения ИИ многие авторы считают макропруденциальную политику, направленную на борьбу с системными финансовыми кризисами. Эта политика действительно должна принимать во внимание множество различных финансово-экономических параметров и их взаимосвязей, подчас неуловимых для стандартных методов анализа. Но часто она содержит умолчания или неопределенные постановки - как раз во избежание морального риска, т.е., формирования у рыночных агентов представлений о неявных гарантиях их деятельности.

Принятие системных антикризисных решений в обозримом будущем, вероятно, останется достоянием человека

Напротив, в дополнение ко всем возможным сложностям применения ИИ для принятия решений в данной сфере (прежде всего это недостаточность качественных данных и нерегулярность связей между различными параметрами) оно не должно допускать двусмысленностей. Так что хотя ИИ может помогать в сборе информации и моделировании отдельных проблем, принятие системных антикризисных решений в обозримом будущем, вероятно, останется достоянием человека и его организаций.

В целях повышения надежности макропруденциальные решения принимаются в рамках иерархических организационных структур, внутри которых налажены формальные и неформальные каналы коммуникации между экспертами, отбираемыми на компетентностной основе. Иными словами, само предсказание того, какое окончательное решение будет правильным, вряд ли возможно; человечество наработало разнообразные «аналоговые» схемы обеспечения выработки таких решений в наиболее чувствительных сферах.

  1. Потенциальное регуляторное бремя

Если проблемы, связанные с применением ИИ, можно трактовать как экстерналии, соответственно, требуется внедрение соответствующих регуляторных норм, которые во многих юрисдикциях пока находятся только на начальной стадии разработки. Одним из немногих действующих нормативных документов такого рода является Общий регламент Европейского союза по защите данных (GDPR), который считается в целом качественным документом. Тем не менее Комиссия ЕС подсчитала, что ежегодные затраты на соблюдение нормативных требований составят 17% от стоимости эталонной единицы искусственного интеллекта.

В частности, Регламент дает потребителям право на получение объяснения любого решения, основанного на алгоритме, такого как предложение ставки по кредитной карте или ипотеке. Это одна из областей, где искусственный интеллект будет способствовать не сокращению, как принято считать, а, напротив, увеличению занятости: по оценкам экспертов, компаниям придется создать около 75 000 новых рабочих мест для выполнения требований GDPR.

Главной целью регуляторов на сегодняшний момент является выработка таких законодательных решений, которые обеспечивают правильный баланс между защитой прав граждан и задачами повышения эффективности процедур работы государства. В случае слабой подотчетности государственных органов этот баланс будет нарушаться, неминуемо смещаясь в сторону так называемых «интересов государства», что чревато обострением этических проблем вопреки интересам индивидов, особенно незащищенных их категорий.

Очевидно, что даже принятие и соблюдение новых законодательных актов в данной сфере не может считаться универсальным и удовлетворительным ответом на возникающие вызовы: поспешность с утверждением норм по техническим вопросам, которые даже научное сообщество до конца еще не понимает, не может не привести к дополнительным издержкам.

Еще одним обременением и даже угрозой может стать асимметричная трактовка ИИ в различных национальных законодательных системах.

ИИ в России

В России в соответствии с Указом Президента от 10.10.2019 №490 "О развитии искусственного интеллекта в Российской Федерации" утверждена профильная Национальная стратегия и с 2021 года реализуется федеральный проект «Искусственный интеллект», одобренный в составе национальной программы «Цифровая экономика Российской Федерации». Он предусматривает финансирование разработки образовательных программ, грантовую поддержку стартапов и исследовательских центров в сфере ИИ, популяризацию данной технологии и разработку нормативных документов, которые будут благоприятствовать ее развитию. Принятие в 2020 году федерального закона об установлении сроком на пять лет специального режима использования анонимизированных данных в Москве демонстрирует стремление властей предоставлять бизнесу благоприятные возможности для тренировки алгоритмов и развития ИИ. Подобно всякой технологии двойного назначения, перспективы ИИ в России, в том числе с точки зрения обеспечения устойчивости финансирования, видятся скорее в позитивном ключе. Тем не менее в качестве препятствий на пути широкого технологического внедрения больших данных и ИИ эксперты отмечают отсутствие единых стандартов представления, обработки и хранения данных, избыточный централизованный контроль за ними, общую информационную закрытость, тенденции обособления русскоязычного интернета от глобальной Сети, низкие качественные характеристики отечественного программного обеспечения.

Однако в отечественной среде применение ИИ сталкивается с социальными препятствиями, связанными с неготовностью государственной системы к полноценному применению ИИ, а также с недоверием общества к результатам такого применения. Не случайно в предпоследнем по времени рейтинге готовности правительств к работе с ИИ позиции России по рейтинговому компоненту «Управление и этика» (Governance and Ethics) являются одними из самых слабых (57,93 из 100), а соответствующий рэнкинг по степени ответственности использования – 33-й из 34 рассматриваемых стран.

Если с тех пор ситуация изменилась, то не очень сильно. В октябре 2021 года был подписан национальный Кодекс этики в сфере искусственного интеллекта (далее – Кодекс). Кодекс был разработан Аналитическим центром при Правительстве России, Министерством экономического развития и Альянсом в сфере искусственного интеллекта, включающего крупных корпоративных игроков («Яндекс», МТС, Mail.ru Group, Сбер, «Газпром» и Российский фонд прямых инвестиций), без широкого общественного обсуждения и опубликования предварительных версий. Это, несомненно, отразилось и на итоговом документе, который не носит общеобязательного характера и основан на механизме добровольного присоединения, а скорее является корпусом довольно мягких и необременительных рекомендаций для государственных структур и бизнеса, а также относится только к гражданским применениям ИИ. Нельзя также сказать, что Кодекс по своему содержанию носит продвинутый характер - в частности, обсужденный выше ключевой принцип «объяснимости» в какой бы то ни было версии в тексте отсутствует.

В таких условиях и с учетом перечисленных выше рисков использование ИИ в российском общественном секторе представляется тем более неподготовленным. На деле применение ИИ способно не приблизить, а отдалить необходимое реформирование институтов.

Более того, достижения в области ИИ могут сформировать соблазн делегирования все большего числа общественных решений алгоритмам или технократам, разрабатывающим и использующим эти алгоритмы в ущерб вовлеченности граждан и демократическим процедурам.

Заключение

Наиболее распространенные и эффективные приложения ИИ к настоящему моменту – таргетированная интернет-реклама и алгоритмизированная торговля на финансовом рынке – отличаются четкими признаками игры с нулевой суммой, когда выигрыш одного участника примерно равен проигрышу другого. Так что на фоне посулов блестящих глобальных перспектив развития ИИ пока результаты его внедрения с точки зрения общественного благосостояния далеки от ожидавшихся. В частности, даже реализация прорывных инноваций в сфере беспилотных автомобилей, где частные инвестиции в ИИ среди гражданских приложений наиболее высоки, похоже, переносится на более длительные временные горизонты. В свою очередь, анализ вакансий показывает, что признаки глубокого проникновения ИИ также пока не регистрируются на рынке труда.

При этом все чаще и громче звучат предостережения против безудержной технологической гонки в данной области, последствий которой человечество полностью пока не осознает. Выдающиеся эксперты, представляющие различные области знания, не исключают того, что в пределе возможно подчинение людей искусственному интеллекту. В любом случае, широкое внедрение ИИ влечет за собой определенные этические и социальные проблемы, игнорировать которые нельзя.

Ускорение внедрения технологий ИИ в общественном секторе будет сопряжено со значительными издержками, включая компрометацию потенциально рациональных политик.

Эта логика тем более применима к внедрению ИИ в общественном секторе в России, где, несмотря на имеющиеся отечественные интеллектуальные ресурсы и разработки в данной области,

- качество данных традиционно оказывается невысоким, а сами данные закрыты или замкнуты во внутриведомственном обороте;

- достаточная прозрачность и необходимая объяснимость результатов работы алгоритмов ИИ с высокой вероятностью не будет обеспечена;

- в связи с отсутствием институциональных сдержек и противовесов среди альтернативных вариантов интерпретации работы ИИ выбор, скорее всего, будет сделан в пользу наиболее удобного и выгодного для государственного заказчика решения;  

- отсутствует полноценный общественный диалог в данной области, а разработанный и вступивший в действие этический кодекс применения ИИ носит предельно общий и мягкий характер и вряд ли может воспрепятствовать негативным практикам со стороны корпораций и государства;

- перспективы разработки эффективной регуляторной базы ИИ туманны.

В подобных условиях ускорение внедрения ИИ в общественном секторе способно нанести больший ущерб, нежели возможные выгоды от экономии бюджетных средств и сокращения числа занятых. Для того чтобы продвинуться по этому пути потребуется серьезная дискуссия с вовлечением экспертов с разными профессиональными компетенциями и независимых структур гражданского общества.

Автор  директор Центра исследования экономической политики экономического факультета МГУ

Полный текст настоящий статьи публикуется в журнале «Вопросы экономики», №6, 2022.