Аннотация. Вопрос, что такое интеллект, ответа пока не имеет. Еще более непонятным для большинства стал «интеллект искусственный» (ИИ). Однако дискуссии о его нужности для развития социума считаются завершенными, и более 30 стран и государственных объединений в той или иной форме уже определили свои стратегии в области ИИ. Наиболее интересной и продвинутой из них до недавнего времени рассматривалась концепция Еврокомиссии (ЕК). В ее основе лежит выдвинутая Урсулой фон дер Ляйен идея достижения Европой мирового лидерства за счет большей, чем у других производителей, «этичности» выпускаемых систем ИИ. Однако попытки ЕК решать вопросы морали рыночными или директивными методами привели к угрозе серьезных социальных возмущений. После череды победных реляций оказалось, что «этичный ИИ» в первую очередь инкорпорирован его европейскими разработчиками в контролирующие индивида системы наблюдения и дискриминационного отбора, применение которых нарушает права человека, ограничивает демократические свободы личности и противоречит принципам либеральной демократии. Попытка ЕК разрешить это моральное противоречие путем подготовки новых директив и установки правовых ограничений делает ситуацию все более запутанной. Мало того, оставляя за рамками дискуссии военное применение ИИ, апологеты «этичности» европейского проекта только провоцируют скептиков на противодействие ему. Итоги работы ЕК будут подводиться позже, но оценить европейские подходы к проблеме, принятые решения и возникшие на этом пути препятствия можно уже сейчас.
Ключевые слова: Еврокомиссия, Европа, искусственный интеллект, системы искусственного интеллекта.
Мечты человечества об искусственном человеке, обладающем мыслительными способностями, достаточными для решения, сложных интеллектуальных задач и заменяющем человека в рутинных, а иногда и в экстраординарных ситуациях, требующих точности и скорости принятия решений, насчитывают тысячи лет. Еще в Древней Греции боги создавали слуг, обладающих такими качествами. Средневековые алхимики мечтали сотворить искусственного человека. Однако все порожденные человеческим разумом гомункулусы оказывались исчадьями ада и восставали против своих создателей. Примеров много, но для современного читателя достаточно примера героя М. Шелли, о котором, как считается, создано больше фильмов, чем по мотивам Библии. Творение доктора Франкенштейна впитало все противоречия искусственного интеллекта, которые мог создать человеческий разум. Но только в ХХ в. человек смог определить те ограничения, которые позволили бы сосуществовать искусственному и естественному интеллекту. А. Азимов сформулировал законы роботехники, первым из которых стал «робот не может нанести вред человеку». Несовершенство этого, как и других законов, очевидно, но в нем уже было заложено основание модальности этики искусственного интеллекта и понимание того, что человек выше искусственного интеллекта.
Фантастические идеи модерна породили целый сонм научных направлений, связанных с проблемой искусственного разума, которые в последнее десятилетие обрели конкретные производственные формы и соответственно породили экономическую и политическую гонки за лидерство в этой области. Одну из первых позиций в ней заняла Европа и ее исполнительный орган — Еврокомиссия, провозгласившие свой целью создание этичного интеллекта для обеспечения экономического лидерства Евросоюза в мире.
Однако явный крен в техническую сторону привел к описываемой в данной статье ситуации и последствиям, поставившим Брюссель в сложное политическое положение.
В научном плане в разработке проблемы искусственного интеллекта доминировала техническая составляющая. Философская и социопсихологическая составляющие безусловно присутствовали, но за пеленой всеобщей цифровизации и компьютеризации не рассматривались как определяющие. Анализ проводившихся в России и за рубежом исследований не является целью данной статьи. Желающему разобраться в этом непростом и нелинейном процессе предлагаем посмотреть сайты профильных институтов РАН, содержащих большое число строго научных работ по данному вопросу и обзоров научных исследований за рубежом. Однако связь политики и науки, как правило, неочевидна и политический путь к звездам показывает лишь то, что тернии науки мало беспокоят его подвижников.
21 июня 2021 г. главы Европейского совета по защите данных и Европейского надзорного органа по защите данных Андреа Елинек и Войцех Вевёровский выступили с совместным публичным заявлением, в котором призвали резко ограничить сферы применения систем искусственного интеллекта (ИИ), а по отдельным направлениям, связанным с контролем за личностью в общественном пространстве, их полностью запретить: «Если мы хотим сохранить наши свободы и создать ориентированное на человека законодательство об ИИ, то начать следует с общего запрета на системы распознавания лиц в общественных местах… Развертывание удаленной идентификации в общедоступных местах означает конец анонимности в этих местах. … [необходимо] запретить любое использование ИИ для оценки социальных показателей, поскольку это противоречит фундаментальным ценностям ЕС и может привести к дискриминации»1. Кроме того, авторы заявления считают, что ЕС должен запретить и системы ИИ, которые классифицируют людей по этническому происхождению, полу, политическим взглядам или сексуальной ориентации.
Подобное заявление глав ведущих европейских надзорных органов выглядит довольно странно, особенно если вспомнить, что менее чем за год до этого 17 июля 2020 г. Еврокомиссия (ЕК) объявила о первом практическом результате в создании индустрии искусственного интеллекта2: выпущен прошедший апробацию в 9640 предприятиях бизнеса 30 стран нормативный документ, который, по оценке ЕК3, «перевел принципы ИИ в доступный и динамичный контрольный список, который может использоваться при разработке и внедрении ИИ». ЕК фактически заявила о готовности признать достигнутой цель цифровой стратегии EC, как ее сформулировала в речи перед Европарламентом при избрании ее президентом ЕК Урсула фон дер Ляйен4 — «искусственный интеллект, сделанный в Европе». Основным аргументом фрау Ляйен тогда был тезис о том, что Европа способна производить продукты ИИ более этичные, чем любые другие, созданные где-либо в мире5.
И именно этичность разработанных средств не выдержала критики и вызвала подобные упомянутому заявления.
Хотя устремления Евросоюза в отношении ИИ не являлись оригинальными6 — различного рода рекомендации и принципы разработки систем ИИ к тому времени уже приняли США7, Китай8, Россия9 и некоторые другие страны, а также некоторые международные организации, в частности ОЭСР10, — подход Еврокомиссии как его исполнительного органа выглядел, вероятно, наиболее продвинутым и перспективным, хотя и содержащим уже на уровне идеи большие риски.
Считается, что этап дискуссий на тему нужности ИИ Европа уже прошел. Решение о перспективности ИИ принято, и к этому вопросу в последние годы публично никто не возвращался. 25 стран ЕС подписали Декларацию сотрудничества в сфере ИИ (Declaration of Cooperation on Artificial Intelligence)11. К июню 2021 года 20 государств-членов и Норвегия опубликовали национальные стратегии ИИ, 7 государств-членов, по оценке группы AI Watch12, сформированной объединенным исследовательским центром Европейской комиссии и Управлением научных технологий и инноваций ОЭСР, находятся на финальной стадии разработки, а некоторые, например Кипр, Финляндия и Германия, уже пересмотрели первоначальные стратегии. Производители ИИ-продукции вступили в конкурентные схватки на международном рынке.
Вместе с тем в общественном сознании Запада сохраняется угроза наводнения мира «роботами-убийцами», наделенными совершенным ИИ, не замутненным моральными нормами. Ставя целью создание «дружественного ИИ», поборники этой идеи оставляют своим оппонентам неубиенный козырь: значит, остальные не удовлетворяющие заявленным требованиям системы — не дружественные. Но их наверняка больше и для них не сформулированы никакие ограничения. И вот уже Римский клуб относит развитие «недружественного ИИ» к глобальным угрозам человечеству13. Ватикан публично осудил нынешний подход и высказался в пользу осторожности при проведении дальнейших работ над ИИ. В этих условиях идея ЕК создать в Европе системы «этичного ИИ», не несущего угрозу и обращенного к человеку, вызывает общественный интерес, а следовательно, предстает инвестиционно и коммерчески привлекательной14.
Именно разработку Европой своих проектов ИИ, реализующих идею его «этичности», видит ключевым пунктом политики ЕК ее председатель Урсула фон дер Ляйен. В этом она усматривает основу достижения Старым Светом мирового лидерства, на этом она сделала особый акцент в своей речи при избрании на пост главы ЕК (Von der Leyen, 2019): «…Я буду продвигать законодательство, способствующее выработке скоординированного европейского подхода к человеческим и этическим последствиям искусственного интеллекта… Я позабочусь о том, чтобы мы отдавали приоритет инвестициям в искусственный интеллект как через многолетнюю финансовую структуру, так и за счет более широкого использования государственно-частных партнерств».
К середине 2020 г., в отличие от других игроков15, Еврокомиссия, реализуя программу своего лидера, выработала ряд практических мер. После одобрения ЕС в апреле 2018 г. «Сообщения об искусственном интеллекте», излагающего общий подход Европы к ИИ, ЕК нацелилась на разработку этической и правовой базы социально-экономических изменений, ожидающих европейцев после внедрения систем ИИ в жизнь.
Для подготовки нормативной базы в начале 2019 г. ЕК создает специальную Группу экспертов высокого уровня по ИИ (High-Level Expert Group on Artificial Intelligence — ГЭВУ)16, включающую 52 прошедших персональный отбор специалиста разного профиля из стран ЕС17.
Однако даже поверхностный анализ подготовленных ГЭВУ документов свидетельствует, что та изначально нацеливалась не на определение и разъяснение европейцам сущности «этичного ИИ» и постановки вех на пути его создания, а на формулирование норм и правил разработки коммерческих «доверенных» систем, использующих элементы того неопределенного нечто, которое было названо этим словосочетанием и которое сама же ГЭВУ позже развенчала и отвергла.
Обеспечить доверие к самим предлагаемым ГЭВУ решениям ЕК предположила за счет выработанного ею же правила «трех шагов»: определить ключевые требования к «доверенному ИИ», обсудить их с представителями промышленности и пользователями, провести международное согласование со странами ЕС. То есть участвовать в решении вопросов этичности предлагается бизнесу и государствам, даже без гражданского общества.
В соответствии с мандатом ГЭВУ разработала два документа, которые могут рассматриваться как основа политики ЕС в сфере ИИ.
В первом — «Руководящих указаниях по вопросам этики для доверенного ИИ» (Ethics guidelines for trustworthy AI, 2019) — эксперты ГЭВУ сформулировали основные этические принципы доверия искусственному интеллекту (ИИ), а также требования к системам ИИ, позволяющие признавать их «доверенными».
Примечательно, что, ярко демонстрируя практическую направленность всей работы ЕК, документы ГЭВУ оставили открытым вопрос о сущности ИИ. Эксперты Группы отказались от попыток найти понятный массам ответ и в дополняющем «Руководящие указания» документе «Определение ИИ: основные возможности и научные дисциплины» (A definition of Artificial Intelligence: main capabilities and scientific disciplines, 2019), опираясь на то, что «термин ИИ содержит явную ссылку на понятие интеллекта, а последнее (как в машинах, так и у людей) является расплывчатым понятием», вообще отказались от него и заявили, что в дальнейшем будет использовать только термин «система ИИ»18.
Такое уточнение является более чем существенным. Оно проясняет, что европейцы вкладывают в значение термина ИИ, и создает контекст, в котором представленные в «Руководящих указаниях» требования к доверенному (этичному) ИИ приобретают логическую стройность. Они становятся понятными, только если их рассматривать, как сказано в Определении, отнесенными к «системам, которые демонстрируют интеллектуальное поведение», хотя последнее в документах ЕК также не определено и уж тем более не является общепризнанным.
Вместе с пеной был выплеснут и ребенок: фон дер Ляйен говорила об «этичном ИИ», а не об «этичных системах ИИ». ГЭВУ термин ИИ из своего и европейского лексикона изъяла и перевела разговор на «доверенные системы». Обеспечивают ли они этичность, не обсуждалось и вероятно не рассматривалось.
С целью снять ненужные вопросы, придать логичность и порядок процессу реализации «Руководящих указаний», ГЭВУ подготовила «Рекомендации по политике и инвестициям для доверенного ИИ» (AI HLEG, 2019), разъясняющие в первую очередь для бизнеса вопросы стимулирования, регулирования и финансирования разработки и применения в ЕС систем ИИ и соответствующих технологий19. Следует заметить, что и эти рекомендации, и 3 принципа с 7 требованиями из «Руководящих указаний» не новы и в том или ином виде присутствовали в принятом еще Первым симпозиумом по робоэтике в Сан-Ремо в 2004 г. «Манифесте робоэтики» (First International Symposium on Roboethics, 2004).
В конце 2019 — начале 2020 г. ЕК собрала отзывы и предложения специалистов и провела серию семинаров. Попытка обобщить полученный опыт была сделана в Белой книге по искусственному интеллекту (White Paper on Artificial Intelligence, 2020), опубликованной ЕК в феврале 2020 г. В ней «доверенный ИИ» представлен как центральная концепция европейского подхода, закладывающая основу для законного, этичного и надежного использования ИИ.
По итогам публикации Белой книги проведены открытые консультации с участием представителей государственных, общественных и бизнес-структур 27 государств — членов ЕС и других стран. Итогом этой работы стал первый нормативный документ ГЭВУ — оценочный Список для надежной системы ИИ (ALTAI), позволяющий якобы бизнесу и организациям, разрабатывающим и внедряющим системы ИИ, самостоятельно оценить надежность своих разрабатываемых систем. Это, как заявили в ЕК, еще больше усилит преимущества, которые ИИ приносит экономике и обществу в целом (Artificial intelligence…, 2020). В 2021–2022 гг. в рамках программы Digital Europe ЕК планирует сосредоточить работу на развитии инфраструктуры, предоставляющей предприятиям и государственному сектору доступ к инструментам и компонентам ИИ.
Упорное обращение к этической стороне ИИ как товара, рекламируемого для вынесения на рынок, многими, однако, рассматривается не более как маркетинговый ход, определяемый тем, что, как заметил бывший вице-президент ЕК по единому цифровому рынку Андрус Ансип, «этическое измерение искусственного интеллекта не является предметом роскоши или чем-то таким, чем можно пренебречь … этический ИИ — это выгодный всем проект, который может стать конкурентным преимуществом для Европы» (Artificial intelligence …, 2019).
Между тем большую помощь в формировании рынка ИИ и потребности в таком товаре на рынке оказали военные. Первым среди них стал Пентагон, создавший конкурентный фон, стимулирующий европейцев к инвестициям в ИИ20. «Некоторые потенциально дающие качественно новые возможности технологии, — отметил в 2019 г. заместитель министра обороны США по исследованиям и разработкам Майкл Гриффин (Griffin, 2019), — такие как искусственный интеллект…, движимы ныне не только оборонными заказами, а коммерческими интересами и не только нашей отечественной [США] промышленной базы».
В вышедшей в то же время статье аналитик РЭНД, а в прошлом сотрудник Госдепа, занимавшийся ДНЯО и другими ядерными вопросами, Патрик Робертс (Roberts, 2019), уравнивая политической значение ИИ и ядерного оружия прямо заявил, что «миру нужно глобальное лидерство США — на этот раз, чтобы предотвратить гонку вооружений ИИ, аварии или катастрофические атаки».
В таких сформированных «старшим братом» условиях не могли оставаться безразличными к исследованиям в области «этичного» ИИ и в европейских военных и оборонных ведомствах. На официальном сайте Еврокомиссии многократно подчеркивается, что ИИ стал областью стратегического значения. Эти утверждения могут быть признаны верными лишь при том понимании, что сфера ИИ затрагивает и вопросы безопасности. Подтверждая такой подход, в министерстве вооруженных сил Франции (Parly, 2019) «решили развивать оборонный искусственный интеллект в соответствии с тремя основными принципами: соблюдение норм международного права, поддержание достаточного контроля со стороны человека и обеспечение постоянной ответственности командования. Чтобы обеспечить ежедневное соблюдение этих принципов в долгосрочной перспективе и подкреплять нашу [Франции] этическую мысль, так как новые виды использования ИИ появляются каждый день, [решили] создать в министерстве комитет по этике обороны».
Преимущественно военную составляющую видят в проблеме и ведущие международные структуры. Генеральный секретарь ООН в своем обращении к Группе правительственных экспертов ООН по новым технологиям в области автономных систем оружия летального действия (Послание Генерального секретаря…, 2019) заявил, что «автономные машины, обладающие правом и свободой действий, чтобы отнимать жизни без участия человека, политически неприемлемы, морально отвратительны и должны быть запрещены международным правом».
В середине октября 2019 г. в Ватикане под эгидой Папы Франциска и с его участием прошла конференция по проблемам ИИ «Общественное благо в цифровой век». Среди приглашенных были представители компаний Силиконовой долины (Facebook, Mozilla, Western Digital и др.), государственных органов и инвестиционных банков, специалисты по компьютерным технологиям и католической этике. Высказанная на ней позиция понтифика (Папа Римский предупредил…, 2019) не допускает разночтений: Папа заявил, что дабы ИИ не мог быть использован в злонамеренных целях, разработанные на его основе технологии нуждаются в теоретических и практических моральных принципах. В итоговом документе участники конференции выразили серьезную озабоченность тем, что дальнейшие разработки в этой сфере могут спровоцировать новую гонку вооружений. «Машине нельзя доверять решение, будет ли человек жить или умрет».
Примечательно, что публичный дискурс о европейских этичных человеко-ориентированных ИИ-системах как бы оставляет в тени их прямое военное применение и проводимые в военных исследовательских центрах разработки21. Между тем в 2021 г. только из Европейского оборонного фонда на проекты, связанные с ИИ и облачными вычислениями для военных операций, будет выделено около 100 млн. евро (Defense Industry…, 2021). При этом еще в 2019 г. было решено и в официальной позиции ЕК не скрывалось (Могирини…,2019), что в финансируемых фондом проектах основное внимание будет уделяться таким областям, как искусственный интеллект. «Этическую суть» такого решения выразила министр вооруженных сил Франции Флоранс Парли (Parly, 2019): «ИИ не является самоцелью; он должен способствовать более информированному и более быстрому принятию решений в интересах наших солдат… ИИ также означает лучшую защиту наших войск… Наконец, ИИ означает более сильную киберзащиту. Кибер-солдаты смогут с очень высокой скоростью противостоять все более скрытным, многочисленным и автоматизированным атакам, которые угрожают нашей экономике».
Между тем Еврокомиссия столкнулась с серьезной «не искусственной» проблемой: соответствие принятых программ адаптированному ею еще в 2000 г. и включенному в законодательства крупнейших стран ЕС (Франции, Германии, Швеции, Бельгии, Нидерландов и др., причем во Франции и Германии он имеет конституционный статус) социально-правовому «Принципу предосторожности»22. Побочным эффектом проведенных разработок «доверенных» систем этичного ИИ, который явно не мог бы быть принят гражданским обществом, стала возможность их использования для контроля за человеком и принятия решений в отношении возможных перспектив личности, в частности, при решении кадровых и финансовых вопросов. На эти побочные эффекты обращала внимание ГЭВУ, они вызвали возмущение общественности.
В этой ситуации совершенно логичным, хотя на фоне победных реляций двух предшествующих лет несколько неожиданным выглядит обнародованный Еврокомиссией в конце апреля 2021 г. как европейский законопроект свод правил применения искусственного интеллекта, в котором ЕК предложила довольно жесткие ограничения на использование систем ИИ (Proposal, 2021). Среди них запрет на использование ИИ для «массовой слежки», оценки благонадежности на основании социального поведения или личных качеств; необходимость оповещения человека перед взаимодействием с ИИ; установление контроля над системами ИИ, несущими прямую угрозу безопасности, как робомобили, или способными повлиять на средства к существованию человека, например, при приеме на работу, принятии юридических и финансовых решений и др.
Для оценки уровня опасности систем ИИ предложено создать «Европейский совет по искусственному интеллекту», состоящий из представителей всех государств ЕС. За нарушение предложенных правил ЕК предлагает ввести крупные штрафы (Автоматический «Большой брат», 2021).
При обсуждении инициативы ЕК ей придется учесть мнение отдельных стран Евросоюза, а также позицию фракций в Европарламенте. Со всеми ними Еврокомиссия должна будет согласовать свой законопроект, и этот процесс, как говорят специалисты, может занять несколько лет. Как это скажется на реализации программ ИИ, не ясно.
Отмеченный в начале статьи публичный демарш двух высокопоставленных еврочиновников показывает, однако, что дискуссии в самой ЕК далеки от консенсуса и могут продолжаться еще долго.
Вместе с тем ни демарш, ни проект еврозакона, ограничивающий применение систем ИИ, не стоит переоценивать: они касаются лишь частных и в целом популистских моментов, являясь по сути попыткой сочетать научно-технический прогресс с защитой прав человека. Это соответствует принципу предосторожности и обывательскому, но не научному представлению о социальной морали. ИИ нельзя будет использовать для биометрической идентификации, т. е. распознавания людей на улице, в метро, но не на поле боя. Представленный проект ограничивает свободу ИИ в общественном пространстве городов, но не касается гуманитарных вопросов его применение в войне и в целях войны.
При представлении проекта вице-председатель Еврокомиссии Маргрете Вестагер признала, что ИИ ещё предстоит завоевать к себе доверие граждан: «Предлагаемая нами правовая база не относится к технологии ИИ как к таковой. Зато мы смотрим на то, для чего и как используется искусственный интеллект. Мы применяем здесь пропорциональный подход, основанный на одной простой логике: чем выше риск, который конкретное использование ИИ может представлять для нашей жизни, тем строже правила» (The higher the risk, the stricter the rule…,2021). Вероятно, по мнению ЕК, военные роботы и смертоносные автономные системы в вооруженных конфликтах представляют меньший риск, чем интеллектуальные видеокамеры в парижском метро.
Опасение вызывает и логичность следующего предположения. Обсуждаемые законодательные инициативы об ограничении использования систем на основе ИИ фактически означают ревизию прежней позиции об этичности использования их в контроле за индивидом. Брюссель наконец-то осознал, что как и в отношении систем оружия, использующих ИИ для определения и квалификации цели, принятие решения о ее поражении должно оставаться за человеком, так и в других системах, в первую очередь связанных с ограничением свободы индивида, ИИ не может не только принимать решение, является ли человек преступником, но даже квалифицировать индивида как «подозрительного», и такие системы требуют серьёзных ограничений в применении. А раз так, то нет гарантий что брюссельская система оценки доверенности систем ИИ, не декларируемая сегодня как обязательная к исполнению, в будущем может вылиться в свод ограничительных законов для создателей и пользователей подобного рода разработок. Предложенные ЕК в апреле проекты норм к этому и сводятся. Тем самым практика ставит под большой вопрос реализуемость и адекватность призыва госпожи фон дер Ляйен обеспечить лидерство ЕС в области «этичного ИИ», поскольку еще более усложняет понятие «этичности» в отношении систем ИИ: применимо ли оно к системам, использование которых подлежит запрету и ограничениям, — и вновь поднимает вопрос, зачем же все-таки Европе нужен собственный этичный ИИ.
Несмотря на то, что средства массовой информации по какой-то причине, вероятно опасаясь покушаться на «священную корову» массового сознания — идею искусственного интеллекта, пока лишь констатируют новое противоречие, не раскрывая и не анализируя его сущность23, а специальная научная и политическая мысль еще не успела его публично отрефлексировать, не будет ошибкой сказать, что Еврокомиссия поставила себя в достаточно сложную ситуацию24. Провозгласив цель — создание самой моральной искусственно мыслящей среды, поставив ее в центр цифровой стратегии EC и своей инновационной социально-технической политики, фактически отрапортовав о завершении работ, ЕК вдруг обнаружила, что приложения ИИ, казавшиеся столь важными для общества (борьба с преступностью, антитерроризм, контрразведка, финансы, банковская деятельность) и на которые в последние годы выделялись огромные ресурсы, являются в значительной части антисоциальными, а некоторые из них по оценке самого же Брюсселя можно отнести к категории особо опасных, и подлежат полному запрету. А кроме того многие отмечают, что угрозу несут не только системы, стоящие на вооружении у правоохранительных органов и спецслужб. Кто знает, какие «предпочтения» заложены в ИИ голосовых помощников, на что пользователей подталкивают всевозможные Алисы, раз всем уже давно известно, что в первой сотне в любом поисковике находятся отнюдь не наиболее релевантные, а соответствующим образом проплаченные ответы. О негативном влиянии на общество социальных сетей написано и сказано уже много, а ведь они тоже могут использовать элементы ИИ и другие близкие и столь модные технологии big data, облачных и нейронных сетей.
Было бы, наверное, логично вернуться к привычному для западного мира принципу: нормы поведения собаки должна соблюдать не собака, а ее хозяин и на него возлагается задача так воспитать питомца, чтобы он не был угрозой всему двору, — и вспомнить, что «робоэтика не этика роботов, а этика их разработчиков».
ЕК пошла своим путем, и теперь вынуждена отыгрывать назад. Полученная ею практика создания «этичного ИИ» подтвердила, что информатизация общественных процессов и управления обществом не несет «общего блага», но лишь переносит общественные противоречия в новые условия, которые Кастельс вполне обоснованно назвал информационный капитализмом.
Изложенное позволяет констатировать, что в практическом плане политика ЕК в области ИИ породила много ошибок. На начальном этапе она была скоропалительна. Не разобравшись с предметом исследований (вспомним отказ ГЭВУ дать определение ИИ) и поддавшись чисто рыночным стратегиям прибыли (оценка работ была отдана на откуп бизнесу), в ЕК полностью упустили из внимания упоминавшийся ранее принцип предосторожности. В расчете на быстрый эффект за счет разработки средств в интересах правоохранительных органов (выявление потенциальных преступников) и бизнеса, автоматизируя рекрутирование и работу с персоналом, получили не мудреца, знающего и видящего то, что не под силу человеку, и всегда готового подсказать, как лучше, а «большого брата», перманентно контролирующий всех и вся. Ставя целью защитить и развить демократию, создали средства, разрушающие ее западно-либеральные основы: независимый индивид оказался под постоянным контролем, и его судьба — в руках руководителей корпораций и государства, формулирующих требования, слепо исполняемые далеким от моральных ограничений и нюансов жизни «этичным ИИ».
Однако не надо думать, что все спокойно будет и с военными системами ИИ. В этой статье мы умышленно не касались этих проблем — эта другая, хотя и пограничная, тема. Однако дискуссии на конференциях по негуманному оружию, особенно в части ограничения производства и применения смертоносных автономных систем, поднимаемый в научных и политических публикациях вопрос о военных системах, использующих технологии ИИ, как угрозе стратегической стабильности, показывают невозможность обойти вопрос этичности ИИ даже при их применении в войне, явлении аморальном по определению, что отмечено в упомянутых ранее высказываниях главы католической церкви и генсекретаря ООН. Такие факторы игнорировать нельзя, их социальное значение переоценить трудно.
Решение, которое нашла ЕК, понятно и естественно, хотя выглядит несколько комично: создать нечто, потратив на это весьма значительные средства, потом разделить направления его применения на классы опасности, наиболее опасные запретить, средние ограничить, а остальные контролировать, для чего создать специальный орган с имеющим статус международных чиновников персоналом. Кто прогадал? Да никто, разве только налогоплательщик, но кто ж его спрашивает. Зато открываются новые горизонты политического творчества: надо обновлять уже реализуемые программы (деньги уже вложены), создавать (с новым финансированием) и запускать новые, направленные на исправление прежних ошибок. Важно только, чтобы при этом все-таки вспомнили про человека и про науку о человеке, не ограничиваясь технологиями. А принцип «наука должна давать прибыль в текущем квартале» должен уйти в прошлое. Об этом говорит и принцип предосторожности.
Несмотря на сложности, с которыми столкнулась конкретно Еврокомиссия в своем стремлении стать мировым лидером в создании «этичного ИИ», считать сложившуюся ситуацию крахом политики фон дер Ляйен оснований недостаточно. В целом нынешняя ситуация в ИИ была предсказуема: в ее основе лежали неясность цели (изначальный отказ ГЭВУ определить, что есть ИИ) и попытка решить проблему этики административными методами, бесплодность которых была понятна еще в XVIII в. Однако главные вопросы: что такое ИИ в представлении ЕК, в чем его уникальная этичность и каковы конкретные цели приложения огромных интеллектуальных и финансовых усилий для разработки систем на основе этого нечто, а также почему эта идея заняла ключевую позицию в политике Старого света — остаются без ответа, и однозначным выводом из европейской практики создания «этичного ИИ» стало разве лишь то, что мораль не может быть предметом бизнеса, а регулятивная роль государства и бизнеса не может полноценно реализовываться без опоры на гуманитарные знания.
Вместе с тем в условиях внешней конкуренции европейский опыт в области мирного ИИ представляется крайне интересным, в частности с точки зрения реализации в России «Национальной стратегии развития искусственного интеллекта на период до 2030 года» (Утверждена Указом Президента РФ от 10.10.2019 № 490). На этом этапе нельзя не признать справедливым высказывание понтифика (Папа Римский, 2019): «Выдающиеся достижения в области технологии, в особенности в искусственном интеллекте, начинают играть все более значительную роль во всех областях человеческой деятельности. По этой причине сейчас больше, чем когда-либо, нужно открытое и конкретное обсуждение этих вопросов».
Автоматический «Большой брат». ЕС призвали запретить применение искусственного интеллекта для распознавания лиц (2021, Июнь). BBC News. Режим доступа https://www.bbc.com/russian/news-57559528
Могирини назвала проекты, которые профинансирует оборонный фонд Евросоюза (2019, Февраль). РИА Новости. Режим доступа https://ria.ru/20190215/1550954278.html
Папа Римский: «ИИ может ввергнуть мир в варварство» (2019, Октябрь). Хайтек+. Режим доступа https://hightech.plus/2019/10/01/papa-rimskii-ii-mozhet-vvergnut-mir-v-varvarstvo
Попсулин, C. (2013). США визуализируют работу человеческого мозга. CNews. Retrieved from https://www.cnews.ru/news/top/ssha_vizualiziruyut_rabotu_chelovecheskogo
Послание Генерального секретаря на совещании Группы правительственных экспертов по новым технологиям в области автономных систем оружия летального действия (2019). Режим доступа https://www.un.org/sg/en/content/sg/statement/2019–03–25/secretary-generals-message-meeting-of-the-group-of-governmental-experts-emerging-technologies-the-area-of-lethal-autonomous-weapons-systems
Федоров, А. В., Цыгичко, В. Н. (ред.) (2001). Информационные вызовы национальной и международной безопасности. Москва: ПИР-Центр.
Федоров, А. В. (2020). «Этичный искусственный интеллект» становится инструментом политики. Индекс Безопасности, 3. Режим доступа http://pircenter.org/articles/2211-8024600
A Definition of Artificial Intelligence: Main Capabilities and Scientific Disciplines (2019). Retrieved from https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
AI HLEG. Policy and Investment Recommendations for Trustworthy Artificial Intelligence. (2019). Retrieved from https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence
Artificial Intelligence: The Commission takes forward its Work on Ethics Guidelines (2019). Retrieved from https://ec.europa.eu/commission/presscorner/detail/en/IP_19_1893
Artificial Intelligence: The Commission Welcomes the Opportunities Offered by the Final Assessment List for Trustworthy AI (ALTAI) (2020). Retrieved from https://ec.europa.eu/digital-single-market/en/news/artificial-intelligence-commission-welcomes-opportunities-offered-final-assessment-list
Artificial Intelligence: The Commission Welcomes the Opportunities Offered by the Final Assessment List for Trustworthy AI (ALTAI) (2020) Retrieved from https://digital-strategy.ec.europa.eu/en/news/artificial-intelligence-commission-welcomes-opportunities-offered-final-assessment-list-trustworthy
Beijing AI Principles (2020). Beijing Academy of Artificial Intelligence. BAAI. Retrieved from https://www.baai.ac.cn/news/beijing-ai-principles-en.html
Coeckelbergh, M. (2020). AI Ethics. Cambridge MA: MIT Press.
Defense Industry: The Commission kick-starts the European Defence Fund with €1.2 Billion and Awards 26 New Industrial Cooperation Projects for More than €158 Million (2021) Retrieved from https://ec.europa.eu/commission/presscorner/detail/en/IP_21_3325
Dutton, T. (2018). An Overview of National AI Strategies. Medium. Retrieved from https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd
EDPB & EDPS Call for Ban on Use of AI in Publicly Accessible Spaces, and Some Other Uses of AI (2021). Retrieved from https://edps.europa.eu/press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en
Ethics Guidelines for Trustworthy AI (2019). Retrieved from https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
EU Member States Sign up to Cooperate on Artificial Intelligence (2018). Retrieved from https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence
First International Symposium on Roboethics (2004). Retrieved from http://www.roboethics.org/sanremo2004/
G-20 Ministerial Statement on Trade and Digital Economy (2019). Retrieved from https://www.mofa.go.jp/files/000486596.pdf.
Griffin, M. (2019). Pentagon R&D Boss: The Challenge of Tur time. Defense News. Retrieved from https://www.defensenews.com/outlook/2019/12/02/pentagon-rd-boss-the-challenge-of-our-time/
Johnson, J. (2019). Artificial Intelligence & Future Warfare: Implications for International Security. Defense & Security Analysis, 35(2), 147–169.
Johnson, J. (2020). Artificial Intelligence: A Threat to Strategic Stability. Strategic Studies Quarterly, 14(1), 16–39.
Johnson, S. (2020 April). Artificial Intelligence, Drone Swarming and Escalation Risks in Future Warfare. RUSI Journal, 165(2). Retrieved from https://rusi.org/explore-our-research/publications/rusi-journal/artificial-intelligence-drone-swarming-and-escalation-risks-future-warfare.
Leenes, R. (2021). AI Ethics by Mark Coeckelbergh. Prometheus, 37(1). Retrieved from https://www.jstor.org/stable/10.13169/prometheus.37.1.0069
MacCarthy, Mark, Propp, Kenneth “Machines Learn that Brussels Writes the Rules: The EU’s New AI Regulation” (2021). Retrieved from https://www.brookings.edu/blog/techtank/2021/05/04/machines-learn-that-brussels-writes-the-rules-the-eus-new-ai-regulation/
Maintaining American Leadership in Artificial Intelligence (2019). Retrieved from https://federalregister.gov/documents/02/14/2019-02544/maintaining-american-leadership-in-artificial-intelligence
OECD Legal Instruments (2019). Retrieved from https://Legal Instruments.oecd.org/en/instruments/OECD-LEGAL-0449.
Parly, F. (2019). France’s Armed Forces Minister: How AI Figures into Operational Superiority. Defense News. Retrieved from https://www.defensenews.com/outlook/2019/12/02/frances-armed-forces-minister-how-ai-figures-into-operational-superiority/
Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonized Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts (2021). European Commission. Retrieved from https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206
RB New Commission President Promises Legislation for Ethical AI (2019). Medium. Retrieved from https://medium.com/@fourthquadrant/new-commission-president-promises-legislation-for-ethical-ai-3fa73cfc5d43
Research Priorities for Robust and Beneficial Artificial Intelligence. Open Letter (without a Date). Retrieved from https://futureoflife.org/ai-open-letter
Roberts, P. (2019). “AI for Peace”. Retrieved from https://www.rand.org/blog/2019/12/ai-for-peace.html
Secretary-General’s Message to Meeting of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems (2019). United Nations. Retrieved from https://www.un.org/sg/en/content/sg/statement/2019–03–25/secretary-generals-message-meeting-of-the-group-of-governmental-experts-emerging-technologies-the-area-of-lethal-autonomous-weapons-systems
The Higher the Risk, the Stricter the Rule’: Brussels’ New Draft Rules on Artificial Intelligence (2021). Euronews. Retrieved from https://www.euronews.com/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-new-draft-rules-on-artificial-intellige
Van Roy, V., Rossetti, F., Perset, K., & Galindo-Romero, L. (2021). AI Watch — National Strategies on Artificial Intelligence: A European Perspective, 2021 Edition. Publications Office of the European Union. Retrieved from https://publications.jrc.ec.europa.eu/repository/handle/JRC122684
Von der Leyen, U. (2019). Union that Strives for More. My Agenda for Europe. Retrieved from https://ec.europa.eu/info/sites/default/files/political-guidelines-next-commission_en.pdf
Wakefield, Jane. Europe Seeks to Limit Use of AI in Society. (2021). BBC News. Retrieved from https://www.bbc.com/news/technology-56745730.
White Paper on Artificial Intelligence (2020). European Commission. Retrieved from https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
Статья поступила в редакцию 15.05.2021
Статья принята к публикации 20.06.2021
Для цитирования: Фёдоров А. В. Европейский «этичный искусственный интеллект»: от инструмента экономики к политической проблеме. — Южно-российский журнал социальных наук. 2021. Т. 22. № 2. С. 87-103.
European “Ethical Artificial Intelligence”: From an Instrument of Economics to a Political Problem
Abstract. The question, what is intelligence, does not yet have an answer. Even more incomprehensible for the majority has become “intellect artificial” (AI). However, discussions about its relevance to the development of society are considered complete, and more than 30 countries and state associations have already defined their AI strategies in one form or another. The most interesting and advanced strategy until recently was the European Commission (EC) concept. It is based on the idea put forward by Ursula fon der Liaien / Ursula von der Leyen that Europe should achieve world leadership at the expense of “more ethical” AI systems than those produced by other manufacturers. However, attempts by the EC to address morality through market or policy-making methods have led to the risk of serious social unrest. However, attempts by the EC to address morality through market- or policy-making methods have led to the risk of serious social unrest. After a series of victorious reports, it turned out that “ethical AI” was first incorporated by its European developers into the monitoring and discriminatory selection systems controlling the individual and that its application violates human rights, limits the democratic freedom of the individual and runs counter to the principles of liberal democracy. The EC’s attempt to resolve this moral contradiction by preparing new directives and setting legal restraints makes the situation increasingly confusing. Moreover, leaving outside the discussion the military application of AI, apologists for the “ethics” of the European project only provoke skeptics against it. The outcome of the EC’s work will be reviewed at a later stage, but European approaches to the problem, decisions taken and obstacles encountered can be assessed now.
Keywords: European Commission, Europe, artificial intelligence, artificial intelligence systems.
A Definition of Artificial Intelligence: Main Capabilities and Scientific Disciplines (2019). Retrieved from https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
AI HLEG. Policy and Investment Recommendations for Trustworthy Artificial Intelligence. (2019). Retrieved from https://ec.europa.eu/digital-single-market/en/news/policy-and-investment-recommendations-trustworthy-artificial-intelligence
Artificial Intelligence: The Commission takes forward its Work on Ethics Guidelines (2019). Retrieved from https://ec.europa.eu/commission/presscorner/detail/en/IP_19_1893
Artificial Intelligence: The Commission Welcomes the Opportunities Offered by the Final Assessment List for Trustworthy AI (ALTAI) (2020). Retrieved from https://ec.europa.eu/digital-single-market/en/news/artificial-intelligence-commission-welcomes-opportunities-offered-final-assessment-list
Artificial Intelligence: The Commission Welcomes the Opportunities Offered by the Final Assessment List for Trustworthy AI (ALTAI) (2020) Retrieved from https://digital-strategy.ec.europa.eu/en/news/artificial-intelligence-commission-welcomes-opportunities-offered-final-assessment-list-trustworthy
Avtomaticheskiy “Bol’shoy brat”. ES prizvali zapretit’ primenenie iskusstvennogo intellekta dlya raspoznavaniya lits [Automatic “Big Brother”. EU Called upon to Ban the Use of Artificial Intelligence for Facial Recognition] (2021). Retrieved from https://www.bbc.com/russian/news-57559528
Beijing AI Principles (2020). Beijing Academy of Artificial Intelligence. BAAI. Retrieved from https://www.baai.ac.cn/news/beijing-ai-principles-en.html
Coeckelbergh, M. (2020). AI Ethics. Cambridge MA: MIT Press.
Defense Industry: The Commission kick-starts the European Defence Fund with €1.2 Billion and Awards 26 New Industrial Cooperation Projects for More than €158 Million (2021). Retrieved from https://ec.europa.eu/commission/presscorner/detail/en/IP_21_3325
Dutton, T. (2018). An Overview of National AI Strategies. Medium. Retrieved from https://medium.com/politics-ai/an-overview-of-national-ai-strategies-2a70ec6edfd
EDPB & EDPS Call for Ban on Use of AI in Publicly Accessible Spaces, and Some Other Uses of AI (2021). Retrieved from https://edps.europa.eu/press-publications/press-news/press-releases/2021/edpb-edps-call-ban-use-ai-automated-recognition_en
Ethics Guidelines for Trustworthy AI (2019). Retrieved from https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai
EU Member States Sign up to Cooperate on Artificial Intelligence (2018). Retrieved from https://ec.europa.eu/digital-single-market/en/news/eu-member-states-sign-cooperate-artificial-intelligence
Fedorov A. V., Tsygichko V. N (Eds) (2001). Informatsionnye vyzovy nacional’noy i mezhdunarodnoy bezopasnosti [Information Challenges of National and International Security]. Moskwa: PIR-Centr.
Fedorov, A. V. (2020). “Etichnyy iskusstvennyy intellekt” stanovitsya instrumentom politiki [“Ethical Artificial Intelligence” Becomes a tool of Policy]. Indeks Bezopasnosti [Security Index], 3. Retrieved from http://pircenter.org/articles/2211-8024600.
First International Symposium on Roboethics (2004). Retrieved from http://www.roboethics.org/sanremo2004/
G-20 Ministerial Statement on Trade and Digital Economy (2019). Retrieved from https://www.mofa.go.jp/files/000486596.pdf
Griffin, M. (2019). Pentagon R&D Boss: The Challenge of Tur time. Defense News. Retrieved from https://www.defensenews.com/outlook/2019/12/02/pentagon-rd-boss-the-challenge-of-our-time/
Johnson, J. (2019). Artificial Intelligence & Future Warfare: Implications for International Security. Defense & Security Analysis, 35(2), 147–169.
Johnson, J. (2020). Artificial Intelligence: A Threat to Strategic Stability. Strategic Studies Quarterly, 14(1), 16–39.
Johnson, S. (2020 April). Artificial Intelligence, Drone Swarming and Escalation Risks in Future Warfare. RUSI Journal, 165(2). Retrieved from https://rusi.org/explore-our-research/publications/rusi-journal/artificial-intelligence-drone-swarming-and-escalation-risks-future-warfare.
Leenes, R. (2021). AI Ethics by Mark Coeckelbergh. Prometheus, 37(1). Retrieved from https://www.jstor.org/stable/10.13169/prometheus.37.1.0069
MacCarthy, Mark, Propp, Kenneth “Machines Learn that Brussels Writes the Rules: The EU’s new AI Regulation” (2021). Retrieved from https://www.brookings.edu/blog/techtank/2021/05/04/machines-learn-that-brussels-writes-the-rules-the-eus-new-ai-regulation/
Maintaining American Leadership in Artificial Intelligence (2019). Retrieved from https://federalregister.gov/documents/02/14/2019–02544/maintaining-american-leadership-in-artificial-intelligence
Mogirini nazvala proekty, kotorye profinansiruet oboronnyy fond Evrosoyuza [Moghirini Named the Projects that Will Fund the EU Defense Fund] (2019). RIA Novosti. Retrieved from https://ria.ru/20190215/1550954278.html
OECD Legal Instruments (2019). Retrieved from https://Legal Instruments.oecd.org/en/instruments/OECD-LEGAL-0449
Papa Rimskiy: “II mozhet vvergnut’ mir v varvarstvo” [The Pope: “AI can plunge the World into Barbarism”] (2019). Khaytek+ [Hightech+]. Retrieved from https://hightech.plus/2019/10/01/papa-rimskii-ii-mozhet-vvergnut-mir-v-varvarstvo
Parly, F. (2019). France’s Armed Forces Minister: How AI Figures into Operational Superiority. Defense News. Retrieved from https://www.defensenews.com/outlook/2019/12/02/frances-armed-forces-minister-how-ai-figures-into-operational-superiority/
Popsulin, S. (2013). SShA vizualiziruyut rabotu chelovecheskogo mozga. CNews [The United States Visualizes the Work of the Human Brain]. CNews. Retrieved from https://www.cnews.ru/news/top/ssha_vizualiziruyut_rabotu_chelovecheskogo
Poslanie General’nogo sekretarya na soveshchanii Gruppy pravitel’stvennykh ekspertov po novym tekhnologiyam v oblasti avtonomnkyh sistem oruzhiya letal’nogo deystviya [Secretary-General’s Message to the Meeting of the Group of Governmental Experts on New Technologies for Lethal Autonomous Weapons Systems] (2019). Retrieved from https://www.un.org/sg/en/content/sg/statement/2019-03-25/secretary-generals-message-meeting-of-the-group-of-governmental-experts-emerging-technologies-the-area-of-lethal-autonomous-weapons-systems
Proposal for a Regulation of the European Parliament and of the Council Laying Down Harmonized Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts (2021). European Commission. Retrieved from https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1623335154975&uri=CELEX%3A52021PC0206
RB New Commission President Promises Legislation for Ethical AI (2019). Medium. Retrieved from https://medium.com/@fourthquadrant/new-commission-president-promises-legislation-for-ethical-ai-3fa73cfc5d43
Research Priorities for Robust and Beneficial Artificial Intelligence. Open Letter (without a Date). Retrieved from https://futureoflife.org/ai-open-letter
Roberts, P. (2019). “AI for Peace”. Retrieved from https://www.rand.org/blog/2019/12/ai-for-peace.html
Secretary-General’s Message to Meeting of the Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems (2019). United Nations. Retrieved from https://www.un.org/sg/en/content/sg/statement/2019-03-25/secretary-generals-message-meeting-of-the-group-of-governmental-experts-emerging-technologies-the-area-of-lethal-autonomous-weapons-systems
The Higher the Risk, the Stricter the Rule’: Brussels’ New Draft Rules on Artificial Intelligence (2021). Euronews. Retrieved from https://www.euronews.com/2021/04/21/the-higher-the-risk-the-stricter-the-rule-brussels-new-draft-rules-on-artificial-intellige
Van Roy, V., Rossetti, F., Perset, K., & Galindo-Romero, L. (2021). AI Watch — National Strategies on Artificial Intelligence: A European Perspective, 2021 Edition. Publications Office of the European Union. Retrieved from https://publications.jrc.ec.europa.eu/repository/handle/JRC122684
Von der Leyen, U. (2019). Union that Strives for More. My Agenda for Europe. Retrieved from https://ec.europa.eu/info/sites/default/files/political-guidelines-next-commission_en.pdf
Wakefield, Jane. Europe Seeks to Limit Use of AI in Society (2021). BBC News. Retrieved from https://www.bbc.com/news/technology-56745730
White Paper on Artificial Intelligence (2020). European Commission. Retrieved from https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_en.pdf
Received 15.05.2021
Accepted 20.06.2021
For citation: Fedorov A. V. European “Ethical Artificial Intelligence”: From an Instrument of Economics to a Political Problem. — South-Russian Journal of Social Sciences. 2021. Vol. 22. No. 2. Pp. 87-103.
© 2021 by the author(s). This article is an open access article distributed under the terms and conditions of the Creative Commons Attribution (CC BY) license (http://creativecommons.org/licenses/by/4.0/).
1 EDPB & EDPS call for ban on use of AI in publicly accessible spaces, and some other uses of AI (2021).
2 Artificial intelligence: The Commission welcomes the opportunities offered by the final Assessment List for Trustworthy AI (ALTAI) (2020).
3 Artificial intelligence: The Commission welcomes the opportunities offered by the final Assessment List for Trustworthy AI (ALTAI) (2020).
4 RB New Commission President Promises Legislation for Ethical AI (2019).
5 Этот вопрос с позиций ситуации рубежа 2019 г. автор рассматривал в статье в журнале «Индекс безопасности», издаваемом ПИР-Центром политических исследований (Федоров, 2020).
6 Краткий, хотя и несколько устаревший (Октябрь 2018 г.) обзор читатель может найти в статье (Dutton, 2018).
7 Maintaining American Leadership in Artificial Intelligence (2019).
8 «Пекинские принципы ИИ» (Beijing AI Principles, 2020) выпущены 28 мая 2019 г. Пекинской академией искусственного интеллекта (Beijing Academy of Artificial Intelligence), официального статуса не имеют, но поддержаны ведущими научными центрами и IT-компаниями Китая.
9 10 октября 2019 г. Указом Президента Российской Федерации № 490 утверждена «Национальная стратегия развития искусственного интеллекта на период до 2030 года».
10 Принципы ОЭСР (OECD Legal Instruments, 2019). Приняты Советом ОЭСР на заседании 22.05.2019, как рекомендации, одобрены 42 странами, включая всех членов Организации и июньской (Осака) 2019 г. министерской встречей министров торговли и экономики группы G-20 (G-20, 2019).
11 EU Member States sign up to cooperate on Artificial Intelligence (2018).
12 Van Roy, Rossetti, Perset and Galindo-Romero (2021).
13 Research priorities for robust and beneficial artificial intelligence. Open letter (without a date).
14 В ЕК обращают внимание на высказанное еще в 2013 г. Бараком Обамой предположение, что работы по ИИ будут не менее эффективными, чем вложения в геном человека, где 1 доллар инвестиций принес в экономику США 140 долларов (Попсулин, 2013).
15 Мотив моральности ИИ услышан и взят на вооружение и странами, не связанными общими с Евросоюзом интересами. В своем выступлении на 74-й сессии ГА ООН премьер-министр Великобритании Борис Джонсон заявил, что самый этичный ИИ будет создан на Британских островах. Однако в своей традиции он тут же добавил к этому елею солидную ложку дегтя: «И пока неизвестно, станет ли искусственный интеллект благом для человечества или породит „терминаторов с красными глазами, готовых его уничтожить”».
16 Мандат ГЭВУ предусматривает подготовку для ЕК предложений и справок по этическим, правовым и социальным вопросам ИИ, включая его влияние на социально-экономическую сферу, а также по вопросам выработки мер реагирования на средне- и долгосрочные вызовы в сфере ИИ, готовить рекомендации по политике в этой сфере. Среди задач ГЭВУ также координация деятельности Европейского альянса по ИИ, поддержание диалога с мировым сообществом, анализ экспертных мнений и подготовка докладов для Еврокомиссии. Полномочия группы не имеют срока окончания.
17 Здесь Европа не была оригинальна: 15 мая того же года решением S.2806 Сенат США учредил Комиссию национальной безопасности по искусственному интеллекту (National Security Commission on Artificial Intelligence). Ее задачей стал обзор достижений в области ИИ, машинного обучения и связанных с ними технологий. Руководство КНБИИ возложено на бывшего генерального директора Google Эрика Шмидта.
18 В рецензии на книгу одного из членов ГЭВУ Марка Кекельберга «Этика искусственного интеллекта» (Coeckelbergh, 2020) как обобщение позиции автора, не определившего в работе, что такое ИИ, дано такое напоминающее пародию определение: «ИИ –это сложное явление, являясь одновременно наукой, изучающей развитие человекоподобного интеллекта, совокупностью методов написания программного обеспечения, продуктом такого программирования и модным словечком для всего, что должно звучать причудливо». (Leenes, 2021).
19 Исходя из американской трактовки, унаследованной европейцами, под термином «технология» в западной литературе понимаются не только используемые методы и последовательность действий при производстве материальных и социальных продуктов, но и средства, которые в соответствующем процессе применяются. Поэтому технологии ИИ, как и информационные технологии в целом, для западников нередко воспринимаются как системы, включающие компьютеры, программное обеспечение, сетевое оборудование, обслуживающий персонал и пр. Однако в угоду первой поправки к Конституции США американцы наотрез отказываются включать в них саму информацию. Им покорно следуют и европейцы. По этой причине западники серьезно допускают, что информационные технологии, как и ИИ-технологии, могут выступать в качестве оружия, а сама информация – нет, что русскоязычным читателем воспринимается как нонсенс.
20 Я не один раз цитировал, в частности, еще в 2001 г. в изданной под моей и Цыгичко В.Н редакции в ПИР-Центре коллективной монографии «Информационные вызовы национальной и международной безопасности» (Федоров А.В., Цыгичко В.Н (ред.) ,2001), опубликованное еще в 1999 г. журналом «The New York Times Magazine», 28.03.1999 (Цит. по: «Мировая экономика и международные от ношения», 2001, № 12, с. 51) следующее высказывание некоего высокопоставленного американского чиновника: «Невидимая рука рынка никогда не действует без невидимого кулака армии. „Макдоналдс” не может расцветать без „Макдоналд-Дуглас”, производителя F-16. И невидимый кулак, который поддерживает безопасность технологий Кремниевой долины, называется армия, флот и ВВС США». С тех пор мало что изменилось.
21 Исключением надо считать проблему «смертоносных автономных систем», более известных как «роботы-убийцы». По этой теме уже несколько лет ведется международная дискуссия в рамках переговорного процесса по «Конвенции о негуманном оружии» (КНО), создана и функционирует Группа правительственных экспертов, проводятся международные конференции. Однако проблема далека от урегулирования и требует отдельного рассмотрения вне рамок настоящей статьи. В этот же ряд западные исследователи ставят «гиперзвук», связывая его с вопросами стратстабильности. Примечательно, что вопрос поднимается в основном в связи с российскими достижениями в этой области. Показательной в этом смысле являются публикации Центра исследований проблем нераспространения Монтерейского Института международных исследований, в частности статьи др. Джеймса Джонсона (Johnson, 2019, 2020, April 2020).
22 «Принцип предосторожности» является международно-правовым положением, впервые определенным и одобренным на Встрече на высшем уровне в Рио-де-Жанейро в 1992 году. В 15-м принципе «Декларации Рио», в частности, говорится, что, несмотря на отсутствие научных знаний, следует принимать упреждающие меры по управлению рисками с учетом потенциального ущерба окружающей среде и здоровью. Retrieved from https://fr.wikipedia.org/wiki/Principe_de_pr%C3%A9caution#cite_note-6. Статья 5. «Экологической хартии» 2004 г. уточнила формулировку следующим образом: в тех случаях, когда причинение ущерба, хотя и неопределено с точки зрения научных знаний, может серьезно и необратимо повлиять на окружающую среду, государственные органы обеспечивают, в соответствии с принципом предосторожности и в пределах своей компетенции, применение процедур оценки риска и принятие временных и соразмерных мер для предотвращения причинения ущерба. Retrieved from https://fr.wikipedia.org/wiki/Charte_de_l%27environnement.
23 Как типичный, вероятно, направленный на стимулирование рефлексии читателя аргумент, приводимый в этой связи комментаторами, можно расценить стоящий, по мнению аналитика ВВС, перед ЕС выбор между «обеспечением использования ИИ для того, что он называет «инструментом ... с конечной целью повышения благосостояния людей», и обеспечением того, чтобы он не мешал странам ЕС конкурировать с США и Китай из-за технологических инноваций» (Wakefield, 2021). Логичность подобного сравнения оставим на совести автора.
24 По оценка, звучащим в близких к IT-бизнесу аналитических изданиях, представленный проект «является прямым вызовом распространенному в Кремниевой долине мнению о том, что закон должен оставить новые технологии в покое» (MacCarthy, Propp, 2021).
Политические институты и процессы