15 декабря 2018

Год скандалов в сфере технологий: как нам обуздать искусственный интеллект?

По материалам AI Now Institute

Институт искусственного интеллекта (AI Now Institute), созданный на базе Нью-Йоркского университета, опубликовал третий ежегодный доклад о состоянии развития искусственного интеллекта в 2018 году. В него входят и десять положений, представляющих собой рекомендации для правительств, исследователей и всех, кто связан с этой индустрией.

2018 год оказался очень драматичным для ИИ – начиная от предполагаемого влияния Facebook на этнические чистки в Мьянме и «попыток манипулирования» выборами со стороны Cambridge Analytica, создания в Google секретного и подверженного цензуре поискового механизма для Китая и до того, какой гнев вызвали у сотрудников Microsoft ее контракты с миграционной службой США, разлучавшей семьи мигрантов. Огромное количество громких заголовков, а поводы, перечисленные выше, – это всего лишь несколько примеров среди сотен им подобных.

В основе этих лавинообразно обрушившихся на общество скандалов, связанных с ИИ, лежит вопрос ответственности: кто будет виноват, если нам нанесут вред системы, основанные на искусственном интеллекте? Как мы будем оценивать этот вред и как устранять его последствия? Где мы должны вмешаться и какие дополнительные исследования мы должны провести, чтобы быть уверенными в эффективности этого вмешательства? Пока что на эти вопросы очень мало ответов. А существующие механизмы регулирования очень слабы в сравнении с тем, что требуется в этой сфере. По мере того, как растут проникновение, сложность и масштаб этих систем, все большее беспокойство вызывает отсутствие ответственности и надзора, включая соответствующие правовые процедуры.

Итак, основываясь на предшествующих докладах 2016 и 2017 гг., Институт искусственного интеллекта подготовил свой доклад 2018 года, где эти проблемы заняли центральное место. В нем приводится ряд практических рекомендаций, призванных помочь разработать принципы управления этими мощными технологиями.

Вот эти рекомендации.

1. Правительства должны заниматься регулированием в сфере ИИ посредством расширения полномочий соответствующих агентств и предоставления им возможности по надзору и мониторингу этих технологий по областям применения.

Внедрение систем на основе ИИ происходит быстро, без адекватного управления, надзора и ответственности. Такие сферы, как здравоохранение, образование, уголовное право и благосостояние, обладают своей собственной историей, законодательными рамками и связаны с конкретными рисками.  Общие национальные стандарты и модели сертификации непременно должны получить более тщательную отраслевую спецификацию для более детального регулирования. Нам требуется специфический подход, который ставит во главу угла не саму технологию, а ее применение в конкретной области. Удачным примером такого подхода могут служить Федеральное авиационное управление США и Национальное управление безопасностью движения на трассах.

2. Распознавание по лицу и распознавание эмоций нуждаются в строгом регулировании для защиты общественных интересов.

Такое регулирование должно включать в себя законы национального уровня, предполагающие строгий надзор, четкие ограничения и ясность для общества. Люди должны иметь право отказаться от внедрения этих технологий как в общественной, так и в частной сфере.  Простого публичного уведомления об их использовании недостаточно. Порог любого согласия должен быть высоким, учитывая опасности, которые кроет в себе постоянное и всеобщее наблюдение. Особенного внимания требует распознавание эмоций. Это разновидность распознавания лица, которая призвана определять такие вещи, как индивидуальность, чувства, психическое здоровье и «вовлеченность» сотрудников на основе изображений или видео. Такие возможности не подкрепляются всесторонним научным исследованием и применяются безответственно и неэтично, что часто напоминает о псевдонауках, таких как френология и физиогномия. И если распознавание эмоций будет применяться при найме, страховании, в образовании и полиции, это создаст очень серьезные риски на личном и общественном уровне.

3. Индустрия искусственного интеллекта нуждается в срочной разработке новых подходов к управлению.

Как показано в докладе, внутренние структуры управления в большинстве технологических компаний не в состоянии обеспечить ответственность за применение систем на основе ИИ. Правительственное регулирование – это важная составляющая, однако компании-лидеры индустрии ИИ также нуждаются во внутренних механизмах ответственности, которые выходят за пределы простых этических норм. Они должны включать в себя представление рядовых сотрудников на совете директоров, внешние советы по этическим вопросам, а также проведение независимого мониторинга и применение мер по повышению прозрачности. Сторонние эксперты должны иметь возможность проводить проверки и публиковать информацию о важнейших системах, а компании должны быть уверены, что их инфраструктура, связанная с ИИ, понятна и прозрачна, в том числе и то, как внедряется и применяется ИИ.

4. Компании, работающие с искусственным интеллектом, должны отказаться от сохранения коммерческой тайны и других юридических требований, которые делают невозможной подотчетность в государственном секторе.

Вендоры и разработчики, создающие ИИ и системы, основанные на автоматическом принятии решений, для использования правительством, должны согласиться на отказ от коммерческой тайны и других юридических требований, которые могут мешать полной проверке и пониманию их ПО. Корпоративные правила секретности – это препятствие для правовых гарантий, они способствуют появлению «эффекта черного ящика», создавая непроницаемые и не предполагающие ответственности системы. Это делает сложной оценку степени предвзятости, оспаривание решений и исправление ошибок.  Каждый, кто создает технологии с целью применения в государственном секторе, должен требовать от вендоров отказа от этих требований, прежде чем заключать какие-то соглашения.

5. Технологические компании должны предоставить защиту отказникам по соображениям совести, организациям сотрудников, а также информаторам в сфере этики.

Самоорганизация и сопротивление со стороны работников сферы технологий выступили в качестве силы, ратующей за ответственность и принятие этичных решений. Нужно, чтобы технологические компании защищали право сотрудников организовываться, выступать с разоблачениями и принимать решения на основе этических соображений.  А это означает четкую политику и защиту отказников по соображениям совести, право работников знать, над чем они работают, и возможность уклониться от этой работы без последующего наказания. Сотрудники, поднимающие этические вопросы, также должны находиться под защитой, как и те, кто выступает с разоблачениями в интересах общества.

6. Организации по защите прав потребителей должны применять законы о добросовестности рекламы к продуктам и сервисам, связанным с искусственным интеллектом.

Из-за того, что ажиотаж вокруг ИИ неуклонно растет, разрыв между маркетинговыми обещаниями и реальными свойствами продуктов только увеличивается. И это повышает риски как для частных покупателей, так и для бизнес-клиентов, часто с фатальными последствиями. Как и в случае с другими продуктами и сервисами, обладающими потенциалом для серьезного влияния или использования людей в собственных целях, те, кто продает ИИ, должны придерживаться высоких стандартов и соответствовать своим обещаниям, в особенности когда для выполнения этих обещаний не хватает соответствующей научной базы и последствия в далекой перспективе непонятны.

7. Технологические компании должны взять на себя обязательство разбираться со случаями дискриминации на рабочих местах

Технологические компании и искусственный интеллект в целом – это сфера, в которой стараются обучать и нанимать как можно больше разных сотрудников. И несмотря на то, что это важно, есть риск упустить из внимания случаи, когда люди подвергаются дискриминации. Компаниям следует разбираться с подобными проблемами на рабочих местах, а также изучать связь между культурами отчуждения и продуктами, которые они создают и которые могут только закреплять практику дискриминации. Такая смена фокуса должна сопровождаться и практическими действиями в сфере найма.

8. Честность, ответственность и прозрачность в области искусственного интеллекта требуют полного представления обо всей «цепочке поставок».

Для того, чтобы нести осмысленную ответственность, мы должны иметь возможность лучше понимать и отслеживать составные части системы ИИ и «полной цепочки поставок», на которой она основана. Это означает происхождение и использование данных для обучения, тестовых данных, модели, API и другие инфраструктурные компоненты жизненного цикла продукта. Мы называем это «контролем над полной цепочкой поставок» систем ИИ, и это необходимое условие для возможности проведения более ответственных проверок.  «Полная цепочка поставок» означает также и реальные экологические и трудовые затраты, которые включают в себя использование энергии, трудовых ресурсов развивающихся стран для получения обучающих данных и работы кликворкеров для поддержания и развития систем ИИ.

9. Требуется увеличение финансирования для судебных разбирательств, организации труда и участия сообществ в вопросах ответственности искусственного интеллекта

Те люди, которые больше всего подвержены риску получения вреда от систем, основанных на ИИ, одновременно зачастую хуже всего могут противостоять последствиям. Мы нуждаемся в росте поддержки механизмов правовой защиты и гражданского участия. Это означает поддержку общественных адвокатов, представляющих интересы тех, кто оказался отрезан от социальной помощи, пострадав от алгоритмических решений, поддержку гражданских организаций и профсоюзов, защищающих интересы групп, подверженных риску потери работы и эксплуатации, а также поддержание инфраструктуры, обеспечивающей участие общественности.

10. Изучение искусственного интеллекта в университетах не должно ограничиваться только компьютерными и инженерными дисциплинами

ИИ начинался как междисциплинарное явление, но за десятилетия превратился в техническую дисциплину. И поскольку ИИ все больше применяется в социальной сфере, требуется расширить спектр дисциплин, которые он затрагивает, то есть почерпнуть методы экспертизы из социальных и гуманитарных наук. Изначально ИИ планировался для применения в обществе, и он не может ограничиваться рамками компьютерной и инженерной сферы, не давая студентам возможности учиться исследовать общественную жизнь. Расширение дисциплинарного спектра при изучении ИИ обеспечит более пристальное внимание к социальному контексту и позволит сфокусироваться на потенциальных угрозах применения систем ИИ в человеческом обществе.

Конечно, будучи официальным докладом, подобный свод рекомендаций просто обречен быть, с одной стороны, слишком канцелярским, а с другой – слишком оторванным от реальности. Как красиво звучат пункты о борьбе с дискриминацией (впрочем, носящие явный отпечаток местной, американской специфики) или о том, что компании должны предоставлять важную информацию буквально всем желающим, – красиво и совершенно нереалистично. И, тем не менее, многое здесь заставляет задуматься. Законодательное регулирование, как и всегда, не успевает за прогрессом в области технологий, и в будущем это может привести к гораздо большим проблемам, чем можно предположить сейчас.

Возможно, вы видите какие-то пути решения обозначенных проблем? Или добавили бы свои пункты в этот список? Какие из них вам кажутся важными, а какие надуманными? Делитесь в комментариях!

Читайте также

30 комментариев на «“Год скандалов в сфере технологий: как нам обуздать искусственный интеллект?”»

  1. A.N.:

    «Возможно, вы видите какие-то пути решения обозначенных проблем?»

    Очевидно, что важнейшим вопросом «ИИ» является вопрос ответственности. И для этого нужны юридически обязывающие документы нового типа. Поначалу можно колонке с Алисой присудить статус домашнего питомца (хомячка) и исходить из этого)))

    • Lecron:

      Предлагаете начать применять статью за жестокое обращение с животными?))

      • A.N.:

        Тут гораздо важнее ответственность, которую несет хозяин электронного питомца, если тот обидит третье лицо. И конечно же, полицейский имеет право застрелить Яндекс-колонку, если ему покажется, что та на него нападает.

        • Lecron:

          Никак не пойму, почему вы хотите ввести отдельную схему рассмотрения и новые документы. Чем не устраивают существующие?

          • A.N.:

            В современных документах никак не отрегулирован правовой статус разумной машины и ее социальные отношения с человеком.

            • Lecron:

              Разумной? Мы точно об одном и том же?
              Когда к этому приблизимся… хотя нет, пока гром не грянет… когда это произойдет, обретение машиной разума, тогда и поговрим. Только думаю, это не при нашей жизни. Пока это лишь «кофеварка» с ЦПУ, и отношение соответствующее.

              • A.N.:

                начинать надо уже сейчас, выработать юридические основы. Хотя бы принять как закон принципы робототехники Айзека Азимова.

                • Lecron:

                  Предварительная оптимизация – зло. Посмотрите футурологические прогнозы прошлого века про информационную сеть и компьютеры. Повеселитесь, представив, какие они законы напринимали бы.

                  Принять принципы Азимова, как закон для кого? Это законы для роботов, а не людей. Повторю, когда мы приблизимся к тому, что робот будет понимать слова Закон, Человек, Вред, Действие, Бездействие, тогда и будем думать. Предположу, что нам до этого момента дальше, чем от телеги в одну лошадиную силу, до карьерного самосвала.

                  • A.N.:

                    Дальше не дальше, а создавать рабочую группу для изучения вопроса (и осваивания бюджетиков) надо уже сейчас.

                  • Семен Киселев:

                    Так Вы за прогресс радеете? Даже если выяснится, что человеки как вид мешают его развитию, замедляя на несколько порядков? Огромное количество людей, кстати говоря, сейчас и всегда в истории этот самый прогресс тормозили. Из соображений прогресса их можно начинать оптимизировать прямо сейчас: тунеядцев, гомеопатов, битву экстрасенсов и еще 90% телевизора. 🙂
                    Что касается законов, есть вопросы актуальные прямо сейчас и касающиеся в первую очередь людей и лишь частично ИИ: ответственность людей за действия ботов, легальность имитации реально существующей или несуществующей личности в соцсети, навязывания общения с ИИ без согласия со стороны человека. Вот придут сюда свидетели Бо-Гэ (это из магазинчика Бо, если что) ботов выгуливать — это будет частная проблема сайта или административка? А если кого к суициду склонят? Если бот алгоритмический, то логично, если за него отвечает создатель. А через 10 лет? Автор, может, сам и не закладывал в него никакого зла, но создание само догадалось, что конфликты в обсуждениях повышают популярность. И с чего бы ему остановиться?

                • Lecron:

                  Хотите парадокс? Вы по-прежнему, относитесь к разумной сущности, как кофеварке с ЦПУ. Неадекватное восприятие реальности. И какие законы вы напринимаете? Избавьтесь от ксенофобии и антропоцентризма, для начала. И когда, в разговоре о ИИ, вам в первую очередь придет мысль о его воспитании, а не ограничении, тогда и поговрим.
                  © неорганический синтетический интеллект

                  • A.N.:

                    Мы не можем создать ИИ, отличный от нашего, несмотря на его внешнюю форму. Даже в теории не можем. Мы можем создать только антропоцентричный ИИ, даже если он будет жить в чайнике.

                    • Lecron:

                      Наоборот. Центричность формируется от осознания общности. В младенчестве ее нет и быть не может. У синтетического интеллекта, не может быть общности с антропами. Т.е. ее даже привить будет сложно.

                      Не пытайтесь понять, как будет думать СИ. Максимум, что нам доступно, думать как Человек, думающий, что он думает как робот. Чтобы жить рядом с ними, придется изменится самим, а не вводить ограничивающие законы. О, кстати, оцените разумность законов ограничивающих сетевое взаимодействие. Чаще всего, они вызывают смех. Потому что принимающие их, не понимают происходящего. А сеть, по сравнению с СИ, даже не цветочки, а всего лишь их семена.

  2. ЗБС:

    Искусственного интеллекта не существует, точка. Проблема высосана из пальца, её не существует. Можно с таким же успехом требовать ответственности и регулировать права и обязанности обычного калькулятора.

    • Lecron:

      Если калькулятор при делении на 0 делает бадабум, то регулировать придется. А пока у него нет исполнительных устройств, согласен, пусть живет бесконтрольно.

      • ЗБС:

        пусть живет

        Не надо очеловечивать калькуляторы, они этого не любят!

    • Andrés:

      Не совсем так. То, что называется «искусственный интеллект» — существует, но он(о) по существу является интерактивной программой, созданной группой людей (и корпораций). Параметры этой программы (в которых она может действовать, обучаясь, принимая суждения и решения) зависят исключительно от воли этих людей (корпораций).

      а вот то, что подобные сущности нельзя наделять правами — это точно, т.к. они не живые. Скорее всего это делается в интересах узкой группы лиц, которые будут управлять этим «интеллектом», а на него в свою очередь переложат управление остальными людьми.

      Кто будет контролировать контролирующих?

      • Lecron:

        То, что называется «искусственный интеллект» это просто нейронная сеть. Отчего всех вводит в заблуждение словом «нейрон». Почитайте, сколько их существует разных в организмах. Вся нервная система построена из них. Причем это не обязательно высшие организмы. Черви и насекомые, тоже напичканы нейронными сетями.

        Наш, якобы ИИ, по сути классификатор, набор даже не инстинктов, а рефлексов, обученный как реагировать на определенные раздражители. Его булавкой укололи, он дернулся. Вот и весь интеллект.

        • Andrés:

          Кардинальное отличие в том, что живые организмы были рождены естественным образом и обладают душой, и именно поэтому — правами.

          • Lecron:

            Холивар. Есть две принципиально противоположенные и равно недоказуемые версии. Поэтому машину можно и нужно наделять правами, в пропорции адептов этих версий)))
            А если серьезно, я с вами согласен. Полностью. Также как согласен и с тем, что мораль не константна. Буквально несколько десятилетий назад к радужным относились совсем иначе. И если нас отступление от прошлых норм шокирует. То те, кто при них вырос, сегодняшнее сами считают нормой, а вчерашнее бредом.

            • Andrés:

              У машин души точно нет, машины не рождаются естественным образом, поэтому ставить их на одну ступень с человеком могут только те, кто человека не ценит и, возможно, человеком уже не может считаться. Таких в наше время немало.

              • Семен Киселев:

                А как называют людей, которые некоторых других людей не считают за людей?

          • Кашаврот:

            Про душу и права хорошая шутка.

  3. Lecron:

    Если бы не упоминание хайпового ИИ, статья была бы хорошей. Воды все-таки много. Зачем-то упор на этику, а не на последствия ошибок. Но после упоминания, акценты читателей смещаются еще больше не туда и статья становится очередным фуфлом.

    кто будет виноват, если нам нанесут вред системы, основанные на искусственном интеллекте?

    Что любопытно, в тексте есть отличная фраза, на которой бы стоило остановится: «системы, основанные на автоматическом принятии решений». Могут же ведь формулировать нормально. Но нет, так не интересно, так не привлечь денег.
    Измените вопрос об ответственности под эту формулировку, и он исчезнет сам собой. Потому что такие системы это просто переключатель действовать/пропустить и существуют уже десятки лет. См. АСУТП. Что им позволит переключать разработчик, то они и сделают. Ничего нового в ответственности разработчиков и эксплуатантов изобретать не надо.

    • A.N.:

      Изобретать все-таки придется. Ведь социально вовлеченные гаджеты могут наносить вред нового типа — моральный вред причиняемый машиной человеку. Раньше ничего подобного не было, если не считать езду на Запорожце в Москве.

      • Lecron:

        Согласен. Не подумал, что частный эксплуатант не имеет квалификации. Но по прежнему считаю, что ничего нового изобретать не надо. Достаточно просвещения пользователей. Тем более, что основной описанный предполагаемый вред, все-таки наносится эксплуатантами корпорациями. Пока только у них есть возможность анализа биг-дата. Но биг она или не биг, это всё та же самая система, основанная на автоматическом принятии решений.

  4. U-tug:

    Как бы нам обуздать госдуму и совет федерации с их постоянными инициативами что-то запретить, зарегистрировать, подслушивать и подсматривать.

  5. Gagan!:

    1. Правительства должны заниматься регулированием в сфере ИИ посредством расширения полномочий соответствующих агентств и предоставления им возможности по надзору и мониторингу этих технологий по областям применения.
    — Будет «запрещать и не пущать.»
    2.Распознавание по лицу и распознавание эмоций нуждаются в строгом регулировании для защиты общественных интересов.
    — Кто будет регулировать? Общество по всей планете крайне разное.
    3. Индустрия искусственного интеллекта нуждается в срочной разработке новых подходов к управлению.
    — Да-да.. все побежали нанимать ещё кучу «переориентированных управленцев». Делать больше нечего.
    4. Компании, работающие с искусственным интеллектом, должны отказаться от сохранения коммерческой тайны и других юридических требований, которые делают невозможной подотчетность в государственном секторе.
    — Без комментариев.
    5. Технологические компании должны предоставить защиту отказникам по соображениям совести, организациям сотрудников, а также информаторам в сфере этики.
    — Кому должны и на каком основании? В договоре найма всё прописано. Не нравится — не поступай на работу.
    6. Организации по защите прав потребителей должны применять законы о добросовестности рекламы к продуктам и сервисам, связанным с искусственным интеллектом.
    — Добросовестность и реклама — вещи несочетаемые. Захотите ввести регулировку — получите П.1
    7. Технологические компании должны взять на себя обязательство разбираться со случаями дискриминации на рабочих местах
    — См. П. 5
    8. Честность, ответственность и прозрачность в области искусственного интеллекта требуют полного представления обо всей «цепочке поставок».
    — Цепочка поставок — ради бога. Будут «левачить» даже через отчётности, вместо реальных поставщиков — «прокладки». Что делать будете, утопист?
    9. Требуется увеличение финансирования для судебных разбирательств, организации труда и участия сообществ в вопросах ответственности искусственного интеллекта
    — Я — Минфин, и просто шлю вас нахер с таким запросом. У меня тут неравенство и безработица, а вы со своим ИИ.
    10. Изучение искусственного интеллекта в университетах не должно ограничиваться только компьютерными и инженерными дисциплинами
    — А за чей счёт будет этот банкет?

    Короче, сплошные «манифесты с горшка детского сада». Прокатит на выступлениях антиглобалистской молодёжи да на хипстерских форумах.