15 декабря 2018
Год скандалов в сфере технологий: как нам обуздать искусственный интеллект?
Константин Иванов
По материалам AI Now Institute
Институт искусственного интеллекта (AI Now Institute), созданный на базе Нью-Йоркского университета, опубликовал третий ежегодный доклад о состоянии развития искусственного интеллекта в 2018 году. В него входят и десять положений, представляющих собой рекомендации для правительств, исследователей и всех, кто связан с этой индустрией.
2018 год оказался очень драматичным для ИИ – начиная от предполагаемого влияния Facebook на этнические чистки в Мьянме и «попыток манипулирования» выборами со стороны Cambridge Analytica, создания в Google секретного и подверженного цензуре поискового механизма для Китая и до того, какой гнев вызвали у сотрудников Microsoft ее контракты с миграционной службой США, разлучавшей семьи мигрантов. Огромное количество громких заголовков, а поводы, перечисленные выше, – это всего лишь несколько примеров среди сотен им подобных.
В основе этих лавинообразно обрушившихся на общество скандалов, связанных с ИИ, лежит вопрос ответственности: кто будет виноват, если нам нанесут вред системы, основанные на искусственном интеллекте? Как мы будем оценивать этот вред и как устранять его последствия? Где мы должны вмешаться и какие дополнительные исследования мы должны провести, чтобы быть уверенными в эффективности этого вмешательства? Пока что на эти вопросы очень мало ответов. А существующие механизмы регулирования очень слабы в сравнении с тем, что требуется в этой сфере. По мере того, как растут проникновение, сложность и масштаб этих систем, все большее беспокойство вызывает отсутствие ответственности и надзора, включая соответствующие правовые процедуры.
Итак, основываясь на предшествующих докладах 2016 и 2017 гг., Институт искусственного интеллекта подготовил свой доклад 2018 года, где эти проблемы заняли центральное место. В нем приводится ряд практических рекомендаций, призванных помочь разработать принципы управления этими мощными технологиями.
Вот эти рекомендации.
1. Правительства должны заниматься регулированием в сфере ИИ посредством расширения полномочий соответствующих агентств и предоставления им возможности по надзору и мониторингу этих технологий по областям применения.
Внедрение систем на основе ИИ происходит быстро, без адекватного управления, надзора и ответственности. Такие сферы, как здравоохранение, образование, уголовное право и благосостояние, обладают своей собственной историей, законодательными рамками и связаны с конкретными рисками. Общие национальные стандарты и модели сертификации непременно должны получить более тщательную отраслевую спецификацию для более детального регулирования. Нам требуется специфический подход, который ставит во главу угла не саму технологию, а ее применение в конкретной области. Удачным примером такого подхода могут служить Федеральное авиационное управление США и Национальное управление безопасностью движения на трассах.
2. Распознавание по лицу и распознавание эмоций нуждаются в строгом регулировании для защиты общественных интересов.
Такое регулирование должно включать в себя законы национального уровня, предполагающие строгий надзор, четкие ограничения и ясность для общества. Люди должны иметь право отказаться от внедрения этих технологий как в общественной, так и в частной сфере. Простого публичного уведомления об их использовании недостаточно. Порог любого согласия должен быть высоким, учитывая опасности, которые кроет в себе постоянное и всеобщее наблюдение. Особенного внимания требует распознавание эмоций. Это разновидность распознавания лица, которая призвана определять такие вещи, как индивидуальность, чувства, психическое здоровье и «вовлеченность» сотрудников на основе изображений или видео. Такие возможности не подкрепляются всесторонним научным исследованием и применяются безответственно и неэтично, что часто напоминает о псевдонауках, таких как френология и физиогномия. И если распознавание эмоций будет применяться при найме, страховании, в образовании и полиции, это создаст очень серьезные риски на личном и общественном уровне.
3. Индустрия искусственного интеллекта нуждается в срочной разработке новых подходов к управлению.
Как показано в докладе, внутренние структуры управления в большинстве технологических компаний не в состоянии обеспечить ответственность за применение систем на основе ИИ. Правительственное регулирование – это важная составляющая, однако компании-лидеры индустрии ИИ также нуждаются во внутренних механизмах ответственности, которые выходят за пределы простых этических норм. Они должны включать в себя представление рядовых сотрудников на совете директоров, внешние советы по этическим вопросам, а также проведение независимого мониторинга и применение мер по повышению прозрачности. Сторонние эксперты должны иметь возможность проводить проверки и публиковать информацию о важнейших системах, а компании должны быть уверены, что их инфраструктура, связанная с ИИ, понятна и прозрачна, в том числе и то, как внедряется и применяется ИИ.
4. Компании, работающие с искусственным интеллектом, должны отказаться от сохранения коммерческой тайны и других юридических требований, которые делают невозможной подотчетность в государственном секторе.
Вендоры и разработчики, создающие ИИ и системы, основанные на автоматическом принятии решений, для использования правительством, должны согласиться на отказ от коммерческой тайны и других юридических требований, которые могут мешать полной проверке и пониманию их ПО. Корпоративные правила секретности – это препятствие для правовых гарантий, они способствуют появлению «эффекта черного ящика», создавая непроницаемые и не предполагающие ответственности системы. Это делает сложной оценку степени предвзятости, оспаривание решений и исправление ошибок. Каждый, кто создает технологии с целью применения в государственном секторе, должен требовать от вендоров отказа от этих требований, прежде чем заключать какие-то соглашения.
5. Технологические компании должны предоставить защиту отказникам по соображениям совести, организациям сотрудников, а также информаторам в сфере этики.
Самоорганизация и сопротивление со стороны работников сферы технологий выступили в качестве силы, ратующей за ответственность и принятие этичных решений. Нужно, чтобы технологические компании защищали право сотрудников организовываться, выступать с разоблачениями и принимать решения на основе этических соображений. А это означает четкую политику и защиту отказников по соображениям совести, право работников знать, над чем они работают, и возможность уклониться от этой работы без последующего наказания. Сотрудники, поднимающие этические вопросы, также должны находиться под защитой, как и те, кто выступает с разоблачениями в интересах общества.
6. Организации по защите прав потребителей должны применять законы о добросовестности рекламы к продуктам и сервисам, связанным с искусственным интеллектом.
Из-за того, что ажиотаж вокруг ИИ неуклонно растет, разрыв между маркетинговыми обещаниями и реальными свойствами продуктов только увеличивается. И это повышает риски как для частных покупателей, так и для бизнес-клиентов, часто с фатальными последствиями. Как и в случае с другими продуктами и сервисами, обладающими потенциалом для серьезного влияния или использования людей в собственных целях, те, кто продает ИИ, должны придерживаться высоких стандартов и соответствовать своим обещаниям, в особенности когда для выполнения этих обещаний не хватает соответствующей научной базы и последствия в далекой перспективе непонятны.
7. Технологические компании должны взять на себя обязательство разбираться со случаями дискриминации на рабочих местах
Технологические компании и искусственный интеллект в целом – это сфера, в которой стараются обучать и нанимать как можно больше разных сотрудников. И несмотря на то, что это важно, есть риск упустить из внимания случаи, когда люди подвергаются дискриминации. Компаниям следует разбираться с подобными проблемами на рабочих местах, а также изучать связь между культурами отчуждения и продуктами, которые они создают и которые могут только закреплять практику дискриминации. Такая смена фокуса должна сопровождаться и практическими действиями в сфере найма.
8. Честность, ответственность и прозрачность в области искусственного интеллекта требуют полного представления обо всей «цепочке поставок».
Для того, чтобы нести осмысленную ответственность, мы должны иметь возможность лучше понимать и отслеживать составные части системы ИИ и «полной цепочки поставок», на которой она основана. Это означает происхождение и использование данных для обучения, тестовых данных, модели, API и другие инфраструктурные компоненты жизненного цикла продукта. Мы называем это «контролем над полной цепочкой поставок» систем ИИ, и это необходимое условие для возможности проведения более ответственных проверок. «Полная цепочка поставок» означает также и реальные экологические и трудовые затраты, которые включают в себя использование энергии, трудовых ресурсов развивающихся стран для получения обучающих данных и работы кликворкеров для поддержания и развития систем ИИ.
9. Требуется увеличение финансирования для судебных разбирательств, организации труда и участия сообществ в вопросах ответственности искусственного интеллекта
Те люди, которые больше всего подвержены риску получения вреда от систем, основанных на ИИ, одновременно зачастую хуже всего могут противостоять последствиям. Мы нуждаемся в росте поддержки механизмов правовой защиты и гражданского участия. Это означает поддержку общественных адвокатов, представляющих интересы тех, кто оказался отрезан от социальной помощи, пострадав от алгоритмических решений, поддержку гражданских организаций и профсоюзов, защищающих интересы групп, подверженных риску потери работы и эксплуатации, а также поддержание инфраструктуры, обеспечивающей участие общественности.
10. Изучение искусственного интеллекта в университетах не должно ограничиваться только компьютерными и инженерными дисциплинами
ИИ начинался как междисциплинарное явление, но за десятилетия превратился в техническую дисциплину. И поскольку ИИ все больше применяется в социальной сфере, требуется расширить спектр дисциплин, которые он затрагивает, то есть почерпнуть методы экспертизы из социальных и гуманитарных наук. Изначально ИИ планировался для применения в обществе, и он не может ограничиваться рамками компьютерной и инженерной сферы, не давая студентам возможности учиться исследовать общественную жизнь. Расширение дисциплинарного спектра при изучении ИИ обеспечит более пристальное внимание к социальному контексту и позволит сфокусироваться на потенциальных угрозах применения систем ИИ в человеческом обществе.
Конечно, будучи официальным докладом, подобный свод рекомендаций просто обречен быть, с одной стороны, слишком канцелярским, а с другой – слишком оторванным от реальности. Как красиво звучат пункты о борьбе с дискриминацией (впрочем, носящие явный отпечаток местной, американской специфики) или о том, что компании должны предоставлять важную информацию буквально всем желающим, – красиво и совершенно нереалистично. И, тем не менее, многое здесь заставляет задуматься. Законодательное регулирование, как и всегда, не успевает за прогрессом в области технологий, и в будущем это может привести к гораздо большим проблемам, чем можно предположить сейчас.
Возможно, вы видите какие-то пути решения обозначенных проблем? Или добавили бы свои пункты в этот список? Какие из них вам кажутся важными, а какие надуманными? Делитесь в комментариях!
«Возможно, вы видите какие-то пути решения обозначенных проблем?»
Очевидно, что важнейшим вопросом «ИИ» является вопрос ответственности. И для этого нужны юридически обязывающие документы нового типа. Поначалу можно колонке с Алисой присудить статус домашнего питомца (хомячка) и исходить из этого)))
Предлагаете начать применять статью за жестокое обращение с животными?))
Тут гораздо важнее ответственность, которую несет хозяин электронного питомца, если тот обидит третье лицо. И конечно же, полицейский имеет право застрелить Яндекс-колонку, если ему покажется, что та на него нападает.
Никак не пойму, почему вы хотите ввести отдельную схему рассмотрения и новые документы. Чем не устраивают существующие?
В современных документах никак не отрегулирован правовой статус разумной машины и ее социальные отношения с человеком.
Разумной? Мы точно об одном и том же?
Когда к этому приблизимся… хотя нет, пока гром не грянет… когда это произойдет, обретение машиной разума, тогда и поговрим. Только думаю, это не при нашей жизни. Пока это лишь «кофеварка» с ЦПУ, и отношение соответствующее.
начинать надо уже сейчас, выработать юридические основы. Хотя бы принять как закон принципы робототехники Айзека Азимова.
Предварительная оптимизация – зло. Посмотрите футурологические прогнозы прошлого века про информационную сеть и компьютеры. Повеселитесь, представив, какие они законы напринимали бы.
Принять принципы Азимова, как закон для кого? Это законы для роботов, а не людей. Повторю, когда мы приблизимся к тому, что робот будет понимать слова Закон, Человек, Вред, Действие, Бездействие, тогда и будем думать. Предположу, что нам до этого момента дальше, чем от телеги в одну лошадиную силу, до карьерного самосвала.
Дальше не дальше, а создавать рабочую группу для изучения вопроса (и осваивания бюджетиков) надо уже сейчас.
Так Вы за прогресс радеете? Даже если выяснится, что человеки как вид мешают его развитию, замедляя на несколько порядков? Огромное количество людей, кстати говоря, сейчас и всегда в истории этот самый прогресс тормозили. Из соображений прогресса их можно начинать оптимизировать прямо сейчас: тунеядцев, гомеопатов, битву экстрасенсов и еще 90% телевизора. 🙂
Что касается законов, есть вопросы актуальные прямо сейчас и касающиеся в первую очередь людей и лишь частично ИИ: ответственность людей за действия ботов, легальность имитации реально существующей или несуществующей личности в соцсети, навязывания общения с ИИ без согласия со стороны человека. Вот придут сюда свидетели Бо-Гэ (это из магазинчика Бо, если что) ботов выгуливать — это будет частная проблема сайта или административка? А если кого к суициду склонят? Если бот алгоритмический, то логично, если за него отвечает создатель. А через 10 лет? Автор, может, сам и не закладывал в него никакого зла, но создание само догадалось, что конфликты в обсуждениях повышают популярность. И с чего бы ему остановиться?
Хотите парадокс? Вы по-прежнему, относитесь к разумной сущности, как кофеварке с ЦПУ. Неадекватное восприятие реальности. И какие законы вы напринимаете? Избавьтесь от ксенофобии и антропоцентризма, для начала. И когда, в разговоре о ИИ, вам в первую очередь придет мысль о его воспитании, а не ограничении, тогда и поговрим.
© неорганический синтетический интеллект
Мы не можем создать ИИ, отличный от нашего, несмотря на его внешнюю форму. Даже в теории не можем. Мы можем создать только антропоцентричный ИИ, даже если он будет жить в чайнике.
Наоборот. Центричность формируется от осознания общности. В младенчестве ее нет и быть не может. У синтетического интеллекта, не может быть общности с антропами. Т.е. ее даже привить будет сложно.
Не пытайтесь понять, как будет думать СИ. Максимум, что нам доступно, думать как Человек, думающий, что он думает как робот. Чтобы жить рядом с ними, придется изменится самим, а не вводить ограничивающие законы. О, кстати, оцените разумность законов ограничивающих сетевое взаимодействие. Чаще всего, они вызывают смех. Потому что принимающие их, не понимают происходящего. А сеть, по сравнению с СИ, даже не цветочки, а всего лишь их семена.
Искусственного интеллекта не существует, точка. Проблема высосана из пальца, её не существует. Можно с таким же успехом требовать ответственности и регулировать права и обязанности обычного калькулятора.
Если калькулятор при делении на 0 делает бадабум, то регулировать придется. А пока у него нет исполнительных устройств, согласен, пусть живет бесконтрольно.
Не надо очеловечивать калькуляторы, они этого не любят!
Не совсем так. То, что называется «искусственный интеллект» — существует, но он(о) по существу является интерактивной программой, созданной группой людей (и корпораций). Параметры этой программы (в которых она может действовать, обучаясь, принимая суждения и решения) зависят исключительно от воли этих людей (корпораций).
а вот то, что подобные сущности нельзя наделять правами — это точно, т.к. они не живые. Скорее всего это делается в интересах узкой группы лиц, которые будут управлять этим «интеллектом», а на него в свою очередь переложат управление остальными людьми.
Кто будет контролировать контролирующих?
То, что называется «искусственный интеллект» это просто нейронная сеть. Отчего всех вводит в заблуждение словом «нейрон». Почитайте, сколько их существует разных в организмах. Вся нервная система построена из них. Причем это не обязательно высшие организмы. Черви и насекомые, тоже напичканы нейронными сетями.
Наш, якобы ИИ, по сути классификатор, набор даже не инстинктов, а рефлексов, обученный как реагировать на определенные раздражители. Его булавкой укололи, он дернулся. Вот и весь интеллект.
Кардинальное отличие в том, что живые организмы были рождены естественным образом и обладают душой, и именно поэтому — правами.
Холивар. Есть две принципиально противоположенные и равно недоказуемые версии. Поэтому машину можно и нужно наделять правами, в пропорции адептов этих версий)))
А если серьезно, я с вами согласен. Полностью. Также как согласен и с тем, что мораль не константна. Буквально несколько десятилетий назад к радужным относились совсем иначе. И если нас отступление от прошлых норм шокирует. То те, кто при них вырос, сегодняшнее сами считают нормой, а вчерашнее бредом.
У машин души точно нет, машины не рождаются естественным образом, поэтому ставить их на одну ступень с человеком могут только те, кто человека не ценит и, возможно, человеком уже не может считаться. Таких в наше время немало.
А как называют людей, которые некоторых других людей не считают за людей?
Про душу и права хорошая шутка.
Если бы не упоминание хайпового ИИ, статья была бы хорошей. Воды все-таки много. Зачем-то упор на этику, а не на последствия ошибок. Но после упоминания, акценты читателей смещаются еще больше не туда и статья становится очередным фуфлом.
Что любопытно, в тексте есть отличная фраза, на которой бы стоило остановится: «системы, основанные на автоматическом принятии решений». Могут же ведь формулировать нормально. Но нет, так не интересно, так не привлечь денег.
Измените вопрос об ответственности под эту формулировку, и он исчезнет сам собой. Потому что такие системы это просто переключатель действовать/пропустить и существуют уже десятки лет. См. АСУТП. Что им позволит переключать разработчик, то они и сделают. Ничего нового в ответственности разработчиков и эксплуатантов изобретать не надо.
Изобретать все-таки придется. Ведь социально вовлеченные гаджеты могут наносить вред нового типа — моральный вред причиняемый машиной человеку. Раньше ничего подобного не было, если не считать езду на Запорожце в Москве.
Согласен. Не подумал, что частный эксплуатант не имеет квалификации. Но по прежнему считаю, что ничего нового изобретать не надо. Достаточно просвещения пользователей. Тем более, что основной описанный предполагаемый вред, все-таки наносится эксплуатантами корпорациями. Пока только у них есть возможность анализа биг-дата. Но биг она или не биг, это всё та же самая система, основанная на автоматическом принятии решений.
Как бы нам обуздать госдуму и совет федерации с их постоянными инициативами что-то запретить, зарегистрировать, подслушивать и подсматривать.
Кому — вам?
https://uploads.disquscdn.com/images/3748db32f81950bd794bb379aa3a7d9cf6997c96c0769c7d9c6cc4fed4d7b0f9.png
1. Правительства должны заниматься регулированием в сфере ИИ посредством расширения полномочий соответствующих агентств и предоставления им возможности по надзору и мониторингу этих технологий по областям применения.
— Будет «запрещать и не пущать.»
2.Распознавание по лицу и распознавание эмоций нуждаются в строгом регулировании для защиты общественных интересов.
— Кто будет регулировать? Общество по всей планете крайне разное.
3. Индустрия искусственного интеллекта нуждается в срочной разработке новых подходов к управлению.
— Да-да.. все побежали нанимать ещё кучу «переориентированных управленцев». Делать больше нечего.
4. Компании, работающие с искусственным интеллектом, должны отказаться от сохранения коммерческой тайны и других юридических требований, которые делают невозможной подотчетность в государственном секторе.
— Без комментариев.
5. Технологические компании должны предоставить защиту отказникам по соображениям совести, организациям сотрудников, а также информаторам в сфере этики.
— Кому должны и на каком основании? В договоре найма всё прописано. Не нравится — не поступай на работу.
6. Организации по защите прав потребителей должны применять законы о добросовестности рекламы к продуктам и сервисам, связанным с искусственным интеллектом.
— Добросовестность и реклама — вещи несочетаемые. Захотите ввести регулировку — получите П.1
7. Технологические компании должны взять на себя обязательство разбираться со случаями дискриминации на рабочих местах
— См. П. 5
8. Честность, ответственность и прозрачность в области искусственного интеллекта требуют полного представления обо всей «цепочке поставок».
— Цепочка поставок — ради бога. Будут «левачить» даже через отчётности, вместо реальных поставщиков — «прокладки». Что делать будете, утопист?
9. Требуется увеличение финансирования для судебных разбирательств, организации труда и участия сообществ в вопросах ответственности искусственного интеллекта
— Я — Минфин, и просто шлю вас нахер с таким запросом. У меня тут неравенство и безработица, а вы со своим ИИ.
10. Изучение искусственного интеллекта в университетах не должно ограничиваться только компьютерными и инженерными дисциплинами
— А за чей счёт будет этот банкет?
Короче, сплошные «манифесты с горшка детского сада». Прокатит на выступлениях антиглобалистской молодёжи да на хипстерских форумах.