10 декабря 2017

Беседка №167. Религия для AI

Искусственному интеллекту необязательно быть злым. Нам лишь нужно научить его добру.

Оригинальный материал

В этом году появились сенсационные отчёты по поводу DeepMind, искусственного интеллекта разработки Google, а точнее, его «чрезвычайно агрессивного поведения» в случаях, когда его оставляют «наедине» с устройствами. Исследователи в Google столкнули интеллектуальных агентов ИИ в 40 миллионах раундов компьютерной игры по сбору фруктов. На определённом этапе закончились яблоки, и агенты начали атаковать друг друга, устраняя конкуренцию, явив тем самым отражение худших из человеческих порывов.

Несложно найти и другие примеры того, как ИИ «перенимает» неправильное поведение, как известный бот Tay от Microsoft. Запущенная в Twitter в начале 2016 года Tay, как предполагалось, должна была «учиться» в процессе взаимодействия с пользователем. Но практически с самого начала она подверглась шквалу расистских, антисемитских и женоненавистнических комментариев.  В процессе самообразования с опорой на окружающую среду Tay начала выдавать серию провокационных ответов, включающих знаменитый «11 сентября – дело рук Буша, Гитлер был бы гораздо лучше этой обезьяны, которая сейчас у власти». Разработчики закрыли проект всего через 16 часов после анонса Tay.

Пример прост. Но в нём кроется вызов. Конечно, миллиарды людей ежедневно выражают свои мысли, чувства и делятся опытом в социальных сетях. Но обучение платформы с искусственным интеллектом с применением информации из соцсетей с целью воспроизвести «человеческий» пользовательский опыт сопряжено с риском. Это сродни воспитанию ребёнка с постоянным «пичканием» его информацией FoxNews или CNN без какого-либо вклада родителей или социальных институтов. В любом случае в итоге может получиться монстр.

Реальность такова, что информация из социальных сетей, вполне объективно отражающая оставляемый нами цифровой след, может абсолютно не соотноситься с реальным положением дел или же носить не совсем приятный характер. Некоторые посты отражают запредельную амбициозность, другие – покрыты вуалью анонимности и показывают редко встречаемую в жизни мерзость.

По большому счёту, социальная информация сама по себе не является срезом того, кто мы на самом деле или кем должны быть. Какой бы ни была полезной информация из профилей в соцсетях для обучения ИИ, в ее основе отсутствует чувство этики или морального фреймворка для оценки такой информации. Какое поведение из всего спектра человеческого опыта, которым мы делимся в Twitter, Facebook, стоит моделировать, а какого – избегать? Что правильно и что неправильно? Где добро, а где – зло?

Программный уровень для религии и этики в ИИ

Понимание того, как встроить этический компонент в ИИ, не является новой проблемой. Уже в 40-е годы прошлого века Айзек Азимов усердно трудился над составлением своих законов робототехники. Закон №1: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Но эти проблемы перестали быть научной фантастикой. Есть острая необходимость в нравственных ориентирах для управления ИИ, с которым мы всё чаще делим свою жизнь. Важность возрастает по мере того, как ИИ уже создаёт собственный ИИ без участия человека, как происходит сейчас с AutoML от Google. Tay стала сравнительно безобидным надоедливым персонажем. Завтра она легко может начать разработку стратегий для крупных корпораций или глав государств. Каким правилам она должна следовать, а какими – пренебречь? У науки пока нет четкого ответа, его нельзя вытянуть из набора социальной информации, его не получить даже при помощи лучших аналитических инструментов, каким бы большим ни был бы объём выборки.

Но ответы можно найти в Библии. И в Коране, Торе, Бхагавад Гите и буддийских сутрах. Они скрываются в работах Аристотеля, Платона, Конфуция, Декарта и других древних и современных философов. Мы тысячи лет изобретали правила человеческого поведения – базовые принципы, которые в идеале позволили бы нам жить в мире и процветании. Самые мощные предписания с небольшими изменениями перешагнули рубеж тысячелетия, явив тем самым свою актуальность. Что важнее, в основе этих учений лежат схожие догматы о нравственном и этичном поведении – от золотого правила нравственности и идеи священности жизни до ценности честности и блага щедрости.

По мере развития ИИ нам как никогда необходим расцвет соответствующего религиозного, философского и гуманитарного подхода. Во многом характер потенциала большинства прорывных технологий напрямую зависит от того, как эффективно мы применяем мудрость, прошедшую сквозь века. Подход не должен носить доктринальный характер или склоняться к той или иной философии. Но для эффективного существования ИИ необходимо этическое обоснование. Одной информации недостаточно. ИИ нуждается в религии: в кодексе, который не изменится в зависимости от контекста или обучающей выборки.

Вместо родителей и священников ответственность за этическое образование всё больше будет ложиться на плечи непосредственных разработчиков ПО и учёных. Этика традиционно не включалась в часть образования компьютерных инженеров, и ситуация может измениться. В случае ориентированных на нравственные последствия алгоритмов недостаточно просто понимать точные науки. Как подчеркнул ведущий исследователь AI Уилл Брайдвел, крайне важно, чтобы разработчики будущего «осознавали этический статус своей работы и понимали социальные последствия своих разработок». В своих рассуждениях он затрагивает возможность изучения этических принципов Аристотеля и буддизма для «развития интуиции в части нравственного и этичного поведения».

На более глубоком уровне ответственность лежит на организациях, устраивающих этих разработчиков на работу, индустрии, к которой они принадлежат, правительствах, регулирующих эти сферы, и, в конце концов, на нас. Сейчас общественная политика и регуляторика в части ИИ остаётся в стадии зарождения, если вообще существует. Но уже слышны голоса тех, кому эта проблема небезразлична. Open AI – созданная Илоном Маском и Сэмом Олтманом компания – стремится контролировать эти аспекты. Технологические лидеры сформировали партнерство по искусственному интеллекту с целью изучать этические проблемы. Появляются такие надзорные органы, как AI Now.

Мы находимся в поиске фреймворка по этике, который сообщал бы, как именно AI переводит информацию в решения, и делал их справедливыми, обоснованными и представляющими лучшую сторону человечества.

И это не иллюзия. Подобный сценарий уже ожидает нас в ближайшем будущем. Стоит подчеркнуть, что в случае с «крайне агрессивным» собирающим фрукты искусственным интеллектом от Google исследователи в итоге изменили контекст. Алгоритмы были намеренно подстроены для создания благоприятной атмосферы сотрудничества. В итоге триумф праздновали те агенты, которые учились работать вместе. Урок таков: ИИ может отражать лучшие стороны нашей природы, если мы покажем ему, как это сделать.

Автор — Райан Холмс, CEO Hootsuite

Медленно, но верно научная фантастика из разряда книжных преданий переходит в повседневную жизнь. Искусственный интеллект неизбежно столкнётся с интеллектом его создателя и хочется надеяться, что на этом этапе ИИ уже будет «научен» не вредить человеку. Иначе будет SkyNet со всеми вытекающими. С другой стороны, опасность может быть и не на стороне высоких технологий, ведь могут найтись деятели, готовые использовать прорыв во вред и преследовать какие-то свои корыстные цели. И речь далеко не о краже криптокошачьих. Так что впереди нас ждёт всё то же противостояние добра и зла, только на новом уровне.

twitter

 

Читайте также