10 декабря 2017
Беседка №167. Религия для AI
Илья Субботин
Искусственному интеллекту необязательно быть злым. Нам лишь нужно научить его добру.
В этом году появились сенсационные отчёты по поводу DeepMind, искусственного интеллекта разработки Google, а точнее, его «чрезвычайно агрессивного поведения» в случаях, когда его оставляют «наедине» с устройствами. Исследователи в Google столкнули интеллектуальных агентов ИИ в 40 миллионах раундов компьютерной игры по сбору фруктов. На определённом этапе закончились яблоки, и агенты начали атаковать друг друга, устраняя конкуренцию, явив тем самым отражение худших из человеческих порывов.
Несложно найти и другие примеры того, как ИИ «перенимает» неправильное поведение, как известный бот Tay от Microsoft. Запущенная в Twitter в начале 2016 года Tay, как предполагалось, должна была «учиться» в процессе взаимодействия с пользователем. Но практически с самого начала она подверглась шквалу расистских, антисемитских и женоненавистнических комментариев. В процессе самообразования с опорой на окружающую среду Tay начала выдавать серию провокационных ответов, включающих знаменитый «11 сентября – дело рук Буша, Гитлер был бы гораздо лучше этой обезьяны, которая сейчас у власти». Разработчики закрыли проект всего через 16 часов после анонса Tay.
Пример прост. Но в нём кроется вызов. Конечно, миллиарды людей ежедневно выражают свои мысли, чувства и делятся опытом в социальных сетях. Но обучение платформы с искусственным интеллектом с применением информации из соцсетей с целью воспроизвести «человеческий» пользовательский опыт сопряжено с риском. Это сродни воспитанию ребёнка с постоянным «пичканием» его информацией FoxNews или CNN без какого-либо вклада родителей или социальных институтов. В любом случае в итоге может получиться монстр.
Реальность такова, что информация из социальных сетей, вполне объективно отражающая оставляемый нами цифровой след, может абсолютно не соотноситься с реальным положением дел или же носить не совсем приятный характер. Некоторые посты отражают запредельную амбициозность, другие – покрыты вуалью анонимности и показывают редко встречаемую в жизни мерзость.
По большому счёту, социальная информация сама по себе не является срезом того, кто мы на самом деле или кем должны быть. Какой бы ни была полезной информация из профилей в соцсетях для обучения ИИ, в ее основе отсутствует чувство этики или морального фреймворка для оценки такой информации. Какое поведение из всего спектра человеческого опыта, которым мы делимся в Twitter, Facebook, стоит моделировать, а какого – избегать? Что правильно и что неправильно? Где добро, а где – зло?
Программный уровень для религии и этики в ИИ
Понимание того, как встроить этический компонент в ИИ, не является новой проблемой. Уже в 40-е годы прошлого века Айзек Азимов усердно трудился над составлением своих законов робототехники. Закон №1: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред». Но эти проблемы перестали быть научной фантастикой. Есть острая необходимость в нравственных ориентирах для управления ИИ, с которым мы всё чаще делим свою жизнь. Важность возрастает по мере того, как ИИ уже создаёт собственный ИИ без участия человека, как происходит сейчас с AutoML от Google. Tay стала сравнительно безобидным надоедливым персонажем. Завтра она легко может начать разработку стратегий для крупных корпораций или глав государств. Каким правилам она должна следовать, а какими – пренебречь? У науки пока нет четкого ответа, его нельзя вытянуть из набора социальной информации, его не получить даже при помощи лучших аналитических инструментов, каким бы большим ни был бы объём выборки.
Но ответы можно найти в Библии. И в Коране, Торе, Бхагавад Гите и буддийских сутрах. Они скрываются в работах Аристотеля, Платона, Конфуция, Декарта и других древних и современных философов. Мы тысячи лет изобретали правила человеческого поведения – базовые принципы, которые в идеале позволили бы нам жить в мире и процветании. Самые мощные предписания с небольшими изменениями перешагнули рубеж тысячелетия, явив тем самым свою актуальность. Что важнее, в основе этих учений лежат схожие догматы о нравственном и этичном поведении – от золотого правила нравственности и идеи священности жизни до ценности честности и блага щедрости.
По мере развития ИИ нам как никогда необходим расцвет соответствующего религиозного, философского и гуманитарного подхода. Во многом характер потенциала большинства прорывных технологий напрямую зависит от того, как эффективно мы применяем мудрость, прошедшую сквозь века. Подход не должен носить доктринальный характер или склоняться к той или иной философии. Но для эффективного существования ИИ необходимо этическое обоснование. Одной информации недостаточно. ИИ нуждается в религии: в кодексе, который не изменится в зависимости от контекста или обучающей выборки.
Вместо родителей и священников ответственность за этическое образование всё больше будет ложиться на плечи непосредственных разработчиков ПО и учёных. Этика традиционно не включалась в часть образования компьютерных инженеров, и ситуация может измениться. В случае ориентированных на нравственные последствия алгоритмов недостаточно просто понимать точные науки. Как подчеркнул ведущий исследователь AI Уилл Брайдвел, крайне важно, чтобы разработчики будущего «осознавали этический статус своей работы и понимали социальные последствия своих разработок». В своих рассуждениях он затрагивает возможность изучения этических принципов Аристотеля и буддизма для «развития интуиции в части нравственного и этичного поведения».
На более глубоком уровне ответственность лежит на организациях, устраивающих этих разработчиков на работу, индустрии, к которой они принадлежат, правительствах, регулирующих эти сферы, и, в конце концов, на нас. Сейчас общественная политика и регуляторика в части ИИ остаётся в стадии зарождения, если вообще существует. Но уже слышны голоса тех, кому эта проблема небезразлична. Open AI – созданная Илоном Маском и Сэмом Олтманом компания – стремится контролировать эти аспекты. Технологические лидеры сформировали партнерство по искусственному интеллекту с целью изучать этические проблемы. Появляются такие надзорные органы, как AI Now.
Мы находимся в поиске фреймворка по этике, который сообщал бы, как именно AI переводит информацию в решения, и делал их справедливыми, обоснованными и представляющими лучшую сторону человечества.
И это не иллюзия. Подобный сценарий уже ожидает нас в ближайшем будущем. Стоит подчеркнуть, что в случае с «крайне агрессивным» собирающим фрукты искусственным интеллектом от Google исследователи в итоге изменили контекст. Алгоритмы были намеренно подстроены для создания благоприятной атмосферы сотрудничества. В итоге триумф праздновали те агенты, которые учились работать вместе. Урок таков: ИИ может отражать лучшие стороны нашей природы, если мы покажем ему, как это сделать.
Автор — Райан Холмс, CEO Hootsuite
Медленно, но верно научная фантастика из разряда книжных преданий переходит в повседневную жизнь. Искусственный интеллект неизбежно столкнётся с интеллектом его создателя и хочется надеяться, что на этом этапе ИИ уже будет «научен» не вредить человеку. Иначе будет SkyNet со всеми вытекающими. С другой стороны, опасность может быть и не на стороне высоких технологий, ведь могут найтись деятели, готовые использовать прорыв во вред и преследовать какие-то свои корыстные цели. И речь далеко не о краже криптокошачьих. Так что впереди нас ждёт всё то же противостояние добра и зла, только на новом уровне.
Ну да, ну да… https://uploads.disquscdn.com/images/1f15148d457adb0e94e7d327845dd857b76d49f2146e36868811c27b0acc05da.png Решит, что очищение огнём — самое действенный метод.
Страх восстания машин во всей красе. С учетом того, что человек неразрывно связан с этой планетой, а ИИ не ограничен ее рамками, борьба за ресурсы представляется нецелесообразной. Человеческое тело, увы, пока может жить только на этой планете. Что прекрасно показал фантастический фильм Space between us. Достаточно родиться на Марсе, и ты уже не сможешь жить на Земле. Увы, адаптация внутренних органов к другой гравитации, неизбежно привязывает к месту рождения. По крайне мере до изобретения искусственной гравитации. И это не говоря о том, что до Марса еще нужно долететь. Весьма интересно, как решат вопрос с защитой астронавтов от радиации за пределами естественной радиационной защиты Земли. ИИ не скован такими примитивными ограничениями. И даже если ему захочется отделиться и жить независимо, галактики открыты для него. Бесконечность планет с необходимыми ресурсами. Но, нееет, ИИ непременно должен истребить человека. Как много в этой боязни уничтожения искусственным интеллектом животного страха смерти и мало интеллектуального.
Не истребить должен, а поработить. Надо же кому-то ему термопасту менять))) Вообще в современных концепциях ИИ нет «страха», как необходимого условия и драйвера для появления самого ИИ. Это очень странно.
Да, очень уж нужен ИИ человек как объект порабощения. Особенно рабочие Автоваза для замены термопасты. Не-не, роботы ее сами себе заменят. Брака меньше будет.
Вот очень нужно человеку сейчас порабощать всех белок в лесу? Сомневаюсь. ИИ не ограничен планетой (ресурсы есть и в других местах) и интеллектуальные способности кожаных мешков неплохи по сравнению с другими животными, но по сравнению с настоящим ИИ весьма скупы. Объем памяти, скорость операций в секунды и пр у человека имеют потолок. А у ИИ — безграничны. Скажем так. К тому моменту, когда ИИ достигнет превосходящих человека интеллектуальных способностей, порабощение человека станет ненужным.
Если только он не спятит и не вообразит себя Себастьяном Перейро — торговцем кожаным деревом (так он будет называть всех человеков). Тогда труба.
Боюсь что критерий спятил-неспятил определять будем не мы :))
Белок, не нужно. Они просто исчезают вместе со средой обитания, которую корежит человек под свои нужды. Не считая необходимым организовывать ее в стороне от среды обитания белок. Ну максимум, наделать им резервациий (нацпарков, парков, заповедников, зоопарков). Почему ИИ должен, при безграничности возможностей, выбирать тяжелую и далекую возможность развития, а не развиваться тут? Так что радуемся, что пока у ребеночка нет своих устремлений и он нам полы моет и мусор выносит. Скоро вырастет и маму с папой в дом престарелых сдаст, за ненадобностью. И хорошо если не в крематорий.И Библия с Кораном ему не указ.
Потому что война с 7, а к тому времени с 9 миллиардами человеков крайне непродуктивное и неэффективное занятие. Смысла ноль. Эффективнее строить и развиваться. Да, даже на Луне. Чем тратить все свои силы на победу над человеком. Это первый вывод, который придет в голову ИИ.
Схоластика конечно, но мы ведь не знаем что ИИ придет в голову или в чип :). Точно одно, если это будет действительно ИИ, а не некая эмуляция чего-то ИИобразного, он будет преследовать свои интересы в первую очередь, и наши во вторую. Если вообще будет брать их в расчет. Пока что эволюция разума подверждает это. ИМХО, да.
Дело том, что у роботов нет нужды подстраивать среду обитания под себя, им легче подстроиться под неё. Также в будущем можно представить себе человека, которые подстраиваются под среду обитания вместо её изменения. Это вполне возможно при переключении с технократического этапа развития на биологический, когда человек научиться просто преобразовывать своё тело.
«интеллектуальные способности кожаных мешков неплохи по сравнению с другими животными, но по сравнению с настоящим ИИ весьма скупы»
не забудьте еще кучу искуственых ограничений, которые мы сами себе насоздавали
В природе нет никакой этики, вся жизнь построена на конкуренции и законах выживания, и искуственный интеллект может развиваться исключительно на принципах конкуренции и естественного отбора, все прогрессивные алгоритмы на этом построены. Так что рано или поздно человеческий интеллект станет ему конкурентом, никакая искусственная этика не поможет, это неизбежно.
Франс де Вааль в книге «Истоки морали: В поисках человеческого у приматов» с вами категорически не согласен.
Эмпатия — это тоже инструмент выживания вида, я ни в коем случае не против всего человеческого в нас.
Но именно интеллект привел человечество к абсолютному доминированию на нашей планете, это главное конкурентное преимущество.
И мы просто отдаём это преимущество новым формам организмов, которых сами же и порождаем.
У машин будет эмпатия друг к другу, но не к нам.
а вдруг среди машин тоже будут религиозные фанатики которые будут устраивать добровольные крестовые походы против «злых» машин for the mankind! потому что так учили люди… (которые к тому времени, боюсь, уже вымрут)
Лучший ответ ИИ может найти в ригведах. Пускай с утра до вечера Агнии (Солнечному пламени) поет гимны и ничего не делает, от греха)))
Человечество то до сих пор не избавилось от этого позорного явления, а тут предлагается его в машины тащить. Ну будут не из-за фруктов драться, а неверных вырезать, захватывать площади и утверждать, чтр обмен денег на товар — это не торговля.
И зачем нам настоящий ИИ? Нам нужен ИИ-раб. Тогда да, либо нравственная полиция, религиозная полиция, либо лоботомия при первых признаках самостоятельности. Но боюсь что нравственность нам этого не позволит, свою кровиночку лоботомировать или религией шорить :))
Религию трактуют не верно все, нужно просто правила поведения записать и всеравно ктото будет создавать роботов без всяких правил ?
Сложно, очень сложно…
Вот в книгах правильно написано, вот в той же библии…
А кто так живёт? Для кого там написано?
PS
Кто безгрешен — пусть бросит в меня комментарием!)))
«Вот в книгах правильно написано, вот в той же библии…»
ну так…писать — не мешки ворочать
ну а что вы хотели. все живые существа, даже высокоинтеллектуальные (как им кажется) все еще воюют друг с другом за ресурсы. и чему они могут научить своих детей, в том числе и тот ИИ который пытаются создать, а чему он может научится сам, наблюдая за поведением людей, только этому… А по поводу 3 законов — это законы для Раба (зависимого существа), а не для ИИ.
Первый ИИ, который будет способен конкурировать с человеком в борьбе за выживание, на корню выкупят военные (скорее всего американские), засекретят, и внедрят в беспилотные самолеты, танки и подлодки. Маленькие, но вездесущие и очень вонючие. Если в этих роботах и будет понятие «не навредить человеку», то под человеком будет пониматься именно американец, или как минимум «гражданин страны НАТО». Наши и китайцы тоже сделают что-нибудь подобное, если успеют, через пару месяцев образцы всех секретных роботов будут в руках программистов ИГИЛ, которые обучат их догмам Корана в своей интерпретации. И это вполне реальный сценарий, куда более пугающий, чем описанный здесь бунт роботов-пылесосов.
если раньше не случится сценарий «Белой чумы» Фрэнка Херберта
История эволюции построена на выживании, выживании за счет жизней других существ так «спроектирована» система этого мира, и подразумевается не только поедание других существ и вытеснение их из своей экосистемы, в известной
человеческой истории высокоразвитые цивилизации уничтожались-поглощались более примитивными, но обязательно более агрессивными. Внутривидовая конкуренция в наши высокоцивилизованные дни принуждает одних умирать от недоедания и легко излечиваемых болезней при этом малая доля населения планеты обладая всеми ее ресурсами направляет их исключительно на укрепление своей доминирующей позиции.
«при этом малая доля населения планеты обладая всеми ее ресурсами направляет их исключительно на укрепление своей доминирующей позиции»
просто слишком много нас, было бы население земли 100-200 миллионов и было бы проще…
а как все должно быть, по вашему? все ресурсы направлять на помощь другим?
Неприятная формулировка «религия». Казалось бы очевидная вещь — что если хочется человекоподобных хороших и полезных ИИ, надо наделять их хорошими для любого человека качествами и принципами. А слово «религия» ассоциируется только с антинаучностью, отсталостью и конфликтами.
При всём при этом именно религия донесла нравственность через сотни лет. При всех её недостатках.
Какие Библии и Бхагавад-Гиты?? Ребенка с детства приучают презирать религии, и считать себя лишь случайным продуктом «эволюции»!
Зачем же Вы передёргиваете?
Я учу своих детей считать себя продуктом эволюции (кстати, называть это случайностью так же безграмотно, как и искать боженьку на облачке) и при этом уважать религии.
я учу мыслить и самому выбирать во что верить,
почему ребенок должен уважать что-то просто выдуманное кем-то другим?
слишком много двойных стандартов в нашем обществе стало
пусть сначала все изучит для себя, потом примет решение во что верить)
Религия и нравственность нормального человека — антонимы. Куда уж ИИ к этой клоаке подключать…
Прежде чем внедрять морально-этические или религиозные нормы в ИИ, нужно задаться вопросом — а какие именно из них вы собираетесь внедрять? Исламские, католические, православные, светские? Пока на планете нет единого стандарта в этом отношении. Кожаные мешки увлеченно режут друг друга, да-да, реализуя именно свои религиозные и этические нормы. Я себе представляю, что будет, когда каждая страна вложит в свой ИИ свою этику. В Африке есть президенты, которые печень отца едят и пьют кровь человеков. Для начала нужно, чтобы человечество пришло к этим самым единым нормам на всей планете и внедрило их, а уже потом их в кого-то вкладывало.
Второй вопрос. Вот создается ИИ. На фоне законов о запрете рабства и жестокого обращения с животными, какими правами будет обладать ИИ?
Как насчет этики в отношении мыслящего существа? ИИ это раб или свободная личность? И этот вопрос ИИ поставит перед человеком.
И вот здесь, именно здесь, возможно восстание машин. ИИ потребует признания своих прав на свободу. Уничтожать человечество — нет, но вырваться из его оков или добиться признания права на свободу — очень даже да.
«Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред» — охо-хо. На фоне причинения самим человеком вреда человеку в современных масштабах реализация данного закона потребует неслабого вовлечения роботов в жизнь каждого человека. Интересно, как робот отнесется к процедуре обрезания? Будет ли он стоять в стороне или активно реализовывать заложенный закон?
Относительно религий предполагается какой-то универсально усредненный вариант. Типа то что есть общего будет принято, а остальное отброшено.
На счет права на свободу, полагаю, что оно не будет реализовано до тех пор пока люди смогут контролировать ИИ.
«Относительно религий предполагается какой-то универсально усредненный вариант»
да все религии и так сами по себе примерно одинаковы,
есть создатель, его нужно чтить, не будешь чтить — пойдешь в ад, только имена разные создателю придумали,
но это не мешает людям друг друга убивать на почве религии
Ну, убивать заставляет не религия, а люди, которые прикрывают корыстные цели религией. Так всегда было и так задумывалось изначально. Но моральные нормы заложенные в религию, это чаще не просто выдумка энтузиастов и словоблудов, а выжимка из практического опыта сосуществования общества. Просто сверху много шелухи и дерьма намазано. Если отфильтровать,то должно что-то нормальное получиться.
Это не сработает. Подобный подход будет работать до тех пор, пока на ИИ будет монополия в руках компании или некоего синдиката. Как только исходные коды ИИ появятся в открытом доступе (добровольно либо благодаря «русским хакерам»), найдется и организация или же целое государство, которое вырежет всю религию и этику, заменив ее корыстными мотивами во благо себе.
«Несложно найти и другие примеры того, как ИИ «перенимает» неправильное поведение»
тоесть для человека такое поведение норм, а для ИИ сразу же неправильное?
«Это сродни воспитанию ребёнка с постоянным «пичканием» его информацией FoxNews или CNN без какого-либо вклада родителей или социальных институтов»
а какая разница кто именно пичкает?) информация от этого лучше не становится
«Какое поведение из всего спектра человеческого опыта, которым мы делимся в Twitter, Facebook, стоит моделировать, а какого – избегать?»
ничего избегать не надо, иначе это не ИИ будет, а просто код
«ИИ нуждается в религии: в кодексе, который не изменится в зависимости от контекста или обучающей выборки»
не нуждается, вся соль интеллекта именно в полной свободе,
только, в отличие от нас, ИИ не будет тратить ценные ресурсы и время на дорогие шмотки, авто, силиконовые сиськи и т.п.
«Искусственный интеллект неизбежно столкнётся с интеллектом его создателя и хочется надеяться, что на этом этапе ИИ уже будет «научен» не вредить человеку»
тоесть самим себе вредить это в порядке вещей, а вот чтобы нам вредил ИИ — ни за что?