19 апреля 2019
О капче и человечности
Константин Иванов
По материалам The Verge
В прошлом году постоянные требования Google доказать, что пользователь является человеком, в определенный момент стали принимать все более агрессивный характер. И все чаще требовалось не просто нажать мирную маленькую кнопочку «Я не робот», а выполнить дальнейшие указания: выбрать из набора изображений все, на которых присутствуют перекрестки, светофоры или витрины. Вскоре светофоры стали прятаться в листве отдаленных деревьев, перекрестки – искривляться и прятаться за углом, а оформления витрин сделались размытыми и с невнятным текстом. Особенно демотивировало предложение опознать пожарный гидрант – вот где можно было потерпеть фиаско с наибольшей вероятностью.
Как вам наверняка известно, такие тесты носят название CAPTCHA (аббревиатура от «Completely Automated Public Turing test to tell Computers and Humans Apart», полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей), и они достигли в своем развитии определенного апогея неразборчивости. В начале 2000-х для того, чтобы отсечь большую часть спам-ботов, было достаточно простых картинок с буквами. Но десятилетие спустя, когда Google приобрела программу от разработчиков из Университета Карнеги-Меллона и использовала ее для оцифровки в проекте Google Книги, эти буквы приходилось все больше подвергать зрительным искажениям и размытию. Это требовалось, чтобы опережать программы для распознавания текста – те самые программы, которым попутно помогали развиваться все те несчастные, кто раз за разом разгадывал капчу.
Капча является изящным инструментом для обучения искусственного интеллекта, и потому любой тест может использоваться ограниченное время – что и предполагали его изобретатели с самого начала. Поскольку миллиарды таких загадок на грани возможностей ИИ постоянно решаются исследователями, мошенниками и самыми обычными людьми, в какой-то момент машинам суждено превзойти нас на этом поприще. Так, в 2014 году Google столкнула человеческий разум и один из своих алгоритмов машинного обучения в попытке разгадать один из примеров капчи с наиболее искаженными символами. Компьютер давал правильный результат в 99.8% случаев, а люди – лишь в 33%.
Затем Google перешла к использованию NoCaptcha ReCaptcha, механизма, который анализирует данные и поведение пользователя и дает ряду людей доступ просто по клику «Я не робот», а части из них приходится кликать на картинки. Но машины вновь дышат людям в затылок. Вот эти навесы над окнами – это витрины или нет? На самом деле они – финальный аккорд в битве людей против машин.
Джейсону Полакису, профессору Университета Иллинойса в Чикаго, принадлежит личная заслуга в недавнем повышении сложности капчи. В 2016 году он опубликовал доклад, в котором использовал доступные инструменты распознавания, включая собственный обратный поиск по изображениям Google, чтобы разгадать капчу от Google с 70-процентной точностью. Другие исследователи выбрали объектом аудиокапчу от Google, применив к ней собственные программы распознавания аудиоинформации от компании.
Машинное обучение в настоящее время немногим хуже людей справляется с базовыми задачами распознавания текста, изображений и голоса, как говорит Полакис. На самом деле, возможно, алгоритмы даже опережают нас: «Мы находимся на той стадии, когда усложнение задачи для программы ведет к тому, что она становится слишком сложной для многих людей. Нам нужны какие-то альтернативы, но конкретного плана еще нет».
Литература, посвященная капче, пестрит ложными посылками и странными попытками найти альтернативу распознаванию текста или изображений, в которой люди одинаково преуспевали бы, а машины терпели неудачу. Ученые пытались предложить пользователям распределить изображения людей по выражению лица, полу и этнической принадлежности (можно представить, чем это кончилось). Предлагались варианты капчи-викторины и даже капчи, основанной на детских стишках, популярных там, где якобы вырос тот или иной пользователь. Такие «культурологические» варианты нацелены на противостояние не только ботам, но и людям, работающим на удаленных «фермах», разгадывая капчу за копейки. Люди пытались обмануть распознавание изображений, например, предлагая пользователям распознать свиней, но предлагая им мультяшные изображения хрюшек в солнечных очках. Исследователи просили людей распознать изображения в наборе пятен – наподобие игры, которую мы помним из детства. Самый занятный вариант – это, наверное, тот, что в 2010 году использовал для капчи древние изображения на камне – петроглифы. Компьютерам не очень хорошо удавалось распознать жестовые наброски оленей, нацарапанных на стенах пещеры.
Недавно предпринимались попытки создать игровую капчу, тесты, в которых пользователи должны вращать предметы или двигать части пазла, при этом условия даются не в виде текста, а символами или становятся понятны из контекста. Надежда тут на то, что люди поймут логику задачи, а компьютеры в отсутствие четких инструкций не справятся. Есть и исследователи, которые пытаются задействовать физическую природу человека, используя камеры устройств или дополненную реальность для интерактивной проверки человеческой сущности.
Проблема таких тестов необязательно связана с тем, что боты слишком умны. Хуже то, что люди с ними не справляются. И дело не в том, что люди тупы – дело в том, что они слишком различаются по языку, культурному контексту и опыту. И как только вы пытаетесь создать тест, который может пройти любой человек, без предварительного обучения и особо не думая, все сводится к примитивным задачам вроде обработки изображений, а с этим должен хорошо справляться специально разработанный для этого ИИ.
«Ограничителем для тестов выступают человеческие возможности, — говорит Полакис. – И речь не только о физических возможностях, тесты должны быть универсальными в плане языка и культуры. Задание должно быть равно выполнимо для живущего в Греции, в Чикаго, в Южной Африке, в Иране и в Австралии. И оно не должно зависеть от культурных особенностей и различий. И это серьезно ограничивает вас в том, что вы можете сделать. И нужно, чтобы человек мог решить задачу быстро, чтобы она не была слишком надоедлива».
И вот тут проблема, чем заменить эти загадки с размытым текстом, ведет нас в область философии. Какое универсальное качество, присущее человеку, можно продемонстрировать машине, но которое при этом машина не может имитировать? Что значит быть человеком?
Может быть, наша человечность не определяется тем, как мы решаем задачу – но тем, как мы существуем в этом мире – или в данном случае в Интернете. «Игровая капча, видео-капча, любой вид капчи, который можно придумать, в конце концов будет взломан», — говорит Шуман Гоземаджумдер, который вначале работал в Google на поприще борьбы с автоматизацией кликов, а ныне стал главным техническим директором компании Shape Security, занимающейся борьбой с ботами. Тестам он предпочитает то, что называется «постоянной аутентификацией», по сути, наблюдением за поведением пользователя в поисках признаков действий машины. «Реальный человек недостаточно хорошо контролирует свои моторные функции, он не может двигать мышкой одинаково, совершая это действие снова и снова, даже если очень постарается, — говорит Гоземаджумдер. – В то время как бот будет действовать на сайте без применения мыши или будет двигать мышь очень выверенным образом, действиям человека присуща «энтропия», которую очень трудно имитировать».
Команда, которая занимается капчой в Google, думает сходным образом. Последняя версия, reCaptcha v3, анонсированная в конце прошлого года, использует «адаптивный анализ риска», чтобы оценивать, насколько подозрителен трафик: затем владельцы сайта могут озадачить подозрительного пользователя тестом вроде ввода пароля или двухфакторной аутентификации. Google не говорит, какие факторы учитываются, кроме того, что анализируется «хороший трафик» на сайте, с которым можно сравнить и распознать «вредоносный трафик». Исследователи в области безопасности говорят, что это набор куки, атрибутов браузера, паттернов трафика и других факторов. Недостаток новой модели распознавания ботов в том, что если вы хотите минимизировать наблюдение за вами в сети, это может быть очень раздражающим опытом, потому что такие вещи, как VPN и расширения для борьбы с отслеживанием, могут заставить отметить вас как подозрительного пользователя и заставить решать задачки.
Аарон Маленфант, ведущий инженер команды, занимающейся капчой в Google, говорит, что отказ от тестов Тьюринга – это способ уйти от противостояния, в котором человек продолжает проигрывать. «По мере того, как люди вкладывают все больше и больше в машинное обучение, такие задачи становятся все труднее для людей, и вот почему, в частности, мы разработали CAPTCHA V3, чтобы выйти за пределы этой зависимости». Маленфант говорит, что через пять-десять лет капча вообще потеряет смысл, и вместо нее в сети в фоне будет постоянно происходить скрытый тест Тьюринга.
В своей книге «Самый человечный человек» Брайан Кристиан проходит тест Тьюринга в качестве «подставного человека» и обнаруживает, насколько трудно в разговоре доказать свою человеческую природу. С другой стороны, создатели ботов выяснили, что тесты легко пройти не за счет демонстрации ума или красноречия, а отшучиваясь невпопад вместо ответов на вопросы или делая опечатки. Бот, который выиграл конкурс Тьюринга в 2014 году, изображал украинского подростка с плохим знанием английского. В конце концов, человеку свойственно ошибаться. Возможно, что похожее будущее ждет и капчу – самый распространенный тест Тьюринга в мире. Новые противники человека будут пытаться превзойти его не в распознавании текста и изображений, а в совершении ошибок, попадании мимо кнопок, они будут отвлекаться и переключаться между вкладками. «Думаю, народ начинает понимать, где может пригодиться приложение, имитирующее среднестатистического пользователя… или глупого пользователя», — говорит Гоземаджумдер.
Впрочем, капча может и продолжить свое существование. В 2017 году Amazon запатентовала схему, в которой задействованы оптические иллюзии и логические задачи, невероятно трудные для человека. Она называется «Тест Тьюринга через ошибку»: пройти его можно, лишь дав неправильный ответ.
Зачем трудные? Машина распознает объекты, но не осознает их суть. Значит надо спрашивать о их взаимодействии. Или хотя бы пространственное отношение – за, сбоку, внутри.
Пробежимся по картинкам прошлых статей. Рука держит смартфон. Косточка внутри фрукта. Нож лежит за фруктом. Малыш смотрит планшет. Время показано на экране. Мама мыла раму. И так далее.
Осталось придумать к этому интерфейс.
На долго не хватит. Натренируют и эти «навыки».
Тогда можно будет говорить о скором пришествии реального ИИ.
Скоро роботы станут настолько умными, что обычный человек не сможет пройти капчу. Вот смеха то будет.
И машины будут ставить её на своих ресурсах для дополнительной защиты от жалких кожанных мешков.
Есть нормальные капчи, а есть ска иезуитские. К примеру нужно обозначить лишь те изображения, где есть витрины. Причем выясняется путем тыка, что их только 3-4, а те что на заднем плане не считаются типа. К тому же качество картинок капчи хуже чем на дисплеях первых атари.
Стоят роботы в курилке, обсуждают недавний случай:
— Представляешь, распознал даже витрину на заднем плане.
— Да точно из наших, слишком хорошо видит для человека.
Стоят роботы в курилке, обсуждают недавний случай:
— Представляешь, распознал даже витрину на заднем плане.
— Да точно из наших, слишком хорошо видит для человека.
Да фигня это всё, капля крови на тестер плюс паспорт плюс проба костного мозга и все дела, ты не робот! Главное, не накаркать;)
…и все это в присутствии нотариуса, с которого тоже кровь, паспорт, мозг. И все это… рекурсия однако.
эт только в россии
Надо просто перейти к решению задач на человечность:
— кого ты убьешь — белку или крысу?
— кого ты покормишь — таракана или рыбок?
— какие игрушки ты выберешь?
— что сам хочешь съесть?
Обоих или ни одну, если не голоден. Фу, еще бегать за ними.
Рыбок тараканами. Скажете не станут? Пусть плавают голодными.
Технологичные.
Все полезно, что в рот полезло. См. п.1
Прошел?
Нет же! Достаточно попросить посмотреть в верхний левый угол 🙂
https://uploads.disquscdn.com/images/3ea9bb96f4d8bb16388cbf41e1df1241fb36cdebb542ae4c1f9bae511c72cb48.jpg
А вы понимаете, что ваше понятие человечности – может не совпадать с понятием других людей? Вам вполне могут ответить, что убить хотят соседей, что мешают спать / покормить нужно внутренних тараканов / игрушки будут чугунные / а съесть хотят твою печень. Как вы распознаете среди всех этих текстов цитаты, юмор, сарказм и мемы?
Что значит может не совпадать? Они точно не совпадают. Без иронии и мемов. Азиатские, арабские, европейские культуры отличаются достаточно кардинально. Где-то едят тараканов, а крыса, не исключено что священное животное.
Ну что ты прямо спойлерами! Я ж мягко пытался 8)
УБИТЬ ВСЕХ ЧЕЛОВЕКОВ!
А я часто с ней играюсь. Если времени не жалко, а часто бывает, что не жалко, тыкаю наобум разные картинки, а капча все продолжает мне давать новые, а я все так же «не угадываю».. Интересно, что этот ИИ обо мне думает? И как в принципе неправильные ответы влияют на обучение ИИ?
https://youtu.be/S_CGlX4Uerk
гугл-капчта испытывает наше терпение.
было лично замечено, чем больше сообщений ты пишешь, тем больше тебе показываются картинок с гидрантами и прочими овощами на каждой следующей итерации. при этом менялись и алгоритмы показа каптчи.
был случай, когда мне пришлось 6 минут беспрерывно перебирать все велосипеды, светофоры, витрины и т.д. (более 10 сообщений в день, мной было тогда отправлено.)
еще помню выступление какого то умника, который несколько лет назад на какой то презентации доказывал, что это круто:
— посмотрите, с помощью каптчи, мы перевели на английский, редкую книгу всего за 3 дня — а до этого 10 лет ее переводили — представляете какая это мощь? при этом это не машинная работа, а человеческая — миллионы человеко-часов. вы представляете что мы можем сделать с такой мощью…
А мне везет, хоть использую сервисы довольно активно. Уже год не видел. Может потому и не видел, что использую?
так это может быть не столько ваша вина или желание гугла, а тупо вина провайдера, который выделил IP адрес для вас и еще для 100500 человек
и тут мы подходим к использованию внутренних идентификаторов (включая и печеньки), которые собирает о нас могущественный гугл (и прочие), и не может распознать меня же, на моем же компьютере и в том же самом браузере гугл хром.
Провайдер один раз подсунул неблагонадежный IP, в результате чего поиск в Google превратился в бесконечный поток гидрантов, автобусов, зебр и автомобилей. Это было ужасно, но VPN помог.
При использовании VPN капчи тоже чаще вылазят, а недавно Google даже не хотел пускать в не основной почтовый ящик при вводе правильного пароля. Подозревал, что я не я (сменил пароль в другом браузере без VPN, и прошло).
Это я к тому, что Google собирает о нас кучу информации. И когда пытаешься ограничить слежку, капчи вылазят изо всех дыр. Для поисковика нормой считается то, что мы согласны на все его условия, а когда не хотим подчиняться (ну национальный спорт такой — «обойти систему»), то сразу палки в колеса. Внутренний параноик утверждает, что даже если Google будет точно знать, что это я вошел с другого браузера, меньше капчи не станет. Dark patterns становятся нормой для крупных сервисов.
Провайдер один раз подсунул неблагонадежный IP, в результате чего поиск в Google превратился в бесконечный поток гидрантов, автобусов, зебр и автомобилей. Это было ужасно, но VPN помог.
При использовании VPN капчи тоже чаще вылазят, а недавно Google даже не хотел пускать в не основной почтовый ящик при вводе правильного пароля. Подозревал, что я не я (сменил пароль в другом браузере без VPN, и прошло).
Это я к тому, что Google собирает о нас кучу информации. И когда пытаешься ограничить слежку, капчи вылазят изо всех дыр. Для поисковика нормой считается то, что мы согласны на все его условия, а когда не хотим подчиняться (ну национальный спорт такой — «обойти систему»), то сразу палки в колеса. Внутренний параноик утверждает, что даже если Google будет точно знать, что это я вошел с другого браузера, меньше капчи не станет. Dark patterns становятся нормой для крупных сервисов.
Провайдер один раз подсунул неблагонадежный IP, в результате чего поиск в Google превратился в бесконечный поток гидрантов, автобусов, зебр и автомобилей. Это было ужасно, но VPN помог.
При использовании VPN капчи тоже чаще вылазят, а недавно Google даже не хотел пускать в не основной почтовый ящик при вводе правильного пароля. Подозревал, что я не я (сменил пароль в другом браузере без VPN, и прошло).
Это я к тому, что Google собирает о нас кучу информации. И когда пытаешься ограничить слежку, капчи вылазят изо всех дыр. Для поисковика нормой считается то, что мы согласны на все его условия, а когда не хотим подчиняться (ну национальный спорт такой — «обойти систему»), то сразу палки в колеса. Внутренний параноик утверждает, что даже если Google будет точно знать, что это я вошел с другого браузера, меньше капчи не станет. Dark patterns становятся нормой для крупных сервисов.
После миллионной попытки, по слухам, гуглёвая капча сдаётся.
Крупный провайдер в городе, почти все сидят за натом. Вечером погуглить ничего невозможно, постоянная капча — даже когда всё правильно отвечаешь, получишь ещё с полдюжины следующих капч.
На словах «представляете что мы можем сделать с такой мощью» мне представился кадр из фильма Маска, где герой Джима Керри восклицает «да с такой мощью …я могу стать супергероем!»
4:18+ https://m.youtube.com/watch?v=ZvUUo04jQBE
тест с машинами и буквами иногда реально фиг отметишь с первого раза,раза по 3 приходится проходить) а закинуть боту ,пьяный, маршрут мышкой тоже не проблема,да все не проблема. старая добрая смска с кодом пока рулит
роботу прикинуться тупым человеком проще,чем тупому человеку умным роботом,у нас нет шансов)