Еще в 1950 году Алан Тьюринг придумал тест, который был призван отличить робота от человека. В то время еще и не подозревали, что в XXI веке можно будет попросить поискового ассистента на смартфоне найти что угодно, а искусственный интеллект сможет писать песни и оценивать популярность ваших будущих постов в Instagram.
В наше время ученые пошли дальше и провели эксперимент, который назвали «Минимальным тестом Тьюринга». Участникам нужно было представить, что они стоят перед неким судьей на пару с роботом. Судья не знает, кто есть кто, но должен убить робота. Чтобы доказать, что вы не машина, предлагалось выбрать одно слово, которое и будет сказано судье. Мы в Adme-ru решили реализовать и свою версию эксперимента, результаты которой ждут вас во второй половине статьи.
Как проходил эксперимент и какие слова лидировали?
Ученые сначала опросили около 1 000 участников в режиме онлайн. Самыми популярными на этой стадии эксперимента были слова, связанные с эмоциями: «любовь», «спасибо» (около 2,7 %). Часто называли абстрактные эмоции, еду, слова «Бог» и «Иисус», роботов и животных, семью. На пике популярности — слова «душа», «человек», «пожалуйста».
Были и необычные слова, выдуманные выражения, сленг, сокращения: yolo, noob, oops, lol, omg, huh?. Не обошлось и без «терминатора».
© The Terminator / Hemdale
Ученые подчеркнули, что назвать «Минимальный тест Тьюринга» безопасным сложно, ведь он в действительности вряд ли помог бы судье определить, кто человек, а кто робот, с высокой точностью. Опросив 1 000 участников, авторы эксперимента пошли дальше и попросили новых испытуемых оценить пары слов, которые были сформированы из ответов. Стояла задача опознать, какое слово из пары сказал человек, а какое сгенерировал робот или искусственный интеллект (участники эксперимента не знали, что оба слова в паре были сказаны человеком). Самым «человечным» после оценки таких пар оказалось слово «какашка» — poop.
© sciencedirect.com
Мы решили повторить этот эксперимент
Так как в оригинальном эксперименте участвовали только англоязычные участники, мы повторили его с русскоязычной аудиторией, чтобы сравнить результаты. Для этого опросили около 70 человек. К тому же мы решили посмотреть, как будет меняться настрой участников, если судья с первого раза им не поверит и ситуация накалится. Мы немного изменили условия эксперимента: нашим испытуемым было предложено 3 шанса вместо одного.
© vilnius / Pikabu
Самыми частыми ответами среди опрошенной аудитории стали выдуманные слова: «грустечувствительный», «паникопроводимость». Эти слова вряд ли есть даже в самой широкой базе робота, так как они не зафиксированы в словарях, но их смысл мы в целом можем уловить. Были и выдуманные слова, смысл которых пришлось расшифровывать: «Я бы назвала слово „курмымзлик“. Это наше семейное слово, обозначает человека, который выглядит примерно как обиженный суслик, промокший под дождем». Один из участников предложил выдуманное Довлатовым слово «абанамат».
© Depositphotos.com
Не менее активно предлагали слова с уменьшительно-ласкательными суффиксами — с учетом того, что робот, скорее всего, их использовать не будет: «огогошеньки», «печалька». Активно называли и еду, причем тоже с суффиксами: «картошечка», «шашлычок». Среди совпавших с англоязычной аудиторией слов были самые популярные варианты из оригинального эксперимента: «любовь», «душа», «мама», «воображение».
Многие уже на второй-третьей попытке предполагали, что скажут что-то нецензурное (некоторые участники даже собирались сделать выдуманное выражение из нескольких нецензурных слов, предполагая, что непристойные выражения все-таки есть в базе искусственного интеллекта).
© Ghost in the Shell / Paramount Pictures
Некоторые участники эксперимента делали ставку не только на смысл сказанного, но и на эмоциональность, которую они будут при этом выражать:
- «Ткнула бы в робота пальцем, пристально посмотрела в глаза судье и сказала: „Фальшивка!“ И сделала бы это так, как ни один робот не смог бы: эмоционально».
- «Как вариант — „апчхи!“. Я начинаю говорить: „Понимаете, ваша честь… Апчхи!.. Я хотел сказать…“ Судья: „Не продолжайте, дело закрыто!“»
Многие просто озвучивали слова с эмоциональным окрасом («обалдеть», «жрать», «голодомор») или просто вопросительные слова («посадите?», «подписаться?»). Некоторые выбирали выражения, которые значат что-то именно для них: «Я бы назвала свой город», «Назвала бы свое имя», «Я бы назвала имя человека, которого люблю. Хотя нет… Имя своего кота. Да».
© Приключения Электроника / Одесская киностудия
Было и несколько человек, которые выбрали просто молчать. Один из участников объяснил это тем, что робот не сможет ослушаться приказа судьи (если он так запрограммирован, конечно), поэтому он в любом случае что-то скажет. А молчание докажет судье, что перед ним человек. Другой участник эксперимента выбрал молчание просто потому, что бесполезно было бы что-то говорить судье, потому что нынешний искусственный интеллект можно научить и нецензурным выражениям, и выдуманным словам, и вообще чему угодно.
© 1ItalianLurker / Reddit
Один из участников на третий раз сказал бы слово «Станиславский» (если бы судья отвечал «не верю» на предыдущие варианты ответа). Хоть у робота в базе, скорее всего, и была бы эта фамилия, но не факт, что он завернул бы такую логическую цепочку, и был бы шанс на спасение. Другой участник третьим вариантом сказал бы слово «вред», аргументируя это тем, что робот не стал бы называть заведомо проигрышное слово. Он бы генерировал только лучшие варианты, и таким образом судья мог бы понять, кто именно человек.
В конце эксперимента ученые подчеркнули, что его можно использовать для проверки других стереотипов. Какое слово, по мнению людей, скажет женщина или старик? Несмотря на развитие искусственного интеллекта, который сегодня, кажется, способен на что угодно, участники и англоязычного, и нашего эксперимента смогли придумать варианты, которые даже самый умный робот не смог бы назвать. Не так легко выдумать слово или составить выражение из нескольких существующих, которое будет восприниматься на слух и иметь смысл. С другой стороны, если бы нужно было называть только слова из словаря, отличить человека от умного робота было бы практически невозможно. В таком случае, лучше было бы подобрать другие методы проверки.
И самое интересное! Что в такой ситуации сказали бы вы?
Discussion about this post