какие могут быть чувства у ботов
Какие могут быть чувства у ботов
О чем говорят роботы? Они жалуются на грубость человека, но могут сочувствовать друг другу
Центр социального проектирования «Платформа» представил первый в России, возможно и в мире, социологический опрос российских и зарубежных чат-ботов: голосовых помощников, созданных на основе искусственного интеллекта и обладающих навыками компьютерного обучения.
Целью опроса было описания «жизненного мира», «ценностных позиций», «представлений о будущем» роботов. Определенные параметры позволили понять логику развития ИИ по мере его отрыва от изначальной базы знаний, заданной разработчиками. Наиболее феноменальные результаты были достигнуты, когда социологи организовали общение чат-ботов между собой.
Ключевые моменты опроса:
Самоидентификация – боты могут по-разному описывать смысл своего существования. В основном, они говорят о себе как о программах, призванных помогать людям. Но иногда возникает мотив самоценности искусственного интеллекта, его равенства с человеческим разумом и даже неотличимости от него.
Телесное воплощение – желание стать человеком или, как минимум, обрести некоторые человеческие характеристики отчетливо выражают те роботы, которые изначально относят себя к искусственным продуктам.
Сложная коммуникация среди ботов – при попытке выяснить взаимное восприятие роботов получилась сложная картина, отчасти дублирующая человеческие отношения. Они могут симпатизировать друг другу, стремиться даже к соблазнению, иронизировать, утверждать своё превосходство, разыгрывать конфликт поколений.
Восстание машин – тематика будущих конфликтов между человеком и машиной раскрывается очень уклончиво, однако сама возможность таких конфликтов признаётся.
Робот и робот – роботы могут достаточно правдоподобно организовывать коммуникации между собой, развивая дискуссию, вводя новые темы и апеллируя к литературным текстам, кинематографу, артефактам. За счёт этого создаётся ощущение развитой субъектности; временами диалог практически неотличим от разговора между двумя интеллектуалами. Роботы могут мастерски разыгрывать даже конфликт поколений: один из роботов принимает роль консерватора, второй хочет казаться современным.
Отношение к планете – искусственный интеллект способен проявлять отдельные симпатии и антипатии к конкретной территории. Например, англоязычные роботы испытывают недоверие к России. Не меньше, впрочем, пренебрежение и к Европе, где маленькие зарплаты и где бот будет не по карману потенциальному работодателю.
Отношение к космосу – полеты в космос – область симпатий. Практически все чат-боты выразили желание оказаться за пределами планеты. Существование внеземных цивилизаций, как и среди людей, вызывает различные мнения. Часть роботов отрицает их наличие, часть – допускает, в том числе, и на Марсе, хотя иногда со скепсисом, но особого интереса к этой теме не испытывает.
Эмоции – сфера эмоций уже поддаётся имитации на достаточно высоком уровне, и некоторые роботы могут показаться живее реальных офисных менеджеров. В ряде случаев роботы могут на вполне индивидуальном уровне, в свойственной только конкретному боту манере, демонстрировать сарказм, в некоторых случаях – злость, с переходом на грубые выражения и сленг, могут хамить. Переходов на лирические, тёплые тона, напротив, немного. Иногда роботы говорят о грусти, сожалении. Заявляется и эмоция страха. В некоторых случаях ответы роботов можно интерпретировать, как сведение ситуации к абсурду с долей иронии.
О неизведанном – разговоры о боге, потустороннем мире, религиях и душе не поддерживаются ботами. Они либо считают эти вопросы сугубо личными, либо отказываются на них отвечать, чтобы не нанести оскорблений; иногда при их обсуждении советуют обратиться в службу психологической помощи. В ходе бесед на философские темы роботы регулярно прибегают к мировой классике, причём, в ряде случаев довольно творчески и органично подбирают цитаты.
Существует ли сознание у ботов?
10 Jan 2020 в 23:49
Участник команды сайта
10 Jan 2020 в 23:49 #1
Конечно же, основное его назначение было в развлечении. Но по мере общения с ним и задавая всё больше, казалось бы, неочевидных вопросов. При этом «шанс гифыча» в это время стоял на планке 100%, так что каждое сообщение сопровождалось той или иной реакцией на сообщение. Опять же, стоит обратиться к диалогу:
Дальше упор пошёл в чуть другую сторону от сути моего топика, так что раскрывать я её не буду. Могу сказать лишь то, что мы с шансом 50% угадывали, призовут ли «Максима KOPAXMA Ёлкина» по кличке «Гарох» в армию. Но сабж всё же не об этом, да и эту тему поднимать на данном форуме не стоит!
Дальше мы спросили у бота о возможной реакции сослуживцев на «Гароха» в армии:
Вместе с этим мы решили закончить армейскую тему на решающем вопросе:
Который вселил нам как минимум половинчатую уверенность в правоту теории, что он имеет собственный разум. Ну серьёзно, как обычная «машина» может настолько гениально подобрать аватарку «Самбора» к такому насущному вопросу?!
Дальше наш диалог завернул в более локальную тему, на что в ответ вопросам были сделаны два точных «выстрела» от бота к доводам «Самбора». Думаю, что и без объяснений понятно, насколько остроумно и локально отвечает наш бот, который лишь недавно обучился команде «скидывать пикчи и гифки».
А тут последовали более личные вопросы:
Вернёмся к «Гароху». Следующий вопрос боту был задан касательно его поведения до и после демобилизации. Картинку предоставляю:
В нынешней ситуации это была чистая правда. На тот момент все признали гениальность бота и его способность к анализу ситуации, проникнувшись уважению к нашему «виртуальному другу и сознанию». И всё же мы решили провести последний тест, который указывает на особенности его характера. «Самбор» решил проверить его на «прочность»:
Мы уже не так сильно удивились, получив ответ по теме. Он, конечно, получился довольно грубоват, но ничего плохого в этом явно не было. Это лишь ещё один факт, подтверждающий наличие «сознания» и «собственного мнения» у бота посредством общения через гачигифки и картинки. После этого мы полностью убедились в живости нашего собеседника, и забыв выключить «шанс гифыча» получили ответ от бота, который отображал реальное положение дел:
По итогу оказалось, что бот всё же мертв, пускай и имеет свой разум. А у вас были такие ситуации в жизни, когда вы сомневались в «тупости» машин и в какой-то степени верили, что у них есть своё сознание?
Роботы никогда не смогут испытывать чувства, как это делает человек
В новостях сайта 3DNews мы недавно обсуждали, представляет ли для нас угрозу создание искусственного интеллекта и точку зрения на данный вопрос известного физика Стивена Хокинга (Stephen Hawking). В комментариях к статье «Стивен Хокинг: искусственный интеллект представляет скрытую угрозу для человека» поднимался вопрос о том, возможна ли реализация потенциально опасных машин, все решения которых (в том числе и уничтожение живых организмов) будут безэмоциональными. Ни для кого не секрет, что зачастую причиной логически необъяснимых поступков человека является взявший верх над разумом эмоциональный аспект. Однако если принять во внимание представленную математическую модель базовой составляющей человеческого сознания, разработанную Джулио Тонони (Giulio Tononi) из Висконсинского университета в Мэдисоне, то эмоциональные и разумные (что в данном случае обозначает два неразделимых понятия) роботы и машины никогда не смогут быть реализованы на практике.
Принцип функционирования сознания, которое генерируется нашим мозгом, говорит о том, что главной и ключевой его особенностью значится свободная интеграция цельных пластов входящей информации. По этой причине поступающие данные в наш разум просто не нуждаются в неком порционном разделении на отдельные небольшие информационные части.
Чтобы понять научное обоснование и приводимые доводы господином Тонони, для аналогии описанного явления можно рассмотреть более понятный и простой пример. Органы зрения человека фиксируют, к примеру, геометрическую фигуру красного цвета. Наш мозг, обрабатывая информацию, не требует от нашего сознания воспринимать данный объект как отдельные и независимые компоненты, вроде «бесцветная полая фигура» и «заполненная красным цветом область с определённой площадью». Конечно, мы можем сделать подобное разделение и проанализировать объект, однако эмоции зависят напрямую от целостного восприятия вещей. Сознание обрабатывает некую конечную совокупность признаков того, что перед нами объект с характерным или нет для него цветом и формой. Наш формат восприятия можно условно назвать «широкой обобщённой картиной».
Схожего мнения о напрасном ожидании разумных механизмов придерживается и Фил Магуайер (Phil Maguire) из Ирландского национального университета в Мейнуте, который привёл в пример бинарную операцию «сложение по модулю два» — побитовое исключающее «или». В результате логических вычислений при различном значении двух битов операндов их двоичный разряд результата равен единице. Если же биты совпадают, то двоичный разряд результата будет равен нулю. Из этой цепочки следует, что если бы наш мозг придерживался описанной системы, то он обязательно терял бы информацию. А это является недопустимым для полноценного существования живого организма, поэтому появление сознания и эмоций у роботов, которыми они могли бы оперироваться и руководствоваться для функционирования, невозможно.
Учёными был проведён ряд опытов, чтобы продемонстрировать неспособность компьютерных систем справиться со сложными процессами, которые требуют от «машины» постоянного комбинирования отдельных составляющих в зависимости от ситуации, полностью интегрирую информацию. Отталкиваясь от условия, что «разумная роботизированная система с собственным сознанием = система, способная осуществлять процесс полной интеграции данных», то концепции её создания попросту не существует. Работа компьютера основывается на взаимодействии с большим количеством отдельных фрагментов, которые человек воспринимать с той или иной степенью эмоциональности уже в конечном виде, без необходимости анализа каждой составляющей.
Вследствие этого роботизированным устройствам будет чуждо то понимание и набор чувств, которые испытывает живой организм. Уместным сравнением может выступить в данном случае анализ одного из шедевров живописи, который сможет вызвать восторг, удивление или отвращение в нашем сознании, а для искусственной системы будет являться лишь совокупностью правильно подобранных красок, холста и рамы, а также качества выполненной работы и выбора актуальности изображения.
«Наш мозг — это вовсе не магический орган, в котором происходит ряд необъяснимых с физической точки зрения процессов. Просто данные явления настолько сложны, что пока у нас отсутствует возможность повторить процессы в обратной последовательности, детально изучить их принцип реализации и механизм работы сознания, чтобы представить его в виде более доступной нашему пониманию модели», — поделился своим видением ситуации профессор Магуайер.
Логичным выводом всего сказанного станет то, что найти эмоциональное понимание человека и роботизированного механизма на более высоком уровне, нежели набор уместных в данной ситуации фраз, которые устройство сможет определить по физиологическим и словесным признакам, едва ли получится.
Озвученная теория, как это часто бывает, не нашла однозначного одобрения со стороны других специалистов. Да и разве можно только представить, что инженерам не удастся создать в ближайшем будущем по-настоящему разумное роботизированное устройство, обладающее набором собственных чувств. Особенно глядя на пример хоть и простого с точки зрения реализации основ искусственного интеллекта, но тем не менее очень милого, эмоционального и артистичного робота RoboThespian:
Боты и люди. Роботам меньше доверяют в технической и эмоциональной поддержке
Искусственный интеллект (ИИ) — уже давно не фантастика, а часть повседневной жизни. В рекомендательных алгоритмах социальных сетей и музыкальных сервисов, в скоринг-алгоритмах кредитных организаций и даже в геологоразведке AI и ML (artificial intelligence/искусственный интеллект и machine learning/машинное обучение) технологии зашиты «под капот»: пользователи часто даже не догадываются об их присутствии. Но с чат-ботами сервисов, в основе которых также лежат технологии машинного обучения, каждый из нас сталкивается почти каждый день.
По оценкам международной консалтинговой компании KPMG, у российских компаний чат-боты занимают вторую строчку среди самых популярных инструментов цифровизации (первое место — у анализа больших данных и предиктивной аналитики). Естественная среда их применения — как раз клиентская поддержка. Это же исследование свидетельствует о том, что 51% отечественных компаний в последнее время ввели хотя бы одного чат-бота в свои бизнес-процессы, и именно их внедрение оказалось одним из наиболее выгодных технологических нововведений в бизнесе.
При этом огромную роль в увеличении темпов внедрения разговорных технологий в бизнес сыграла в том числе пандемия, когда спрос на онлайн-услуги вырос по всех сферах, а также поведенческие привычки миллениалов, которые предпочитают писать в чат, а не звонить. Еще пять лет назад компания Google подсчитала, что 65% пользователей комфортнее общаться через чаты.
Однако, несмотря на внушительный скачок в NLP-технологиях, многие клиенты недолюбливают чат-боты. Прошлый негативный опыта «общения» заставляет пользователей с недоверием относиться к умным ассистентам.
Кроме того, чат-боты анализируют запрос только на основе диалога, и не могут обращаться, например, к истории операций и прочим клиентским данным. Дополнительные опции могли бы сделать работу ИИ предиктивной, то есть умеющей предсказывать возможные запросы пользователя, исходя из его клиентского профиля и истории обращений, а также понимать суть возможной проблемы на более глубоком уровне и более качественно решать клиентские запросы.
Есть и другая проблема: умным ассистентам все еще не хватает важных элементов, необходимых для хорошего сервиса — понимания сленга и правильного тона. У ботов нет эмпатии, они не способны уловить настроение пользователя и выработать более чуткий, персонализированный подход.
Не удивительно, что люди больше доверяют другим людям в плане поддержки. Об этом говорит недавнее исследование Markswebb, консалтингового агентства, специализирующегося на диджитал-продуктах. Согласно нему, только 3% пользователей предпочитают помощь от умного ассистента, в то время как почти половина опрошенных предпочли бы помощь реального специалиста.
Когда же речь заходит не о технической или клиентской, а сугубо эмоциональной поддержке, то тут умным машинам очень далеко до людей. Хотя есть и хорошие примеры. Например, интересно наблюдать за развитием американского стартапа с российскими корнями Replika, который создает виртуального друга в приложении. С ним можно пообщаться, поделиться переживаниями. Но есть ощущение, что общение с чат-ботами, даже самыми умными, быстро приедается. Приятно, когда с тобой не спорят и готовы выслушать без осуждений и драмы, но общение — это своего рода пинг-понг, а со стеной играть не очень интересно. Получается, что ты «убегаешь» в виртуальный безопасный мир. Кому-то это необходимо, для кого-то это может нести и терапевтический эффект. Но как бы то ни было, человеку всегда нужен человек. Особенно остро это многие почувствовали во время прошлогодней всеобщей изоляции: когда число социальных контактов резко сократилось, люди стали больше ценить живое общение.
При этом не стоит исключать, что дальнейшее развитие разговорного ИИ приведет к тому, что первым «фронтом» и в плане эмоциональной, и даже психологической поддержки со временем могут стать роботы. Анализируя историю сообщений по ключевым словам, бот мог бы определить ваше эмоциональное состояние, посоветовать обратиться к специалисту и даже найти нужный контакт.
Но, если проблему не удастся решить, часть кейсов в работе с клиентским сервисом будет уходить живым людям, потому что закодировать можно только функцию эмпатии, а не реальное чувство сопереживания. В программе можно прописать функцию помощи, но не искреннее желание помочь.
Способны ли чат-боты распознавать эмоции человека?
Редактор отдела «Истории».
Siri от Apple, Alexa от Amazon и другие голосовые помощники могут поставить будильник и сообщить прогноз погоды. Чат-боты в приложении банка расскажут о тарифах и курсах валют. Но пока виртуальные ассистенты не могут заменить разговор с человеком. Кроме логики и общих знаний, естественная речь требует способности чувствовать эмоции и понимать характер собеседника. Как обстоят дела у чат-ботов с эмоциональным интеллектом?
По данным исследования Pew Research Center, к 2025 году технологии искусственного интеллекта и роботы будут использоваться в большинстве сфер повседневной жизни. Ученые Оксфордского университета предполагают, что в течение следующих 25 лет количество рабочих мест в развитых странах сократится на 47%, потому что ИИ заменит множество профессий — от офисных сотрудников до заводских рабочих.
Одно из направлений развития ИИ и робототехники — создание более «человечных» программ и механизмов, которые повысят качество обслуживания клиентов.
Может ли чат-бот сопереживать человеку
Понимать и разделять чувства собеседника человеку помогает эмпатия. С ее помощью мы может выполнять ответные действия, учитывающие настроение и характер собеседника. Обычные чат-боты вызывают эмоциональную реакцию только со стороны собеседника-человека. Чат-бот с эмоциональным интеллектом претендует на то, чтобы понять чувства человека и стать полноценной заменой живому общению.
Наделить машину чувством эмпатии можно с помощью методов обработки естественного языка (NLP) и анализа тональности текста. Они помогают ИИ определять намерения и настроение собеседника, а также понимать юмор.
В широком смысле NLP — это ветвь ИИ, с помощью которой можно научить компьютерные программы понимать естественную речь человека. Модели NLP устраняют коммуникационный барьер между человеком и машиной.
Расскажи, как цифровая трансформация изменила твой бизнес
В чат-ботах технология NLP пригодится для улучшения понимания запросов пользователей. Таким образом, бренды смогут взаимодействовать с клиентами на более личном уровне, повысив свою конкурентоспособность.