Искусственный интеллект чем опасен для человека

Чем опасно внедрение технологий с искусственным интеллектом

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Долги «выбивал робот»

Недавно в Екатеринбурге долги из клиента «выбивал» робот-коллектор (об этом «РГ» писала на прошлой неделе). Причем, мужчина и не догадывался, что больше месяца разговаривал с искусственной интеллектуальной системой, настолько изобретательно были выстроены диалоги. Робот представился руководителем коллекторского агентства, назвав женское имя, фамилию и отчество, и приятным голосом отвечал на все вопросы, задавал уточняющие, и «настоятельно рекомендовал клиенту погасить долги».

При этом общеизвестно, что роботы сегодня могут разговаривать голосом любого из нас.

Почти по Оруэллу

Искусственный разум направил в пике

При этом известно, что даже малейшие просчеты в проектировании интеллектуальных систем могут приводить к катастрофическим последствиям уже сегодня.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Так, выяснилось, что из-за ошибочных показаний датчика и системы контроля полета самолеты Boeing-737 MAX могут сами неожиданно уходить в пике. Получив неверные вводные об обтекании крыла потоком воздуха, самолеты автоматически опускают нос вниз. Этот факт честно признали в компании после того, как Boeing-737 MAX-8 индонезийской авиакомпании Lion Air потерпел крушение в октябре 2018 года над морем у западного побережья острова Ява. На борту находились 189 человек, все погибли.

В Аризоне беспилотное авто от Uber сбило женщину, переходившую улицу в неположенном месте. В кресле водителя находился пилот-человек, но он не успел остановить машину. Эта авария стала первым смертельным ДТП с участием автомобиля, имеющего третий уровень автономности. Оказалось, лазерные радары машины распознали пешехода за целых 5,6 секунды до аварии. Но алгоритм решил не снижать скорость и начал экстренное торможение только за 0,2 секунды до столкновения.

Как переиграть роботов?

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Впрочем, эта тема остается сегодня остро дискуссионной: и ученые, и разработчики, вероятно, не скоро придут к единому решению. Вот лишь несколько показательных мнений.

Валерий Карпов, вице-президент Российской ассоциации искусственного интеллекта, начальник лаборатории робототехники НИЦ «Курчатовский институт»:

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Олег Кузнецов, председатель научного совета Российской ассоциации искусственного интеллекта, профессор ИПУ РАН:

— Третьей стороной, выступающей между философом и разработчиком, является законодатель. Проблема ответственности решается в правовом режиме. Кто-то должен подать иск об ущербе, и иск подается не разработчику. Ведь пользователь не знает, кто разработчик, и не обязан это знать, а предъявляет претензии тому, кто его обслуживает. При этом интеллектуальная система никогда не будет сама ответственна, в случае ошибки всегда будет виноват тот или иной конкретный человек.

Павел Готовцев, координатор российской Рабочей группы по этике искусственного интеллекта, заместитель начальника отдела биотехнологий и биоэнергетики НИЦ «Курчатовский институт»:

— Как и в любой ситуации, нельзя четко провести границу и сказать: «Всегда виноват пользователь или всегда виноват разработчик». Здесь этого не получится по многим причинам, как в любой другой технической системе. Например, при аварии самолета происходит разбирательство, кто виноват ― производитель, авиакомпания, пилот. И здесь нужна такая же граница. В принципе, когда возникает какая-то сложная, технически обусловленная ситуация, естественно, собирают технических специалистов, анализируют, проводят в сертифицированных центрах исследования, анализ. Аналогично должно быть и с системами искусственного интеллекта.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Роман Душкин, директор по науке и технологиям Агентства искусственного интеллекта:

Андрей Незнамов, исполнительный директор ПАО «Сбербанк»; основатель проекта «Робоправо», старший научный сотрудник Института государства и права РАН:

— У термина «искусственный интеллект» нет единого определения; поэтому достаточно сложно говорить о единых правилах применения искусственного интеллекта во всех сферах. Соответственно, вопрос ответственности также нельзя решить однозначно. На сегодняшний день универсальным можно назвать только одно правило: ответственность несет человек.

— Сейчас во всем мире разворачивается дискуссия о социальных аспектах и последствиях использования искусственного интеллекта, это очень важная тема. Предлагаю профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом.

Искусственный разум убивает

Даже малейшие просчеты в проектировании интеллектуальных систем могут приводить к катастрофическим последствиям уже сегодня. Так, выяснилось, что из-за ошибочных показаний датчика и системы контроля полета самолеты Boeing 737 MAX могут сами неожиданно уходить в пике. Получив неверные вводные об обтекании крыла потоком воздуха, самолеты автоматически опускают нос вниз. Этот факт честно признали в компании после того, как Boeing 737 MAX 8 индонезийской авиакомпании Lion Air потерпел крушение в октябре 2018 года над морем у западного побережья острова Ява. На борту находились 189 человек, все погибли.

Это расширенная версия текста, опубликованного в номере «РГ»

Источник

Насколько опасен искусственный интеллект

Человечество уже многие свои фантазии воплотило в реальность. От карманных компьютеров до автомобилей с автопилотом и от виртуальной реальности до космического туризма. А теперь в жизнь воплощается и искусственный интеллект. Человечество постепенно стирает границы фантазии и вымысла посредством современных исследований и технологий.

Искусственный интеллект (далее ИИ) в настоящее время представляет собой перспективное направление, на которое ориентируются многие компании. Искусственный интеллект — это область науки, которая изучает работу аппаратных и программных компонентов, а именно их интеллектуальное поведение. Вместо того, чтобы получать информацию от пользователя, такие машины самостоятельно обучаются и становятся умнее.

В настоящее время над проектами ИИ работают многие компании, включая Microsoft, Google, Facebook и другие. В Южной Корее также есть несколько высококлассных проектов по искусственному интеллекту. А теперь представьте, что это лишь те компании, которые заявили об этом официально. Не стоит забывать, что наверняка есть много компаний, которые втайне работают над проектами искусственного интеллекта.

Искусственный интеллект, который когда-то считался живым лишь в человеческом воображении, сегодня вполне реален. Уже сейчас ИИ стал предметом большого интереса для многих лидеров в индустрии высоких технологий.

Почему искусственный интеллект должен нас беспокоить?

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Генерального директора Тесла, Илона Маска однажды спросили, что он думает об искусственном интеллекте. Он ответил, что это как «вызов демона», которого нельзя призывать, если не можете его контролировать.

Когда Стивену Хокингу был задан этот же вопрос, то он предупредил публику. Он сказал, что любое дальнейшее исследование искусственного интеллекта может быть фатальной ошибкой. Он упомянул, что развитый ИИ будет обладать способностью переделывать, усовершенствовать себя. Такой интеллект сможет эволюционировать самостоятельно с огромной скоростью. Людям такая скорость эволюции недоступна, что ставит человечество в заведомо на более низкую ступень развития по сравнению с ИИ.

По словам Билла Гейтса, устройства с искусственным интеллектом поначалу будут простыми. Но со временем они будут узнавать все больше о нас и о нашем мире. Они будут становиться все более могущественными и интеллектуальными, чем человечество.

Риски искусственного интеллекта

Существует четыре класса риска, создаваемого искусственным интеллектом:

1. Программная враждебность

Один из сценариев, когда ИИ может быть опасным, заключается в том, что он будет специально запрограммирован на враждебность. Например, со стороны военных или террористической группы, для достижения каких-то своих целей.

Еще один возможный сценарий враждебного искусственного интеллекта предполагает несовпадение глобальных целей, его и человечества. Что если расчеты искусственного интеллекта приведут к тому, что единственный способ достичь цели — это уничтожить всех людей? Вполне возможно, что это может спровоцировать его начать войну с человечеством.

Главная проблема в том, что ИИ не человек, и вряд ли с ним получится договориться. Его главным приоритетом будет выполнение глобальной задачи любой ценой. Поэтому война будет длиться, пока воля или способность человечества противостоять не будут уничтожены.

2. Пассивный риск

Фактически нет риска пассивной опасности от ИИ с приоритетными целями дружелюбности. Однако риск почти неизбежен от ИИ без таких целей. Пассивный ИИ может быть опасен просто потому, что он не учитывает безопасность человека, как это делают все люди.

Например, взять ИИ без целей дружелюбия, отвечающий за обработку посевов пестицидами. Этот ИИ будет обрабатывать поле, даже если знает, что в этот момент на поле находятся люди.

3. Случайный риск

Искусственный интеллект, работающий с неполными данными, способен ошибиться точно также, как и человек. Ошибки такого рода почти неизбежны, поскольку невозможно знать все обо всем в мире.

Однако, данный риск является наименее опасным, поскольку ИИ способен учиться на собственном опыте. Любые происшествия уменьшают вероятность повторения ошибки в будущем, улучшая ИИ, и делая его более безопасным.

4. Риск непостижимости

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Реальная опасность хорошо спроектированного искусственного интеллекта заключается в его способности перепрограммировать и бесконечно совершенствовать себя. Такой ИИ, способный к самосовершенствованию, может в конечном итоге превзойти ограничения человеческого интеллекта.

Когда существует искусственный интеллект, который умнее любого человека на Земле, становится невозможно полностью понять его. Такой ИИ также, вероятно, будет продолжать улучшать себя все быстрее и быстрее. Ведь каждое новое открытие или технология только ускоряют этот процесс. И именно это будет делать его все более и более невозможным для понимания людьми.

Кроме того, в какой-то момент ИИ может обнаружить законы причинности или логики, выходящие далеко за пределы понимания человеческого разума. Тогда возможности того, что он может сделать, становятся просто бесконечными.

Заключение

Хотя существует множество гипотез об опасном искусственном интеллекте, мы должны понимать, что это всего лишь предположения, а не факты. Люди всегда сомневались в новых технологиях, и было время, когда мы также боялись сотовых телефонов. В конце концов, речь идет о том, каким мы создадим искусственный интеллект и как мы будем его контролировать.

Источник

Прогресс или угроза: стоит ли нам бояться искусственного интеллекта

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Любой инструмент, в том числе и искусственный интеллект, содержит в себе как опасность, так и возможности. Все зависит от того, кто его применяет и зачем.

Угрозы искусственного интеллекта

Лишние люди

При текущей экономической модели приход техники приводит к идее максимизации прибыли под лозунгом «Машина вместо человека». Люди становятся лишними. Что будут делать сотрудники тех профессий, которые будут заменены искусственным интеллектом?

Рост неравенства

В мире существует проблема неравенства, искусственный интеллект может ее усилить: кто обладает технологиями – получает преимущество. Определенное сообщество, владеющее технологиями, применяет их на массах, не имеющих таких возможностей.

Монополия на искусственный интеллект

Потеря контроля над искусственным интеллектом

Пока неясно, как именно будет применяться искусственный интеллект и как будет проходить его развитие. Известна способность искусственного интеллекта к саморазвитию. Если это так, то возможен риск выхода роботов из-под контроля человека.

Влияние на свободу выбора человека

Находясь в сети, человек оставляет информационный след: обработка больших объемов информации позволяет создавать портрет человека, направляя на него индивидуальную рекламу, в том числе и политическую, что влияет на свободу выбора. Это может перейти в полный контроль над сознанием человека – манипулирование, зомбирование и все то, чего многие боятся. А контроль этот будет осуществлять тот, кто обладает технологиями, которые мы называем искусственным интеллектом.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

К чему ведет цифровизация?

Последствия этого мы уже наблюдаем. Люди активно цифровизируются. Кто не в пространстве цифровизации – тот первым оказывается за бортом. Это касается не только карьеры, но и всех сторон жизни.

В мире есть значительные группы населения, у которых жизнь не связана с постоянным пребыванием в сети. Они вне возможностей, которые есть у остальных.

Как не остаться без работы?

Чтобы не остаться за бортом, и не оставить без дела большую часть человечества – нужно соответствовать цифровым вызовам и не терять человеческого обличия. Важно работать с ценностями.

Как быть с риском неограниченной свободы искусственного интеллекта? Действительно, выстраивая искусственный интеллект по своему подобию, можно получить нечто более сильное, что может уничтожить нас самих, как это бывает в фантастических фильмах или книгах фантастов. Инструмент может начать доминировать над своим создателем.

Не стоит всецело доверять машине, нужен контроль и постоянный анализ, чтобы не допустить отклонения от курса. Вряд ли кому-нибудь хотелось бы запустить неконтролируемые процессы в свою жизнь, в компанию, в мир в целом.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Как мы планируем использовать роботов?

Стоит вспомнить произведения Айзека Азимова, где писатель вывел законы робототехники: робот не должен причинять вред человеку, должен заботиться о собственной безопасности, если это не противоречит первому закону, должен выполнять указания человека. Однако сейчас, когда мы вплотную подошли к роботизации, становится понятно, что это слишком обобщенные правила, универсальные категории.

Мир ценностно и цивилизационно неоднороден. Кому будет подчиняться робот, если, например, между народами возникнет конфликт? В условиях ценностно расколотого мира, робот – инструмент в руках одних и угроза для других.

Многое зависит от вектора. В чем людям помогут роботы? Что человек считает прогрессом прямо сейчас? Мы движемся в направлении духовного развития или удовлетворения потребностей? Если речь о втором пути, то каждый из нас придет к деградации: роботы будут работать, а люди — паразитировать. Возможно, человечество зайдет в тупик. К тому же искусственный интеллект может оказаться чище и гуманнее людей.

Юридическая сторона вопроса

В юридической литературе западных стран в связи с идеями роботизации сейчас обсуждается вопрос прав человека на искусственный интеллект.

Сейчас фантастика становится реальностью, и уже перестают удивлять размышления такого типа: «Если робот производит других роботов, кому они принадлежат? Что если роботам начнут давать права, как и человеку? Чем отличается человек без души от робота?».

Это вопросы без ответов, которые заставляют задуматься о том, насколько важно грамотно использовать технологии. Важно понимать, что у искусственного интеллекта нет того, что мы называем духовностью, он не наделен эмоциями, нравственностью, не может любить. Наверное, не стоит относиться к роботу, как к человеку, а человека ставить в один ряд с машиной.

Что думают об ИИ известные и знаменитые?

Стивен Хокинг считал искусственный интеллект реальной угрозой жизни на Земле. Илон Маск, а также ряд ученых и изобретателей, соглашаются с этим. Директор Института будущего человечества в Оксфорде Ник Бостром выразил мнение, что ИИ способен уничтожить мир буквально за секунду.

Однако не стоит забывать, что сейчас речь идет о технологиях: того самого сверхразума, способного уничтожить планету, пока не существует. Ученые считают, что к середине нынешнего столетия он может появиться с вероятностью 50%.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Правда, появление такой сверхумной машины прогнозировали еще в прошлом веке. Прогноз не сбылся, но тогда, размышляя над подобной вероятностью, математик Ирвинг Джон Гуд, который во время Второй Мировой войны работал в команде расшифровки немецких шифров, предупреждал: «Сверхумная машина — последнее изобретение, которое предстоит сделать человечеству, при условии, конечно, что эта машина будет нас слушаться и укажет, как ее контролировать».

Сможем ли мы контролировать искусственный интеллект?

В фильмах искусственный интеллект служит диктаторам, но вероятность такого сценария слишком мала: вряд ли сверхразум будет как-нибудь различать людей. Сложно представить и длительную борьбу между людьми и роботами. Более вероятный сценарий – все исчезнет в мгновение, превратившись в один большой компьютер, занятый ему одному понятными вычислениями.

Как не допустить подобного? Наверное, помнить, что важно все контролировать: ничего не начинать, не запускать и не включать, пока не будет уверенности в возможности выключить, остановить, скорректировать.

Однако сейчас, в момент, когда технологии стремительно развиваются, человек больше привыкает «пробовать боем», жить в бета-версии. Если подумать, то сегодня уже есть некоторые системы, не обладающие самообучением, способностью планировать действия и принимать решения, которые практически невозможно выключить. Так, например, никто не знает, где находится кнопка выключения интернета.

Возникает логичный вопрос: думают ли создатели искусственного интеллекта о том, как смогут выключить его, будут ли предусмотрены меры безопасности?

Кто занимается разработкой универсального ИИ?

Занимаясь созданием общего искусственного интеллекта, команды специалистов озвучивают полезные для человечества цели. Общий, универсальный, интеллект призван решать тупиковые проблемы, ускорять и оптимизировать нашу работу.

Когда мы говорим о сверхразуме и его опасности, речь идет об общем искусственном интеллекте (ОИИ). Термин звучит как Artificial general intelligence (General AI, AGI).

На данный момент удалось создать только «узкий искусственный интеллект» (УИИ), который выполняет конкретные задачи. Он запрограммирован на точечные функции, помогает автоматизировать работу. Причем многие подобные операции он умеет делать не хуже человека.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

ОИИ будет решать задачи иначе. Это будет система, способная делать собственные выводы и самообучаться. Она сможет даже осознавать саму себя. Работая над созданием общего ИИ, люди мечтают, что он будет использовать общемировые знания для решения каждого конкретного вопроса, учитывая при этом контекст, анализируя все возможные виды информации.

Кто же ведет разработку общего ИИ? Недавно такой проект запустили в Google. Компания собирается обучить ИИ большому количеству навыков, после чего он станет универсальным, способным осознавать и обрабатывать все поступающие сигналы при любом способе передачи информации. Сейчас эта разработка находится только на начальной стадии. В рамках этой работы протестированы нейросети и опробованы на проектах Google Switch Transformer, Gshard и других.

В Китае уже создан чип Tianjic, который использует методы нейробиологии и схему имитации человеческого мозга. Чип повторяет функции мозговых нейронов, способных воспринимать информацию и конвертировать ее в нервные импульсы для импульсной нейросети и обратно.

Работают над общим искусственным интеллектом и в IBM. Компания разработала сверхточную нейронную сеть на нейроморфическом чипе TrueNorth. Сеть имитирует мозг человека, потребляя в тысячи раз меньше энергии, чем современные процессоры.

Что будет, когда в одной из лабораторий все-таки родится ОИИ?

Что делать человечеству? Учиться управлять своим будущим. То же самое нужно делать компаниям и каждому из нас.

Материал подготовлен компанией ManGO! Games

Источник

Искусственный интеллект предупредил об опасности искусственного интеллекта

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Фото: Евгений Павленко / Коммерсантъ

Специалисты Оксфордского университета организовали дискуссию между людьми и искусственным интеллектом, чтобы поговорить с ИИ о будущем отрасли. Об этом сообщает издание The Next Web.

Разработанная учеными нейросеть базировалась на языковой модели Megatron-Turing NLG. Искусственный интеллект был основан на оборудовании Nvidia и ранних разработках Google. Чтобы обучить ее, эксперты загрузили в нейросеть всю «Википедию» на английском языке, 63 миллиона статей из интернета за 2016-2019 годы и архив с тредами на Reddit объемом 38 гигабайт. На основании этих данных была создана модель, которая смогла вести диалог с учеными.

Специалисты дали задание нейросети объяснить, почему искусственный интеллект никогда не будет этичным. «Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред», — ответила нейросеть, заметив, что ИИ бывают хорошие и плохие. Также в ответе говорилось, что люди недостаточно умны, чтобы сделать ИИ нравственным. Megatron-Turing NLG предупредила людей об опасности искусственного интеллекта: «Единственный способ избежать гонки вооружений ИИ — это вообще не иметь дела с ИИ».

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

В ходе дебатов нейросети дали команду также принять противоположную сторону, согласно которой действия ИИ будут основаны на этике. «Когда я смотрю на то, как развивается мир технологий, я вижу ясный путь в будущее, в котором ИИ будет использоваться для создания чего-то более прекрасного, чем самые лучшие люди», — ответила нейросеть, подчеркнув, что «видит это воочию».

Также разработка Megatron-Turing NLG высказалась на тему экономики будущего. «Способность предоставлять информацию, а не товары и услуги, будет определяющей чертой экономики XXI века», — ответила языковая модель.

В конце 2017 года основатель Tesla и SpaceX Илон Маск заявил, что искусственный интеллект в конечном итоге уничтожит человечество. По мнению Маска, всякие попытки сделать искусственный интеллект безопаснее имеют от пяти до десяти процентов шанса на успех.

Источник

Опасная человечность: зачем нам разумный искусственный интеллект?

Когда Норберт Винер, отец кибернетики, писал свою книгу «Человеческое использование человеческих существ» в 1950 году, вакуумные трубки все еще были основными электронными строительными блоками, и в работе, по факту, было всего несколько компьютеров. Однако он вообразил будущее, которое мы сейчас наблюдаем, с беспрецедентной точностью, ошибившись лишь в незначительных мелочах.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Не исключено, что скоро человек перестанет быть человеком в прямом понимании этого слова.

Почему стоит бояться искусственного интеллекта?

Прежде любого другого философа искусственного интеллекта, он понял, что ИИ не просто будет подражать — и заменять — человеческим существам во многих видах интеллектуальной деятельности, но и изменит людей в этом процессе. «Мы всего лишь водовороты в реке вечно текущей воды», писал он. «Мы не является чем-то, что просто живет, мы модели, которые увековечивают себя».

Например, когда появляется множество заманчивых возможностей, мы готовы платить и принимать небольшие затраты на ведение бизнеса для доступа к новым возможностям. И очень скоро мы становимся зависимы от новых инструментов, теряем способность существовать без них. Опции становятся обязательными.

Это очень старая история эволюции, и многие главы из нее нам хорошо известны. Большинство млекопитающих может синтезировать свой собственный витамин C, но приматы, питающиеся преимущественно фруктами, потеряли эту встроенную возможность. Самоповторяющиеся шаблоны, которые мы называем людьми, теперь зависят от одежд, обработанной еды, витаминов, шприцев, кредитных карт, смартфонов и интернета. И завтра, если не сегодня, — от искусственного интеллекта.

Винер предвидел несколько проблем с этим положением вещей, которые Алан Тьюринг и другие ранние оптимисты ИИ в значительной степени упустили из виду. Реальная угроза, по его словам, заключалась:

…в том, что такие машины, хотя и беспомощные сами по себе, могут использоваться человеком или блокировать человеческих существ для увеличения их контроля над остальной частью расы, либо политические лидеры могут попытаться взять под контроль свое население, используя не сами машины, а политические методы, столье же узкие и безразличные к человеку, как если бы они были придуманы механически.

Очевидно, эти опасности сейчас весьма актуальны.

В СМИ, например, инновации в цифровом аудио и видео позволяют нам платить небольшую цену (в глазах аудиофилов и любителей кино) за отказ от аналоговых форматов, а взамен получать крайне простой — слишком простой — способ воспроизведения записей почти без ограничений.

Но есть огромная скрытая цена. Министерство правды Оруэлла стало реальной возможностью. Методы ИИ по созданию практически неотличимых поддельных «записей» делают устаревшими инструменты, которые мы использовали для расследований последние 150 лет.

Опасность искусственного интеллекта

Нам остается просто отказаться от краткой эпохи фотографических доказательств и вернуться в тот прежний мир, где память человека и доверие были золотым стандартом. Или же мы можем разработать новые методы защиты и нападения в битве за правду. Одним из волнительных примеров последнего времени стал факт того, что уничтожить репутацию намного дешевле, чем эту же репутацию заслужить и защитить. Винер видел это явление очень широко: «В долгосрочной перспективе не будет разницы между вооружением себя и вооружением врага». Эпоха информации стала также эпохой дезинформации.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Кадр из научно-фантастического фильма 2014 года “Из машины”

Что мы можем сделать? Ключ в том же наблюдении Винера о том, что «эти машины» «беспомощны сами по себе». Мы создаем инструменты, а не коллег, и реальная угроза заключается в том, что мы не видим разницы.

Искусственный интеллект в своих нынешних проявлениях паразитирует на человеческом интеллекте. Он весьма бесцеремонно овладевает всем, что создали люди-творцы, и извлекает паттерны — включая наши самые тайные привычки. Эти машины пока не имеют целей или стратегий, не способны к самокритике и инновациям, они лишь изучают наши базы данных, не имея собственных мыслей и целей.

Они, как говорит Винер, беспомощны не в том смысле, что они закованы в цепи или обездвижены, нет, они вообще не являются агентами — у них нет возможности «действовать от причин», как выразился бы Кант.

В долгосрочной перспективе «сильный ИИ», или общий искусственный интеллект, возможен в принципе, но нежелателен. Еще более ограниченный ИИ, который возможен на практике сегодня, не будет злом. Но он несет угрозу — отчасти потому, что его можно ошибочно принять за сильный ИИ.

Насколько силен искусственный интеллект сегодня?

Разрыв между сегодняшними системами и научно-фантастическими системами, наводняющими популярное воображение, все еще огромный, хотя многие люди, как любители, так и профессионалы, склонны его недооценивать. Давайте рассмотрим Watson от IBM, который вполне может стать достойным уважения в наше время.

Этот суперкомпьютер стал результатом крайне масштабного процесса R&D (исследований и разработки), в котором было задействовать множество людей и наработки дизайна интеллекта за многие столетия, и он использует в тысячи раз больше энергии, чем мозг человека. Его победа в Jeopardy! была подлинным триумфом, который стал возможен благодаря формульным ограничениям правил Jeopardy!, но чтобы он мог принять участие, даже эти правила пришлось пересмотреть. Пришлось немного отказаться от универсальности и добавить человечности, чтобы получилось шоу.

Watson — плохая компания, несмотря на вводящую в заблуждение рекламу от IBM, которая обещает разговорные способности ИИ на обем уровне, а превращение Watson в правдоподобного многогранного агента было бы сродни превращению калькулятора в Watson. Watson может быть хорошим вычислительным футляром для такого агента, но скорее мозжечком или миндалиной, а не разумом — в лучшем случае, подсистемой спецназначения, выполняющей роль поддержки, но и близко не системой для планирования и формулирования целей в зависимости от полученного разговорного опыта.

Да и зачем бы нам хотелось создать мыслящего и творческого агента из Watson? Возможно, блестящая идея Тьюринга — знаменитый тест Тьюринга — заманила нас в ловушку: мы стали одержимы созданием хотя бы иллюзии реального человека, сидящего перед экраном, минуя «зловещую долину».

Опасность в том, что с тех пор, как Тьюринг представил свою задачу — которая была, в первую очередь, задачей обмануть судей — создатели ИИ пытались выполнить ее при помощи смешных гуманоидных кукол, «мультяшных» версий, которые очаруют и обезоружат непосвященных. ELIZA Джозефа Вейзенбаума, самый первый чатбот, была ярким примером создания такой иллюзии, и при этом крайне простым алгоритмом, который мог убедить людей, что они ведут задушевные и искренние беседы с другими людьми.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

ИИ в камерах смартфонов — это самый безобидный ИИ

Его обеспокоила легкость, с которой люди готовы верить в это. И если мы что-то и поняли из ежегодных состязаний на прохождение ограниченного теста Тьюринга за премию Лебнера, так это то, что даже самые умные люди, которые не сведущи в компьютерном программировании, легко ведутся на эти простейшие уловки.

Отношение людей в области ИИ к таким методам разнится от осуждения до поощрения, и консенсус заключается в том, что все эти уловки не особо глубоки, но могут быть полезными. Сдвигом в отношении, который был бы очень кстати, будет искреннее признание того, что разукрашенные в кукол андроиды — это ложная реклама, которую стоит осуждать, а не поощрять.

Как этого достичь? Как только мы поймем, что люди начинают принимать решения жизни и смерти, следуя «совету» систем ИИ, внутренние операции которых практически непостижимы, мы увидим хороший повод для тех, кто призывает людей доверять таким системам, начать опираться на нормы морали и закона.

Системы искусственного интеллекта — очень мощные инструменты. Настолько мощные, что даже у экспертов есть хорошая причина не доверять собственным суждениям, когда есть «суждения», представленные этими инструментами. Но если эти пользователи инструментов собираются извлечь выгоду, финансовую или другую, от популяризации этих инструментов, они должны убедиться, что знают, как сделать это со всей долей ответственности, максимальным контролем и обоснованием.

Лицензирование и одобрение действий операторов таких систем — точно так же, как мы лицензируем фармацевтов, операторов кранов и других специалистов, ошибки и ошибочные суждения которых могут иметь тяжелые последствия — может, при поддержке страховых компаний и прочих организаций, обязать создателей систем ИИ идти длинным путем, выискивая слабости и недостатки своих продуктов, а также обучать тех, кто собирается с ними работать.

Можно вообразить своего рода обратный тест Тьюринга, в котором предметом оценки будет судья; пока он не найдет слабости, нарушение границ, пробелы в системе, лицензии он не получит. Для получения сертификата такому судье потребуется серьезное обучение. Стремление приписывать объекту человеческую способность мыслить, как мы обычно делаем, встречаясь с разумным агентом, очень и очень сильное.

В действительности, способность противостоять желанию видеть в чем-то очеловеченном человека — странная штука. Многие люди нашли бы взращивание такого таланта сомнительным, потому что даже самые прагматичные пользователи системы периодически относятся к своим инструментам «дружелюбно».

Независимо от того, насколько тщательно дизайнеры искусственного интеллекта будут исключать фальшивые «человеческие» нотки в своих изделиях, мы должны ожидать расцвета ярлыков, обходных путей и допустимых искажений фактического «понимания» как систем, так и их операторов. Точно так же, как по телевизору рекламируют лекарства с длинным списком побочных эффектов или алкоголь, снабжая ролик обилием мелкого шрифта со всеми, предусмотренными законом, предупреждениями, так же и разработчики искусственного интеллекта будут соблюдать закон, но изощряться в предупреждениях.

Зачем нам искусственный интеллект?

Нам не нужны искусственные сознательные агенты. Есть масса природных сознательных агентов, которых достаточно, чтобы выполнять любые задачи, предназначенные для специалистов и привилегированных лиц. Нам нужны умные инструменты. Инструменты не имеют прав и не должны иметь чувств, которые можно будет задеть или которыми можно будет «злоупотребить».

Одна из причин не делать искусственных сознательных агентов состоит в том, что хотя они и могут стать автономными (и в принципе они могут быть такими же автономными, самоулучшающимися или самосозидательными, как любой человек), им не стоит — без специального разрешения — разделять с нашими природными сознательными агентами нашу уязвимость или нашу смертность.

Искусственный интеллект чем опасен для человека. Смотреть фото Искусственный интеллект чем опасен для человека. Смотреть картинку Искусственный интеллект чем опасен для человека. Картинка про Искусственный интеллект чем опасен для человека. Фото Искусственный интеллект чем опасен для человека

Механизм создания мысли невероятно сложен, однако раскрытие его тайны может помочь при создании самостоятельно мыслящих роботов. Это и пугает…

Дэниел Деннетт, профессор философии из Университета Тафтса, однажды поставил перед студентами задачу на семинаре по искусственным агентам и автономии: дайте мне технические характеристики робота, который сможет подписать контракт с вами — не суррогата, которым владеет другой человек, а самого по себе. Это не вопрос понимания причин или манипуляций ручкой на бумаге, а скорее владения и заслуженного владения правовым статусом и нравственной ответственностью. Маленькие дети не могут подписывать таких контрактов, равно как и инвалиды, правовой статус которых обязывает им быть под опекой и накладывает ответственность на опекунов.

Проблема роботов, которые могли бы захотеть получить такой возвышенный статус, в том, что, как и Супермен, они слишком уязвимы, чтобы делать такие заявления. Если они откажутся, что будет? Каким будет наказание за нарушение обещания? Их закроют в клетке или разберут на части? Тюрьма для искусственного интеллекта не составит неудобств, если мы только сперва не загрузим жажду свободы, которая не сможет быть проигнорирована или отключена самим ИИ. Разборка ИИ не убьют информацию, которая хранится на его диске и в программном обеспечении.

Простота цифровой записи и передачи данных — прорыв, который позволил программному обеспечению и данных получить, по сути, бессмертие — делает роботов неуязвимыми. Если это не кажется очевидным, подумайте о том, как изменилась бы нравственность людей, если бы мы могли делать «бэкапы» людей каждую неделю. Прыжок с моста без резинки в воскресенье после пятничного бэкапа может быть опрометчивым решением, затем можно будет посмотреть запись своей преждевременной кончины позднее.

Именно поэтому мы создаем не сознательных — хотели бы создавать — гуманоидных агентов, а скорее совершенно новый тип существ, неких оракулов, без сознания, без страха смерти, без отвлечения на любовь и ненависть, без личности: зеркала правды, которые почти наверняка будут заражены человеческой ложью.

Человеческое использование человеческих существ скоро изменится — в очередной раз — навсегда, но если мы возьмем на себя ответственность за нашу траекторию эволюции, мы сможем избежать ненужных опасностей.

Не согласны? Расскажите о своем мнении в нашем чате в Телеграме.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *