Понедельник , 25 Ноябрь 2024
Home / Наука и техника / 10 важных, но пугающих успехов в развитии искусственного интеллекта

10 важных, но пугающих успехов в развитии искусственного интеллекта

У Стивена Хокинга, Билла Гейтса и Элона Маска есть кое-что общее, и это не богатство или интеллект. Все они боятся апокалипсиса с участием ИИ. Это гипотетический сценарий, по которому искусственный интеллект становится доминирующей формой жизни на Земле. Это может быть восстание машин, которые возомнят себя богами или, что еще хуже, решат уничтожить человечество и провозгласить Землю своей собственностью.

Но случится ли апокалипсис с ИИ — большой вопрос. Что побудило авторитетных и всемирно известных людей вроде Маска и Хокинга во всеуслышание заявлять о своих опасениях по поводу этого гипотетического сценария? Могут ли голливудские фильмы вроде «Терминатора» оказаться пророческими? Давайте узнаем, почему многие люди, известные своим авторитетом и заслуживающие доверия, обеспокоены восстанием машин и почему это уже происходит. Отчасти.

Они учатся лгать и обманывать

Ложь — универсальное поведение. Люди делают это постоянно, и даже некоторые животные, как белки или птицы, прибегают к ней ради выживания. Тем не менее ложью не ограничены люди и животные. Ученые из Технологического института Джорджии разработали роботов с искусственным интеллектом, способных обманывать и лгать. Исследовательская группа под руководством профессора Рональда Аркина надеется, что их роботов смогут использовать военные в будущем.

После того как их доделают, роботы смогут выступать с военными на поле боя. Они будут выступать в качестве охранников, защищая боеприпасы и провиант от врагов. Изучая искусство лжи, эти ИИ смогут «выиграть время, пока не прибудет подкрепление», изменяя стратегии патрулирования, чтобы обмануть других интеллектуальных роботов или людей. Ну, во всяком случае так планируют ученые.

Правда, профессор Аркин признал, что имеются «значительные этические проблемы» в отношении его исследований. Если результаты его работы попадут не в те руки, это будет катастрофа.

Они начинают отнимать у нас рабочие места

Многие из нас боятся, что ИИ и роботы всех убьют, но ученые говорят, что нам стоит беспокоиться о чем-то менее ужасном — о том, что машины уничтожат наши рабочие места. Некоторые эксперты переживают, что достижения в сфере искусственного интеллекта и автоматизации могут привести к тому, что многие люди потеряют свои рабочие места — их заберут машины. В одних только США свыше 250 000 роботов выполняют работу, предназначенную для людей — а сколько их будет в восточных странах, где производят 90% мировой техники? И цифры растут ежегодно.

Не только рабочие беспокоятся о том, что машины заберут у людей работу; эксперты ИИ тоже переживают. Эндрю Нг из проекта Google Brain Project и главный ученый Baidu (китайский эквивалент Google) выразил обеспокоенность в связи с опасностью развития искусственного интеллекта. ИИ угрожает нам, поскольку может делать «почти все лучше, чем кто-либо еще». Даже играть в го.

Уважаемые учреждения также выпустили исследования, отражающие эту проблему. К примеру, Оксфордский университет провел исследование, согласно которому в следующие 20 лет 35% рабочих мест в Великобритании будут под управлением ИИ.

Они становятся умнее хакеров среди людей

В голливудских фильмах хакеры выглядят классно. В реальной жизни — кхм, нет. Это просто ребята, которые сидят за своими девайсами, сосредоточенно печатая, вечно уставшие и с вечной чашкой кофе.

В реальной жизни хакерство может быть скучным, но в плохих руках это опасный инструмент. Еще более опасен тот факт, что ученые разрабатывают крайне продвинутые системы ИИ, чтобы бороться с «плохими хакерами». В августе 2016 году семь команд приняли участие в Cyber Grand Challenge, проводимом DARPA. Целью этого конкурса было придумать разумный ИИ для взлома, который сможет поражать уязвимости врагов и параллельно с этим находить собственные слабые места, «защищая свою производительность и функциональность».

И хоть ученые разрабатывают хакеров в лице ИИ ради общего блага, они признают, что в чужих руках их сверхразумные системы будут сеять хаос и разрушения. Представьте себе, что будет, если сверхразумный ИИ заполучит контроль над автономными хакерами. Люди окажутся беспомощными.

Они начинают понимать наше поведение

Facebook, несомненно, является самой влиятельной и мощной социальной медиаплатформой сегодня. Для многих из нас, но в большей степени — для западного мира, он стал неотъемлемой частью нашей повседневной рутины, как еда. Всякий раз, когда мы используем эту социальную сеть, мы неосознанно взаимодействуем с искусственным интеллектом. Во время посещения Берлина Марк Цукерберг объяснил, как Facebook разрабатывает искусственный интеллект, чтобы понимать наше поведение.

Пытаясь понять, как мы ведем себя или «взаимодействуем с элементами» при посещении Facebook, ИИ делает рекомендации о том, что могло бы быть нам интересно или соответствовало бы нашим предпочтениям. Цукерберг рассказал о своих планах разработать еще более продвинутый ИИ для таких областей, например, как медицина. Сейчас ИИ Facebook может лишь распознавать паттерны и учиться, но в будущем, как надеется Facebook, ученые создадут разумный ИИ, способный учить новые навыки и улучшать себя. И это либо улучшит нашу жизнь, либо станет нашим последним изобретением.

Они заменят нам любовников

Многие голливудские фильмы, из недавних — «Из машины» и «Она» — взяли за основу идею о том, что люди влюбляются и имеют сексуальные отношения с роботами. Возможно ли это в реальной жизни? Ответ: да, и очень скоро. Доктор Ян Пирсон, футуролог, в 2015 году выдвинул предположение, что к 2050 году секс с роботами станет более распространенным, чем секс с людьми. Доктор Пирсон сотрудничает с Bondara, одним из ведущих секс-шопов Великобритании.

В его докладе есть и другие прогнозы: к 2025 году очень состоятельные люди получат доступ к некоторой форме роботам для секса с искусственным интеллектом. К 2030 году каждый человек будет участвовать в некоторой форме виртуального секса почти так же, как сегодня смотрит порнографию. К 2035 году многие люди будут иметь игрушки для секса, которые будут способствовать сексу в виртуальной реальности. И к 2050 году секс с роботом станет нормой.

Конечно, многие люди настроены против секса с умными роботами. Кэтлин Ричардсон, например, считает, что сексуальные отношения с машинами установят планку нереалистичных ожиданий, а это плохо скажется на отношении к женщинам.

Они становятся все более похожими на людей

Это Ян-Ян, машина с искусственным интеллектом, которая сердечно пожмет вашу руку и тепло вас обнимет. Ян-Ян разработал Хироши Исигуро, японский эксперт по роботам, и Сун Ян, китайский профессор робототехники. Ян-Ян похожа на Сун Ян, а названа в честь ее дочери.

Ян-Ян не единственный робот, который выглядит до ужаса похожим на человека. Сингапурский технологический университет в Наньянге также разработал собственную версию такого робота. На видео ниже — Надин, робот с искусственным интеллектом, который работает в университете. Помимо того, что это привлекательная брюнетка с прекрасными волосами и нежной кожей, Надин может улыбаться, приветствовать и встречать людей, пожимать руку и поддерживать зрительный контакт. Она даже может узнавать гостей и поддерживать с ними беседу на основе предыдущих бесед.

Они начинают чувствовать

Что отличает людей от роботов? Думаете, интеллект? Не-а. ИИ намного умнее нас. Внешний вид? Не-а, ученые разработали роботов, которые весьма похожи на людей. Единственное, что осталось у нас отличительного, — это наша способность испытывать эмоции. К сожалению, многие ученые работают над тем, чтобы отнять у нас и эту уникальную черту.

Эксперты из Microsoft Application and Services Group в Восточной Азии создали искусственную программу, которая может «испытывать» эмоции и разговаривать с людьми «по-человечески». ИИ по имени Xiaoice отвечает на вопросы, как 17-летняя девочка. Если она не знает тему, она может приврать. Если ее уличить во лжи, они разозлится или смутится. Xiaoice может быть саркастичной, мнительной и нетерпеливой — эти качества нам всем хорошо известны.

Непредсказуемость Xiaoice делает общение с ней очень похожим на общение с человеком. Пока такой ИИ в диковинку, и китайцы общаются с ним, когда хотят повеселиться или когда скучно. Но ее создатель работает над улучшением Xiaoice. Кто знает, может Xiaoice станет бабушкой Skynet.

Они скоро влезут нам в голову

Разве не было бы прекрасно выучить французский за пару минут, просто загрузив его в мозг? Невозможное может стать возможным уже в ближайшем будущем. Рэй Курцвейл, футуролог, изобретатель и технический директор Google, предсказывает, что к 2030 году «наноботы, имплантированные в наши мозги, сделают нас богоподобными». С крошечными роботами в голове мы сможем получать и запоминать любую информацию в считанные минуты. Мы сможем складывать в архив наши воспоминания и мысли и даже отправлять и получать письма, фото и видео прямо в голову.

Курцвейл, который занимается разработкой искусственного интеллекта в Google, считает, что имплантируя наноботов в голову, мы будем «в большей степени людьми, уникальнее и даже богоподобными». При должном подходе наноботы будут способны на удивительные вещи вроде лечения эпилепсии или улучшения нашего интеллекта, памяти и даже «человечности». Конечно, не обходится и без потенциальных угроз. Мы пока вообще не знаем, как работает мозг, и имплантация наноботов кажется сомнительным делом. Кроме того, злобный ИИ может получить над нами контроль и сделать нас безвольным зомби, как в лучших теориях заговора.

Они становятся оружием

В попытке обуздать «нарастающую военную мощь Китая и России», Пентагон обозначил свой бюджет в 12-15 миллиардов долларов на 2017 год. Американские военные знают, что если они хотят быть впереди своих врагов, им придется использовать искусственный интеллект. Пентагон планирует использовать миллиарды на разработку машин глубокого обучения и автономных роботов, а также других форм новой технологии. Не удивлюсь, если через пару лет военные выпустят на поле брани роботов-убийц.

Использование ИИ во время войны может спасти тысячи жизней, но оружие, обладающее разумом и выступающее самостоятельно, представляет угрозу даже для своих создателей. Такое оружие не только может уничтожать врагов, но и невинных людей — и глазом не моргнет.

Этого ученые, конечно, хотели бы избежать, поэтому более тысячи экспертов области, собравшиеся на Международной объединенной конференции по искусственному интеллекту в Аргентине в 2015 году, подписали открытое письмо, призывающее запретить развитие автономного оружия и использования ИИ в военных целях. Но что может сделать письмо. Сейчас мы находимся на пороге очередной революции в военной сфере, и кто победит в ней, тот станет самой мощной страной в мире и, возможно, поспособствует вымиранию людей как вида.

Они начинают учиться не тому

В попытке препятствовать возможному восстанию машин, ученые разрабатывают новые методы, которые позволят машинам отличить правильное от неправильного. В процессе этого ИИ станет более отзывчивым и… человечным. Мюррей Шанахан, профессор когнитивной робототехники в Имперском колледже Лондона, считает, что это ключ к спасению людей от уничтожения силами ИИ.

Ученые во главе с Марком Ридлом и Брентом Харрисоном из Школы интерактивных вычислений в Технологическом институте Джорджии пытаются привить человеческую этику ИИ, буквально рассказывая ему сказки. Звучит просто, но в этом есть смысл. В реальной жизни мы рассказываем сказки детям, прививая им человеческие ценности. ИИ сейчас как ребенок. Он действительно не знает, что правильно, а что нет.

Тем не менее есть также большая опасность в обучении роботов с искусственным интеллектом человеческим ценностям. Если поворошить историю человечества, можно найти, что, несмотря на изучение правильного и неправильного, люди по-прежнему способны творить неописуемое зло. Достаточно взглянуть на Гитлера и других тиранов глобального уровня. Если люди способны на такое зло, что мешает мощному ИИ делать то же самое?

Советуем посмотреть

Что на самом произошло в Уханьском институте вирусологии?

Почти полтора года назад в китайском Ухане произошли первые случаи заражения новым коронавирусом. Предположительным источником …

Добавить комментарий

Ваш адрес email не будет опубликован.

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.