Пятница , 27 Декабрь 2024
Home / Наука и техника / Опасная человечность: зачем нам разумный искусственный интеллект?

Опасная человечность: зачем нам разумный искусственный интеллект?

Когда Норберт Винер, отец кибернетики, писал свою книгу «Человеческое использование человеческих существ» в 1950 году, вакуумные трубки все еще были основными электронными строительными блоками, и в работе, по факту, было всего несколько компьютеров. Однако он вообразил будущее, которое мы сейчас наблюдаем, с беспрецедентной точностью, ошибившись лишь в незначительных мелочах.

Прежде любого другого философа искусственного интеллекта, он понял, что ИИ не просто будет подражать — и заменять — человеческим существам во многих видах интеллектуальной деятельности, но и изменит людей в этом процессе. «Мы всего лишь водовороты в реке вечно текущей воды», писал он. «Мы не является чем-то, что просто живет, мы модели, которые увековечивают себя».

Например, когда появляется множество заманчивых возможностей, мы готовы платить и принимать небольшие затраты на ведение бизнеса для доступа к новым возможностям. И очень скоро мы становимся зависимы от новых инструментов, теряем способность существовать без них. Опции становятся обязательными.

Это очень старая история эволюции, и многие главы из нее нам хорошо известны. Большинство млекопитающих может синтезировать свой собственный витамин C, но приматы, питающиеся преимущественно фруктами, потеряли эту встроенную возможность. Самоповторяющиеся шаблоны, которые мы называем людьми, теперь зависят от одежд, обработанной еды, витаминов, шприцев, кредитных карт, смартфонов и интернета. И завтра, если не сегодня, — от искусственного интеллекта.

Винер предвидел несколько проблем с этим положением вещей, которые Алан Тьюринг и другие ранние оптимисты ИИ в значительной степени упустили из виду. Реальная угроза, по его словам, заключалась:

…в том, что такие машины, хотя и беспомощные сами по себе, могут использоваться человеком или блокировать человеческих существ для увеличения их контроля над остальной частью расы, либо политические лидеры могут попытаться взять под контроль свое население, используя не сами машины, а политические методы, столье же узкие и безразличные к человеку, как если бы они были придуманы механически.

Очевидно, эти опасности сейчас весьма актуальны.

В СМИ, например, инновации в цифровом аудио и видео позволяют нам платить небольшую цену (в глазах аудиофилов и любителей кино) за отказ от аналоговых форматов, а взамен получать крайне простой — слишком простой — способ воспроизведения записей почти без ограничений.

Но есть огромная скрытая цена. Министерство правды Оруэлла стало реальной возможностью. Методы ИИ по созданию практически неотличимых поддельных «записей» делают устаревшими инструменты, которые мы использовали для расследований последние 150 лет.

Нам остается просто отказаться от краткой эпохи фотографических доказательств и вернуться в тот прежний мир, где память человека и доверие были золотым стандартом. Или же мы можем разработать новые методы защиты и нападения в битве за правду. Одним из волнительных примеров последнего времени стал факт того, что уничтожить репутацию намного дешевле, чем эту же репутацию заслужить и защитить. Винер видел это явление очень широко: «В долгосрочной перспективе не будет разницы между вооружением себя и вооружением врага». Эпоха информации стала также эпохой дезинформации.

Что мы можем сделать? Ключ в том же наблюдении Винера о том, что «эти машины» «беспомощны сами по себе». Мы создаем инструменты, а не коллег, и реальная угроза заключается в том, что мы не видим разницы.

Искусственный интеллект в своих нынешних проявлениях паразитирует на человеческом интеллекте. Он весьма бесцеремонно овладевает всем, что создали люди-творцы, и извлекает паттерны — включая наши самые тайные привычки. Эти машины пока не имеют целей или стратегий, не способны к самокритике и инновациям, они лишь изучают наши базы данных, не имея собственных мыслей и целей.

Они, как говорит Винер, беспомощны не в том смысле, что они закованы в цепи или обездвижены, нет, они вообще не являются агентами — у них нет возможности «действовать от причин», как выразился бы Кант.

В долгосрочной перспективе «сильный ИИ», или общий искусственный интеллект, возможен в принципе, но нежелателен. Еще более ограниченный ИИ, который возможен на практике сегодня, не будет злом. Но он несет угрозу — отчасти потому, что его можно ошибочно принять за сильный ИИ.

Насколько силен искусственный интеллект сегодня?

Разрыв между сегодняшними системами и научно-фантастическими системами, наводняющими популярное воображение, все еще огромный, хотя многие люди, как любители, так и профессионалы, склонны его недооценивать. Давайте рассмотрим Watson от IBM, который вполне может стать достойным уважения в наше время.

Этот суперкомпьютер стал результатом крайне масштабного процесса R&D (исследований и разработки), в котором было задействовать множество людей и наработки дизайна интеллекта за многие столетия, и он использует в тысячи раз больше энергии, чем мозг человека. Его победа в Jeopardy! была подлинным триумфом, который стал возможен благодаря формульным ограничениям правил Jeopardy!, но чтобы он мог принять участие, даже эти правила пришлось пересмотреть. Пришлось немного отказаться от универсальности и добавить человечности, чтобы получилось шоу.

Watson — плохая компания, несмотря на вводящую в заблуждение рекламу от IBM, которая обещает разговорные способности ИИ на обем уровне, а превращение Watson в правдоподобного многогранного агента было бы сродни превращению калькулятора в Watson. Watson может быть хорошим вычислительным футляром для такого агента, но скорее мозжечком или миндалиной, а не разумом — в лучшем случае, подсистемой спецназначения, выполняющей роль поддержки, но и близко не системой для планирования и формулирования целей в зависимости от полученного разговорного опыта.

Да и зачем бы нам хотелось создать мыслящего и творческого агента из Watson? Возможно, блестящая идея Тьюринга — знаменитый тест Тьюринга — заманила нас в ловушку: мы стали одержимы созданием хотя бы иллюзии реального человека, сидящего перед экраном, минуя «зловещую долину».

Опасность в том, что с тех пор, как Тьюринг представил свою задачу — которая была, в первую очередь, задачей обмануть судей — создатели ИИ пытались выполнить ее при помощи смешных гуманоидных кукол, «мультяшных» версий, которые очаруют и обезоружат непосвященных. ELIZA Джозефа Вейзенбаума, самый первый чатбот, была ярким примером создания такой иллюзии, и при этом крайне простым алгоритмом, который мог убедить людей, что они ведут задушевные и искренние беседы с другими людьми.

Его обеспокоила легкость, с которой люди готовы верить в это. И если мы что-то и поняли из ежегодных состязаний на прохождение ограниченного теста Тьюринга за премию Лебнера, так это то, что даже самые умные люди, которые не сведущи в компьютерном программировании, легко ведутся на эти простейшие уловки.

Отношение людей в области ИИ к таким методам разнится от осуждения до поощрения, и консенсус заключается в том, что все эти уловки не особо глубоки, но могут быть полезными. Сдвигом в отношении, который был бы очень кстати, будет искреннее признание того, что разукрашенные в кукол андроиды — это ложная реклама, которую стоит осуждать, а не поощрять.

Как этого достичь? Как только мы поймем, что люди начинают принимать решения жизни и смерти, следуя «совету» систем ИИ, внутренние операции которых практически непостижимы, мы увидим хороший повод для тех, кто призывает людей доверять таким системам, начать опираться на нормы морали и закона.

Системы искусственного интеллекта — очень мощные инструменты. Настолько мощные, что даже у экспертов есть хорошая причина не доверять собственным суждениям, когда есть «суждения», представленные этими инструментами. Но если эти пользователи инструментов собираются извлечь выгоду, финансовую или другую, от популяризации этих инструментов, они должны убедиться, что знают, как сделать это со всей долей ответственности, максимальным контролем и обоснованием.

Лицензирование и одобрение действий операторов таких систем — точно так же, как мы лицензируем фармацевтов, операторов кранов и других специалистов, ошибки и ошибочные суждения которых могут иметь тяжелые последствия — может, при поддержке страховых компаний и прочих организаций, обязать создателей систем ИИ идти длинным путем, выискивая слабости и недостатки своих продуктов, а также обучать тех, кто собирается с ними работать.

Можно вообразить своего рода обратный тест Тьюринга, в котором предметом оценки будет судья; пока он не найдет слабости, нарушение границ, пробелы в системе, лицензии он не получит. Для получения сертификата такому судье потребуется серьезное обучение. Стремление приписывать объекту человеческую способность мыслить, как мы обычно делаем, встречаясь с разумным агентом, очень и очень сильное.

В действительности, способность противостоять желанию видеть в чем-то очеловеченном человека — странная штука. Многие люди нашли бы взращивание такого таланта сомнительным, потому что даже самые прагматичные пользователи системы периодически относятся к своим инструментам «дружелюбно».

Независимо от того, насколько тщательно дизайнеры искусственного интеллекта будут исключать фальшивые «человеческие» нотки в своих изделиях, мы должны ожидать расцвета ярлыков, обходных путей и допустимых искажений фактического «понимания» как систем, так и их операторов. Точно так же, как по телевизору рекламируют лекарства с длинным списком побочных эффектов или алкоголь, снабжая ролик обилием мелкого шрифта со всеми, предусмотренными законом, предупреждениями, так же и разработчики искусственного интеллекта будут соблюдать закон, но изощряться в предупреждениях.

Зачем нам искусственный интеллект?

Нам не нужны искусственные сознательные агенты. Есть масса природных сознательных агентов, которых достаточно, чтобы выполнять любые задачи, предназначенные для специалистов и привилегированных лиц. Нам нужны умные инструменты. Инструменты не имеют прав и не должны иметь чувств, которые можно будет задеть или которыми можно будет «злоупотребить».

Одна из причин не делать искусственных сознательных агентов состоит в том, что хотя они и могут стать автономными (и в принципе они могут быть такими же автономными, самоулучшающимися или самосозидательными, как любой человек), им не стоит — без специального разрешения — разделять с нашими природными сознательными агентами нашу уязвимость или нашу смертность.

Дэниел Деннетт, профессор философии из Университета Тафтса, однажды поставил перед студентами задачу на семинаре по искусственным агентам и автономии: дайте мне технические характеристики робота, который сможет подписать контракт с вами — не суррогата, которым владеет другой человек, а самого по себе. Это не вопрос понимания причин или манипуляций ручкой на бумаге, а скорее владения и заслуженного владения правовым статусом и нравственной ответственностью. Маленькие дети не могут подписывать таких контрактов, равно как и инвалиды, правовой статус которых обязывает им быть под опекой и накладывает ответственность на опекунов.

Проблема роботов, которые могли бы захотеть получить такой возвышенный статус, в том, что, как и Супермен, они слишком уязвимы, чтобы делать такие заявления. Если они откажутся, что будет? Каким будет наказание за нарушение обещания? Их закроют в клетке или разберут на части? Тюрьма для искусственного интеллекта не составит неудобств, если мы только сперва не загрузим жажду свободы, которая не сможет быть проигнорирована или отключена самим ИИ. Разборка ИИ не убьют информацию, которая хранится на его диске и в программном обеспечении.

Простота цифровой записи и передачи данных — прорыв, который позволил программному обеспечению и данных получить, по сути, бессмертие — делает роботов неуязвимыми. Если это не кажется очевидным, подумайте о том, как изменилась бы нравственность людей, если бы мы могли делать «бэкапы» людей каждую неделю. Прыжок с моста без резинки в воскресенье после пятничного бэкапа может быть опрометчивым решением, затем можно будет посмотреть запись своей преждевременной кончины позднее.

Именно поэтому мы создаем не сознательных — хотели бы создавать — гуманоидных агентов, а скорее совершенно новый тип существ, неких оракулов, без сознания, без страха смерти, без отвлечения на любовь и ненависть, без личности: зеркала правды, которые почти наверняка будут заражены человеческой ложью.

Человеческое использование человеческих существ скоро изменится — в очередной раз — навсегда, но если мы возьмем на себя ответственность за нашу траекторию эволюции, мы сможем избежать ненужных опасностей.

Не согласны? Расскажите о своем мнении в нашем чате в Телеграме.

{ «@context»: «http://schema.org», «@type»: «Article», «name»: «Опасная человечность: зачем нам разумный искусственный интеллект?», «headline»: «Опасная человечность: зачем нам разумный искусственный интеллект?», «author»: { «@type»: «Person», «name»: «Илья Хель» }, «datePublished»: «2019-02-25 18:30:34», «dateModified»: «2019-02-25 10:28:20», «image»: [«https://hi-news.ru/wp-content/uploads/2019/02/ai-650×366.jpg»], «mainEntityOfPage»: «https://hi-news.ru/technology/opasnaya-chelovechnost-zachem-nam-razumnyj-iskusstvennyj-intellekt.html», «publisher»: { «@type»: «Organization», «name»: «Hi-News.ru», «logo»: { «@type»: «ImageObject», «url»: «https://hi-news.ru/wp-content/themes/101media/img/hi-apps_mini.jpg» } } }

Советуем посмотреть

Что на самом произошло в Уханьском институте вирусологии?

Почти полтора года назад в китайском Ухане произошли первые случаи заражения новым коронавирусом. Предположительным источником …

Добавить комментарий

Ваш адрес email не будет опубликован.

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.