Блог "Вам слово": стоит ли бояться восстания машин?

  • 28 ноября 2012
Терминатор
Image caption Восстание разумных машин - самый любимый в Голливуде сценарий уничтожения человечества, не считая природных катастроф

В Кембриджском университете объявлено о создании нового Центра по изучению экзистенциальных рисков. Экзистенциальные риски - это то, что может угрожать существованию человека, а еще точнее - всего человечества. И современная наука, по мнению создателей центра, вполне может представлять такую опасность.

Именно с этой точки зрения в Кембридже планируют проводить анализ научных исследований в области биотехнологий, создания искусственной жизни, нанотехнологий и так далее - вплоть до глобального потепления.

В частности, ученые заявляют, что было бы опасным сбрасывать со счетов риск восстания роботов. По мнению одного из исследователей, когда роботы и компьютеры обгонят по уровню интеллекта человека, мы можем оказаться во власти машин, интересы которых находятся вне сферы интересов человечества.

Впрочем, и другие активно исследуемые сейчас научные отрасли могут нести реальную угрозу уничтожения планеты - от ядерных технологий до экспериментов с генетическим кодом.

Эта тема обсуждается также на форуме bbcrussian.com.

Может ли развитие науки и техники привести к гибели цивилизации? Насколько вероятно, что это случится? Может быть, правильнее спросить: "когда?" Насколько велик риск восстания машин - сценария, столь знакомого нам по голливудским блокбастерам? Реальность это, или научная фантастика?

На эти вопросы мы искали ответ в эфире программы "Вам слово" вместе с культурологом, доцентом университета города Лидс Владом Струковым.

Земля превратится в чёрную дыру?

Уже сама формулировка темы такова, что первым делом в голову приходят голливудские блокбастеры и фантастические романы - от Карела Чапека, который считается изобретателем слова "робот", до братьев Стругацких и "братьев" Вачовски. Неудивительно, что начали мы дискуссию с авторитетного мнения известного писателя-фантаста Сергея Лукьяненко.

"Безусловно, некоторые отрасли науки могут представлять опасность - исследования в области термоядерного синтеза, генома человека и так далее, - соглашается он. - Однако жизнь человека без науки подвержена массе других опасностей - вспомните чуму, опустошавшую Европу и фактически побежденную наукой, или оспу, которая сейчас де-факто не существует".

"В медицине считается, что любое вещество может быть лекарством или ядом в зависимости от дозировки. Так и наука может принести благо, а может принести беду", - философски замечает Лукьяненко.

По мнению писателя, не стоит опасаться традиционной атомной энергетики, поскольку она достаточно безопасна при соблюдении определенных условий и предосторожностей. Опасностей можно ждать от биотехнологий, от исследований генома человека, вирусных инфекций, а также - потенциально - исследований в области структуры материи.

Лукьяненко напомнил шутку из сериала "Лексс", герои которой классифицировали Землю как планету 13-го типа, которые всегда заканчивают одним и тем же: жители планеты придумывают коллайдер, после чего она превращается в чёрную дыру.

Конечно, это шутка, добавляет он, однако не стоит забывать, что научное любопытство может привести к весьма неприятным последствиям.

Строго говоря, именно об этом и предлагают помнить создатели Центра по изучению экзистенциальных рисков.

На официальном сайте центра, в частности, написано: "Серьезность подобных рисков сложно оценить, но даже сам этот факт является основанием для беспокойства, учитывая, что именно поставлено на карту".

Сам факт того, что Кембриджский университет - один из ведущих мировых вузов - создает специальный исследовательский центр, посвященный проблеме выживания человечества, для многих является достаточным свидетельством важности и недооцененности этой проблемы.

"Нашей целью является - выделить небольшую часть гигантских интеллектуальных ресурсов Кембриджа - а также его репутации, основанной на грандиозных научных достижениях как в прошлом, так и в настоящее время, - для того, чтобы обеспечить существование собственного вида в долгосрочной перспективе", - поясняют организаторы центра.

Восстание машин?

Благодаря писателям-фантастам и голливудским блокбастерам наиболее знакомым нам сценарием уничтожения человечества (если не считать природных катастроф) является конфликт людей с искусственным интеллектом, в самых разнообразных его формах - будь то разумная сеть Skynet, объявляющая войну своим создателям, из фильма "Терминатор" или программа-монстр "Матрица" - гигантская ферма, использующая людей как источник энергии.

Именно последние разработки в области компьютерных технологий и искусственного интеллекта явились отправной точкой при создании кембриджского центра.

С этой точки зрения интересно отметить, что у центра три создателя. Один из них философ Хью Прайс, другой - ученый-астрофизик Мартин Риз, а третий - Джаан Таллинн, один из создателей программы Skype.

Полгода назад двое из них - Прайс и Таллинн - совместно написали научную статью под названием "Искусственный интеллект: сможем ли мы удержать его в узде?"

"Мы знаем, как нужно обращаться с подозрительными пакетами - как можно аккуратнее! Сегодня мы перекладываем рискованную часть работы на роботов. Но что если роботы и есть фактор риска? Некоторые аналитики утверждают, что мы должны обращаться с искусственным интеллектом точно так же, как с подозрительным пакетом, потому что однажды он может взорваться прямо у нас под носом", - так начинается эта статья.

Машинам нужен мир, желательно весь

Отвечая на вопрос, будут ли когда-либо существовать компьютеры, не уступающие интеллектом человеку, известный американский математик и писатель-фантаст Вернор Виндж грустно пошутил: "Да, только очень недолго".

С одной стороны, пока что ни одна машина даже близко не подошла к прохождению теста Тьюринга, специально разработанного в середине прошлого века для определения того, может ли искусственный интеллект мыслить самостоятельно.

С другой стороны, учитывая стремительность развития компьютерных технологий, должно ли нас это хоть сколько-нибудь успокаивать?

Собственно говоря, кембриджский проект и должен дать ответ на этот вопрос. Основная цель этой совместной инициативы - убедить ученых в том, что риски, которые несут новейшие технологические разработки - а они, очевидно, существуют - достойны значительно большего внимания, чем уделяется им сейчас.

Впрочем, по мнению Сергея Лукьяненко, чего-чего, а восстания роботов человечеству всерьез опасаться не стоит. И дело даже не в том, что до создания умных машин еще очень далеко.

"Даже когда машина получит разум, не стоит ждать, что первые разумные машины немедленно развяжут войну и начнут уничтожать человечество, - считает он. - Любые машины подконтрольны человеку и зависят от него. Даже если завтра будет создан робот, который будет разговаривать, двигаться и всё остальное, он будет зависеть от той среды, которая его окружает - человеческой среды".

"Нам, по сути, необходимо породить новую цивилизацию, цивилизацию машин, которая будет самоподдерживающейся, способной развиваться, размножаться и так далее - только тогда можно будет говорить о какой-то конкуренции и какой-то опасности, - продолжает Лукьяненко. - С другой стороны, для такой машинной цивилизации не будет никакой необходимости привязываться к старушке-Земле и воевать за неё с людьми. Для этих машин будет открыт весь космос".

Комментарии

Британские учёные, такие британские.... скоро начнут радовать новостями о том как у них отлично идут работы по предотвращение угасания Солнца...

<strong>Денис, Tbilisi, Georgia</strong><br/>

Бояться разумных машин можно будет только тогда, когда можно будет уже не бояться неразумных людей. Вряд ли такой момент когда-нибудь наступит.. ведь сейчас роботы (точнее, телеуправляемые автоматы) убивают людей, не обладая собственным разумом. Бунт для этого не нужен...

Прим.: я профи, занимаюсь робототехникой. И знаю, о чём речь.

<strong>Eugene, Москва</strong><br/>

Восстание роботов - чушь, придуманная фантастами и распространяемая слабообразованными в технических вопросах гуманитариями. Компьютер (робот) - это просто железо, исполняющее программу, заложенную в него человеком. Вот если в него заложить программу уничтожения человечества или его части - тогда да, что-то вроде возможно. Но это будет не восстание машин, а преступление конкретного человека, а скорее, группы лиц. Не надо пугать обывателя, ваш телевизор или компьютер САМОСТОЯТЕЛЬНО не примет решения убить вас. Это то же самое, что боятья собственной авторучки.

<strong>Holmes, Москва</strong><br/>

По-моему,получился бы неплохой фильм-предостережение со сценарием постепенного вытеснения разумной биологической жизни разумным "пластиком". Думаю,будет реализован способ добровольного отказа людьми от натуральных органов искусственными и как следствие превращение их в андроидов со всеми вытекающими последствиями:разрушение классической "людской" экономики.Нет спроса-нет предложения.Далее пластик начнёт осваивать космос самостоятельно.Ведь ему не нужен воздух и вода,как человеку.Последние классические люди сохранятся лишь в едных странах и будут деградировать и выживать в конкуренции друг с другом и скорее всего вернутся в лес,т.к. города просто исчезнут.. Если показать такое развитие событий, многие всерьёз задумаются об этой проблеме.Толчком к этой технической революции послужит т.н. "свободный поток информации" ,первые признаки которого проявились с появлением интернета. А придумал название ему Алвин Тоффлер в 70-е годы прошлого века

<strong>Кирилл, Moscow</strong><br/>

Для того что бы разобраться в этом надо просто применить элементарную логику. Машины в космосе это вполне реально. Можно даже представить что дизайнеры и програмисты давно уже покинули этот мир вместе со всей цивилизацией а их "дети" все еще плодятся и кого то захватывают, колонизируют,клонируют и тд, причем совершенно бесцельно. Вот примерно такая миссия может быть возложена на совершенно не дающих себе отчета современных програмистов и инжинеров. Да какой же это хомосапиенс? - это друзья совершенно наооборот.

<strong>Alex, US</strong><br/>

Английские ученые продолжают радовать.

<strong>Философ, Саратов</strong><br/>

Новости по теме