Могут ли роботы воевать за солдат?

  • 8 февраля 2010
Боевая машина-робот
Image caption Могут ли боевые роботы соблюдать правила ведения войны?

Можно ли воевать при помощи армии машин, которые соблюдают все законы войны, и благодаря которым эта война становится более безопасной для человека? Создатели военных роботов будущего отвечают на этот вопрос положительно.

Большинство современных роботов, за исключением разве что беспилотных самолетов, не принимают участие в активных боевых действиях, они решают вспомогательные задачи, такие как разминирование.

Однако уже сейчас в армиях мира используется 8 тысяч роботов, и некоторые эксперты полагают, что в военном деле грядет революция.

"Право вето"

Сотрудник американского подразделения британского производителя роботов, компании QinetiQ, Боб Куин, считает, что в будущем на поле боя станет появляться все больше и больше роботов, в том числе и беспилотных.

"Чем выше у тебя шанс получить пулю, тем больше ты понимаешь важность вооружений с возможностью удаленного доступа", - отмечает он.

Любой, кто видел фильмы о роботе-терминаторе, может посчитать подобные представления опасными. Куин признает: даже среди высших офицеров "научно-фантастические фильмы вызывают изрядную тревогу".

Он подчеркивает необходимость сделать так, "чтобы военизированные роботы могли действовать только под контролем военных и никогда - независимо".

Однако скорость современной войны может затруднить процедуру контроля со стороны человека, указывает Питер Зингер, автор книги Wired for War (название которой можно перевести как "Смонтирован для войны").

Возьмите автоматические антиартиллерийские системы, уже действующие в Афганистане, предлагает он. "Время человеческой реакции на приближающийся снаряд таково, что успеваешь лишь ругнуться, - говорит Зингер. - А система реагирует, сбивая снаряд в воздухе. Получается замкнутый круг. Мы можем отключить систему, можем включить, но наши способности не соответствуют тому, что требуется для принятия решения. Сейчас это право вето".

Танк-вегетарианец

Но если решения принимают автоматизированные системы, как мы можем быть уверены в том, что они стреляют по нужным целям и соблюдают законы ведения войны?

Image caption Роботы Talon фирмы QinetiQ занимаются разминированием

К американскому ученому Патрику Лину недавно обратилось министерство обороны США, попросившее его заняться изучением морали роботов.

"Когда говоришь об автономных роботах, - поясняет Лин, - естественно желание запрограммировать их так, чтобы они подчинялись неким моральным правилам. Не то же ли мы делаем с нашими компьютерами?"

Яркий пример робота, нуждающегося в таком "моральном" программировании, - это создаваемая Пентагоном беспилотная боевая машина под названием EATR. В полевых условиях она может сама дозаправляться при помощи органики. А это порождает вопрос, от которого стынет кровь в жилах: не станет ли машина питаться трупами на поле боя?

Ее изобретатель, доктор Роберт Финкелстайн из компании Robotic Technology, признает, что EATR будет потреблять органические материалы, но преимущественно вегетарианские.

"Робот может делать только то, на что он запрограммирован, - поясняет он. - У него есть определенное меню".

Тем не менее, все это изрядно беспокоит скептиков, таких как профессор Ноэль Шарки, один из основателей Международного комитета по контролю за роботизированными вооружениями.

"Вы можете научить робота всему, что хотите, навязать ему любые моральные правила, - поясняет он свою позицию. - Если то, что в него вложено, некорректно, то ничего хорошего не получится. Людей можно привлечь к ответственности, машины - нельзя".

Но если нельзя быть уверенным в том, что робот отличит противника от мирных жителей или от своих, то должно быть другое решение, и его предлагает Патрик Лин.

"Если существует район боевых действий, в котором настолько горячо, что можно предположить, что все здесь - представители воюющих сторон, - продолжает он, - то можно спускать роботов с поводка. Некоторые называют это убойной зоной. И предполагается, что [в убойной зоне] любая цель является легитимной".

Без эмоций

Другие исследования позволяют предположить, что роботы в состоянии не допускать некоторых ошибок, которые совершают люди.

"У роботов, которые правильно запрограммированы, меньшая вероятность совершения ошибок - таких как убийство мирных людей, ведь у них нет эмоций, нет страха, и они не совершают ошибок в стрессовых ситуациях", - подчеркивает Роберт Финкелстайн.

Однако Кристофер Кокер, специалист по военным кофликтам из Лондонской школы экономики, не согласен с таким подходом. "Мы должны верить в человеческий фактор, - говорит он. - К сожалению, военные в своих отчетах нередко рассматривают человеческий фактор как слабое место, но я думаю, что это как раз самое сильное звено".

Компьютеры никогда не смогут в полной мере симулировать "этику войны", то есть образ мыслей и моральные установки профессионального солдата, добавляет он.

Военная революция в робототехнике уже довольно далеко продвинулась в воздухе: управляемые на расстоянии беспилотники играют важнейшую роль в некоторых современных конфликтах, таких как афганский.

Что касается наземных действий, то здесь роботов используют намного меньше.

Однако по мере того, как в различных конфликтах растет число жертв среди натовских солдат и офицеров, аргументация производителей роботов будет казаться все более убедительной.

"Давайте лучше спасать наших парней и уничтожать врага, - говорит Боб Куин из британской компании QinetiQ. - К сожалению, на войне ситуация именно такова".

Новости по теме