Експерти закликають заборонити "роботів-убивць"

робот Копирайт изображения Getty Images
Image caption Експерти попереджають, що система "летальної автономії" може бути зламана і використана у небажаних цілях

Більш як 100 провідних експертів з роботів застерігають ООН вжити заходів, щоби запобігти розвиткові "роботів-убивць".

У листі до організації провідні фахівці у галузі штучного інтелекту, зокрема мільярдер Ілон Маск та один із засновників компанії DeepMind Мустафа Сулейман, попередили про можливу "третю революцію возброєнні".

"Летальна автономна" технологія - це "скринька Пандори", і час тут має велике значення.

116 експертів закликають ООН заборонити використання штучного інтелекту для керування зброєю.

"Коли таку технологію розроблять, збройні конфлікти можуть розвернутися у такому масштабі, якого (людство) ще не бачило, і з часом розвиватимуться швидше, ніж це зможе усвідомити людина", - йдеться в листі.

"Це може бути зброя терору, зброя, яку деспоти й терористи використовуватимуть проти ні в чому неповинних людей, і зброя, систему якої можна заламати, щоби використати у небажаних цілях", - пояснюється в тексті звернення.

Лист від експертів із технологій написаний стривоженим тоном і попереджає, що "в нас немає часу думати довго".

"Коли скриньку Пандори відкрити, закрити її буде дуже важко".

Експерти називають технологію автономної зброї "морально неправильною" і закликають занести її у список зброї, забороненої ООН.

Зустріч групи ООН щодо автономного озброєння була запланована на понеділок, але її відклали до листопада.

Раніше у комітетах ООН обговорювали можливу заборону на технологію "роботів-вбивць".

У 2015 більше від тисячі експертів, науковців та дослідників, зокрема Стівен Гокінг, Ілон Маск та співзасновник Apple Стів Возняк, опублікували лист, в якому попереджали про небезпеку застосування автономної зброї.

Що таке "робот-вбивця"?

Робот-вбивця - це повністю автоматизовна зброя, яка може обирати й уражати цілі без втручання людини. Зараз такої технології не існує, але прогрес в розвитку технологій наближає її появу.

Прибічники роботів-вбивць упевнені, що чинних законів, які регулюють військові дії, цілком достатньо, аби вирішити будь-які проблеми, пов'язані із застосуванням технології. А також, що у разі виникнення непередбаченої ситуації, на технологію потрібно буде накласти мораторій, а не жорстку заборону.

Однак противники технології стверджують, що вона становить загрозу людству, і всі автоматичні "функції вбивства" слід заборонити.

Новини на цю ж тему