Стоит признать, что робототехника за крайние годы шагнула достаточно далековато. Орудие, создаваемое оборонными компаниями, становится умнее, к нему подключают системы искусственного ума, боты обретают полную автономность и так дальше. А это значит, что робот-убийца может стать реальностью ранее, чем мы думаем. По последней мере, так считают представители PАХ, некоммерческой организации, базирующейся в Нидерландах и выступающей за мир во всем мире. О этом они сказали в собственном докладе, размещенном в журнальчике Quartz.
Для чего создавать роботов-убийц?
Боты-убийцы предусмотрены для принятия решений о лишении жизни либо сохранении ее без помощи других, без людского контроля. Этот тревожный признак спецы РАХ окрестили «третьей революцией в войне» опосля изобретения пороха и атомной бомбы. Как активисты, так и страны призывают к созданию свода интернациональных правил, регулирующих создание подобного орудия, либо даже прямого запрета на его исплозование. Но некие страны, в том числе США (Соединённые Штаты Америки — государство в Северной Америке), Китай и Русская Федерация, до сего времени не приняли мер по данному вопросцу.
Спецы РАХ выявили по наименьшей мере 30 глобальных производителей орудия, которые не имеют политики против разработки вышеобозначенных видов систем вооружения. В их число входят южноамериканские оборонные компании Lockheed Martin, Boeing и Raytheon, китайские муниципальные конгломераты AVIC и CASC, израильские компании IAI, Elbit и Rafael, русский Ростех и турецкая STM.
До того времени, пока страны не условились коллективно сделать некий режим регулирования либо, в эталоне, превентивный запрет, есть возможность, что компании будут разрабатывать и создавать, а в итоге и применять орудие, которое не имеет достаточного людского контроля. — произнес создатель доклада Фрэнк Слипер.
Активисты не считают при всем этом, что военное применение той либо другой системы искусственного ума является неувязкой. Неувязка конкретно в том, что такие системы могут стать неподконтрольны человеку. А какое мировоззрение имеете вы по данному вопросцу? Выскажитесь в комментах и в нашем чате в Телеграм.
Например, южноамериканские военные уже разрабатывают пушку с искусственным умом, которая будет без помощи других выбирать и поражать цели, также танки с искусственным умом, которые, сумеют «идентифицировать и поражать цели втрое резвее, чем хоть какой человек». А STM, турецкая муниципальная оборонная компания, уже вовсю производит снаряженного искусственным умом бота под заглавием KARGU. В комплекте с способностями определения лиц, KARGU может автономно выбирать и штурмовать цели, используя координаты, за ранее избранные оператором. Сообщается, что Турция хочет применять KARGU в Сирии.
PAX больше всего обеспокоены возможным развертыванием ИИ в наступательных системах, которые будут выбирать и штурмовать цели без помощи других, без людского надзора. Группа задается вопросцем о том, каким образом это орудие будет проводить различие меж военными и штатскими лицами. У тому же, юристы до сего времени не знают, кто будет нести ответственность, если автономное орудие нарушит международное право.
При всем этом в отличие от Гугл либо Amazon, которые столкнулись как с общественной, так и с внутренней реакцией на свою работу над военными системами, компании вроде Lockheed Martin и Raytheon, имеют дела только с военными, потому они сталкиваются с малой реакцией со стороны партнеров, также со стороны обыденных людей, потому что большая часть разработок до определенного момента остаются засекреченными.
Читайте также: Почему нереально сделать мыслящего бота?
В то время как развитие автономного орудия длится, РАХ считают, что есть еще возможность предупредить вероятную катастрофу. Группа заявила, что компании-производители могут сыграть решающую роль в этом, и должны выступить против производства на сто процентов автономного смертельного орудия. Что касается систем вооружения с поддержкой искусственного ума, то представители РАХ заявлют, что оборонные компании должны следовать некоторому своду правил, который еще предстоит создать. Но на сто процентов отрешаться от ИИ никто не призывает.