КОММЕНТАРИИ

05.04.2020
04.04.2020
04.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020
03.04.2020

Архив записей

Главная » 2020 » Март » 22 » Искусственный интеллект убьет, а не спасет. Проверено в США
07:35
Искусственный интеллект убьет, а не спасет. Проверено в США

По мере развития технологий искусственного интеллекта все большей популярностью начинает пользоваться идея его использования в военном деле. Считается, что ИИ внимательнее, четче в принятии решений и значительно быстрее в их реализации. А еще он опирается на значительно более широкую базу знаний, чем может быть опыта у человека.

Единственная проблема – страх отдать компьютеру право на самостоятельное открытие огня. Все ранее проводимые такие эксперименты заканчивались плачевно. Сбой в программе и ЧП, часто даже с человеческими жертвами.

Но сама по себе идея продолжала жить, особенно актуализируясь в кризисные времена. В том числе в виде переноса ИИ с тактического на стратегический уровень. То есть решение «нажать кнопку» остается за человеком, но обработка массива входящих данных и выработка оптимальной стратегии доверяется ИИ.

На днях корпорация RAND, с привлечением специалистов Пентагона, провела командно-штабную военную игру по вполне реалистичному сценарию. Пользуясь ослаблением главного геополитического конкурента Китай предпринимает попытку расширения зоны своего полного контроля в регионе. США и их главный союзник в АТР – Япония – пытаются такое не допустить. Решения на уровне начальников баз, командиров кораблей, подводных лодок, сухопутных частей и авиационных подразделений принимали люди, но общую картину, на основе которой они это делали, формировал ИИ.

Предполагалось, что обе стороны начинать глобальную ядерную войну не желают и в своих действиях всячески стремятся от критической эскалации уклониться. Но практика учений показала, что в случае использования ИИ в стратегическом звене, дело неизбежно заканчивается обменом глобальными ядерными ударами.

Расхождения начинались уже на начальном этапе первых бескровных инцидентов с беспилотниками. Люди пытались максимально избегать шагов, ведущих к неизбежному усилению ответной реакции, тогда как ИИ руководствовался только целесообразностью достижения единственной главной цели – пресечь действия оппонента и вернуть стратегическое положение на карте к докризисному состоянию.

Даже при минимальном стремлении к эскалации насилия компьютер более чем на порядок быстрее переходил к жестким силовым действиям, либо сопряженным с высоким риском человеческих потерь у противника, либо прямо их предполагающих. В результате этап мелких инцидентов, эскалацию ответа на котором людям еще удавалось сгладить, преодолевался чрезвычайно быстро и войска начинали получать «оборонительные» приказы откровенно агрессивного свойства. В том числе при действиях в нейтральных водах и ничейном воздушном пространстве. После чего случался какой-нибудь крупный инцидент, вроде потопления американо-японскими силами ПЛО китайской ракетной подводной лодки в районе островов Спратли. Что в итоге оказалось спусковым крючком роста жесткости ответа, вынуждавшего к еще большей жесткости, чтобы еще большей жесткости. И дальше все заканчивалось обменом стратегическими ядерными ударами, избежать которых люди уже не могли. Алгоритм обработки данных ИИ просто не оставлял им иного выбора.

В заключении экспериментаторы отметили, что даже гибридные (ИИ + люди) военные системы ведут к коренному изменению эскалационной логики и динамики принятия решений. Причем главным фактором негативной неопределенности становится не противник, а именно искусственный интеллект, логика действий которого остается людям непонятной. Даже учитывая тот факт, что люди сами же создают и программируют ИИ.

Автор: Александр Запольскис

Источник: https://alex-leshy.livejournal.com/1457873.html

Категория: ПОЛИТИКА | Просмотров: 231 | Добавил: Регент | Рейтинг: 5.0/9
Всего комментариев: 0
Добавлять комментарии могут только зарегистрированные пользователи.
[ Регистрация | Вход ]

АВТОРИЗАЦИЯ

гость
07:33
Группа: Гость

ПОИСК

НОВОСТИ ПО ДНЯМ

Категории новостй

ПОЛИТИКА [10104]
ЭКОНОМИКА [749]
ВОЕННОЕ [291]
КУЛЬТУРА [128]
ИСТОРИЯ [174]
СМЕШНОЕ [887]
РОССИЯ [110]
ТЕХНИКА [44]
КАТАСТРОФЫ [34]
ИНТЕРНЕТ [47]
КРИМИНАЛ [126]
РАЗНОЕ [1014]

Статистика


Онлайн всего: 15
Гостей: 14
Пользователей: 1
Visotiny