Портал | Содержание | О нас | Пишите | Новости | Голосование | Топ-лист | Дискуссия Rambler's Top100

TopList Яндекс цитирования

НОВОСТИ
"РУССКОГО ПЕРЕПЛЕТА"

ЛИТЕРАТУРА

Новости русской культуры

Афиша

К читателю

Содержание

Публицистика

"Курск"

Кавказ

Балканы

Проза

Поэзия

Драматургия

Искания и размышления

Критика

Сомнения и споры

Новые книги

У нас в гостях

Издательство

Книжная лавка

Журнальный зал

ОБОЗРЕНИЯ

"Классики и современники"

"Слово о..."

"Тайная история творений"

"Книга писем"

"Кошачий ящик"

"Золотые прииски"

"Сердитые стрелы"

КУЛЬТУРА

Афиша

Новые передвжиники

Фотогалерея

Музыка

"Неизвестные" музеи

Риторика

Русские храмы и монастыри

Видеоархив

ФИЛОСОФИЯ

Современная русская мысль

Искания и размышления

ИСТОРИЯ

История России

История в МГУ

Слово о полку Игореве

Хронология и парахронология

Астрономия и Хронология

Альмагест

Запечатленная Россия

Сталиниана

ФОРУМЫ

Дискуссионный клуб

Научный форум

Форум "Русская идея"

Форум "Курск"

Исторический форум

Детский форум

КЛУБЫ

Пятничные вечера

Клуб любителей творчества Достоевского

Клуб любителей творчества Гайто Газданова

Энциклопедия Андрея Платонова

Мастерская перевода

КОНКУРСЫ

За вклад в русскую культуру публикациями в Интернете

Литературный конкурс

Читательский конкурс

Илья-Премия

ДЕТЯМ

Электронные пампасы

Фантастика

Форум

АРХИВ

Текущий

2003

2002

2001

2000

1999

Фотоархив

Все фотоматериалы


Новости
"Русский переплет" зарегистрирован как СМИ. Свидетельство о регистрации в Министерстве печати РФ: Эл. #77-4362 от
5 февраля 2001 года. При полном или частичном использовании
материалов ссылка на www.pereplet.ru обязательна.

Тип запроса: "И" "Или"

25.04.2018
19:02

Потепление Мирового океана может предсказать потепление на суше

25.04.2018
18:59

Ученые открывают секрет эволюции скоплений галактик

25.04.2018
18:16

Обнаружена одна из самых темных планет, известных ученым

25.04.2018
18:09

Код ДНК. Какие тайны скрывает главная молекула

25.04.2018
17:37

Астрономы нашли экстремально черную планету

25.04.2018
17:33

Новые измерения увеличили количество частиц пластика во льдах Арктики в тысячу раз

25.04.2018
17:29

Музыка уменьшила боль и снизила тревожность у хирургических пациентов

25.04.2018
17:27

На 3D-принтере напечатали самоскладывающиеся цветы

25.04.2018
17:23

Компьютерная модель предсказала «сестер» сверхмассивной черной дыры в центре Галактики

25.04.2018
12:47

"Диво дивное." - новое в литературном обозрении Соломона Воложина

24.04.2018
19:15

Световое эхо в системе ShaSS 622-073

24.04.2018
18:58

В Университете ИТМО физики превратили одиночные волны в конденсат

24.04.2018
18:55

Мощные лазеры помогли ученым смоделировать условия в центральных областях массивных планет

24.04.2018
18:50

В NASA заметили необычные отверстия во льду Арктики‍

24.04.2018
18:48

Ученые смоделировали расширение Вселенной в лабораторных условиях‍

24.04.2018
18:38

Искусственный интеллект назвали угрозой ядерной стабильности

    Искусственный интеллект к 2040 году может подорвать ядерную стабильность и нивелировать стратегию ядерного сдерживания. К такому выводу пришли специалисты по искусственному интеллекту и ядерной безопасности, опрошенные исследователями американского стратегического исследовательского центра RAND Corporation. По мнению некоторых специалистов, для нарушения равновесия даже не потребуется встраивания искусственного интеллекта в ядерное оружие; само его существование может спровоцировать того или иного члена ядерного клуба к нанесению первого удара.

    Власти стран — членов ядерного клуба полагают наличие у них ядерного оружия гарантией безопасности. Считается, что наличие такого оружия защищает от нападения других стран, которые могут опасаться нанесения ядерного удара по своей территории. Это описывается стратегией ядерного сдерживания. Кроме того, существует понятие ядерного паритета (или ядерной стабильности), согласно которому ядерные державы вероятнее всего не будут наносить удары друг по другу, опасаясь взаимного уничтожения.

    Естественно понятия ядерной стабильности и ядерного сдерживания более сложны и носят скорее умозрительный характер, поскольку реальных военных конфликтов с применением ядерного оружия в мире не было со времен бомбардировки японских городов Хиросима и Нагасаки (вскоре после бомбардировки правительство Японии капитулировало). Описанные понятия усложняются гибридной войной, развитием высокоточного ядерного оружия, формированием ядерной триады (баллистические ракеты, подводные лодки с баллистическими ракетами и бомбардировщики) и созданием новых систем противоракетной обороны.

    Эксперты, опрошенные исследователями RAND Corporation, разделились на несколько лагерей. Умеренные предположили, что искусственный интеллект позволит лишь усовершенствовать имеющиеся системы ядерного вооружения, но никак не повлияет на стратегию ядерного сдерживания и ядерный паритет. При этом они пришли к умозаключению, что к 2040 году для искусственного интеллекта все еще будет серьезной проблемой сбор и обработка разведывательных данных о подготовке противника к применению ядерного оружия, а также к приоритизации целей противника.

    В свою очередь алармисты заявили, что искусственный интеллект в любом случае представляет опасность для ядерной стабильности. По мнению этого лагеря экспертов, одной из ядерных держав достаточно будет просто решить (неважно, истинно или ложно), что искусственный интеллект в системах защиты противника может свести на нет ответный удар в случае ядерного конфликта, чтобы эта держава отказалась от тактики второго удара и переключилась на стратегию превентивного удара, попутно начав наращивать ядерный арсенал.

    Еще одна группа экспертов объявила, что искусственный интеллект в системах ядерного вооружения может быть применен, и это может как упрочить ядерную стабильность, так и разрушить ее. С одной стороны, страны с «умным» ядерным оружием и системами защиты от него могут решить, что применение такого вооружения приведет к гарантированному взаимоуничтожению. Это может оказаться сдерживающим фактором. С другой стороны, «умные» системы могут дать правительствам ощущение технологического превосходства, гарантирующего победу в возможной войне. В этом случае ядерная война станет реальнее.

    При этом все эксперты, опрошенные RAND Corporation, пришли к выводу, что к 2040 году ни одна из стран — членов ядерного клуба не сможет создать машину судного дня с искусственным интеллектом. Гипотетическая машина судного дня рассматривается теоретиками как некая боевая система, способная инициировать ответный ядерный удар даже в том случае, если все руководство страны будет уничтожено ядерным ударом противника. Подобная машина обычно рассматривается в рамках стратегии гарантированного взаимного уничтожения.

    В июле 2015 года Илон Маск, Стивен Хокинг, Ноам Хомский, Стив Возняк и многие другие ученые, бизнесмены, знаменитости, исследователи и специалисты в области робототехники и искусственного интеллекта подписали открытое письмо, предостерегающее производителей оружия от создания боевых систем с искусственным интеллектом. В письме говорится, что до создания полностью автономных боевых систем, способных самостоятельно принимать решение об открытии огня, остались считанные годы.

    При этом авторы текста опасаются, что если кто-либо начнет углубленное производство автономных боевых систем, то новой эпохи гонки вооружений избежать не удастся. «Когда подобные устройства появятся на черном рынке, — это только вопрос времени — они попадут в руки террористов, диктаторов, желающих лучше контролировать свой народ, полевых командиров, которые используют их для этнических чисток и так далее. Автономное оружие идеально для заказных убийств, разрушения наций, подавления восстаний и зачисток по этническим признакам».

    По информации https://nplus1.ru/news/2018/04/24/nuclear

    Обозрение "Terra & Comp".

Выскажите свое мнение на:

24.04.2018
18:22

Нейросеть нашла «голубые самородки» в галактиках

24.04.2018
18:19

Хаотические вихри в жидкости предложили использовать для кодирования информации

24.04.2018
18:11

«ДНК» 350 000 звезд изучено в поисках «братьев и сестер» нашего Солнца

24.04.2018
18:06

Сатурн мог помочь сформироваться спутникам Юпитера

<< 991|992|993|994|995|996|997|998|999|1000 >>

НАУКА

Новости

Научный форум

Почему молчит Вселенная?

Парниковая катастрофа

Хронология и парахронология

История и астрономия

Альмагест

Наука и культура

2000-2002
Научно-популярный журнал Урания в русском переплете
(1999-200)

Космические новости

Энциклопедия космонавтика

Энциклопедия "Естествознание"

Журнальный зал

Физматлит

News of Russian Science and Technology

Научные семинары

НАУЧНЫЕ ОБОЗРЕНИЯ

"Физические явления на небесах"

"TERRA & Comp"

"Неизбежность странного микромира"

"Биология и жизнь"

ОБРАЗОВАНИЕ

Открытое письмо министру образования

Антиреформа

Соросовский образовательный журнал

Биология

Науки о Земле

Математика и Механика

Технология

Физика

Химия

Русская литература

Научная лаборатория школьников

КОНКУРСЫ

Лучшие молодые
ученые России

Для молодых биологов

БИБЛИОТЕКИ

Библиотека Хроноса

Научпоп

РАДИО

Читают и поют авторы РП

ОТДЫХ

Музеи

Игры

Песни русского застолья

Народное

Смешное

О НАС

Редколлегия

Авторам

О журнале

Как читать журнал

Пишут о нас

Тираж

РЕСУРСЫ

Поиск

Проекты

Посещаемость

Журналы

Русские писатели и поэты

Избранное

Библиотеки

Фотоархив

ИНТЕРНЕТ

Топ-лист "Русского переплета"

Баннерная сеть

Наши баннеры

НОВОСТИ

Все

Новости русской культуры

Новости науки

Космические новости

Афиша

The best of Russian Science and Technology

 

 


Если Вы хотите стать нашим корреспондентом напишите lipunov@sai.msu.ru

 

Редколлегия | О журнале | Авторам | Архив | Ссылки | Статистика | Дискуссия

Галерея "Новые Передвижники"
Пишите

© 1999, 2000 "Русский переплет"
Дизайн - Алексей Комаров

Русский Переплет
Rambler's Top100 TopList