Вход |  Регистрация
 
 
Время электроники Воскресенье, 19 августа
 
 


Это интересно!

Новости


Обзоры, аналитика


Интервью, презентации

Ранее

Создан электронный ключ от миллионов отельных номеров по всему миру

Исследователи из компании F-Secure разработали «мастер-ключ» от миллионов дверей гостиничных номеров по всему миру.

В MIT на базе Arduino создали прибор, управляющий сновидениями

Исследователи медиалаборатории Массачусетского технологического института в США разработали прибор Dormio, который предназначен для увеличения продолжительности гипнагогии (микроснов) — промежуточного состояния между сном и бодрствованием.

97% пользователей iPhone X довольны смартфоном

85% опрошенных или 1746 человек заявили, что они очень довольны, несмотря на многочисленную критику этой модели.

Реклама

По вопросам размещения рекламы обращайтесь в отдел рекламы

Реклама наших партнеров

 

27 апреля 2018

Искусственный интеллект может начать ядерную войну к 2040 году

Исследователи рассчитали, что ИИ в будущем может спровоцировать одну из ядерных держав нанести упреждающий удар против другой нации.

А

мериканская некоммерческая организация RAND Corporation опубликовала исследование, согласно которому искусственный интеллект сможет потенциально привести мир к ядерной войне к 2040 году.

«ИИ может подорвать геополитическую стабильность и нарушить статус ядерного оружия как средства сдерживания», — говорится в исследовании.

Аналитики утверждают, что хотя на протяжении десятилетий хрупкий мир поддерживался идеей того, что любое ядерное нападение может спровоцировать взаимное гарантированное уничтожение, потенциал ИИ и машинного обучения для принятия решений о военных действиях может означать, что отсутствие критического мышления у ИИ может дать неверную оценку ситуации. «Некоторые эксперты опасаются, что усиленная зависимость от искусственного интеллекта может привести к новым видам катастрофических ошибок», — сказал Эндрю Лон, соавтор статьи из RAND.

Авторы исследования считают, что в будущем улучшение технологий может привести к нарушению баланса сдерживающих сил, таких как подводные и мобильные ракеты. ИИ, используемый в качестве советника, может склонить человека к решению о нанесении упреждающего удара против другой нации: даже если противник не намерен нападать, но ИИ увидит возможность получения преимущества в результате атаки.

ИИ может оказаться «восприимчивым к состязательности». Следовательно, отметил Лон, сохранение стабильности в ближайшие десятилетия может оказаться чрезвычайно трудным, и все ядерные державы должны участвовать в создании институтов, которые помогут ограничить ядерные риск.

В документе RAND также подчеркивается опасность использования ИИ для принятия военных решений, а не угроза автономных беспилотных летательных аппаратов или роботов, об опасности которых постоянно предупреждает Илон Маск.

Выступая на ежегодном фестивале технологий и культуры SXSW (South by Southwest) в Остине, штат Техас, он предложил создать общественный регулирующий орган, который будет следить за безопасностью разработок в области искусственного интеллекта и предусматривать все возможные риски. «Запомните мои слова, — сказал он, — ИИ намного опаснее, чем ядерное оружие. Так почему у нас до сих пор нет нормативного надзора за ним?»

Источник: Forbes

Комментарии

0 / 0
0 / 0

Прокомментировать







 

 
 




Rambler's Top100
Руководителям  |  Разработчикам  |  Производителям  |  Снабженцам
© 2007 - 2018 Издательский дом Электроника
Использование любых бесплатных материалов разрешено, при условии наличия ссылки на сайт «Время электроники».
Создание сайтаFractalla Design | Сделано на CMS DJEM ®
Контакты