Раз попалась статья попалась статья, по ИИ. Там говорится. что если человек будет управлять военными объектами, то вероятность ядерной войны мала, если допустить ИИ, даже в качестве помощника, то вероятность ядерной войны во много раз увеличится. Если что то произойдет, взрыв (тогда взорвался американский Челлинжер, с преподавателем на борту), то ИИ посчитает, что это ядерная атака. Это же по сути машина, действует по программе, и взрыв такой силы примерно равен маломощной атомной бомбе, и запустит программу ответа. Это научная статья, и ИИ уже тогда разрабатывали (не знаю, кто, в какой стране написана эта статья, я читал ее в переводе, занимался научным поиском, то доступ к литературе был большой). Вообще нельзя ИИ допускать к управлению военными объектами. У ИИ нет жалости, его не подкупить, с ним не договориться, ему не ведомы сомнения. Он действует по программе. ИИ не виноват, будет виноват, кто писал программы, но человечеству от этого не станет легче.
Катастрофа шаттла «Челленджер» произошла 28 января 1986 года, когда челнок в самом начале миссии STS-51L разрушился в результате взрыва внешнего топливного бака на 73-й секунде полёта, что привело к гибели всех 7 членов экипажа[1]. Катастрофа произошла в 11:39 EST (16:39 UTC) над Атлантическим океаном близ побережья центральной части полуострова Флорида, США.