Пять причин, наши дни на Земле сочтены


Опубликованно 22.04.2018 00:47

Пять причин, наши дни на Земле сочтены

От глобального потепления до искусственного интеллекта, профессор Стивен Хокинг высказал ряд ужасающие предсказания об апокалиптических угроз, стоящих перед человечеством.

Знаменитый покойный ученый сказал, что человечество находится в “точке невозврата”, и что лучше всего будет, чтобы полностью покинуть землю.

Вот пять основных факторов, он сказал, что вносим свой вклад в конец света.

СМЕРТЬ ОТ ФАЙЕРБОЛА

Перенаселение собирается превратить нашу планету в раскаленный огненный шар.

Профессор Хокинг предупредил Земли уменьшится на огненный шар в течение 600 лет, когда наши перегрузок потребление энергии.

В появление видео в 2017 компания tencent мы саммит в Пекине, он сказал: “к 2600 году численность населения мира стояли бы плечом к плечу, и потребление электроэнергии будет Земля гореть красным-горячая.”

Чтобы спасти себя, он сказал, что мы должны взять лист из "Стар трек" и “смело идти туда, где не ступала нога человека”.

Планета со временем станет одной большой, раскаленный огненный шар.

Он также предупредил, что в течение ближайших 100 лет, мы должны смотреть колонизировать Марс и другие планеты.

Выступая на научном фестивале Стармус в Норвегии в прошлом году, он сказал, что Луна и Марс будут самые лучшие места, чтобы начать новые колонии, и сказал, что мы можем установить аванпосты на этих сайтах в течение 30 и 50 лет соответственно, Телеграф сообщил.

УДАРЫ АСТЕРОИДОВ

Профессор Хокинг предупредил, что если глобальное потепление не уничтожат нас, удар астероида.

На фестивале Стармус, он сказал, что это был только вопрос времени, прежде чем земля будет уничтожена либо астероид, высоких температур или перенаселение.

“Это не научная фантастика. Это гарантируют законы физики и вероятности”, - сказал он.

“Остаться рискует быть уничтоженным.

“Распространение в космос будет полностью изменить будущее человечества. Он также может определить, есть ли у нас будущее”.

Профессор Хокинг предупредил, что удары астероидов могут уничтожить нас.

Профессор Хокинг предупредил, что становится “космической лени” не вариант.

“Куда бы мы ни пошли, мы должны строить цивилизацию, мы должны принять практические меры для создания целой новой экосистемы, которая позволит выжить в условиях, что мы очень мало знаем о, и мы должны рассмотреть перевозил несколько тысяч людей, животных, растений, грибов, бактерий и насекомых.”

ЯДЕРНЫЕ ТЕХНОЛОГИИ

В 2007 году профессор Хокинг белолобый кампанию, чтобы отменить трезубец, Великобритании ядерным оружием сдерживания.

“Атомная война по-прежнему наибольшую опасность для выживания человеческого рода”, - сказал он.

“На замену "Трайдент", сделать его более трудным, чтобы получить сокращения вооружений, а также повышают риск.

“Это было бы пустой тратой денег, потому что нет никаких обстоятельств, при которых мы будем использовать ее самостоятельно”.

Профессор Хокинг также определены “агрессивность” как свойство человека уничтожит нас всех.

Он предупредил, что это может привести к нерациональным действиям, как искрение ядерной войны.

Профессор Хокинг заявил, что ядерная война по-прежнему остается ‘величайшая опасность для выживания человечества.

“Я боюсь, что эволюция имеет встроенный жадности и агрессии в геноме человека”, - сказал он Би-би-си. “Нет никаких признаков ослабления конфликтов, и развитие военной технологии и оружия массового уничтожения могут сделать это катастрофично. Лучшая надежда на выживание человеческого рода может быть независимой колонии в космосе”.

ДОНАЛЬД ТРАМП

Профессор Хокинг дал понять, что он не был фанатом Дональд Трамп.

Он был особенно критически настроен президента США после того, как он поклялся не подписать парижское соглашение по изменению климата.

“Изменение климата является одной из самых больших опасностей, с которыми мы сталкиваемся и мы можем предотвратить, если будем действовать сейчас”, - сказал он Би-би-си. “Отрицая доказательства изменения климата и вытаскивая из Парижского соглашения по климату, Дональд Трамп приведет к повреждению окружающей среды, для нашей прекрасной планеты, опасного природного мира, для нас и наших детей”.

Профессор Хокинг был определенно не поклонник Дональда Трампа.

В разговоре по Skype доставляются на третий фестиваль науки и фестиваль искусств в прошлом году, он сделал свое дело более срочное.

“В отличие от Дональда Трампа, который может просто быть приняты самые серьезные и неправильное решение на климат в мире, я спорю за будущее человечества и долгосрочная стратегия для достижения этой цели” профессор Хокинг сказал.

“Мы дали нашу планету катастрофических подарок от изменения климата ..., когда мы достигли подобных кризисов там обычно где-нибудь колонизировать ... но нет новый мир, утопия не за горами. Мы бежим из космоса, и только места, чтобы пойти в другие миры.”

На ITV в Великобритании Доброе утро, профессор Хокинг попросили объяснить, мистер Трамп господство в Белый дом.

“Я не могу”, - ответил он. “Он демагог, который, кажется, чтобы обратиться к наименьшему общему знаменателю”.

ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ

В последние годы, профессор Хокинг поднял тревогу о потенциальной угрозе искусственного интеллекта.

Выступая на веб-саммите в Лиссабоне в ноябре, знаменитый физик сказал, что ИИ имеет потенциал, чтобы быть лучшей или худшей вещью когда-либо видело человечество и страшная реальность мы просто не знаем, что еще.

“Мы не можем знать, если мы будем бесконечно помогла ИИ или игнорируют его, и в стороне, и предположительно уничтожен”, - сказал он.

А ИИ может быть очень полезным для сокращения масштабов нищеты, болезней и восстановление природной среды, невозможно предсказать, “что мы можем достичь, когда в нашем собственном сознании усиливаются ИИ”.

“AI может быть худшим изобретением в истории нашей цивилизации, что приносит опасность как мощный автономный оружия или новых методов для несколько угнетать многие.

“ИИ может развиваться собственной волей, а воля, которая находится в конфликте с нашими и которые могли бы уничтожить нас. Короче говоря, подъем мощный ИИ будет либо самое лучшее, либо самое плохое, что может случиться с человечеством”.

Профессор Хокинг подчеркнул опасность искусственного интеллекта.

Хокинг предупредил ученых и мировым правительствам необходимо сосредоточиться на максимизации выгоды для общества, а не чистого потенциала.

“Мы должны использовать эффективное управление во всех сферах его развития”, - сказал он. “Мы стоим на пороге дивного нового мира. Это захватывающее, если шаткое место быть и вы-пионеры”.

— С Ник Whigham



Категория: Технологии