Стивен Хокинг: Новые технологии угрожают выживанию человечества

Автор: 21.01.2016 Обновлено: 09.08.2023 20:18

Физик Стивен Хокинг предупредил об опасности, которую представляют новые технологии для выживания человечества. /epochtimes.ru/

Ему задали вопрос, как произойдёт конец света ― естественным путём, или человек уничтожит мир раньше. Хокинг ответил, что наибольшая угроза человечеству исходит от научного и технологического прогресса. Она включает возможность ядерной войны, катастрофы, вызванные глобальным потеплением, и генетически-модифицированные вирусы, заявил учёный.

Эти комментарии Хокинг были записаны во время ежегодных лекций Рейта для Би-Би-Си 7 января. Его лекция была посвящена чёрным дырам. Запись лекции разделят на две части и позволят услышать радиослушателям 26 января и 2 февраля.

Профессор Кэбриджского университета считает, что в ближайшие 1000 или 10 000 лет катастрофа на Земле реальна. Но она не уничтожит человечество, потому что люди к тому времени, скорее всего, колонизируют космос и достигнут других звёзд.

«Однако в ближайшие сто лет нам не удастся создать полноценные самообеспечивающиеся колонии в космосе. Поэтому в этот период нам следует быть осторожными», ― пошутил он, вызвав смех в аудитории.

«Мы не собираемся останавливаться в научном развитии или отказываться от прогресса, поэтому нам следует осознать его отрицательные стороны и контролировать их. Я оптимист и верю, что мы сможем этого добиться», ― добавил он.

Одно из хобби Хокинга ― изучение возможности создать искусственный интеллект (ИИ), обладающий состраданием. В июле 2015 г. Хокинг вместе с Илоном Маском и Стивом Возняком подписали письмо с призывом запретить автономное оружие. В октябре на сайте Reddit он ответил на вопросы о рисках, связанных с искусственным интеллектом (ИИ).

«Нашей целью должно стать не создание отвлечённого искусственного интеллекта, а создание полезного интеллекта, ― написал знаменитый физик, ― на то, чтобы выяснить, как это сделать, уйдут десятилетия, так давайте исследовать этот вопрос сейчас, а не в ночь до запуска первого продвинутого ИИ».

Главное опасение не в том, что какой-нибудь жестокий учёный создаст зловредную машину в лаборатории. Проблема в том, что в искусственном интеллекте, созданном для обычной работы, может произойти сбой, и он невольно начнёт вредить человечеству, считает Стивен Хокинг.

«Настоящая угроза от искусственного интеллекта не в том, что он злой, а в том, что он очень способный. Искусственный сверхинтеллект хорошо выполняет свои задачи. Если его задачи не совпадут с нашими, у нас возникнут проблемы, ― написал Хокинг, ― вы вряд ли ненавидите муравьёв, но если вы отвечаете за проект по выработке экологичной энергии, а район, где находится муравейник, нужно затопить, муравьям не повезло. Давайте, не допустим, чтобы человечество оказалось в положении этих муравьёв».

Версия на английском

 

«Почему существует человечество?» — статья Ли Хунчжи, основателя Фалуньгун
КУЛЬТУРА
ЗДОРОВЬЕ
ТРАДИЦИОННАЯ КУЛЬТУРА
ВЫБОР РЕДАКТОРА