영국의 우주물리학자 스티븐 호킹이 14일(현지시각) 세상을 떠났다. BBC는 이날 호킹이 영국 케임브리지에 있는 자택에서 숨을 거뒀다고 보도했다.
호킹은 생전 우주물리학자로 잘 알려져 있었지만 실제로 다양한 분야에 폭넓은 관심을 가졌다. 특히 인류의 미래에 대해 비관적인 견해를 드러냈으며, 인류가 멸종을 피하기 위해서는 "100년 안에 지구를 떠나야 한다"는 주장을 내놓기도 했다. 호킹이 전망한 인류 멸망의 원인은 무엇일까.
◆외계인과의 조우
스티븐 호킹의 시각으로 바라본 인류와 외계인의 조우는 아메리카 대륙 원주민과 콜럼버스의 만남과 같다.
호킹은 지난 2010년 디스커버리 채널에 출연해 "우리는 외계인에 대해 많이 알지 못하지만 인간에 대해선 잘 알고 있다"고 견해를 밝힌 바 있다. 즉 역사를 돌이켜보면 인류는 기술적으로 덜 발달된 문명을 대상으로 학대와 학살을 저질렀는데 인류도 피해자가 될 수 있다는 얘기다.
인류가 우주로 보내는 신호를 읽을 수 있을 정도의 기술을 갖춘 외계 문명이라면 우리보다 수십억 년 이상 기술적으로 앞서 있을 가능성이 높다. 따라서 그들이 지구를 식민지로 삼을 수 있다는 것이다.
◆인공지능(AI)
호킹은 지난해 "인공지능(AI) 기술이 인류 문명 사상 최악의 사건이 될 수 있다"고 경고했다. 지난 2014년에도 "AI의 완전한 발전은 인류의 종말을 불러올 수도 있다"는 견해를 밝히기도 했다.
이세돌을 제압한 알파고는 이미 후속 버전인 알파고 제로와의 바둑 대결에서 100전 100패로 제압당했다. 그만큼 AI의 발전 속도는 상상을 초월한다.
또 호킹은 AI가 인간의 자리를 빼앗거나 혹은 인간의 통제를 벗어날 수 있어 우려스럽다는 뜻도 여러번 내비쳤다. 인류가 AI에 '역사의 주인공'의 자리를 넘길 것이라는 의미다.
◆인류
호킹이 우려한 것은 외계인과 인공지능 뿐만이 아니다. 그는 인류가 스스로 자신의 미래를 끝낼 수도 있다고 내다봤다.
호킹은 "핵전쟁이나 극심한 지구온난화의 재앙이 앞으로 1000년 내 반드시 올 것"이라고 밝힌 바 있다. 뿐만 아니라 유전자 조작으로 탄생한 신종 바이러스 등 인간의 손으로 만들어낸 인공적 전염병의 대유행도 재앙으로 닥칠 수 있다고 우려하기도 했다.
생전 호킹은 "우리가 발전을 멈추거나 되돌리지 않을 것인 만큼 위험을 인정하고 통제해야만 한다"며 맹목적인 과학기술 발전에 대해 비판적인 자세를 취했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지