5 premonições apocalípticas feitas pelo físico Stephen Hawking
O renomado físico teórico já anunciou algumas vezes que inteligências artificiais e alienígenas podem por um fim da raça humana
Marina Demartini
Publicado em 20 de novembro de 2016 às 08h00.
Última atualização em 5 de abril de 2017 às 11h38.
São Paulo – Stephen Hawking fez uma premonição dramática sobre o futuro da humanidade nessa semana. O renomado físico teórico afirmou duranteuma palestra na Oxford Union Society, na Inglaterra,que os seres humanos não irão sobreviver outros mil anos caso continuem na Terra.
Essa não é a primeira vez que Hawking faz comentários apocalípticos desse tipo. Ele já fez muitas premonições relacionadas ao fim da humanidade. Veja abaixo cinco vezes que Hawking fez uma previsão desse tipo.
Inteligência artificial
Em 2014, o físico disse à BBC que o empenho da comunidade científica para criar inteligências artificiais representa uma ameaça à nossa existência. “O desenvolvimento da plena inteligência artificial poderia significar o fim da raça humana”, afirmou.
Hawking falou que esse tipo de tecnologia é útil para o progresso científico, mas que teme a criação de um robô que se iguale ou supere seres humanos. “Isso [a inteligência artificial] se desenvolveria por conta própria e cresceria em ritmo cada vez mais veloz”, profetizou. “Os seres humanos, que são limitados pela evolução biológica lenta, não poderiam competir e seriam substituídos.”
Armas autônomas
Hawking assinou uma carta aberta alertando que a inteligência artificial pode levar seres humanos a uma terceira guerra mundial. O documento foi assinado por mais de mil pesquisadores, incluindo também Elon Musk,CEO e fundador da Tesla, e Steve Wozniak , cofundador da Apple.
Para esses especialistas, esse tipo de tecnologia tem grande potencial de beneficiar a humanidade. Contudo, utiliza-la para a criação de armas autônomas de uso militar é um grande erro.
“Se isso acontecer, uma guerra armada global será inevitável e o fim da trajetória é óbvio: armas autônomas se tornarão os Kalashnikovs (AK-47) de amanhã”, afirmam os cientistas no documento. “A pergunta chave para a humanidade hoje é se devemos dar início a uma corrida de armas feitas com inteligência artificial ou se devemos prevenir que ela sequer comece.”
Mudança de planeta
Em junho desse ano, o físico fez uma afirmação bem similar à que fez em Oxford nessa semana. Ele disse durante o Festival Starmus, na Espanha, que o futuro da humanidade depende da exploração espacial. Isso porque, segundo Hawking, a Terra não irá durar mais mil anos.
Alienígenas
No documentário “Stephen Hawking’s Favorite Places”, o cientista diz que está cada vez mais convencido de que a humanidade não está sozinha no universo. Segundo o jornal The Guardian, ele diz estar ajudando na busca por vida alienígena com o Breakthrough Listen, um projeto internacional que vasculha o cosmo por sinais extraterrestres.
Hawking aponta que sabe por onde começar sua pesquisa: pelo planeta Gliese 832c. No entanto, ele alerta que o dia que a Terra receber um sinal desse astro, os seres humanos deverão ter cuidado ao responder. O primeiro contato dos seres humanos com alienígenas poderia ser equivalente ao encontro dos nativos americanos com o explorador Cristóvão Colombo – ou seja, não seria nada bom.
Quando apresentou o Breakthrough Listen no ano passado, Hawking já havia sugerido que qualquer civilização que esteja lendo nossas mensagens poderia estar bilhões de anos à frente dos humanos. “Se assim for, eles serão muito mais poderosos e nos verão como nós vemos as bactérias”, disse o cientista.
Inteligência artificial, o retorno
O físico advertiu recentemente que a criação de uma inteligência artificial poderá ser “a melhor ou a pior coisa para humanidade”. “Talvez com as ferramentas desta nova revolução tecnológica, poderemos desfazer alguns danos causados ao mundo natural”, previu o cientista em outubro desse ano.
Contudo, de acordo com Hawking, os seres humanos podem estar arquitetando sua própria destruição ao criar uma superinteligência que tenha vontade própria. Por isso, ele elogiou a criação do Centro Leverhulme para o Futuro da Inteligência (LCFI), na Universidade de Cambridge. “Ele [o instituto] é crucial para o futuro da nossa civilização e da nossa espécie.”