Uma equipe internacional de cientistas, matemáticos e
filósofos do Instituto do Futuro da Humanidade, da Universidade de Oxford, está
investigando quais são os maiores perigos contra a humanidade.
E eles argumentam em um texto acadêmico recém-divulgado,
Riscos Existenciais como Prioridade Global, que autores de políticas públicas
devem atentar para os riscos que podem contribuir para o fim da espécie humana.
No ano passado, houve mais textos acadêmicos lançados a
respeito de snowboarding do que sobre a extinção humana.
O diretor do instituto, o sueco Nick Bostrom, afirma que
existe uma possibilidade plausível de que este venha a ser o último século da
humanidade.
Boas notícias primeiro
Mas primeiro as boas notícias. Pandemias e desastres naturais
podem causar uma perda de vida colossal e catastrófica, mas Bostrom acredita
que a humanidade estaria propensa a sabreviver.
Isso porque nossa espécie já sobrevieu a milhares de anos de
doenças, fome, enchentes, predadores, perseguições, terremotos e mudanças
ambientais. Por isso, as chances ainda estão a nosso favor.
E ao longo do espaço de um século, ele afirma que o risco de
extinção em decorrência do impacto de asteróides e super erupções vulcânicas
permanece sendo "extremamente pequeno".
Até mesmo as perdas sem precedentes autoimpostas no século
20, com duas guerras mundiais e epidemia de gripe espanhola, deixaram de
prevenir a ascensão do crescimento da população humana global.
Uma guerra nuclear poderia causar destruição sem
precedentes, mas um número suficiente de indivíduos poderia sobreviver e,
assim, permitir, que a espécie continue.
Mas se existem todos esses atenuantes, com o que deveríamos
estar preocupados?
Ameaças sem precedentes
Bostrom acredita que entramos em uma nova era tecnológica
capaz de ameaçar nosso futuro de uma forma nunca vista antes. Estas são
"ameaças que não temos qualquer registro de haver sobrevivido".
O diretor do instituto compara as ameaças existentes a uma
arma perigosa nas mãos de uma criança. Ele diz que o avanço tecnológico superou
nossa capacidade de controlar as possíveis consequências.
Experimentos em áreas como biologia sintética,
nanotecnologia e inteligência artificial estão avançando para dentro do
território do não intencional e o imprevisível.
Pelas próprias mãos
"Este é o primeiro século na história mundial em que as
maiores ameaças provêm da humanidade"
A biologia sintética, onde a biologia se encontra com a
engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não
previstos na manipulação da biologia humana.
A nanotecnologia, se realizada a nível atômico ou molecular,
poderia também ser altamente destrutiva ao ser usada para fins bélicos. Ele tem
escrito que governos futuros terão um grande desafio ao controlar e restringir
usos inapropriados.
Há também temores em relação à forma como a inteligência
artificial ou maquinal possa interagir com o mundo externo. Esse tipo de
inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria,
na medicina, na agricultura ou para gerenciar a economia, mas enfrenta também o
risco de ser completamente indiferente a qualquer dano incidental.
Sean O'Heigeartaigh, um geneticista do instituto, traça uma
analogia com o uso de algoritmos usados no mercado de ações.
Da mesma forma que essas manipulações matemáticas,
argumenta, podem ter efeitos diretos e destrutitovs sobre economias reais e
pessoas de verdade, tais sistemas computacionais podem "manipular o mundo
verdadeiro".
Em termos de riscos biológicos, ele se preocupa com boas
intenções mal aplicadas, como experimentos visando promover modificações
genéticas e desmanter e reconstruir estruturas genéticas.
Um tema recorrente entre o eclético grupo de pesquisadores é
sobre a habilidade de criar computadores cada vez mais poderosos.
O pesquisador Daniel Dewey, do instituto, fala de uma
"explosão de inteligência", em que o poder de aceleração de
computadores se torna menos previsível e menos controlável.
"A inteligência artificial é uma das tecnologias que
deposita mais e mais poder em pacotes cada vez menores", afirma o perito
americano, um especialista em super inteligência maquinal que trabalhou
anteriormente na Google.
Efeito em cadeia
Juntamente com a biotecnologia e a nanotecnologia, ele
afirma que essas novas tecnologias poderiam gerar um "efeito em cadeia, de
modo que, mesmo começando com escasos recursos, você pode criar projetos com
potencial de afetar todo o mundo".
O Instituto do Futuro da Humanidade em Oxford integra uma
tendência centrada em pesquisar tais grantes temas. O Instituto foi uma
iniciativa do Oxford Martin School, que abrange acadêmicos de diferentes áreas,
com o intuito de estudar os "mais urgentes desafios globais".
Martin Rees, ex-presidente da Sociedade Real de Astronomia
britânica é um dos defensores do Centro de Estudos de Risco Existencial e
afirma que "este é o primeiro século na história mundial em que as maiores
ameaças provêm da humanidade".
Nick Bostrom afrima que o risco existencial enfrentando pela
humanidade "não está no radar de todo mundo". Mas ele argumenta que
os riscos virão, caso estejamos ou não preparados.
"Existe um gargalo na história da humanidade. A
condição humana irá mudar. Pode ser que terminemos em uma catástrofe ou que
sejamos transformados ao assumir mais controle sobre a nossa biologia. Não é
ficção científica, doutrina religiosa ou conversa de bar".
_______
Fonte: BBC Brasil
Nenhum comentário:
Postar um comentário
Todos os comentários que não contiverem ofensas e termos inadequados serão autorizados.