Uma
equipe internacional de cientistas, matemáticos e filósofos do Instituto
do Futuro da Humanidade, da Universidade de Oxford, na Inglaterra, está
investigando quais são os maiores perigos contra a humanidade.
Eles
argumentam em um texto acadêmico recém-divulgado, intitulado Riscos
Existenciais como Prioridade Global, que autores de políticas públicas
devem atentar para os riscos que podem contribuir para o fim da espécie
humana.
No
ano passado, houve mais textos acadêmicos lançados a respeito de snowboarding do
que sobre a extinção humana.
O
diretor do Instituto, o sueco Nick
Bostrom, afirma que existe uma possibilidade plausível de que este
venha a ser o último século da humanidade.
A
reportagem é de Sean
Coughlan e publicada pela BBC
Brasil, 24-04-2013.
Boas
notícas, primeiro
Mas
primeiro as boas notícias. Pandemias e desastres naturais podem causar uma perda
de vida colossal e catastrófica, mas Bostrom diz
acreditar que a humanidade estaria propensa a sobreviver.
Isso
porque nossa espécie já sobreviveu a milhares de anos de doenças, fome,
enchentes, predadores, perseguições, terremotos e mudanças ambientais. Por isso,
as chances ainda estão a nosso favor.
E
ao longo do espaço de um século, ele afirma que o risco de extinção em
decorrência do impacto de asteroides e supererupções vulcânicas permanece sendo
"extremamente pequeno".
Até
mesmo as perdas sem precedentes autoimpostas no século XX, com duas guerras
mundiais e epidemia de gripe espanhola, deixaram de prevenir a ascensão do
crescimento da população humana global.
Uma
guerra nuclear poderia causar destruição sem precedentes, mas um número
suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie
continue.
Mas
se existem todos esses atenuantes, com o que deveríamos estar preocupados?
Ameaças
sem precedentes
Bostrom acredita
que entramos em uma nova era tecnológica capaz de ameaçar nosso futuro de uma
forma nunca vista antes. Estas são "ameaças que não temos qualquer registro de
haver sobrevivido".
O
diretor do Instituto compara as ameaças existentes a uma arma perigosa nas mãos
de uma criança. Ele diz que o avanço tecnológico superou nossa capacidade de
controlar as possíveis consequências.
Experimentos
em áreas como biologia sintética, nanotecnologia e inteligência artificial estão
avançando para dentro do território do não intencional e do imprevisível.
A biologia
sintética, onde a biologia se encontra com a engenharia, promete
grandes benefícios médicos, mas Bostrom teme efeitos não previstos na
manipulação da biologia humana.
A nanotecnologia,
se realizada a nível atômico ou molecular, poderia também ser altamente
destrutiva ao ser usada para fins bélicos. Ele tem escrito que governos futuros
terão um grande desafio ao controlar e restringir usos inapropriados.
Há
também temores em relação à forma como a inteligência
artificial ou maquinal possa interagir com o mundo externo. Esse tipo
de inteligência orientada por computadores pode ser uma poderosa ferramenta na
indústria, na medicina, na agricultura ou para gerenciar a economia, mas
enfrenta também o risco de ser completamente indiferente a qualquer dano
incidental.
Sean
O'Heigeartaigh, um geneticista do Instituto, traça uma analogia com o
uso de algoritmos usados no mercado de ações.
Da
mesma forma que essas manipulações matemáticas, argumenta, podem ter efeitos
diretos e destrutivos sobre economias reais e pessoas de verdade, tais sistemas
computacionais podem "manipular o mundo verdadeiro".
Em
termos de riscos biológicos, ele se preocupa com boas intenções mal aplicadas,
como experimentos visando promover modificações genéticas e desmanter e
reconstruir estruturas genéticas.
Um
tema recorrente entre o eclético grupo de pesquisadores é sobre a habilidade de
criar computadores cada vez mais poderosos.
O
pesquisador Daniel
Dewey, do Instituto, fala de uma "explosão de inteligência", em que o
poder de aceleração de computadores se torna menos previsível e menos
controlável.
"A
inteligência artificial é uma das tecnologias que deposita mais e mais poder em
pacotes cada vez menores", afirma o perito americano, um especialista em
superinteligência maquinal que trabalhou anteriormente na Google.
Efeito
em cadeia
Juntamente
com a biotecnologia e a nanotecnologia, ele afirma que essas novas tecnologias
poderiam gerar um "efeito em cadeia, de modo que, mesmo começando com escassos
recursos, você pode criar projetos com potencial de afetar todo o mundo".
O Instituto
do Futuro da Humanidade em Oxford integra uma tendência centrada em
pesquisar tais grandes temas. O Instituto foi uma iniciativa do Oxford Martin
School, que abrange acadêmicos de diferentes áreas, com o intuito de
estudar os "mais urgentes desafios globais".
Martin
Rees, ex-presidente da Sociedade Real de Astronomia britânica é um dos
defensores do Centro de Estudos de Risco Existencial e afirma que "este é o
primeiro século na história mundial em que as maiores ameaças provêm da
humanidade".
Nick
Bostrom afirma que o risco existencial enfrentando pela humanidade "não
está no radar de todo mundo". Mas ele argumenta que os riscos virão, caso
estejamos ou não preparados.
"Existe
um gargalo na história da humanidade. A condição humana irá mudar. Pode ser que
terminemos em uma catástrofe ou que sejamos transformados ao assumir mais
controle sobre a nossa biologia. Não é ficção científica, doutrina religiosa ou
conversa de bar".