A Universidade de Cambridge, no Reino Unido, criou um centro de pesquisas para avaliar os riscos de que a tecnologia venha a destruir a civilização.
O Centro para o Estudo do Risco Existencial (CSER, na sigla em inglês) pretende analisar riscos impostos à humanidade pela biotecnologia, inteligência artificial, biologia sintética, mudanças climáticas antropogênicas e nanotecnologia.
O centro foi idealizado por um trio bastante heterogêneo: Huw Price (filósofo), Martin Rees (astrofísico) e Jaan Tallinn (cofundador do Skype).
Mostrando uma aparente desconexão entre preocupações e a realidade atual das pesquisas em robótica e em inteligência artificial, os pesquisadores viajam diretamente das previsões para o campo da futurologia, falando de máquinas que podem não se parecer com os seres humanos, mas que serão mais inteligentes.
Em alguns momentos, os riscos alegados pelo trio parecem tão distantes no futuro - se é que se realizarão - que é difícil discerni-los da ficção científica.
Que um robô que adquira consciência e decida levar a vida por si próprio pode representar um risco para a humanidade, é algo inegável.
Mas qual é a distância entre os robôs atuais e o T-1000? Ou entre os aplicativos de inteligência artificial de hoje e a Skynet?
Parece que o centro destinado a estudar riscos existenciais nasce com um risco intrínseco: o de focar riscos tão improváveis que suas pesquisas nunca poderão ser validadas.
A tecnologia sempre gerou temores, alguns infundados, outros não. Mas os riscos parecem ter quase sempre vindo de onde menos se suspeitava.
De qualquer forma, o que se espera do Centro para o Estudo do Risco Existencial é que se gerem discussões filosóficas ricas, e não apenas distopias amedrontadoras para a população - de profecias sobre o fim do mundo já temos o bastante.
Nenhum comentário:
Postar um comentário