Francisco Queirós

E os perigos imensos (desconhecidos e imprevisíveis) da Inteligência Artificial (IA)!

Deus e o Diabo, Ficção Cientifica…

Segundo as 3 Religiões Monoteístas (Cristianismo, Judaísmo e Islamismo), o “Diabo” é a uma criatura, um Anjo até por sinal muito importante por ser o portador da Luz, que se rebelou contra Deus, seu criador, porque lhe queria ser igual ou superior. A Criatura procurava dominar o próprio Criador!

Numa série de Ficção Científica dos Anos 80 (Battlestar Galáctica) nos confins do Universo haviam 12 planetas habitados por Seres Humanos imensamente mais avançados que os terrestres. Chamavam-se “Colónia de Cobol”. Viviam em guerra permanente com uma raça robótica de formato próximo do Humano (bípedes, com 2 braços/mãos, etc.), os “Cylons”. Inicialmente criados por aquela Humanidade distante e desenvolveram IA suficiente para atacar os seus criadores. Perdida a 1.ª Guerra foram capazes de desenvolver seres com aspeto em tudo semelhante ao Humano. Estes infiltraram-se nas cúpulas dirigentes das Colónias de Cobol e convenceram-nos a fazer a paz com os Robots Guerreiros. Dos 12 planetas só 1 não se deixou levar pela falsa proposta de paz e nunca procedeu ao desarmamento. Com 11 Colónias desprotegidas foi fácil aos Cylons destruir esses mundos e milhões de habitantes. Os sobreviventes criaram uma “caravana espacial” chefiada pela Battlestar Galáctica e fugiram em busca de um planeta Mitológico Chamado “Terra” que seria a 13.ª Colónia Humana no Universo.

Uma criatura feita por humanos, mas independente deles poderia tratar as pessoas de forma terrível – não como inimigas, mas como seres desprezíveis.

Nos últimos anos os perigos da I.A. vêm sendo discutidos mais seriamente, por gente brilhante como Stephen Hawking e Elon Musk. Poucos atentaram, porém, à ideia central do pensador que desencadeou a discussão: o filósofo sueco Nick Bostrom. Este  não teme que a I.A. deteste o Ser Humano ou procure exterminá-lo. Segundo este brilhante pensador “Essas máquinas podem a até tratar-nos com uma certa indiferença, afirma”. Formas de I.A. indiferentes à humanidade ou com estratégias incompreensíveis por nós poderiam causar destruição física e caos social ao controlar bancos de dados, mercados financeiros, infraestrutura, redes de distribuição e sistemas de armamentos. Bostrom, é pesquisador na Universidade de Oxford, no Reino Unido, dirige o Instituto para o Futuro da Humanidade. Pesquisa riscos existenciais à vida humana, como a colisão de asteroides com a Terra. O surgimento da I.A. e seus perigos ocupam seu livro mais recente, Superintelligence (Superinteligência, cuja publicação em Portugal se aguarda, por enquanto só via Wook). Bostrom alerta para o advento de sistemas não só inteligentes, mas capazes de se Auta aprimorar. Um computador assim poderia reprogramar-se para elevar sua própria capacidade. Mais poderoso, poderia fazer isso vezes sem conta. Desenvolveria, assim, capacidades de observação, aprendizagem e planeamento muito superiores à humana. Bostrom chama esse fenómeno “Superinteligência” e conclui que ele é o principal risco existencial visível no futuro da humanidade. Diz mesmo: “Não devemos acreditar que o cérebro humano poderá competir com isso”.

O filósofo acredita que o surgimento de tecnologia assim não é questão de “se”, e sim de “quando”. Em 2012 e 2013m fez um levantamento de opinião a esse respeito com 170 especialistas. Na média eles estimaram em 50% a probabilidade de surgir, até 2050, uma I.A. capaz de assumir a maior parte das profissões humanas e em 90% a probabilidade de isso ocorrer até 2075. Mais da metade dos entrevistados previu que a superinteligência emergiria 30 anos após depois e que haverá 33% de certeza de que venha a ser algum “Mau” ou mesmo “Muito Mau” para a humanidade. As preocupações assentam na aceleração da evolução na área. Bart Selman, matemático da Universidade Cornell, estuda I.A. desde os anos 1980 está deveras impressionado com os avanços dos últimos cinco anos. Carros autónomos, software de tradução simultânea e de reconhecimento de imagem usam avanços obtidos com I.A. Conforme surgem aplicações comerciais, mais dinheiro flui para esse tipo de pesquisa, o que a acelera. Novas fronteiras de estudo, como as redes neuronais artificiais e os chips neuromórficos, abrem frentes promissoras na tentativa de reproduzir pensamento artificial de tipo “Humanoide”.

Nada garante, porém, que uma superinteligência – uma inteligência capaz de aprimorar a si mesma – continuará a pensar de forma similar à humana, ou de forma que seja previsível/compreensível por nós. Diante dessa possibilidade, mentes brilhantes do nosso tempo reagiram com superlativos: Musk comparou o acto de criar I.A. com invocar o Diabo. Hawking afirmou que o advento da I.A. será o maior evento da história humana. “Infelizmente, poderia também ser o último, a não ser que aprendamos a evitar os riscos”, disse. O Mestre tocou no ponto chave: nenhum dos estudiosos imagina interromper o avanço científico. Eles apenas ponderam que, antes de criar I.A., precisaremos criar regras para que seja seguro usá-la – ou conviver com ela.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *