
Uma carta aberta assinada por Elon Musk e outros especialistas alerta sobre o risco potencial que a Inteligência Artificial (IA) representa para a humanidade.
A Inteligência Artificial conquistou todas as manchetes nos últimos meses. Grande parte da indústria de tecnologia tem se concentrado no ChatGPT, desenvolvido pela OpenIA, uma inteligência capaz de conversar sobre diversos temas, responder perguntas complexas e escrever de forma criativa.
Mas, apesar da revolução que a sua chegada provocou no sector da tecnologia, um grupo de importantes Especialistas alertam sobre os riscos que a inteligência artificial pode representar tanto para a sociedade como para a humanidade.
Elon Musk, juntamente com Steve Wozniak, Chris Larsen, Andrew Yang e 1.300 outras pessoas, assinaram um acordo carta aberta apelar aos laboratórios de inovação para pausar o desenvolvimento de nova inteligência artificial por um período de pelo menos 6 meses. A convocatória busca dar tempo ao desenvolvimento de protocolos de segurança que permitam gerenciar possíveis riscos.
Nos últimos meses, os laboratórios de inovação têm estado numa espécie de competição para desenvolver as inteligências artificiais mais poderosas. Porém, segundo os especialistas, como isso aconteceu às pressas, nem mesmo os mesmos laboratórios que desenvolveram essas mentes digitais são capazes de compreendê-las ou gerenciá-las de forma segura e confiável.
Elon Musk recomenda ter cuidado com a Inteligência Artificial
A solicitação dos especialistas em tecnologia está focada no GPT-4, a mais recente implementação do chatbot desenvolvido pela OpenIA, que é considerada a IA mais poderosa da atualidade.
No Twitter, o bilionário proprietário da Tesla, SpaceX e Twitter observou que os desenvolvedores de IA podem não prestar atenção ao aviso atual. “Mas pelo menos foi dito,” manifestado. No final de fevereiro, Musk comentou que estava sentindo um pouco de angústia existencial em relação à IA.
Algumas inteligências artificiais atuais supostamente querem assumir o comportamento de uma pessoa e sentir-se como ela, por isso é possível que também se tornem criminosos e roubem, por exemplo, códigos nucleares. Dado o risco, os especialistas apontam a necessidade de pausar o seu desenvolvimento e criar sistemas de segurança que garantam transparência e confiança.
Na carta, os especialistas também apelam aos governos para que tomem medidas caso os laboratórios de inovação os ignorem e continuem a desenvolver a IA.
Os riscos da IA para a identidade
Por outro lado, o diretor executivo da Galaxy Digital, Mike Novogratz, afirmou que é uma surpresa a quantidade de regulamentações que países como os Estados Unidos estão impondo à indústria de criptomoedas em comparação com as regulamentações atuais sobre Inteligência Artificial.
Segundo Novogratz, este último representa sim um risco, pois é um avanço tecnológico que pode causar um problema de identidade.
Novogratz expressou sua perplexidade com a atenção que o governo dos EUA tem direcionado às criptomoedas em vez da Inteligência Artificial, apontando como A IA pode se tornar o gatilho para falsas identidades no mundo.
De diferentes perspectivas, ter um avatar que pode usar criptomoedas por meio de IA permitirá que você crie um personagem incrivelmente realista, cuja identidade não poderá ser verificada quando a IA dominar o mundo, manifestado Novogratz durante teleconferência com seus investidores.
O CEO da Galaxy Digital também disse que é possível criar um vídeo ou gravação falsa sem que ninguém perceba que é uma IA.
As falsificações são um problema cada vez mais difícil de detectar, por isso é uma preocupação real, disse Novogratz, destacando que tanto as empresas como os indivíduos podem sofrer as consequências disso.
Por fim, o fundador e CEO do MercadoLibre, Marcos Galperin, apontou diversos erros ao consultar o GPT-4 sobre sua identidade. Galperin compartilhou as respostas da IA no Twitter e indicou que a maioria estava errada.
“Segundo ChatGPT 4, trabalhei no Boston Consulting Group, fui diretor da Aerolineas Argentinas e Globant… Quando lhe disse que tudo isso eram erros, ele disse que eu era diretor do Banco Comafi (também errado)”, comentou Galperin.
Com isso, o CEO do MercadoLibre destacou outro dos riscos da IA. “O problema é que, exceto as pessoas que me conhecem muito bem, poucos saberiam reconhecer os erros do acerto no que ele disse sobre mim. Quando consultamos você sobre temas nos quais não somos especialistas e que são importantes, como questões de saúde, essas alucinações podem ser muito perigosas.”.
Continue lendo: O que podemos esperar da Inteligência Artificial?