(Bloomberg/Getty Images)
Agência de notícias
Publicado em 19 de fevereiro de 2024 às 14h11.
Última atualização em 19 de fevereiro de 2024 às 14h42.
O cofundador da Ethereum, Vitalik Buterin, disse que a inteligência artificial (IA) pode ser crucial para resolver um dos "maiores riscos técnicos" que ameaçam a Ethereum: as falhas ocultas em seu código base.
Em uma postagem divulgada em 18 de fevereiro no X, Buterin compartilhou sua empolgação com as auditorias baseadas em IA para identificar e corrigir códigos com falhas na rede Ethereum, que representariam o "maior risco técnico" para a rede.
One application of AI that I am excited about is AI-assisted formal verification of code and bug finding.
Right now ethereum's biggest technical risk probably is bugs in code, and anything that could significantly change the game on that would be amazing.
— vitalik.eth (@VitalikButerin) February 19, 2024
"Uma aplicação de IA que me entusiasma é a verificação formal de código e a descoberta de falhas assistida por IA. No momento, o maior risco técnico da ethereum provavelmente são as falhas no código, e qualquer coisa que possa virar significativamente o jogo nesse aspecto seria incrível", publicou Vitalik Buterin no X (antigo Twitter).
A manifestação de Buterin foi publicada no momento em que a Ethereum se aproxima da implementação de sua tão esperada atualização Dencun, cujo lançamento está atualmente previsto para 13 de março. A Dencun foi implementada na rede de testes Goerli em 17 de janeiro, mas uma falha no Prsym impediu a finalização da atualização na rede de testes por 4 horas. As atualizações da rede Ethereum são cruciais para o roadmap de longo prazo da blockchain.
No entanto, nem todos concordam que a IA seja uma ferramenta confiável para detectar falhas no código da Ethereum.
Em julho de 2023, o OpenZeppelin realizou uma série de experimentos que utilizaram o GPT-4 da OpenAI para identificar problemas de segurança em contratos inteligentes criados com Solidity – a linguagem nativa do código Ethereum.
Durante esses experimentos, o GPT-4 identificou com êxito vulnerabilidades em 20 dos 28 desafios propostos.
Quando o GPT-4 não identificava as falhas, muitas vezes ele era solicitado a corrigir seus erros rapidamente. No entanto, em outras ocasiões, a OpenZeppelin descobriu que a IA havia, na verdade, inventado uma vulnerabilidade que nunca havia existido.
Da mesma forma, Kang Li, diretor de segurança da CertiK, disse ao Cointelegraph que o uso de ferramentas baseadas em IA – como o ChatGPT – na codificação geralmente cria mais problemas de segurança do que os resolve.
De modo geral, Li recomenda que os assistentes de IA sejam usados apenas como assistentes de programadores experientes, pois eles podem ser úteis para explicar rapidamente aos desenvolvedores o significado de uma linha de código.
"Acho que o ChatGPT é uma ferramenta muito útil para quem faz análise de código e engenharia reversa. Sem dúvida, é um bom assistente e melhorará nossa eficiência tremendamente."
Embora Buterin se mostre bastante otimista em relação ao futuro da IA, ele alertou os desenvolvedores para terem cuidado ao aplicar recursos de IA em projetos baseados na tecnologia blockchain, principalmente ao implementá-la junto com aplicativos de "alto risco", como oráculos.
"É importante ter cuidado: se alguém criar, por exemplo, um mercado preditivo ou uma stablecoin que use um oráculo de IA, e descobrir que o oráculo pode ser atacado, isso representa um risco enorme: uma grande quantidade de dinheiro pode desaparecer em um instante."
Esse anúncio da Mynt não foi escrito por uma Inteligência Artificial. Mas somos tecnológicos. Nossa segurança é de ponta e nossa curadoria, de excelência. O que falta para você investir em crypto com a Mynt?
Siga o Future of Money nas redes sociais: Instagram | Twitter | YouTube | Telegram | Tik Tok