Tecnologia

Britânicos criam rede artificial capaz de aprender sozinha

O sistema é capaz de aprender a jogar diversos videogames sem contar com outras informações além das que aparecem na tela e a pontuação da partida


	Segundo os cientistas, os sistemas de redes neurais artificiais são "mais humanos" que outros tipos de programas de inteligência artificial, porque assimilam o mundo que os rodeia
 (Kacper Pempel/Reuters/Reuters)

Segundo os cientistas, os sistemas de redes neurais artificiais são "mais humanos" que outros tipos de programas de inteligência artificial, porque assimilam o mundo que os rodeia (Kacper Pempel/Reuters/Reuters)

DR

Da Redação

Publicado em 25 de fevereiro de 2015 às 18h20.

Londres - Cientistas britânicos desenvolveram uma rede neural artificial (RNA) capaz de aprender a jogar diversos videogames em nível comparável ao de um expert, sem ter sido previamente programada para isso, segundo estudo divulgado nesta quarta-feira pela revista "Nature".

A DeepMind Technologies, empresa adquirida pelo Google em janeiro de 2014, combinou técnicas de aprendizagem computacionais já conhecidas com mecanismos inspirados na biologia para conseguir que seu "agente artificial" aprendesse a jogar 49 jogos clássicos do videogame Atari 2600.

O sistema é capaz de descobrir o objetivo do jogo e dominar seus controles, sem contar com nenhuma outra informação além das que aparecem na tela e a pontuação da partida. Graças aos mecanismos de adaptação e aprendizagem, a máquina atua em um nível comparável ao de um expert em videogames.

Os criadores do sistema destacaram que a aplicação da inteligência artificial aos videogames é apenas uma demonstração da potência de seu algoritmo, que pode ser designado para outro tipo de uso ou função.

Demis Hassabis, um dos desenvolvedores, explicou em entrevista coletiva por telefone que sua rede neuronal é um artefato de natureza distinta de outras máquinas, como o conhecido Deep Blue - computador que em 1996 derrotou pela primeira vez um campeão mundial de xadrez, o russo Gary Kasparov.

"A diferença é que as habilidades do Deep Blue estavam programadas de antemão. Uma equipe de engenheiros e professores de xadrez aplicou todo seu conhecimento em um algoritmo que era executado com sucesso, mas sem precisar aprender nada", afirmou Hassabis.

"Nossa sistema, por outro lado, começa do zero, sem nenhuma informação. Contando somente com a experiência perceptiva. Ele precisa aprender apenas quais padrões deve seguir. A ideia é que possa se adaptar a situações inesperadas", acrescentou.

O pesquisador disse que os sistemas de redes neurais artificiais são "mais humanos" que outros tipos de programas de inteligência artificial, porque assimilam o mundo que os rodeia e encontram um modelo que os permite tomar decisões.

No caso dos videogames, o sistema aprende que determinadas ações são mais recomendáveis, de acordo com a pontuação que alcança em cada partida.

Com essa estratégia, é capaz de se sobressair em jogos de todos os tipos: de plataformas, disparos, boxe ou corridas, o que demonstra que "uma única arquitetura pode desenvolver ótimas táticas para uma ampla variedade de situações", afirmou Hassabis.

"O sistema pode ser usado para qualquer tarefa que envolva tomadas de decisões sequenciais. Não programamos nada específico para jogar videogames de Atari. É um programa de aprendizagem geral", disse Koray Kavukcuoglu, funcionário da DeepMind.

A empresa é propriedade do Google desde o ano passado, que a adquiriu por cerca de R$ 1,5 bilhão em um leilão, do qual também participaram outras grandes companhias do setor tecnológico, como o Facebook.

Acompanhe tudo sobre:GamesInteligência artificial

Mais de Tecnologia

Como o Google Maps ajudou a solucionar um crime

China avança em logística com o AR-500, helicóptero não tripulado

Apple promete investimento de US$ 1 bilhão para colocar fim à crise com Indonésia

Amazon é multada em quase R$ 1 mi por condições inseguras de trabalho nos EUA