A #Google DeepMind criou um sistema de inteligência artificial capaz de bater uma série de jogos da Atari 2600, a clássica consola de videojogos que fez as delícias da crianças e adolescentes nos anos 80. Até aqui nada de muito especial, mas o deep Q-Network (DQN), divulgado ontem na apresentação do estudo publicado por uma equipa de investigadores da empresa, não se limita a conseguir completar os jogos. Quase sem informação de base, este computador é auto-didacta, aprendendo por si só os métodos dos diferentes jogos, até se tornar um verdadeiro especialista. Esta aprendizagem dá-se através da experiência, à semelhança do que acontece com o cérebro humano, e é baseada no reforço positivo, uma velha técnica da psicologia humana e até animal.

Publicidade
Publicidade

O computador criado pela Google é instruído a jogar clássicos como Space Invaders, Pong, Breakout ou Video Pinball, num teste que envolveu um total de 49 títulos da Atari 2600. No entanto, segue sem qualquer tipo de explicações sobre como proceder. "O sistema aprende a jogar basicamente ao premir teclas ao acaso", explicou Volodymir Rihn, um dos autores do estudo, publicado na revista Nature. O computador memoriza todos os movimentos que faz, sendo que cada vez que consegue completar uma acção positiva ou o nível de um jogo, recebe automaticamente um estímulo virtual - o equivalente à dopamina no cérebro humano.

O resultado é um sistema inovador que consegue aprender de acordo com o ambiente em que está inserido, referindo-se a acções passadas e ajustando as suas decisões e o seu comportamento de acordo com elas.

Publicidade

Ao fim de aproximadamente duas semanas de "treino", o computador conseguiu: completar mais de dois terços dos jogos; igualar e, em alguns casos, ultrapassar o desempenho dos jogadores profissionais humanos em 29 dos 49 jogos; e encontrar, em 43 dos jogos, algoritmos matemáticos mais eficientes do que aqueles que já haviam sido estabelecidos por outras máquinas para concluir estes desafios.

A barreira do pensamento independente

Este é o primeiro grande resultado de um dos mais famosos movimentos do mercado de 2014, quando no início do ano a Google bateu o Facebook e adquiriu a DeepMind, uma start-up de Londres, por valores superiores a 600 milhões de dólares. Na conferência de imprensa da apresentação do estudo, Demis Hassabis, co-fundador da DeepMind e agora engenheiro da Google, reforçou que esta é "a primeira vez que alguém constrói um sistema de inteligência artificial capaz de aprender a desempenhar vários tipos de tarefas".

"Apesar do importante avanço que este estudo representa, e que aproxima cada vez mais a possibilidade de introduzir a inteligência artificial no quotidiano da sociedade, o investigador diz que a Google ainda se encontra longe de conseguir produzir uma tecnologia capaz de produzir pensamentos independentes. "O objectivo máximo do nosso trabalho é construir máquinas inteligentes que possam servir grandes propósitos", contou depois Hassabis à Bloomberg, admitindo todavia ainda estarem longe de conseguir construir algo capaz de "produzir conhecimento, conceptual ou abstracto". 


A próxima etapa, segundo aponta a equipa de investigação, é testar o sistema com jogos mais evoluídos, nomeadamente jogos tridimensionais concebidos nos anos 90, especialmente os simuladores de carros de corrida. "Se conseguirmos colocar um computador a pilotar um carro de videojogos, pode ser que um dia os carros autónomos da Google possam aprender a conduzir com base na experiência", deixou no ar Demis Hassabis"