A conversa sobre paternidade é uma das mais importantes do nosso tempo. Venha para o PAI: Os desafios da paternidade atual, discutir e colocar em prática o tema.
Compre já o seu ingresso!

A Inteligência Artificial pode superar os homens antes do que eu, você e os especialistas imaginavam

Um supercomputador programado pelo Google venceu o melhor jogador do jogo mais difícil do mundo quatro vezes... em cinco tentativas

Vira e mexe a gente se mete a falar de inteligência artificial aqui no PdH. Assim como nosso time de autores, os conteúdos acabam saindo os mais diversos possíveis: Gitti, Luri, Brandão, Pinheiro... A nata da nossa equipe já se arriscou a falar sobre o tema e aplicaram seus vieses sobre o assunto. Chegou minha vez de brincar.

E para contar um pouco de como essa tal Inteligência Artificial vem nos surpreendendo cada vez mais (ainda que tenhamos conhecimento de teorias como a Lei de Moore e outras) permita-me te contar uma história.

Você conhece o Go?

Aí está.

Go – conhecido também por Weiqi ou Baduk – é, de maneira bem direta, o jogo mais difícil do mundo sob determinadas óticas. Você, meu amigo enxadrista, deve estar agora reunindo as pedras para atirar em mim, mas calma lá.

É bem verdade que num estágio básico o xadrez é um jogo mais complexo em nível de estratégia. Nele não basta mexer as peças, é preciso ter um plano de ação e reação. Enquanto isso, no Go é possível apenas ir colocando as pedras de maneira aleatória e obter um determinado êxito.

Mas quando colocamos os melhores do mundo para jogar, Go se torna um jogo extremamente complexo, justamente pelo fato de ter dezenas de milhões de possibilidades de movimentos a mais do que o xadrez. Em números, no xadrez existem 10^120 possibilidades de movimentos, enquanto no Go existem 10^768. Por isso, costuma-se dizer que uma partida de Go jamais foi repetida na história. Isso porque o jogo existe há mais de dois mil e quinhentos anos.

Basicamente, Go é composto por um tabuleiro (goban) de 19 por 19 linhas cruzadas e 'infinitas' peças pretas e brancas idênticas entre si. O objetivo do jogo é dispor as pedras no tabuleiro de maneira alternada até que você conquiste o maior território possível e acabe com as possibilidades de jogada do seu adversário. Go é portanto um jogo onde você tem que dominar territórios cercando seu oponente.

Você conhece Lee Sedol?

Aí está.

Lee Sedol é um sul-coreano de 33 anos, jogador profissional de Go desde os 12 e campeão mundial 18 vezes desde então. Ele é considerado o melhor jogador de Go do mundo e foi o responsável por uma missão nada agradável: enfrentar um supercomputador do Google.

Acostumado a dominar seus oponentes, Sedol foi convidado para uma duelo contra o AlphaGo: um software desenvolvido pelo programa de inteligência artificial DeepMind, do Google. Apenas para estimular os ânimos, o vencedor ganharia um prêmio de US$ 1 milhão.

O confronto foi travado numa melhor de cinco partidas, nos moldes do que é comumente feito na modalidade e logo ganhou muita visibilidade (com transmissão em tempo real e ampla cobertura no país). Ao mesmo tempo, tornou-se impossível não fazer comparações com a partida histórica de xadrez entre o software Deep Blue, da IBM, e Garry Kasparov, o ex-campeão mundial de xadrez, em 11 de maio de 1997, quando o computador superou o humano na modalidade pela primeira vez – vale dizer que Kasparov venceu o computador um ano antes. 

Como foi o confronto?

Apesar da ampla repercussão, o confronto não aconteceu sem um histórico e Lee Sedol não foi o primeiro nem o único jogador de Go superado pelo software. Pouco antes de enfrentar o campeão mundial, a máquina do Google derrotou com autoridade o tricampeão europeu de Go, Fan Hui, por cinco a zero.

Com esse belo retrospecto, os desenvolvedores se empolgaram e convocaram o confronto contra o melhor do mundo e não se arrependeram. Numa disputa travada nos bastidores do mundo da tecnologia, o Google superou outras empresas – como o próprio Facebook – que também tentavam a façanha (talvez, apenas talvez, isso seja algo importante pra eles).

Segundo alguns jogadores e especialistas que acompanharam as partidas, os dois primeiros confrontos foram os mais difíceis para o humano. Com uma estratégia de jogo diferente do que estava acostumado, Sedol procurava encontrar brechas do computador ao invés de 'propor o jogo'. Dessa forma, o AlphaGo logo abriu 2 a 0 na disputa.

Quando o confronto chegou na terceira partida, o sul-coreano resolveu adotar uma estratégia diferente e essa, por sua vez, deu muito mais trabalho ao computador. Sedol usou algumas táticas inovadoras e criou uma espécie de tudo-ou-nada, coisa que ainda não tinha feito no duelo. Mas o computador se mostrou preparado para isso também e derrotou o jogador por renúncia depois de 176 movimentos. Nesse momento, o humano já tinha excedido o limite máximo de duas horas e invadido o tempo extra, enquanto o computador ainda tinha 8 minutos e meio restantes no relógio. O que também lhe comprovou velocidade na tomada de decisões.

Apesar da vitória garantida com os 3 a 0, é costume que os confrontos continuem até a última partida e por isso tivemos o quarto e o quinto duelo.

E foi justamente na partida seguinte que veio a surpresa. Depois de derrotar o campeão europeu por 5 a 0 e abrir 3 a 0 contra o campeão mundial, finalmente a máquina perdeu uma partida para um humano.

Num duelo que durou mais de cinco horas, Sedol castigou o computador até o fim. Depois de um movimento falho cometido na jogada 79, o software só reconheceu o erro na jogada 87, e a essa altura o sul-coreano já tinha conseguido vantagem suficiente para defender até o final.

A vitória inédita animou quem acompanhava o duelo. Naquele momento, acreditava-se ter aberto um precedente. Os comentaristas apontaram que Sedol tinha finalmente entendido como o computador se comportava e tinha conseguido usar isso contra ele. Logo criou-se uma grande expectativa para a quinta partida. Uma nova vitória poderia significar que o humano tivesse realmente descoberto uma falha na programação do software.

E de fato o quinto e último duelo foi o mais equilibrado. Ambos os competidores invadiram a prorrogação e o confronto só foi encerrado depois de 280 movimentos. Mais uma vez, quem acompanhava a partida não conseguia apontar uma vantagem para nenhum dos dois lados. A vitória parecia passar de uma mão para outra a cada jogada. Mas foi então que algo difícil de compreender aconteceu.

Na jogada 48, o computador fez um movimento muito parecido com o erro da quarta partida, mas dessa vez se tratava de um movimento inédito. Sem compreender essa lógica, todos os especialistas apontaram aquilo como mais um erro do computador, o que confirmava a tese de que Sedol tinha descoberto uma brecha na programação. Porém, o que se viu foi uma sequência de movimentos bem no meio do tabuleiro que tornou a partida longa e complicada, mas que depois de quase cinco horas apontou para a derrota, por renúncia, de Sedol dando números finais ao placar: 4 a 1.

Com a vitória do AlphaGo, o Google decidiu doar US$ 1 milhão para a Unicef, para instituições que promovem educação STEM (ciência, tecnologia, engenharia e matemática) e para organizações do jogo Go. Sedol também não saiu de mãos abanando e além de um prêmio de US$ 150 mil pela participação ganhou mais US$ 20 mil por cada vitória (só uma).

Sobre o confronto, especialistas disseram:

“Estava difícil dizer quando AlphaGO estava com vantagem ou desvantagem, foi um jogo acirrado. AlphaGO fez um movimento que parecia um 'erro' no movimento 48 similar ao feito na partida 4. Após este movimento AlphaGO jogou muito bem no centro do tabuleiro, com um jogo bem desenvolvido até o final… AlphaGO tem um grande potencial para ser uma ferramenta de estudo para nós profissionais quando estiver disponível para jogarmos contra em casa!”

Michael Redmond, 9-dan (prêmio máximo do esporte), comentarista americano.

“Como os cientistas, jogadores de GO também estão sempre procurando novos métodos e técnicas. E nós ficamos muito felizes quando descobrimos algo assim. Este desafio trouxe a nós jogadores de GO novas áreas nunca exploradas. Estamos agora vendo mais interesse em jogar GO, e nesta semana sinto que meu GO foi aprimorado.”

Kim Seongryong, 9-dan, comentarista sul-coreano.

“Essa partida… o drama, o aspecto histórico, a qualidade dos jogos, o brilhante AlphaGO, o brilhante Lee Sedol e a cobertura da mídia... Eu gostaria de agradecer ao time DeepMind AlphaGO. Esse é um presente para o GO. Isso está levando o GO a novas pessoas. Nós não poderíamos sonhar com algo melhor e mais bonito do que essas partidas. Esse confronto fez o que GO sempre faz, trazer as pessoas de forma mais próximas com cooperação e amizade, isso, como o jogo em si, é lindo."

Chris Garlock, gerente editor da American GO Jornal Eletrônico.

O que tudo isso nos diz sobre a Inteligência Artificial?

Pesquisadores tentam ensinar Go para computadores há mais de vinte anos. Mais um investimento desse tamanho que reúne algumas das pessoas mais talentosas e inteligentes do mundo não serve apenas para ganhar de jogadores de Go. O Google tem planos muito mais ambiciosos.

Antes de entrar no mérito da criação e dos objetivos do software vale lembrar que apesar de Go ser um jogo extremamente complicado de se ensinar para um computador – por motivos que você já deve imaginar, mas que veremos mais a fundo a seguir – ainda existem jogos em que os computadores não são capazes de superar os humanos, como o Pôquer.

Isso porque, apesar das muitas possibilidades de modalidades como Xadrez e Go, eles são o que chamamos de jogos de soma zero com informação total. Ou seja, o ganho de um jogador significa necessariamente a perda de outro e todas as informações que precisam ser processadas (por mais que sejam muitas) estão no tabuleiro.

Mas isso não desmerece o feito alcançado pelo software, ainda mais quando consideramos que especialistas estimavam que tal conquista só seria alcançada pela Inteligência Artificial em 2025(!).

E as previsões foram furadas muito porque estavam baseadas num eventual método bem sucedido semelhante ao utilizado pela IBM em 1997. Quando o Deep Blue derrotou Kasparov antes mesmo da virada do milênio, o modelo utilizado era o da "força bruta". O computador em questão era capaz de calcular 200 milhões de movimentos por segundo e era alimentado por um banco de dados com centenas de milhares de possibilidades desde as mais clássicas até as grandes criações dos principais mestres enxadristas do mundo à época.

Fazendo uma simples comparação com a quantidade de possibilidades de jogadas a mais que o Go apresenta, ninguém poderia imaginar que o êxito viria tão cedo. Mas ele aconteceu porque ao invés de tentar ensinar ao computador todas (ou pelo menos quase todas) as possibilidades que existem no jogo, os desenvolvedores deram condições de que o próprio computador aprendesse sozinho. Portanto, eles abandonaram o modelo da "força bruta" e partiram para o modelo de "rede neural".

Os cientistas do Google DeepMind desenvolveram duas redes. A primeira, chamada de "rede de valor", avalia as posições no tabuleiro. Já a segunda, "rede de política", decide os movimentos.

Ambas as redes foram alimentadas por uma combinação inédita de aprendizagem profunda onde milhões de jogadas de especialistas humanos foram introduzidas no banco de dados. Após esse primeiro passo, as redes neurais foram colocadas em prática e o computador fez milhares de partidas contra ele mesmo para que pudesse aplicar os dados que recebeu e – aqui vai o grande segredo – aprendesse sozinho.

O método ainda foi direcionado para que o computador pensasse em estratégias que não visassem um ganho imediato, mas o melhor resultado a longo prazo. Ou seja, ao receber determinado imput, o computador não pensa numa maneira de neutralizá-lo imediatamente, mas sim em uma sequência de jogadas capazes de deixá-lo mais perto da vitória. Sendo assim, a eficiência de cada jogada isolada pode até não ser tão boa, mas o resultado final é.

Dessa forma, não tendo que calcular todos os movimentos possíveis a cada jogada, o AlphaGo faz um processamento muito menor e mais rápido do que o Deep Blue. O novo software analisa apenas as combinações mais favoráveis a médio prazo e não todas, como era feito antes.

Sendo assim, o computador desenvolvido pelo Google pensa menos como máquina e mais como um humano que realmente se debruça sobre as possibilidades reais, não hipotéticas. E é esse fato somado ao de que o computador consegue fazer deduções sobre novos dados que sinaliza um futuro brilhante para a Inteligência Artificial.

O próprio Google reconhece que uma vitória numa partida de Go, ainda que seja contra o campeão mundial, não é tão relevante. Ainda mais se comparada com o duelo de xadrez de 20 anos atrás. Porém, o que anima os desenvolvedores é justamente a possibilidade de aplicação desse modelo em outras áreas.

A empresa divulgou uma nota no seu blog oficial dizendo que seus engenheiros estão animados em poder aplicar esses métodos em "problemas complexos e urgentes na sociedade, como o estudo do clima e a análise de doenças". Agora nos resta esperar pelo futuro que está diante de nós e ver o que vai acontecer.


publicado em 28 de Abril de 2016, 00:05
Breno franca jpg

Breno França

Editor do PapodeHomem, é formado em jornalismo pela ECA-USP onde administrou a Jornalismo Júnior, organizou campeonatos da ECAtlética e presidiu o JUCA. Siga ele no Facebook e comente Brenão.


Puxe uma cadeira e comente, a casa é sua. Cultivamos diálogos não-violentos, significativos e bem humorados há mais de dez anos. Para saber como fazemos, leianossa política de comentários.

Sugestões de leitura