Selecciona Edició
Connecta’t

La intel·ligència artificial conquista l’últim tauler dels humans

Una màquina venç per primera vegada un jugador professional del mil·lenari joc xinès Go

Una de les partides entre el campió Fan Hui i el programa AlphaGo Ampliar foto
Una de les partides entre el campió Fan Hui i el programa AlphaGo. Deepmind

El 10 de febrer del 1996, Deep Blue va tombar per primera vegada Garry Kaspàrov. "La màquina venç l'home", sentenciaven totes les cròniques quan un any després es va consumar la derrota de la matèria grisa del rus davant del xip nord-americà. A partir d'aquell dia, els experts en intel·ligència artificial es van llançar a la recerca del següent repte: "Ha estat el Sant Greal des que es va vèncer Kaspàrov a escacs. I hem trigat 20 anys, moltíssim temps si penses en l'esforç invertit i el creixement del poder de computació", explica Demis Hassabis, talent de Google Deepmind, sobre l'última gran victòria del cervell de silici: el mil·lenari Go, un joc de taula d'origen xinès, el tauler del qual era l'últim reducte en el qual la capacitat intel·lectual dels humans mantenia a ratlla la intel·ligència artificial.

Ha estat el Sant Greal des que es va vèncer Kaspàrov a escacs. I hem trigat 20 anys, moltíssim temps si penses en el creixement del poder de computació”, explica Demis Hassabis

"Tots els experts deien que faltava una dècada per vèncer els millors jugadors professionals", assegura Hassabis, responsable últim que l'algorisme AlphaGo hagi escombrat —cinc a zero, ni més ni menys— el triple campió d'Europa Fan Hui. "Fins i tot a nosaltres ens va sorprendre la fortalesa d'AlphaGo en aquell moment", reconeix. El 1994, van caure les dames a les mans de Chinook. Poc després, els escacs. Cepheus s'ha fet càrrec del pòquer. I més recentment, Watson, que és capaç d'imitar la capacitat de deducció humana al Jeopardy —i explotar la creativitat cuinetes—, i DQN, que guanya a tots els videojocs clàssics d'Atari.

Guanyar a Go és molt més difícil que a escacs, ja que les variables són pràcticament infinites, cosa que demanda capacitats humanes més enllà de la simple anàlisi d'aquesta jugada i les consegüents. La força bruta d'un supercomputador, intentant analitzar de forma exhaustiva totes les possibilitats, seria inviable. En el Go les fitxes no estan al tauler, sinó que es van col·locant amb plena llibertat per tota la superfície amb l'objectiu d'abastar més territori que el rival i, alhora, capturar les seves fitxes.

Davant dels 20 o 30 moviments que es poden fer en cada jugada d'escacs, el Go n'ofereix fins a 250. A més, una partida completa es desenvolupa en molts més torns que els escacs: 200, contra uns 40. Per tant, el nombre complet de combinacions és inabastable, si més no per a la supercomputació: exigeix solucions selectives, raonades, intuïtives. Els humans no trien entre totes les variables, sinó que escullen les que semblen més raonables després de visualitzar la situació.

Kaspàrov, en una de les seves partides contra Deep Blue.
Kaspàrov, en una de les seves partides contra Deep Blue. Reuters

"Es pensava que el Go té alguna cosa intuïtiva, que una màquina no podria adquirir la sofisticació d'un humà observant una posició i entenent-la", assenyala David Silver, que ha desenvolupat AlphaGo amb Hassabis als laboratoris de Google Deepmind. En les cultures orientals es considera aquest joc, que va néixer fa almenys 2.500 anys i que practiquen 40 milions de persones, alguna cosa més que un passatemps. Hassabis, jugador de Go i mestre d'escacs des que tenia 13 anys, ho resumeix així: "No es tracta de guanyar o perdre, sinó de créixer mentre jugues". I això van fer amb el seu programa.

AlphaGo ha desenvolupat una cosa que podríem denominar intuïció, gràcies a la feina de la seva intel·ligència artificial en diversos nivells. L'algorisme es basa en una combinació de xarxes neuronals —mitjançant un aprenentatge profund basat a visualitzar possibilitats en cascada— junt amb una recerca selectiva. L'eina que han desenvolupat és capaç d'avaluar alhora el moviment proper i la posició general del tauler: el pas següent i també la importància estratègica d'una situació.

Deep Blue va ser creat per als escacs; AlphaGo és un cervell que aprèn de les dades, que es retroalimenta jugant contra si mateix per perfeccionar-se. Primer, li van ensenyar a observar els moviments de jugadors reals fins que va tenir prou informació per ser capaç d'endevinar què farien amb la seva següent fitxa. Després, aquestes xarxes neuronals es van centrar en l'anomenat aprenentatge per reforç, practicant només, per consolidar la presa de decisions intel·ligent, centrant-se a escollir entre les possibilitats guanyadores i obviant les altres.

Guanyar a Go és molt més difícil que a escacs, ja que les variables són pràcticament infinites; la força bruta d’un supercomputador, intentant analitzar de forma exhaustiva totes les possibilitats, seria inviable

Fins ara, les màquines desenvolupades per altres equips amb prou feines eren capaços de guanyar humans aficionats. Encara que la victòria d'AlphaGo ja s'ha segellat amb les seves partides secretes contra Fan Hui i amb la publicació a la revista Nature d'aquests resultats, el moment Kaspàrov l'espera al març: un torneig contra el sud-coreà Lee Sedol, campió mundial i millor jugador de la dècada.

Però l'important ve a partir d'ara. Les aplicacions pràctiques d'aquest cervell solucionador de problemes arribaran d'aquí a cinc o 10 anys, assegura Hassabis, i podrien abastar des de l'anàlisi de models climàtics fins al diagnòstic mèdic. La seva màquina "proporciona esperança que es pot aconseguir ara un rendiment de nivell humà en altres dominis de la intel·ligència artificial aparentment irresolubles", assegura un portaveu de Deepmind, que recorda que, des que els ordinadors juguen millor a escacs, els humans han canviat la seva manera de jugar: la intel·ligència artificial ha resolt el codi intern del joc.

L'escriptor Yasunari Kawabata va guanyar el Nobel de Literatura gràcies a la seva novel·la El mestre de Go, en la qual es narra la derrota d'un vell campió d'aquest joc, que considerava un art que alberga el misteri i la noblesa oriental: "Es diria que el Mestre, en aquesta última partida, es veia importunat pel modern racionalisme, pel qual els procediments minuciosos ho eren tot i de com tota la gràcia i elegància del Go s'havien esfumat com per art de màgia. Del camí del Go, la bellesa del Japó i de l'Orient s'havien esvaït. Tot s'havia tornat ciència i regles". Exactament el que ha fet la intel·ligència artificial; però més enllà de la malenconiosa visió del mestre nipó hi ha una lectura molt positiva.

Les aplicacions pràctiques arribaran d’aquí a cinc o 10 anys i podrien abastar des de l’anàlisi de models climàtics fins al diagnòstic mèdic

De la mateixa manera que va detallar fil per randa el codi dels escacs i del Go, fet que va canviar per sempre la forma d'afrontar-los, potser aquesta intel·ligència artificial —"ciència i regles"— podrà fer el mateix amb la medicina, l'economia o el clima, oferint respostes i abordatges que canviïn la manera d'entendre aquests problemes... i de resoldre'ls. Per cert, per als més suspicaços: Hassabis, el seu equip i Google han signat que mai es faran servir els seus descobriments en el camp armamentístic.

Doble victòria de Google contra Facebook

Google va adquirir la innovadora empresa Deepmind en una dura pugna amb Facebook, que també estava interessada en el desenvolupament de la intel·ligència artificial en la qual estava destacant. Des de llavors, l'empresa fundada per Demis Hassabis li ha donat grans alegries als seus compradors, amb diversos èxits tan celebrats als mitjans com reconeguts a les revistes científiques.

Des de fa uns mesos, Facebook havia entrat en la carrera per conquistar el joc de Go, en la qual Google Deepmind portava massa avantatge, com s'ha vist avui. Quan ja se sabia que la carrera estava guanyada per Deepmind (la notícia estava embargada des de fa dies), Mark Zuckerberg publicava al seu perfil els modestos assoliments de la seva divisió d'intel·ligència artificial per aconseguir conquistar el Go.