Según la película Terminator 2, hace justo 20 años —el 29 de agosto de 1997, a las 2:14 de la mañana— la red de inteligencia artificial (IA) conocida como Skynet tomó conciencia de sí misma, decidió que los humanos eran sus enemigos y desató una guerra nuclear. “Sin embargo, en este punto la ficción se ha adelantado mucho; hoy estamos muy lejos de tener programas autoconscientes por una sencilla razón: seguimos sin entender qué es la conciencia”, planteó el doctor Iván Vladimir Meza Ruíz, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM.
Al respecto, el universitario señaló que en la actualidad tenemos sistemas más inteligentes de lo que un humano sería jamás, como aquellos que juegan ajedrez o go. “Sin embargo, hablamos de ciertos dominios y de tareas específicas, pues no hay uno capaz de desarrollarse mejor que una persona en su vida cotidiana; para llegar a ese nivel debería sobresalir en muchos dominios, intuiciones y aspectos inherentes a cómo experimentamos el mundo”, añadió.
Para el experto, aún falta mucho para contar con una IA completa. Según una de las hipótesis más aceptadas necesitan conciencia y experiencia para lograr esa completitud, y estamos muy lejos de eso porque aún no entendemos la conciencia humana.
En la película de 1991 protagonizada por Arnold Schwarzenegger, Skynet súbitamente se da cuenta de su existencia, busca preservarla y ve en los humanos una amenaza, argumento que funciona en el cine mas no en la realidad, pues a decir de Meza Ruiz que una máquina llegue a eso se antoja imposible, ya que para ello una computadora necesitaría desarrollar una inteligencia global, luego decidir que el hombre es un riesgo y después hacer algo al respecto.
En este punto, la robótica estaría un poco más cerca de una “autoconciencia” ya que actualmente trabaja en sistemas que experimentan el mundo de una forma parecida a la nuestra, pero un ordenador conectado en una oficina jamás podrá hacerlo y difícilmente alcanzará una IA global.
A decir de Meza, el reto para todos quienes se dedican a la IA es crear una inteligencia parecida a la humana, “pero aún estamos muy lejos de eso porque todavía no la entendemos. Para lograrlo en algún momento nos apoyamos en la psicología, las neurociencias y la filosofía, disciplinas con mucho qué aportar”.
Programar, otra forma de entender el pensamiento
En la primera mitad del siglo XX Alan Turing, considerado el padre de la computación, pronto se dio cuenta de que programar era reproducir, de alguna manera, los procesos mentales y desde entonces miles de investigadores han explorado el área y ha habido muchísimo avance, pero desde hace tres años se han dado pasos impresionantes, al grado de que ahora se cree muy factible crear inteligencias no sólo equiparables a la del humano, sino superiores.
Aquí el asunto es que, aunque para alcanzar esa global tan anhelada la conciencia es importante, también lo son otros mecanismos conscientes en lo que no reparamos, como el mover un pie detrás de otro sin caernos o sin trastabillar.
“Por ejemplo, uno de los mayores retos es hacer que un robot bípedo camine y si lo pensamos, nosotros no reparamos en esa acción y lo consideramos un problema resuelto. Desde el punto de vista científico es más difícil lograr eso que hacer que una máquina vaya de un punto a otro”, expuso.
Así, para Iván Meza es difícil determinar cómo debe lucir la autoconciencia “y de hecho no sabemos si la vamos a reconocer en caso de que un sistema la desarrolle; ignoramos si recuerde lo que dijo en el pasado o si se pregunte a sí mismo si está haciendo lo correcto, y lo mismo pasa si planteamos las mismas interrogantes ya no con ordenadores, sino con humanos”.
Hay investigaciones fuertes que están intentando determinar esto, pero estamos muy lejos de hallar una respuesta porque ésta se localiza justo detrás de la frontera de todo lo que conocemos, concluyó.