Así como hay acaloradas discusiones éticas sobre biotecnología, transgénicos o energía nuclear, en breve la humanidad deberá discutir acerca del uso de los algoritmos, en especial de aquellos que desarrollan procesos considerados inteligentes y que, además, son capaces de tomar decisiones por nosotros, señaló el doctor Iván Vladimir Meza Ruiz, del Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM.
“Está perfecto que al encender la televisión uno de ellos nos sugiera la serie de Netflix más afín a nuestros gustos, aunque cuando leemos en el diario que hay otros que analizan nuestra vida en Facebook para saber qué mensajes enviarnos en tiempos electorales e incidir en el voto (como evidenció el reciente escándalo de Cambridge Analytica) o que su empleo será crucial para crear armas automatizadas, es obvio que el debate debe ir en serio y a fondo”.
Al respecto, el especialista en inteligencia artificial (AI) señaló que los algoritmos han acompañado a la humanidad desde hace mucho. “Podríamos considerarlos recetas de cómo llevar a cabo un proceso, casi como de cocina, pero éstos son muy formales y no permiten interpretación. Por ejemplo, en el caso de una suma nos pueden indicar cómo manipular un número y otro para llegar a un resultado, y con una multiplicación igual, y son tan antiguos que se cree que su nombre es un homenaje al matemático persa del siglo I Al-Juarismi”.
Sin embargo, advirtió, la consolidación de lo computacional y la revolución que trajo consigo dio pie al surgimiento de algoritmos cada vez más versátiles que, más que ver con operaciones matemáticas, se abocaron a tomar decisiones y predecir. Se trata de algo tan reciente que no llevamos más de 20 años con ellos y, por lo mismo, no hemos tenido tiempo para reflexionar mucho acerca del tema.
Al respecto, Meza Ruiz recordó el incidente del vuelo 3411 de United Express, del 9 de abril de 2017, cuando por sobrecupo la policía retiró a rastras y sangrando al pasajero David Dao, cuando éste se negó a abandonar el avión. Todos en la nave habían pagado su boleto, pero la aerolínea necesitaba un asiento. Al inicio pidieron a un voluntario para bajar a tierra; como nadie aceptó la compañía aplicó un algoritmo y decidió que el pulmonólogo de origen chino debía salir. Todo terminó en violencia y en un escándalo para United Airlines.
“Si queremos resolver una operación matemática compleja, podemos confiarle la tarea a una máquina, pero estos escenarios son inéditos. Quienes ejecutaron la orden y expulsaron a Dao con empellones argumentaron, ‘la computadora decidió, nosotros seguimos órdenes’ pero nadie se preguntó ¿por qué obedecer a un ordenador?”.
A esto se le conoce como el “problema de la caja negra”, el cual recibe tal nombre para destacar la imposibilidad de ver los engranajes y el mecanismo que ponen en marcha a un algoritmo.
“Sabemos que funciona, pero no cómo, y no nos cuestionamos al respecto porque tenemos una apreciación cultural que nos lleva a creer que las cosas algorítmicas, matemáticas y computacionales están bien pensadas, que sus decisiones son las adecuadas y que debemos estar de acuerdo con ellas, lo cual no siempre es cierto”.
¿Puede un algoritmo ejercer prácticas discriminatorias?
Para recomendar música o películas hay programas que tienen acceso a todo lo que hemos visto u oído, a un catálogo sonoro o visual extenso y a una infinidad de datos de lo que ha gustado a usuarios afines. Al cruzar esta información el sistema es capaz de formular sugerencias sorprendentemente precisas.
“Los algoritmos de toma de decisiones son algo nuevo para nosotros; nunca habíamos tenido tantos ni tan buenos. El problema es que funcionan con base en ejemplos y, con frecuencia, ignoramos su lógica. Intuimos cierta correspondencia entre la experiencia y el resultado final, aunque no sabemos lo que hay en medio”.
A decir de Iván Meza, esto nos coloca en el umbral de la otra gran preocupación en el rubro: que los algoritmos estén aprendiendo conductas negativas, cuestionables o poco éticas.
“Si para reclutar personal una empresa opta por desarrollar un programa que pondere los CV, es probable que ésta le enseñe a elegir con base en contrataciones exitosas del pasado, y si resulta que la compañía en algún momento discriminó a las mujeres (es lo más factible, pues se trata de una práctica extendida y persistente), el sistema descartará, en automático, las candidaturas femeninas”.
Sobre el asunto, el académico apuntó que los sitios para encontrar parejas amorosas por computadora usan algoritmos similares, pues dichos programas también formulan recomendaciones, pero ya no de música o películas, sino de potenciales parejas sentimentales.
“El asunto es que la recomendación puede no estar a la altura de las expectativas, el sistema puede discriminar con base en prejuicios y, si es cierto que gran parte de los fracasos amorosos son porque repetimos patrones, debemos considerar que un algoritmo no es más listo que nosotros y que sólo replicará lo que hemos hecho antes”.
La paz mundial en riesgo
Para Iván Meza es evidente que debe haber un debate ético acerca no de los algoritmos en sí, sino de sus usos, pues ya se considera su inclusión en las llamadas armas automatizadas, que a decir de expertos en el tema representarían la tercera gran revolución bélica (las otras dos fueron el empleo de la pólvora y de la energía nuclear).
“Aunque suene a ciencia ficción, el objetivo de las grandes potencias armamentistas es emplear en sus guerras a la menor cantidad de soldado y, en vez de ello, enviar artefactos autónomos que escojan a sus víctimas basándose en algoritmos similares a los de la compañía que busca reclutar personal o al de la empresa de citas”.
Esta inquietud ha unido a personas de todo el mundo a través de iniciativas como el Future of Life Institute, que ha lanzado una carta abierta al mundo titulada Autonomous weapons: an open letter from AI & robotics researchers, donde más de 24 mil personas se manifiestan contra la carrera armamentista basada en la inteligencia artificial, entre ellas personalidades como Stephen Hawking, Peter Norvig, Noam Chomsky, Steve Wozniak, Jack Dorsey o Elon Musk.
O en un hecho más reciente, hace unos días especialistas en AI hicieron un llamado para boicotear al Korea Advanced Institute of Science and Technology (KAIST) debido a que en sus laboratorios se trabaja en el desarrollo de armas autónomas o “robots asesinos”, como la prensa ha comenzado a llamar a este tipo de armamento.
“Si un algoritmo que hurga en nuestras redes sociales y nos sugiere por quién votar ya es algo cuestionable, mucho más lo es si pensamos en uno con el poder de lanzar misiles o de eliminar individuos sin supervisión humana. Por ello debemos empezar a hablar de esto y tomar posturas como comunidad global. Ya lo hicimos antes con la energía nuclear, la genética o la biotecnología, ahora debemos decidir para qué los queremos. Por el momento, que haya uno que nos sugiera qué ver en Netflix suena a una buena idea”.