Al hablar de inteligencia artificial (IA) solemos pensar en “Yo Robot” o en “Terminator” y las máquinas que nos conquistan, pero todavía estamos lejísimos de esto, que sería una IA completa, explica Iddar Olivares, ingeniero mecatrónico experto en inteligencia artificial.
Lo que sí ya es una realidad y que está presente en muchas de las cosas que hoy usamos es el “machine learning” (aprendizaje automático), una parte de la inteligencia artificial mediante la cual se enseña a las computadoras a aprender, a identificar patrones para que puedan darnos las respuestas que buscamos, sin que hayan sido expresamente programadas para ello.
Esto se empezó conceptualizar en la década de 1940, cuando ya se creía que se podrían hacer máquinas capaces de realizar cálculos aproximados o que fueran semejantes a la inteligencia humana, pero fue hasta el año de 1969 cuando se ejecutó esa teoría, para implementarla en una máquina ya entrenada, a la que se le enseñó a aprender, explica Iddar.
Pero se avanzó muy lento, la mayor limitante era el hardware, pues con las computadoras de entonces era difícil procesar grandes volúmenes de datos; fue hasta el 2006 cuando se creó Alpha Zero, una de las primeras inteligencias que competía en ajedrez y evolucionó hasta Alpha Go, una IA que en 2016 logró vencer al campeón mundial de Go, un juego de tablero de reglas simples, pero de ejecución compleja.
EN QUÉ SE APLICA HOY
Hoy podemos ver ejemplos de machine learning en las plataformas digitales de películas, cuando nos recomiendan lo que nos puede gustar; en los asistentes como Siri o Alexa, que convierten una onda de sonido a texto y entienden ese texto para darle sentido; en las aplicaciones que cuentan pasos, que saben si vas a pie o en bicicleta; o en Waze, que nos guía diario al trabajo o a casa sin tener que indicarle explícitamente a dónde vamos.
Aunque el machine learning se ha utilizado más para ocio, puede ser muy útil en medicina, por ejemplo, si se alimenta con una gran cantidad de datos de mamografías de personas sanas y otra categoría con quistes, la máquina puede aprender a indicar cuáles están enfermas y cuáles no; o en el caso de tomografías del cerebro, en que las diferencias suelen ser muy sutiles, tanto que a los doctores les cuesta trabajo, pero a la máquina no le costaría. Ahora el verdadero reto es qué le vamos a preguntar a la máquina, asegura el especialista.
Existe una página, “Teachable machine”, que es un servicio gratuito de Google en la que puedes entrenar a una máquina, enseñarle como si fuera un niño chiquito, con datos. Puedes, por ejemplo, grabar muchas fotos, desde todos los ángulos, donde estés con una mascarilla puesta y luego otras tantas sin mascarilla, para que aprenda cómo te ves tú con y sin esta; mientras más variedad de datos le des, va a inferir muchas más cosas.
EL NUEVO PROCESADOR DE APPLE
El 11 de noviembre pasado Apple anunció un nuevo procesador para toda su línea de equipos, que promete ser mucho más rápido y que, debido a sus características de rendimiento, permitirá a los desarrolladores crear modelos de machine learning que se desempeñarán mucho mejor, porque estos nuevos procesadores pueden trabajar con muchos decimales -en programación- que son necesarios para entrenar a los modelos de inteligencia artificial, por ejemplo, para hacer mucho más rápido tareas como el desbloqueo por cara de los celulares y mucho más, comenta Olivares.
Uno de los grandes problemas que había antes es que era difícil pensar en proyectos de inteligencia artificial, porque no tenían acceso a tantos datos; hoy, con los nuevos procesadores, ya se pueden hacer cosas mucho más interesantes, empezaremos a ver más aplicaciones de inteligencia artificial en el día a día, finaliza el experto.