Los trabajos en el campo de la inteligencia artificial no dejan de acaparar titulares y cada vez es más factible que el concepto de ‘máquina’ que se ha estado empleando hasta ahora empiece a estar obsoleto. Sin embargo, a pesar de su frecuencia de uso, ¿sabemos qué es deep learning exactamente?
Si atendemos a la definición literal de deep learning, el concepto se traduciría como ‘aprendizaje profundo’ o ‘aprendizaje automático’. Estamos en contacto con él cuando nos aparece publicidad en Facebook de algo sobre lo que hemos escrito en nuestro muro, cuando escribimos en el teclado predictivo de un teléfono móvil, cuando usamos programas de reconocimiento de voz o cuando interactuamos con ‘chatbots’.
Tras el concepto deep learning o aprendizaje profundo se encuentra un grupo de algoritmos que imita al cerebro humano ‘aprendiendo’ a reconocer patrones de repetición, palabras concretas, comportamientos frecuentes, etc. Estos algoritmos –definidos por la RAE como un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”– trabajan ‘imitando’ la labor neuronal del cerebro.
En el deep learning se aplican algoritmos avanzados de aprendizaje automático para modelar abstracciones de alto nivel en datos mediante el uso de múltiples capas de procesamiento, lo que resulta esencial para tareas complejas como el reconocimiento de imágenes, el procesamiento del lenguaje natural y la predicción de series temporales.
El ‘aprendizaje profundo’ sigue un proceso por capas que simula “el funcionamiento básico del cerebro que se realiza a través de las redes de neuronas. En el deep learning, esas redes neuronales artificiales serían “capas”, puede leerse en un artículo publicado en’’El Diario’. En otras palabras, el deep learning emplea modelos estadísticos para localizar patrones en entornos caracterizados por cierta aleatoriedad y, de esta manera, poder diferenciarlos de manera automática.
El deep learning es una rama del machine learning y un campo perteneciente a la inteligencia artificial (IA) que se desenvuelve en estas ‘capas’ o niveles. Las primeras capas reconocen detalles concretos, mientras que las últimas capas reconocen patrones más abstractos y generan un resultado final.
El deep learning ha revolucionado el campo del procesamiento del lenguaje natural, permitiendo que las máquinas comprendan y generen texto de manera más eficiente y con un nivel de sofisticación antes impensable.
El ejemplo más recurrente a la hora de explicar qué es deep learning es el reconocimiento de dígitos escritos a mano. Desde muy temprana edad, a los niños se les enseña a diferenciar los números –un 2 no es igual que un 3, y un 5 nada tiene que ver con un 7– aunque nadie los representa exactamente igual –hay quien riza el 2 en su parte inicial, quien enfatiza los ángulos del 5 y quien parte por la mitad el 7 con una rayita más o menos paralela al renglón sobre el que escribe–.
El deep learning se desenvuelve en estas ‘capas’: las primeras reconocen detalles concretos mientras que las últimas reconocen patrones más abstractos y generan un resultado final
Donde más fácilmente se identifica las acciones del modelo de deep learning es en los 1 y los 8. En las guarderías, el criterio a enseñar es claro: el 1 es una línea vertical y el 8 se compone de dos círculos situados uno encima del otro. En este caso, el ‘aprendizaje automático’ busca formalizar esas ideas y encontrar la manera de crear modelos con los que, escribiendo sobre una tablet nuestra propia versión del 1 y del 8, el dispositivo interprete que esas y solo esas son las cifras que estamos intentando reflejar en la pantalla.
A pesar de que los algoritmos de deep learning llevan décadas explorándose, en los últimos años han coincidido tres circunstancias que han motivado un desarrollo mayor y más rápido.
Según una información hecha pública por esta empresa, las GPU han sido determinantes en la expansión del deep learning, ya que se utilizan “para entrenar redes neuronales profundas utilizando conjuntos de datos un orden de magnitud más grandes en menos tiempo y utilizando unas infraestructuras de sistemas considerablemente menor”.
En el mismo texto puede leerse que las GPU se han convertido en los procesadores favoritos en el mundo del big data porque los “miles de núcleos de procesamiento y una velocidad de cálculo entre 10 y 100 veces mayor que la de las CPU en solitario” las convierten en unas rivales –hasta ahora– imbatibles.
En un panorama donde las máquinas tienden a actuar de manera autónoma aprendiendo de sus ‘errores’ y potenciando sus ‘aciertos’, la presencia humana en el proceso parece que se limitará al manejo de los datos con que trabajan los dispositivos. De esta manera, podría decirse que la intervención del hombre en el futuro estará restringida al aprendizaje supervisado y a la programación de algoritmos.
Este imperante augurio ha motivado el surgimiento de un nuevo puesto laboral hasta ahora inexistente: la figura de experto en deep learning. De hecho, han nacido másteres que dan respuesta a la nueva demanda del mercado educativo. Por ejemplo, el de la Universidad de Alcalá, que ofrece un título en esta materia después de superar un curso de 60 créditos.
Estamos en contacto con él cuando nos aparece publicidad de algo sobre lo que hemos escrito, cuando escribimos en el teclado predictivo o cuando usamos programas de reconocimiento de voz
En el programa, la universidad expone cuáles serán las habilidades adquiridas por los alumnos tras superar la formación prevista. Entre ellas se encuentra el conocimiento de los “fundamentos formales de las herramientas de aprendizaje automático”; la implementación de los distintos algoritmos en lenguajes de alto nivel para resolver problemas reales; y la propuesta de soluciones basadas en deep learning desde una perspectiva que considere aspectos éticos, legales, sociales y económicos.
Para la realización del máster es necesario que los alumnos tengan conocimientos de computación y estadística, dos facultades que les ayudarán en el proceso de identificación de patrones de comportamiento.
Dejando al margen las inquietantes películas de Hollywood sobre inteligencia artificial, la rebelión de las máquinas contra el hombre parece poco probable. Al menos, así lo aseguran dos expertos en la materia en una entrevista concedida a la BBC en agosto de 2017. “No creo en posibles consecuencias apocalípticas como resultado del avance de este campo. Se habla de la posibilidad de que las máquinas se rebelen un día contra la raza humana, pero este tipo de cuestiones pertenecen solamente al género de la ciencia ficción”, explica Augusto Vega, investigador permanente de los laboratorios IBM T. J. Watson de Nueva York y experto en arquitecturas de sistemas para aplicaciones de Aprendizaje Profundo e Inteligencia Artificial.
Por su parte, José Dorronsoro –catedrático de Ciencias de la Computación e Inteligencia Artificial de la Escuela Politécnica Superior de la Universidad Autónoma de Madrid–, comenta: “Este podría ser el último siglo de nuestra existencia pero, en mi opinión, el riesgo no está tanto en que emerja una inteligencia artificial que nos tiranice sino en el mal uso que podamos hacer de las tecnologías cada vez más potentes de que disponemos (entre las que está la inteligencia artificial) o en nuestra poca inteligencia (natural) para tomar en cada momento decisiones políticas, votar a nuestros líderes o escoger las mejores opciones (o al menos medianamente buenas)”.