Delegaciones Contacto
Artículo

¿Qué es el deep learning?

Los trabajos en el campo de la inteligencia artificial no dejan de acaparar titulares y cada vez es más factible que el concepto de ‘máquina’ que se ha estado empleando hasta ahora empiece a estar obsoleto.  Sin embargo, a pesar de su frecuencia de uso, ¿sabemos qué es deep learning exactamente?

Si atendemos a la definición literal de deep learning, el concepto se traduciría como ‘aprendizaje profundo’ o ‘aprendizaje automático’. Estamos en contacto con él cuando nos aparece publicidad en Facebook de algo sobre lo que hemos escrito en nuestro muro, cuando escribimos en el teclado predictivo de un teléfono móvil, cuando usamos programas de reconocimiento de voz o cuando interactuamos con ‘chatbots’.

Deep learning o cómo imitar nuestras conexiones neuronales

Tras el concepto deep learning se encuentra un grupo de algoritmos que imita al cerebro humano ‘aprendiendo’ a reconocer patrones de repetición, palabras concretas, comportamientos frecuentes, etc. Estos algoritmos –definidos por la RAE como un “conjunto ordenado y finito de operaciones que permite hallar la solución de un problema”– trabajan ‘imitando’ la labor neuronal del cerebro.

El ‘aprendizaje profundo’ sigue un proceso por capas que simula “el funcionamiento básico del cerebro que se realiza a través de las redes de neuronas. En el deep learning, esas neuronas serían “capas”, puede leerse en un artículo publicado en’’El Diario’. En otras palabras, el deep learning emplea modelos estadísticos para localizar patrones en entornos caracterizados por cierta aleatoriedad y, de esta manera, poder diferenciarlos de manera automática.

El deep learning es un campo perteneciente a la inteligencia artificial que se desenvuelve en estas ‘capas’ o niveles. Las primeras capas reconocen detalles concretos, mientras que las últimas capas reconocen patrones más abstractos y generan un resultado final.

Ejemplos de deep learning

El ejemplo más recurrente a la hora de explicar qué es deep learning es el reconocimiento de dígitos escritos a mano. Desde muy temprana edad, a los niños se les enseña a diferenciar los números –un 2 no es igual que un 3, y un 5 nada tiene que ver con un 7– aunque nadie los representa exactamente igual –hay quien riza el 2 en su parte inicial, quien enfatiza los ángulos del 5 y quien parte por la mitad el 7 con una rayita más o menos paralela al renglón sobre el que escribe–.

El deep learning se desenvuelve en estas ‘capas’: las primeras reconocen detalles concretos mientras que las últimas reconocen patrones más abstractos y generan un resultado final

Donde más fácilmente se identifica las acciones del deep learning es en los 1 y los 8. En las guarderías, el criterio a enseñar es claro: el 1 es una línea vertical y el 8 se compone de dos círculos situados uno encima del otro. En este caso, el ‘aprendizaje automático’ busca formalizar esas ideas y encontrar la manera de crear modelos con los que, escribiendo sobre una tablet nuestra propia versión del 1 y del 8, el dispositivo interprete que esas y solo esas son las cifras que estamos intentando reflejar en la pantalla.

Qué es el deep learning

La importancia de las GPU en el ‘aprendizaje automático’

A pesar de que el deep learning lleva décadas explorándose, en los últimos años han coincidido tres circunstancias que han motivado un desarrollo mayor y más rápido.

  • Por un lado, la forma de vida de la sociedad actual ha generado una enorme cantidad de datos que deben analizarse, recopilarse y aprovecharse.
  • En segundo lugar, la mayor capacidad de almacenamiento impulsó la investigación al respecto.
  • Y, por último, la proliferación de GPU –unidades de procesamiento gráfico– que dieron la potencia necesaria para implementar lo que se llama procesamiento paralelo, campo en el que cabe destacar el trabajo de la multinacional fabricante de microprocesadores Nvidia.

Según una información hecha pública por esta empresa, las GPU han sido determinantes en la expansión del deep learning, ya que se utilizan “para entrenar redes neuronales profundas utilizando conjuntos de datos un orden de magnitud más grandes en menos tiempo y utilizando unas infraestructuras de sistemas considerablemente menor”.

En el mismo texto puede leerse que las GPU se han convertido en los procesadores favoritos en el mundo del big data porque los “miles de núcleos de procesamiento y una velocidad de cálculo entre 10 y 100 veces mayor que la de las CPU en solitario” las convierten en unas rivales –hasta ahora– imbatibles.

Experto en deep learning, la profesión del futuro

En un panorama donde las máquinas tienden a actuar de manera autónoma aprendiendo de sus ‘errores’ y potenciando sus ‘aciertos’, la presencia humana en el proceso parece que se limitará al manejo de los datos con que trabajan los dispositivos. De esta manera, podría decirse que la intervención del hombre en el futuro estará restringida al aprendizaje supervisado y a la programación de algoritmos.

Este imperante augurio ha motivado el surgimiento de un nuevo puesto laboral hasta ahora inexistente: la figura de experto en deep learning. De hecho, han nacido másteres que dan respuesta a la nueva demanda del mercado educativo. Por ejemplo, el de la Universidad de Alcalá, que ofrece un título en esta materia después de superar un curso de 60 créditos.

Estamos en contacto con él cuando nos aparece publicidad de algo sobre lo que hemos escrito, cuando escribimos en el teclado predictivo o cuando usamos programas de reconocimiento de voz

En el programa, la universidad expone cuáles serán las habilidades adquiridas por los alumnos tras superar la formación prevista. Entre ellas se encuentra el conocimiento de los “fundamentos formales de las herramientas de aprendizaje automático”; la implementación de los distintos algoritmos en lenguajes de alto nivel para resolver problemas reales; y la propuesta de soluciones basadas en deep learning desde una perspectiva que considere aspectos éticos, legales, sociales y económicos.

Para la realización del máster es necesario que los alumnos tengan conocimientos de computación y estadística, dos facultades que les ayudarán en el proceso de identificación de patrones de comportamiento.

¿Se rebelará la máquina contra el hombre?

Dejando al margen las inquietantes películas de Hollywood sobre inteligencia artificial, la rebelión de las máquinas contra el hombre parece poco probable. Al menos, así lo aseguran dos expertos en la materia en una entrevista concedida a la BBC en agosto de 2017. “No creo en posibles consecuencias apocalípticas como resultado del avance de este campo. Se habla de la posibilidad de que las máquinas se rebelen un día contra la raza humana, pero este tipo de cuestiones pertenecen solamente al género de la ciencia ficción”, explica Augusto Vega, investigador permanente de los laboratorios IBM T. J. Watson de Nueva York y experto en arquitecturas de sistemas para aplicaciones de Aprendizaje Profundo e Inteligencia Artificial.

Por su parte, José Dorronsoro –catedrático de Ciencias de la Computación e Inteligencia Artificial de la Escuela Politécnica Superior de la Universidad Autónoma de Madrid–, comenta: “Este podría ser el último siglo de nuestra existencia pero, en mi opinión, el riesgo no está tanto en que emerja una inteligencia artificial que nos tiranice sino en el mal uso que podamos hacer de las tecnologías cada vez más potentes de que disponemos (entre las que está la inteligencia artificial) o en nuestra poca inteligencia (natural) para tomar en cada momento decisiones políticas, votar a nuestros líderes o escoger las mejores opciones (o al menos medianamente buenas)”.

Redacción
Toda la actualidad de la Comunidad Global de Directivos en un nuevo canal de contenidos digitales.
Te puede interesar
Comentarios

Añade tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Ahora estás visualizando el contenido de APD zona centro.
Si lo deseas puedes acceder a los contenidos adaptados a tu zona geográfica