A pesar de que la IA es una tecnología disruptiva que va a ser clave en la productiividad y competitividad de las organizaciones, y que hay numerosos estudios que avalan el alto impacto de la misma, la realidad que vemos es muy diferente. Ahora mismo, la mayoría de las compañías se encuentran inmersas en PoCs (pruebas de concepto) o simplemente dando acceso a los empleados a versiones estándar de Copilot o ChatGPT, pero pocas utilizan la IA Generativa para aportar valor real y diferencial.
Es verdad que ChatGPT ha conseguido democratizar la tecnología entre los usuarios, y muchos de ellos lo usan en su día a día (redactando mails, informes…), pero cuando las organizaciones tratan de usar la IA Generativa de forma productiva, se enfrentan a 4 retos fundamentales que se convierten en todo un desafío:
Aunque nos basamos en tecnologías ampliamente utilizadas, como el Procesamiento del Lenguaje Natural (NLP), los Transformers (que nos permiten reutilizar modelos entrenados con billones de datos) y las Bases de Datos Vectoriales (para búsquedas de similitudes), su combinación y la necesidad de garantizar la confiabilidad de las respuestas -junto con los LLMs a través de varios enfoques complementarios (RAG – Generación Aumentada por Recuperación, reentrenamien[1]to, ajustes de prompt), hacen que su uso productivo y confiable sea mucho más complejo y difícil de predecir.
Además, la no linealidad de estos enfoques y la dificultad de validarlos en un entorno tan abierto, complican aún más el proceso, evitando las “alucinaciones” (situaciones en las que la IA genera respuestas sin sentido).
Los datos y su calidad son un punto funda[1]mental para que los modelos aprendan. Si el dato es malo, escaso, o tiene sesgos, los resultados de los algoritmos serán deficientes. Hay casos muy sonados de sesgos de género o raza porque aprendían de datos sesgados, o tomas de decisiones erróneas por disponer de datos de mala calidad… Para afrontar el futuro de la IA con garantías, velar por la calidad del dato es fundamental. Para ello, es necesario el gobierno del dato, teniendo en cuenta sus 4 pilares fundamentales.
Un punto fundamental en la adopción de la IAG es su uso responsable, teniendo que cumplir con todas las políticas de seguridad, y trabajando dentro del marco de la nueva ley europea de IA, que entre sus puntos clave se encuentran la transparencia en los algoritmos, la mitigación de sesgos, y la protección de datos y privacidad de los ciudadanos.
En todos los saltos tecnológicos suele ser necesario el upskilling y reskilling de los perfiles para aprender a utilizar las nuevas herramientas. Sin embargo, este salto de la IA no es tanto un desafío tecnológico, sino que nos obliga a pensar de otra forma; a contar con perfiles que sepan surfear esta nueva ola, a identificar retos y oportunidades, y a entender cómo estas nuevas herramientas nos pueden ayudar.
Al final, necesitamos pensar de otra forma, de una manera más imaginativa y humana, para aprovechar estas oportunidades que nos brinda esta tecnología tan disruptiva.
Para ello, es muy importante la pedagogía, que los directivos de las empresas entiendan cómo nos puede ayudar, vean casos reales, y cómo lo podrían aplicar a sus casuísticas concretas y a toda su cadena de valor.
Precisamente desde Aggity solemos hacer unas sesiones de Design Thinking, los GenAI Labs, para entender, identificar, cuantificar y priorizar todas las oportunidades que brinda esta nueva tecnología en una empresa concreta, y en solo 2 sesiones los asistentes se van con una hoja de ruta clara de cómo aprovecharlo.
En este nuevo panorama, es esencial contar con socios confiables con amplia experiencia en estos temas y de la mano de tecnologías de garantía como IBM Watson para afrontar este reto.