Delegaciones Contacto
Conecta. Participa. Comparte.
Accede con tu usuario de APD a la plataforma de la que ya forman parte más de 23.000 usuarios. Amplía tu red de contactos y disfruta de contenidos exclusivos.
Opinión

La ventaja competitiva de la ética en la IA

La IA es uno de los temas que están más de moda hasta tal punto que este año los Premios Nobel 2024 de Física y Química están relacionados con la misma. La IA, al contrario de lo que parece, no es una disciplina tan moderna como se suele creer, sí bien es cierto que ha explotado en los últimos años gracias al volumen de datos y la capacidad de procesamiento que ofrece la nube, pero sin duda el gran disruptor ha sido la aparición de ChatGpt en nuestras vidas, con un millón de usuarios en 5 días.

La IA es una herramienta de gran ayuda para múltiples aplicaciones en campos tan diversos como la medicina (diagnóstico por imágenes), el entretenimiento (algoritmos de recomendación), o -ya en el ámbito personal los LLMs- como un nuevo asistente desplazando a internet. Pero no todo es tan atractivo; aparecen usos perversos de este tipo de tecnología, los vídeos falsos, la creación de virus en generadores automáticos de código… y es aquí donde surge el debate sobre los límites éticos en la implementación y uso de la Inteligencia Artificial. 

Imaginemos que vamos tranquilamente paseando con nuestra familia en un coche de última generación que está siendo conducido por un piloto automático controlado por IA. De repente aparece un niño en la carretera que va detrás de un balón. En ese momento, el coche gira bruscamente para evitar atropellarle, pero termina impactando con un vehículo que venía de frente. ¿Es correcto o incorrecto la decisión de la IA? Creo que la gran mayoría diríamos que fue correcto pero, ¿qué pasa si por el impacto mueren todas las personas que iban en el otro vehículo? Aquí la cuestión no es tan sencilla… ¿Cuál habría sido la mejor decisión de la IA? ¿Responderíamos de la misma manera si en vez conducir la IA fuese una persona quien conducía? Desde luego se abren multitud de reflexiones. 

Entrevista a Carlos Méndez Garrido, Director General de TIMIA

This is «Entrevista a Carlos Méndez Garrido, Director General de TIMIA» by APD on Vimeo, the home for high quality videos and the people who love them.

IA con integridad, visión ética e innovación disruptiva 

En Timia implementamos políticas y prácticas que aseguren la responsabilidad social y la equidad en el uso de tecnologías de IA, lo que nos permite acompañar a nuestros clientes en la revolución de la IA con integridad, visión ética e innovación disruptiva. Y es que la ética debe guiarnos en cómo diseñamos y aplicamos la IA, procurando impulsar el bienestar y seguridad de las personas, de la sociedad y de las empresas. 

  • Transparencia y responsabilidad. Uno de los pilares fundamentales del uso ético de la IA es la transparencia. Las empresas y desarrolladores deben ser claros sobre cómo funcionan sus algoritmos, qué datos utilizan y cómo se toman las decisiones. Esto no solo fomenta la confianza de las personas, sino que también permite una mayor rendición de cuentas. Si un sistema de IA comete un error o causa un daño, es crucial que se pueda rastrear la fuente del problema y que haya mecanismos para rectificarlo. Las empresas deben adoptar un enfoque proactivo para identificar y mitigar los sesgos presentes en sus sistemas. Esto implica no solo una revisión técnica de los algoritmos, sino también un examen crítico de los datos de entrenamiento que se utilizan. La diversidad y la inclusión deben ser consideraciones centrales en el proceso de diseño, asegurando que las voces de todos los grupos estén representadas. 
  • Privacidad y consentimiento. Los datos son el combustible que alimenta a la IA. Sin embargo, el uso de estos datos plantea preocupaciones serias sobre la privacidad. Las empresas deben priorizar la protección de la información personal y garantizar que los usuarios den su consentimiento informado antes de que sus datos sean utilizados. La implementación de políticas de privacidad robustas y claras es fundamental para mantener la confianza del usuario y proteger su autonomía. 
  • Legislación vs innovación. La UE ha definido el primer marco legislativo a nivel mundial para la IA, basado en un modelo del tipo de riesgo (inaceptable, alto, limitado y mínimo), al ser los primeros ha habido mucha polémica al respecto, máxime cuando dos grandes players como Apple y Meta no se han unido al pacto de la IA. Es preocupante pensar que como ciudadanos europeos nos viésemos privados de ciertos productos debido al entorno legislativo, pero la UE representa un gran mercado a nivel mundial por lo que es poco probable que esto vaya a pasar. La legislación nos ayudará a evitar usos maliciosos de la IA, pero no debemos olvidarnos de que es responsabilidad de cada uno combinar la IA con la IH (Inteligencias Humana, o lo que se llama en mi tierra “sentidiño”). 
Te puede interesar
Categorías
Gracias por tu participación
Comparte el manifiesto y contribuye a impulsar la innovación entre empresas, organizaciones y directivos.
Ahora estás visualizando el contenido de APD zona centro.
Si lo deseas puedes acceder a los contenidos adaptados a tu zona geográfica