Jhonnatan Horna, profesor de los Programas de Operaciones y Tecnologías de la Información de ESAN, explicó en Gestión sobre los dilemas éticos que se enfrentan comúnmente en la gestión de proyectos con IA.
La inteligencia artificial (IA) está transformando la gestión de proyectos, desde la automatización de tareas hasta la toma de decisiones basada en datos. Esta tecnología promete optimizar la eficiencia y mejorar los resultados. Sin embargo, como gestor de proyectos, he aprendido que no todo lo que brilla es IA.
A medida que más organizaciones integran esta tecnología en sus operaciones, surgen desafíos éticos que no pueden ser ignorados. Si no los abordamos desde la fase de planificación, podríamos terminar con soluciones que generen más problemas que beneficios. A continuación, comparto algunos de los dilemas éticos más relevantes en la gestión de proyectos de IA y cómo podemos enfrentarlos antes de que sea demasiado tarde.
En cualquier proyecto, los interesados deben comprender cómo y por qué se toman ciertas decisiones. Sin embargo, muchos modelos de IA operan como cajas negras, generando resultados sin una explicación clara de su lógica interna. Para que nuestros proyectos sean confiables y escalables, es fundamental priorizar el uso de IA explicable. Esto implica garantizar que los modelos sean auditables y que sus decisiones puedan justificarse ante clientes, reguladores y usuarios finales.
Todo gestor de proyectos sabe que los datos son un activo clave, pero en IA, son el alma del modelo. El problema surge cuando muchos proyectos recopilan y utilizan datos sin una estrategia clara de privacidad. Si un sistema de IA emplea información personal sin el consentimiento adecuado, se corre el riesgo de enfrentar problemas legales y daños a la reputación. Por ello, es fundamental que cualquier iniciativa de IA cumpla con normativas como la Ley de Protección de Datos Personales y otras regulaciones aplicables.
Imagina que estás gestionando un proyecto para un banco que desea usar IA para aprobar préstamos. Si el modelo se entrena con datos históricos sesgados, podría terminar discriminando a ciertos grupos de clientes. Aquí es donde los gestores de proyectos debemos intervenir. No basta con delegar este tema al equipo técnico; es nuestra responsabilidad garantizar que los modelos sean justos. Para ello, debemos implementar revisiones de equidad y realizar pruebas de sesgo antes del lanzamiento.
En un proyecto tradicional, los responsables están claramente definidos. Sin embargo, en IA, la rendición de cuentas no siempre es evidente. ¿Quién asume la responsabilidad cuando algo sale mal? ¿El programador que entrenó el modelo, el equipo de datos o la empresa que lo implementó? No podemos lanzar un proyecto de IA sin establecer límites claros de responsabilidad. Esto implica definir procesos de auditoría y revisión de decisiones automatizadas dentro del plan de gestión del proyecto.
Si gestionas un proyecto que utiliza IA para decisiones críticas en finanzas, salud o gobierno, la seguridad debe ser una prioridad. Los hackers buscan vulnerabilidades en los modelos de IA para manipular resultados y obtener beneficios ilícitos. Un buen gestor de proyectos debe colaborar con su equipo para implementar pruebas de seguridad robustas, garantizando que la IA no pueda ser fácilmente manipulada.
Uno de los mayores temores sobre la IA es su impacto en el empleo. Si tu proyecto reemplaza tareas manuales con automatización, es fundamental gestionar la transición para que el equipo humano pueda adaptarse. Esto implica desarrollar planes de capacitación para los empleados desplazados, estrategias de reubicación dentro de la empresa y, sobre todo, una comunicación clara sobre los cambios que la IA traerá al entorno laboral. La IA no debe verse solo como una herramienta para reducir costos; debemos gestionar el cambio organizacional de manera ética y responsable.
Por eficiente que sea un modelo de IA, siempre debe haber una supervisión humana en las decisiones importantes. Esto es clave en sectores como la salud, la banca o la seguridad. En la gestión de proyectos, esto implica definir claramente cuándo la IA puede tomar decisiones autónomas, cuándo se necesita la intervención de un humano, cómo se gestionan los errores del modelo. La IA no sustituye el juicio humano, lo complementa.
No estamos en un punto en el que la IA tenga conciencia, pero en proyectos avanzados ya hay modelos que simulan emociones y comportamientos humanos.
Aquí surge una pregunta ética: ¿hasta dónde es aceptable que la IA imite la cognición humana? Como gestores de proyectos, debemos definir límites en su uso para evitar engañar a los usuarios o generar dependencia en sistemas no humanos.
Entrenar modelos de IA consume enormes cantidades de energía. Si tu proyecto implica el uso de inteligencia artificial a gran escala, es tu deber evaluar su impacto ambiental y buscar alternativas más sostenibles. Las mejores prácticas incluyen usar centros de datos con energía renovable, optimizar los modelos para que consuman menos recursos, implementar IA en procesos que realmente lo necesiten. Evitar la moda de usar IA “porque sí”.
Si queremos proyectos de IA exitosos y sostenibles, necesitamos aplicar buenas prácticas de gestión, incluyendo:
Un proyecto de IA no puede limitarse a ser “tecnológicamente viable”, también debe ser “éticamente responsable”. Como gestores de proyectos, no solo estamos lanzando productos o soluciones tecnológicas. Estamos moldeando el futuro. Si queremos que la IA sea una herramienta de progreso y no una fuente de problemas, debemos integrar la ética en cada etapa del proyecto. No basta con decir “que lo resuelva el equipo de datos” o “eso es un problema de los reguladores”. Es nuestra responsabilidad como líderes de proyectos asegurarnos de que la IA beneficie a todos.
Lee la nota completa aquí.