Cuando la inteligencia artificial deja de ser «una opción»: el nuevo contrato laboral (y académico) ya está aquí

IMAGE: A hyper-realistic scene of a professor in a modern classroom interacting with a luminous AI hologram while students observe, symbolizing the integration of artificial intelligence into everyday academic life

Durante un tiempo, la conversación sobre inteligencia artificial en las organizaciones se mantuvo en esa zona cómoda de los verbos aspiracionales: «animar», «explorar», «experimentar», «probar». Pero esa fase se está agotando. Un artículo en el Wall Street Journal, «Tech firms aren’t just encouraging their workers to use AI. They’re enforcing it«, lo describe claramente y sin eufemismos: en muchas tecnológicas, usar inteligencia artificial ya no es un extra simpático ni una habilidad diferencial, sino un requisito monitorizable, evaluable y, en la práctica, exigible. Se puntúa la «competencia en inteligencia artificial», se convierte en variable de desempeño, se observa en paneles, se integra en promociones y se filtra en la contratación. La inteligencia artificial no es una herramienta: es una norma cultural que, cuando madura, se convierte en política.

Lo interesante no es que esto ocurra en startups con obsesión por la productividad, donde un CEO puede declarar sin rubor que usa «zanahorias y palos» y asigna una puntuación de 1 a 5 a cada empleado en función de cómo utiliza inteligencia artificial, premiando incluso con incentivos económicos a quien diseñe el mejor proceso «AI-driven». Lo verdaderamente relevante es que las grandes también están cruzando esa frontera: Amazon Web Services con paneles de uso para ingeniería, Google incorporando el uso de IA a algunas evaluaciones, Meta cuantificando código escrito con ayuda de inteligencia artificial, Microsoft pidiendo que se justifique y se cuantifique cómo se usa, Salesforce midiendo «adopción» y asumiendo que quien no usa inteligencia artificial probablemente está «rindiendo por debajo de sus posibilidades».

Cuando una organización invierte muchísimo en construir herramientas de inteligencia artificial (o en comprarlas y desplegarlas), la adopción deja de ser un «nice to have» y pasa a ser el modo de demostrar retorno. En el propio artículo se explica el mecanismo con una claridad inquietante: llega un punto de inflexión, «hay ya suficientes personas que usan una herramienta, y llega el mandato de usarla», y de pronto hasta procesos internos como solicitar las vacaciones se canalizan obligatoriamente a través de un agente de inteligencia artificial. Y entonces aparece la frase que debería encender todas las alarmas, o como mínimo, obligarnos a pensar: «probablemente no sobrevivirán a largo plazo», hablando de quienes se resisten.

Y si esta es la nueva normalidad en la empresa, en la universidad no debería sorprendernos que apareciese un fenómeno paralelo. Porque la universidad, aunque a veces pretenda vivir en una cápsula de excepcionalidad, no está al margen de las tecnologías de propósito general: las absorbe, las discute, las regula… y, finalmente, las institucionaliza. En IE University, esa institucionalización no se está produciendo de manera clandestina ni vergonzante, sino explícita y con voluntad de gobernanza. El Institutional Statement on Artificial Intelligence lo plantea como parte del ADN de la institución y como una oportunidad para mejorar pedagogía y productividad, insistiendo además en el papel de la mediación humana, del pensamiento crítico y de un enfoque humanista de la innovación. Y, lo más importante para lo que estamos discutiendo aquí: deja claro que hay equipos académicos y pedagógicos adaptando programas y metodologías, diseñando contenidos y materiales, y desarrollando programas específicos para estudiantes, profesores y staff.

Eso tiene consecuencias prácticas, y no pequeñas. En IE University, los profesores no solo «podemos» usar inteligencia artificial: se espera que la usemos, se nos forma para ello, y la cartera de herramientas se amplía y se perfecciona de manera continua. No como moda, sino como infraestructura. Y se hace, además, con una condición que cambia por completo el debate: transparencia radical. No se trata de «ocultar» que se ha usado IA, ni de «disfrazarla» de producción humana, ni de convertirla en un atajo vergonzante. Se trata de decirlo, explicarlo, y trabajar con ello delante de los estudiantes. Porque cuando el uso es transparente y evoluciona desde el muy primario «lo pregunto, lo copio y lo pego» a modelos más razonables y de más valor añadido, el foco se desplaza: ya no discutimos si «se ha hecho trampa», sino si el diseño de la actividad, el criterio y la evaluación están bien construidos.

Aquí entra la parte que más me interesa: el resultado no se mide solo por «ahorrar tiempo» (esa promesa fácil, y a menudo decepcionante), sino por calidad supervisada. La inteligencia artificial funciona bien cuando está insertada en procesos con control, revisión, trazabilidad y mejora continua, no cuando se tira sobre una mesa como si fuera una calculadora mágica. Precisamente por eso, el manifiesto de IE University insiste en la necesidad de un enfoque ético, de políticas académicas para el uso en el aula, y de una perspectiva «human-centered» que no renuncie a las humanidades como herramienta para gestionar riesgos y oportunidades.

Y entonces aparece la pregunta que muchos preferirían no formular: ¿se puede trabajar como profesor en IE University si no quieres usar inteligencia artificial? Por supuesto que sí, porque la libertad de cátedra no es un eslogan: está tan incrustada en la cultura desde su fundación que nadie la discute seriamente. Pero sería ingenuo ignorar la otra capa: la cultura organizativa empuja. Empuja porque hay formación, herramientas, acompañamiento, y porque el diferencial de calidad, cuando se hace bien, se hace evidente. Empuja porque los estudiantes lo piden, porque el mercado lo demanda, porque la investigación lo acelera, y porque, sencillamente, la alternativa empieza a parecer cada vez más anacrónica. No porque alguien «te obligue» con un formulario, sino porque, cuando todos a tu alrededor están elevando su productividad y su capacidad de diseño docente con inteligencia artificial, tu negativa se termina convirtiendo en una opción complicada.

La discusión, en realidad, no es «inteligencia artificial sí o inteligencia artificial no», igual que ya no discutimos «internet sí o internet no». La discusión es qué tipo de institución quieres ser: una que finge que nada cambia, o una que define reglas claras, invierte en formación, exige transparencia y supervisa resultados. UNESCO, en su guía sobre inteligencia artificial generativa en educación e investigación, insiste precisamente en la necesidad de desarrollar capacidad humana, políticas, y una visión centrada en las personas para que estas tecnologías no se conviertan en un atajo irresponsable. Y la OCDE, desde otro ángulo, plantea salvaguardas para un uso efectivo y equitativo de la IA en educación.

En el mundo corporativo, ya estamos viendo cómo la exigencia se formaliza: Accenture, por ejemplo, aparece vinculando promociones a la adopción regular de herramientas de inteligencia artificial y monitorizando el uso. En la universidad, hacer coerción explícita sería sin duda un error cultural… pero la normalización seguramente acabe siendo igual de potente. La diferencia es que, si hacemos bien nuestro trabajo, la universidad puede ser el lugar donde esa normalización no derive en obediencia ciega, sino en competencia crítica: usar inteligencia artificial porque mejora los resultados, pero entenderla, auditarla, discutirla y enseñarla con honestidad.

La ironía final es deliciosa: durante años, muchas instituciones educativas estudiaron a las empresas para «modelizar la innovación». Hoy, en cambio, la empresa está enseñándonos otra cosa: cómo una tecnología se convierte en obligación sin necesidad de decretos grandilocuentes. Basta con medirla, entrenarla, incorporarla al flujo de trabajo, añadir feedback, mejorarla, y premiar sus resultados cuando efectivamente son buenos. En IE University, el reto y la oportunidad es demostrar que esa transición puede hacerse sin perder nuestra alma académica: con libertad, sí, pero también con responsabilidad. Con entusiasmo, sí, pero también con criterio. Con inteligencia artificial, sí, pero siempre con supervisión humana y con transparencia total. Para los viejos del lugar, que vivimos la llegada de internet y su incorporación a todo, es interesantísimo tener la oportunidad de volver a vivir algo parecido, ahora con la inteligencia artificial. Y si ese es el nuevo contrato, más vale que lo escribamos nosotros antes de que lo escriba, literalmente, una máquina.

Liked Liked