Resistencia a la IA Más allá de medir la adopción o el rechazo de la IA: Explorando la gestión a la resistencia de la IA en organizaciones

La inteligencia artificial (IA) ya no es un concepto futurista. El lanzamiento de inteligencias artificiales de uso masivo como ChatGPT en noviembre de 2022 se ha llevado la atención y preocupado a los profesionales de gestión. Esta tecnología ha comenzado a redefinir la forma en los profesionales trabajan, aprenden y se relacionan. La irrupción de la IA ha sido particularmente disruptiva: algoritmos que predicen comportamientos de los consumidores, sistemas que recomiendan nuevos productos y asistentes virtuales que automatizan tareas administrativas. Su potencial para mejorar la eficiencia de la gestión parece indiscutible (Bajwa et al., 2021; Briganti & Le Moine, 2020). Sin embargo, como ocurre en cada ola tecnológica, la promesa de una fácil adopción se enfrenta a una realidad más compleja: la resistencia de los usuarios.

El problema de la adopción tecnológica ha sido ampliamente estudiado en la literatura académica. Los modelos tradicionales de adopción tecnológica, como Technology Acceptance Model (TAM) (Davis, 1989) y sus versiones posteriores como UTAUT (Venkatesh et al., 2003), han explicado con gran detalle por qué las personas deciden usar una nueva tecnología. Estas teorías muestran cómo las expectativas de desempeño, la percepción de facilidad de uso, y la influencia social han demostrado ser predictoras confiables de la adopción de variadas tecnologías. Sin embargo, estas teorías no se enfocan en conocer los motivos y razones del por qué los usuarios suelen colocar barreras en la implementación de estas nuevas tecnologías. A pesar del inicial interés en participar en proyectos de AI en las organizaciones, también existen dudas entre los potenciales usuarios de la IA acerca de su uso y adopción. Así, se muestra también un fenómeno de resistencia a la IA que, si no se trata, puede llevar a los proyectos de IA a fallar.

¿Es lo mismo usar, adoptar, rechazar y resistir una IA?

Un primer paso para comprender este fenómeno es diferenciar cuatro conceptos que suelen confundirse en la literatura y en la industria en general.

Nos referimos a Uso cuando el hablamos del comportamiento observable al interactuar con la tecnología. Un usuario que ingresa datos en un sistema de IA está “usándolo”, aunque eso no signifique que lo valore o lo integre a su práctica diaria. El uso puede ser superficial, obligado o incluso simbólico.

Hablamos de Adopción cuando nos referimos a la incorporación de la tecnología de manera significativa en la rutina de la vida del usuario. Un profesional adopta la IA cuando confía en ella, la considera útil y la convierte en parte natural de su quehacer. La adopción refleja una interiorización positiva que va más allá del cumplimiento formal.

Consideramos a un usuario Rechazando a una tecnología cuando su respuesta es la negativa abierta a incorporar la tecnología. Puede expresarse en boicot, quejas explícitas o renuncias a participar en procesos mediados por la IA. En contextos de uso voluntario, el rechazo es posible; en contextos obligatorios, suele transformarse en formas más sutiles de oposición.

Finalmente, hablamos de Resistencia cuando un usuario no rechaza, sino que muestra una oposición parcial, ambivalente o encubierta. Incluye emociones (ansiedad, desconfianza), cogniciones (sesgo al statu quo, percepción de amenaza) y comportamientos (uso mínimo, dilación, sabotaje pasivo). Como plantean Kim y Kankanhalli (2009), la resistencia se activa cuando los usuarios perciben que el cambio implica costos altos, riesgos o pérdida de autonomía, incluso si reconocen beneficios objetivos.

Estas distinciones permiten entender por qué medir únicamente el uso es insuficiente. Una organización puede reportar un 100% de uso de un sistema de IA, pero si este uso se limita a interacciones superficiales y obligadas, no hay verdadera adopción y probablemente exista una resistencia subyacente. Es este último fenómeno el que captura nuestro interés debido a que puede ocurrir de manera tacita y subyacente en una organización. Promotores de la IA pueden pasar por alto la resistencia puesta por usuarios y, de esta forma, generar un nivel de frustración en la organización y que los beneficios de la IA no puedan ser materializados.

Una forma de visualizar la distinción se presenta en la Figura 1. En ella se buscar ilustrar este continuo entre rechazo, resistencia, uso y adopción. A la izquierda, encontramos el rechazo abierto. Al centro, la resistencia, que se mueve entre el uso mínimo y la ambivalencia. A la derecha, la adopción plena, donde la tecnología se integra sin fricciones. La clave es comprender que no se trata de etapas lineales que los usuarios recorren inevitablemente, sino de posiciones en un espectro. Un mismo profesional puede transitar entre ellas según la experiencia, el contexto o las condiciones de apoyo institucional. Lapointe y Rivard (2005) mostraron que la resistencia es dinámica: puede disminuir con la práctica, pero también reactivarse frente a nuevas versiones, errores o cambios organizacionales.

Figura 1. Resistencia a la Tecnología en un Continuo

De la resistencia al aprendizaje organizacional

La resistencia tecnológica responde a una combinación de factores cognitivos, emocionales y organizacionales. Desde el sesgo al statu quo y la percepción de amenaza a la autonomía (Samuelson & Zeckhauser, 1988; Kim & Kankanhalli, 2009), hasta la ansiedad tecnológica y el cinismo organizacional (Marakas & Hornik, 1996; Selander & Henfridsson, 2012), los usuarios experimentan tensiones que dificultan la adopción plena. A ello se suman las cajas negras algorítmicas que generan desconfianza (Yang et al., 2024), la falta de apoyo institucional y la influencia social que puede incentivar usos superficiales (Lapointe & Rivard, 2005; Venkatesh et al., 2003), así como los altos costos percibidos del cambio (Cenfetelli, 2004). En conjunto, estos elementos muestran que la resistencia no es irracional, sino una respuesta compleja que debe gestionarse como parte del proceso de transformación tecnológica.

La resistencia no debe ser vista únicamente como un problema. Es, también, una fuente de aprendizaje. Detectarla y comprenderla permite ajustar estrategias de implementación. Si la resistencia se debe a la falta de transparencia algorítmica, la solución puede estar en abrir “cajas negras” y explicar el funcionamiento de los modelos. Si la resistencia surge por temor a la pérdida de autonomía, la comunicación institucional debe reforzar la idea de complementariedad: la IA como apoyo, no sustituto.

Una agenda pendiente

La IA seguirá expandiéndose en todos los ámbitos de la sociedad. La pregunta ya no es si la usaremos, sino cómo lo haremos. En ese cómo, la diferencia entre uso, adopción, rechazo y resistencia será fundamental para comprender la sostenibilidad de los procesos de transformación digital.

Para quienes lideran estrategias de marketing y negocios, reconocer la resistencia a la IA abre un espacio crítico de reflexión: ¿cómo generar valor cuando la innovación tecnológica convive con dudas, ansiedades y percepciones de amenaza? La respuesta no está en acelerar sin mirar atrás, sino en desarrollar una gestión más sensible a los matices humanos. Detectar las formas en que los colaboradores y clientes muestran resistencia permite diseñar intervenciones más efectivas, desde campañas de comunicación interna que refuercen el sentido de complementariedad, hasta experiencias de cliente que hagan de la transparencia un elemento diferenciador.

En este proceso, la resistencia puede convertirse en una ventaja competitiva. Allí donde otras organizaciones se limitan a medir el “uso” de la IA, las que profundicen en entender las emociones, cogniciones y comportamientos asociados a la resistencia podrán diseñar soluciones más legítimas y sostenibles. Gestionar estas tensiones no solo evita fracasos costosos, sino que también potencia la capacidad de la organización de aprender, adaptarse y generar confianza en un entorno de disrupción constante.

Al final, el verdadero éxito de la inteligencia artificial en los negocios no se medirá solo en algoritmos más rápidos o modelos más precisos, sino en la capacidad de las empresas de integrarla respetando la identidad, la autonomía y los valores de sus usuarios. Transformar la resistencia en aprendizaje y confianza será el camino para que la IA deje de ser percibida como una imposición tecnológica y se convierta en una aliada estratégica para la innovación y el crecimiento sostenible.

Referencias

Bajwa, J., Munir, U., Nori, A., & Williams, B. (2021). Artificial intelligence in healthcare: transforming the practice of medicine. Future Healthcare Journal, 8(2), e188–e194. https://doi.org/10.7861/FHJ.2021-0095

Briganti, G., & Le Moine, O. (2020). Artificial Intelligence in Medicine: Today and Tomorrow. Frontiers in Medicine, 7, 509744. https://doi.org/10.3389/fmed.2020.00027

Cenfetelli, R. T. (2004). Inhibitors and enablers as dual factor concepts in technology usage. Journal of the Association for Information Systems, 5(11), 472–492. https://doi.org/10.17705/1jais.00059

Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 13(3), 319–340. https://doi.org/10.2307/249008

Kim, H. W., & Kankanhalli, A. (2009). Investigating user resistance to information systems implementation: A status quo bias perspective. MIS Quarterly, 33(3), 567–582. https://doi.org/10.2307/20650309

Lapointe, L., & Rivard, S. (2005). A multilevel model of resistance to information technology implementation. MIS Quarterly, 29(3), 461–491. https://doi.org/10.2307/25148692

Marakas, G. M., & Hornik, S. (1996). Passive resistance misuse: Overt support and covert recalcitrance in IS implementation. European Journal of Information Systems, 5(3), 208–219. https://doi.org/10.1057/ejis.1996.26

Samuelson, W., & Zeckhauser, R. (1988). Status quo bias in decision making. Journal of Risk and Uncertainty, 1(1), 7–59. https://doi.org/10.1007/BF00055564

Selander, L., & Henfridsson, O. (2012). Cynicism as user resistance in IT implementation. Information Systems Journal, 22(4), 289–312. https://doi.org/10.1111/j.1365-2575.2011.00386.x

Venkatesh, V., Morris, M. G., Davis, G. B., & Davis, F. D. (2003). User acceptance of information technology: Toward a unified view. MIS Quarterly, 27(3), 425–478. https://doi.org/10.2307/30036540

Yang, Y., Ngai, E. W. T., & Wang, L. (2024). Resistance to artificial intelligence in health care: Literature review, conceptual framework, and research agenda. Information & Management, 61(4), 103961. https://doi.org/10.1016/j.im.2024.103961

Compartir: