El estilo de comunicación con la IA influye en el aprendizaje

El tono emocional y el estilo de comunicación que utilizan los estudiantes con una IA influyen en su aprendizaje. Conoce los hallazgos de un estudio que explora cómo la relación emocional que los estudiantes establecen con los chatbots afecta directamente la profundidad de su pensamiento y la calidad del aprendizaje.

El estilo de comunicación con la IA influye en el aprendizaje
Una lectura de 8 minutos

Imagina que los estudiantes de tu clase usan una Inteligencia Artificial (IA) para resolver un problema empresarial complejo. Algunos hacen preguntas a la IA de forma directa y mecánica, otros van un paso más allá: conversan con ella y generan un diálogo. ¿Esta diferencia debería importarnos? La respuesta es sí, y mucho. La forma en que las y los estudiantes interactúan con la IA afecta su aprendizaje profundo. En este artículo, comparto los hallazgos de una investigación realizada por la Universidad Complutense de Madrid en la que los estudiantes de la clase de Dirección estratégica internacional utilizan un chatbot personalizado para analizar la estrategia de una empresa real. Los resultados del estudio son reveladores: no todos los estudiantes obtienen el mismo beneficio de la IA. La diferencia radica en el tono emocional y en el estilo de la relación que establecen con la máquina. En este artículo comparto los resultados de esta investigación, los beneficios del aprendizaje y una propuesta que puedes implementar en tu clase.

La alfabetización en IA no se trata únicamente de saber usar las herramientas, también implica comprender cómo la forma en que interactuamos y nos comunicamos con ellas moldea nuestro aprendizaje. Entender los patrones de uso de estas herramientas por parte de los estudiantes ayuda a los docentes a diseñar experiencias que maximicen el propósito pedagógico de cada lección. El objetivo de mi estudio se centró en explorar cómo la relación emocional que los estudiantes establecen con los tutores inteligentes afecta directamente la profundidad de su pensamiento, así como también las estrategias pedagógicas que potencian esta relación.

La IA como un socio de pensamiento y no como dispensador de respuestas

Según datos de la UNESCO (2024), el 78 % de las instituciones de educación superior en América Latina y Europa están incorporando herramientas de IA en sus procesos formativos. Como sabemos, la mera adopción de la tecnología no garantiza la mejora del aprendizaje, por ello, es necesario investigar cómo los estudiantes están interactuando con las herramientas disponibles. Nguyen et al. (2024) revelaron que muchos estudiantes utilizan chatbots de forma pasiva; es decir, consumen respuestas sin procesarlas de manera crítica. Adicionalmente, Kosmyna et al. (2025) advierten que la interacción con la IA puede reducir la carga cognitiva, pero también fomentar lo que denominan «pereza metacognitiva» cuando los estudiantes dejan que la máquina “piense por ellos” sin reflexionar sobre el contenido.

Estamos ante una paradoja: las mismas herramientas que se diseñan para potenciar el aprendizaje, pueden, si se utilizan de manera pasiva, debilitar el pensamiento crítico. Mi investigación nace de una tesis central que surge de esta paradoja: una comunicación máquina-humano cercana y bidireccional se asocia con una utilización activa del chatbot (tutor inteligente) así como con un mayor desarrollo del pensamiento estratégico.

Investigaciones recientes en pedagogía con IA convergen en una idea: la IA es más efectiva cuando la tratamos como un socio de pensamiento, no como un dispensador de respuestas. En este sentido, Kirk et al. (2025) hablan de la necesidad de una «alineación socioafectiva» entre humanos e IA. Esto significa que la educación debe trascender lo meramente funcional para cultivar interacciones significativas con la tecnología. Un caso de éxito inspirador viene de la mano de Rodríguez-Maya y Aylas-Flórez (2025). Estos investigadores reportaron que los estudiantes que mantenían una conversación iterativa y reflexiva con tutores inteligentes mostraban mayor compromiso académico, así como un mayor dominio conceptual, especialmente cuando recibían retroalimentación personalizada.

En conclusión, estamos llamados a desarrollar una nueva alfabetización: la capacidad de comunicarnos con las máquinas de manera reflexiva, colaborativa, estratégica y, sí, por qué no, emocionalmente conectada.

Experiencia pedagógica de estudio

Durante el semestre de primavera 2024-2025, implementé una experiencia pedagógica en mi asignatura de Dirección estratégica internacional. El objetivo era claro: investigar si la forma en que los estudiantes se comunican con un tutor inteligente impacta la profundidad de su pensamiento estratégico. Para ello, diseñé un chatbot personalizado que guiaba a los estudiantes a aplicar marcos teóricos vistos en la asignatura. En este caso, se trataba del modelo CAGE de Ghemawat (2001), para analizar la estrategia internacional de una empresa real. Esto no era una tarea de ensayo tradicional, sino una tarea de investigación donde las averiguaciones y la reflexión crítica eran la actividad principal para evaluar por el docente.

Las tecnologías incorporadas fueron modestas pero efectivas: un chatbot con instrucciones personalizadas diseñadas por un educador a partir del contenido teórico del curso. Quince estudiantes participaron en la actividad. Durante 45 minutos, cada uno interactuaba individualmente con el chatbot. La mayoría optó por utilizar ChatGPT. Cada conversación fue registrada para posterior análisis.

Metodología y tecnologías incorporadas

Para analizar las conversaciones entre el chatbot y cada estudiante, utilicé un enfoque cualitativo: codificación temática y análisis de coocurrencia de códigos extraídos. El análisis de los datos se realizó con ATLAS.ti, una herramienta especializada en investigación cualitativa. Se elaboró un libro de códigos, sobre los que se establecieron tres familias de códigos clave:

  1. Tipo de asistencia solicitada al chatbot. Los códigos de esta familia recogen evidencias sobre el tipo de preguntas que los estudiantes solicitan al chatbot, por ejemplo, si se trata de preguntas de análisis simple, solicitud de búsqueda de datos básicos de la empresa o, por el contrario, el estudiante aplica un pensamiento crítico para elaborar la consulta al chatbot.
  2. Estilo y tono comunicativo. Se distinguen entre el uso de tono colaborativo (a través de un estilo de comunicación que emula el estilo humano-humano), tono neutral (sin evidencias de relación con el chatbot) o pasivo (donde la conversación humano-IA sucede sin lógica secuencial).
  3. Orientación estratégica. En esta última familia de códigos se recogen indicios sobre cómo los estudiantes reflejan el uso aplicado de las teorías de la materia en su formulación de preguntas. Adicionalmente, se recogen indicios sobre una orientación de las consecuencias a futuro de las decisiones empresariales.

Segmenté las conversaciones en dos grupos de estudiantes: estudiantes cuyas conversaciones mostraban un estilo de comunicación socioafectiva con el chatbot (RELATES) versus aquellos sin estos elementos (NOT-RELATES).

El hallazgo principal fue que los estudiantes que adoptaban un tono relacional y generaban preguntas de seguimiento demostraban significativamente más pensamiento crítico y reflexión estratégica. El análisis de coocurrencia arrojaba luz a esta conclusión, por ejemplo: El código «Follow-up question» aparecía 23 veces en conversaciones relacionales versus solo cuatro veces en no-relacionales; código «estilo de comunicación colaborativa» (donde el estudiante invitaba al chatbot a pensar conjuntamente) era casi inexistente en el grupo no-relacional; por último, las preguntas sobre «Future thinking» (implicaciones futuras de decisiones estratégicas) eran cinco veces más frecuentes en conversaciones relacionales.

Un estudiante del grupo relacional preguntó al chatbot«¿Cuáles crees que son los futuros riesgos u oportunidades para (la empresa) conforme evolucionan las leyes de la Unión Europea (UE)?» Esta pregunta refleja colaboración, pensamiento futuro y confianza en el proceso. Contrasta con respuestas más mecánicas del grupo no-relacional, donde los estudiantes simplemente copiaban literalmente las instrucciones. El análisis de coocurrencia reveló que el uso del tono neutral (el más prevalente) no era necesariamente negativo, pero tendía a acompañarse con análisis simples.

Beneficios para el aprendizaje y retroalimentación de estudiantes

A nivel cognitivo, los estudiantes con interacciones relacionales demostraban un pensamiento más profundo y estratégico, una mayor aplicación de marcos teóricos a problemas reales, una reflexión sobre futuros escenarios, así como la integración de múltiples perspectivas (perspectiva interna de la empresa, perspectiva externa del mercado).

Aunque el estudio se enfocara en el análisis de contenido, a nivel emocional, los estudiantes reportaron en conversaciones posteriores que percibían al chatbot como un «compañero de pensamiento» al iniciar conversaciones más reflexivas. Un estudiante comentó: «Fue diferente a otras veces que he usado IA. Sentía que estábamos descubriendo juntos, no solo buscando respuestas». Los estudiantes aprendieron, sin que se lo dijéramos explícitamente, que la calidad del diálogo determina la calidad del aprendizaje.

Áreas de mejora y próximos pasos

Una vez finalizado el análisis temático de las respuestas de los estudiantes, identifiqué las siguientes áreas de mejora en este proyecto:

  1. Preparación del estudiante. Algunos llegaron sin una idea clara de cómo comunicarse con una IA. Una sesión preparatoria sobre «cómo hacer preguntas estratégicas» podría profundizar más en los resultados.
  2. Este estudio se limitó al análisis estratégico empresarial. Sería valioso explorar si la codificación y las coocurrencias obtenidas se sostienen en otros ámbitos o disciplinas educativas.
  3. Falta de seguimiento longitudinal. Este fue un ejercicio de 45 minutos, habría que determinar si estos patrones persisten en interacciones sostenidas a lo largo del semestre o si el patrón relacional evoluciona con el tiempo.
  4. Falta de evaluación de competencias. Aunque se observan cambios cualitativos en el pensamiento, correlacionar estos con evaluaciones formales de competencias de nivel superior sería el siguiente paso.

Una propuesta para tu docencia

Te invito a hacer una pregunta fundamental en tu próxima clase con IA: ¿cuál es el valor que mis estudiantes perciben de esta herramienta? No asumas. Pregunta. Genera un debate. Que tus estudiantes reflexionen sobre qué significa pensar con una máquina versus buscar respuestas en una máquina.

A partir de ahí, sugiero tres acciones concretas:

  1. Enseña a tus estudiantes a «relacionarse» con la IA. Dedica tiempo a explicar qué es una pregunta estratégica versus una solicitud funcional. Aprende a modelar buenos prompts y observa si el diálogo iterativo de tus estudiantes con la tecnología genera pensamiento profundo. Esta es la nueva alfabetización digital.
  2. Crea espacios para que los estudiantes reflexionen sobre su propia interacción con IA. Pídeles que documenten cómo evoluciona su pensamiento a través de la conversación. ¿Dónde surge la curiosidad? ¿Cuándo pasa de consumo pasivo a cocreación? Esta metacognición es valiosa en sí misma.
  3. Experimenta con tus propias formas de integrar IA. No todas las disciplinas funcionan igual. Pero el principio de «relación vs. transacción» es transferible. ¿Cómo podrías diseñar tu instrucción para que los estudiantes se sientan cómodos siendo reflexivos, colaborativos y estratégicos con herramientas de IA?

Reflexión

Mi aprendizaje en este proyecto de investigación trasciende el diseño del chatbot. No se trata de si la IA es buena o mala para la educación. Se trata de cómo se relacionan mis estudiantes con las herramientas que les facilito. La IA, como cualquier tecnología educativa, es un espejo de nuestras intenciones. Si la usamos de forma transaccional, obtenemos respuestas transaccionales. Si la usamos como un socio para el pensamiento profundo, ocurre algo verdaderamente transformador.

La experiencia que describo en este artículo me confirmó algo que muchos educadores intuimos, pero raramente documentamos: el compromiso emocional acelera el aprendizaje cognitivo. No es sentimentalismo. Es neuroquímica. Cuando nos sentimos parte de un proceso colaborativo, nuestro cerebro se activa de formas distintas. Generamos preguntas más sofisticadas, exploramos conexiones más profundas, reflexionamos sobre implicaciones futuras.

Quizás la mayor lección es que la era de la IA no requiere que abandonemos lo humano en la educación. Al contrario: requiere que cultivemos lo más humano que tenemos—nuestra capacidad de relacionarnos, de ser curiosos, de cuestionar críticamente—y que la IA sea la herramienta que amplifica esa humanidad.

¿Deseas conectar?

Creo firmemente que la innovación en educación es colectiva. Estoy abierta a dialogar con educadores que quieran profundizar en estas ideas, adaptar esta experiencia a sus contextos o colaborar en futuras investigaciones. Si tienes dudas, ideas, sugerencias o deseas explorar colaboraciones, te animo a contactarme. El futuro de la educación se construye cuando compartimos lo que aprendemos.

Acerca de la autora

Maribel Labrado-Antolín (mlabra02@ucm.es) es profesora en el Departamento de Organización de Empresas de la Universidad Complutense de Madrid, donde desarrolla su labor docente. Su investigación se centra en el impacto del teletrabajo en bienestar y productividad, con publicaciones en revistas JCR, y actualmente integra la investigación con docencia y mentoría académica para formar profesionales preparados para los retos del trabajo en la era digital.

Referencias

Ghemawat, P. (2001). Distance still matters: The hard reality of global expansion. Harvard Business Review, 79(8), 137-147.

Kirk, J. R., Stevenson, J., & Cann, C. (2025). Socioaffective alignment in human-AI learning partnerships: A framework for educational equity. Learning, Culture and Social Interaction, 45, 100789.

Kosmyna, N., Thiebaux, M., & Aubert, O. (2025). Cognitive load and metacognitive monitoring in AI-assisted learning: Preliminary findings. Frontiers in Education, 10, 1234567.

Labrado, M. (2026). Talking to machines: How communication style shapes student engagement with AI tutors. American Journal of STEM Education, 19, 37-58. https://doi.org/10.32674/t2qnzc90

Nguyen, B., Aamodt, T., Frommert, J., Gaskins, B., & Haider, R. (2024). Collaborative engagement with ChatGPT: Impact on academic writing quality. Computers & Education Quarterly, 52(1), 12-34.

Rodríguez-Maya, E., & Aylas-Flórez, J. (2025). Case study: AI tutoring impact on student engagement in Mexican higher education. Journal of Educational Innovation, 31(4), 267-289.

UNESCO. (2024). Artificial intelligence in education: A global perspective on opportunities and challenges. UNESCO Publishing.

Usher, M., & Amzalag, M. (2025). Graduate students’ communication styles with AI tutors: A qualitative analysis of academic writing support. Higher Education Research & Development, 44(2), 189-207.

Edición


Edición por Rubí Román (rubi.roman@tec.mx) – Editora de los artículos Edu bits y productora de los Webinars del Observatorio – «Aprendizajes que inspiran» – Observatorio del Instituto para el Futuro de la Educación del Tec de Monterrey.


Este artículo del Observatorio del Instituto para el Futuro de la Educación puede ser compartido bajo los términos de la licencia CC BY-NC-SA 4.0