Published November 17, 2025 | Version 1.0
Presentation Open

IA en Educación: Tres escenarios clave para aplicar la IA en la práctica docente

  • 1. ROR icon Universidad de Salamanca

Description

Conferencia plenaria invitada de 1 hora de duración impartida en las XII Jornadas Iberoamericanas de Innovación Educativa en el ámbito de las TIC y las TAC - InnoEducaTIC 2025, celebradas del 19 al 21 de noviembre de 2025 en el Edificio de Electrónica y Telecomunicación de la Universidad de Las Palmas de Gran Canaria, ubicado en el Campus Universitario de Tafira. Esta conferencia se impartió en modo online el 19 de noviembre.

 

Se presenta un recorrido estructurado sobre cómo integrar la inteligencia artificial generativa (IAGen) en la educación desde una perspectiva crítica, apoyándose en marcos internacionales y desembocando en tres escenarios de uso para la práctica docente. Se inicia recordando qué es la IA y, en concreto, la IAGen: sistemas capaces de generar contenido sintético original (texto, imágenes, audio, vídeo, código…) con calidad suficiente como para convertirse en material docente o en productos entregables de los estudiantes, difíciles de detectar como generados por máquinas.

 

Tras una breve aclaración de conceptos (IA, modelos de lenguaje masivos, parámetros, ventana de contexto), se plantea el cambio de escala que suponen los LLM y su rápida cronología reciente. A partir de ahí, se introduce el impacto específico en educación: generación automática de contenidos en múltiples formatos, que abre oportunidades, pero también refuerza el problema de la detección y la autoría real de los trabajos.

 

Se señala que la educación no ha quedado al margen del ruido mediático: abundan visiones catastrofistas (la IA destruirá la escuela o anulará la originalidad) y visiones ingenuamente entusiastas (la IA como solución mágica a todos los problemas). Se menciona el “dilema de Prometeo”: ¿tiene sentido prohibir la IAGen como medida de protección, dado su carácter de caja negra y su tendencia a alucinar, o debemos aprender a convivir con ella? Esta tensión está en el fondo del debate educativo actual.

 

Uno de los mensajes centrales es que el estudiantado ya usa estas herramientas en todos los niveles educativos. Los datos recientes sobre educación superior muestran un aumento constante del uso por parte de estudiantes, docentes y administradores, así como un cambio en la carga de trabajo del profesorado: disminuye el tiempo dedicado a diseñar materiales o responder correos, pero aumenta la vigilancia del fraude y la necesidad de rediseñar la evaluación. La pregunta ya no es “si las usarán”, sino “cómo las estamos integrando”.

 

A continuación, se abordan los riesgos específicos, especialmente las alucinaciones: respuestas plausibles pero falsas, contradicciones internas, errores lógicos, invención de citas bibliográficas, etc. Estas limitaciones se conectan con el “mito de la muerte de la originalidad”: la IA permite trabajos formalmente originales que no proceden del esfuerzo del estudiante, facilitando un aprendizaje superficial y amenazando la autoría genuina si se emplea de modo acrítico.

 

Ante esta realidad, muchas instituciones consideran el texto generado íntegramente por IA sin reconocimiento como una forma de plagio. Se está transitando hacia modelos en los que se aceptan ciertos usos, pero con regulación ética y exigencia de transparencia. Se propone, como mínimo, una declaración explícita del uso de IA que describa herramientas empleadas, propósitos, instrucciones clave y cómo se ha adaptado el resultado. Se muestran ejemplos concretos de la Universidad de Monash, que ilustran buenas prácticas para incluir este reconocimiento en los trabajos académicos.

 

Sobre esta base se introduce la alfabetización crítica en IA: no basta con saber manejar herramientas, sino con situar su uso dentro de valores y prácticas académicas. Se resumen cuatro ideas operativas: verificar antes de adoptar; garantizar equidad e inclusión; mantener la agencia humana explícita en la toma de decisiones; y asegurar transparencia y rendición de cuentas documentando el uso de IA. Estos principios se articulan con varios marcos de referencia: las orientaciones de la UNESCO, el Reglamento Europeo de IA (AI Act), el marco SAFE (Safe, Accountable, Fair, Explainable) y el Manifiesto Safe AI in Education, que insiste en la supervisión humana, la confidencialidad, la precisión y la explicabilidad.

 

Se pasa después a una dimensión más práctica: la “caja de herramientas” de IA en educación (transcripción, generación de texto, imagen, audio, vídeo, infografías, presentaciones, chatbots multimodales…). Se insiste en que la calidad de la respuesta depende del prompt y del contexto que se aporta al modelo; un mejor contexto permite respuestas más útiles y ajustadas. Esto es pedagógicamente relevante, porque el proceso de diálogo con el sistema y la calidad de las preguntas tienen valor formativo en sí mismos.

 

El núcleo de la conferencia es la propuesta de tres escenarios de uso de la IA en educación. El primero, apoyo responsable, se centra en el uso de la IA por parte del profesorado como herramienta de preparación y apoyo (generar materiales, reformular explicaciones, diseñar actividades) con bajo riesgo si se mantiene la agencia docente, se respeta la privacidad y se declara el uso. El segundo, colaboración guiada, incorpora la IA como parte de las actividades del estudiantado, pero con una fuerte guía del profesorado, énfasis en la evaluación auténtica y prioridad al proceso (versiones, iteraciones, trabajo en clase) frente al producto final. El tercero, cocreación con declaración de uso reforzada, contempla un uso más autónomo de la IA por parte del estudiantado en productos de alto impacto (TFG/TFM, recursos abiertos), con riesgos mayores que se compensan exigiendo trazabilidad completa, transparencia, equidad en el acceso y revisión rigurosa.

 

En las conclusiones, se destaca que, tres años después de la irrupción de ChatGPT, el profesorado sigue polarizado entre la tecnofobia y la tecnofilia. Muchos problemas que hoy se achacan a la IA (desigualdades, evaluación basada en la memorización, desajuste entre tareas y competencias) ya existían antes, pero la IA los amplifica y visibiliza. Prohibir sin más no resuelve estas tensiones; el reto es comprender qué aporta realmente a la enseñanza, al aprendizaje y a la investigación, y ponerla al servicio de un aprendizaje más profundo.

 

Finalmente, se subraya la importancia de formar tanto al profesorado como al estudiantado en el uso crítico de la IA, promover comunidades de práctica y compartir buenas experiencias. La IA no es buena ni mala, ni neutral: su impacto dependerá de cómo la diseñemos, la gobernemos y la usemos en los contextos educativos reales.

Files

20251119 - INNOEDUCATIC 2025.pdf

Files (10.9 MB)

Name Size Download all
md5:8e0690f53fc7d0add3bab53dfb6e766c
10.9 MB Preview Download

Additional details

References

  • [1] Comisión Europea, "Comunicación de la Comisión al Parlamento Europeo, al Consejo Europeo, al Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones sobre Inteligencia artificial para Europa," Comisión Europea {SWD(2018) 137 final}, 2018. Disponible en: https://d66z.short.gy/6jHjtG.
  • [2] F. J. García-Peñalvo y A. Vázquez-Ingelmo, "What do we mean by GenAI? A systematic mapping of the evolution, trends, and techniques involved in Generative AI," International Journal of Interactive Multimedia and Artificial Intelligence, vol. 8, no. 4, pp. 7-16, 2023. doi: 10.9781/ijimai.2023.07.006.
  • [3] H. Naveed et al., "A Comprehensive Overview of Large Language Models," ACM Transactions on Intelligent Systems and Technology, vol. 16, no. 5, art. 106, 2025. doi: 10.1145/3744746.
  • [4] A. Vaswani et al., "Attention is all you need," arXiv, art. arXiv:1706.03762v7, 2023. doi: 10.48550/arXiv.1706.03762.
  • [5] W. X. Zhao et al., "A Survey of Large Language Models," arXiv, art. arXiv:2303.18223v16, 2025. doi: 10.48550/arXiv.2303.18223.
  • [6] D. Fonseca-Escudero, F. J. García-Peñalvo, F. Llorens-Largo y R. Molina-Carmona, "¡Qué viene la IA! ¿Estoy preparada/o?," presentado en VII Congreso Internacional sobre Innovación, Aprendizaje y Cooperación, CINAIC 2023, Universidad Politécnica de Madrid, Madrid, España, 18-20 de octubre de 2023, 2023. doi: 10.5281/zenodo.10050857.
  • [7] E. Mozorov, La locura del solucionismo tecnológico (Ensayos). Buenos Aires, Argentina: Katz Editores; Capital Intelectual, 2016.
  • [8] T. Chakraborty y S. Masud, "The Promethean Dilemma of AI at the intersection of hallucination and creativity," Communications of the ACM, vol. 67, no. 10, pp. 26-28, 2024. doi: 10.1145/3652102.
  • [9] Tyton Partners, "Time for Class 2025. Empowering educators, engaging students," Tyton Partners June 2025. Disponible en: https://d66z.short.gy/iOOUw4.
  • [10] G. Perković, A. Drobnjak y I. Botički, "Hallucinations in LLMs: Understanding and Addressing Challenges," en 2024 47th MIPRO ICT and Electronics Convention (MIPRO) (Opatija, Croatia, 20-24 May 2024) pp. 2084-2088, USA: IEEE, 2024. doi: 10.1109/MIPRO60963.2024.10569238.
  • [11] S. M. Towhidul Islam Tonmoy et al., "A Comprehensive Survey of Hallucination Mitigation Techniques in Large Language Models," arXiv, art. arXiv:2401.01313v3, 2024. doi: 10.48550/arXiv.2401.01313.
  • [12] F. J. García-Peñalvo, "Inteligencia Artificial en el aula. De los mitos a la realidad," presentado en 5º Congreso Caribeño de Investigación Educativa, Punta Cana, República Dominicana, 9-12 de abril, 2025. doi: 10.5281/zenodo.15176106.
  • [13] L. Bratton. (2024). Experts are worried students use AI to write papers. And millions are, new data shows. En: Quartz. Disponible en: https://d66z.short.gy/8Ye0zs.
  • [14] Monash University. (2025). Acknowledging the use of generative artificial intelligence. Disponible en: https://d66z.short.gy/dkG1qv.
  • [15] F. J. García-Peñalvo, "Three Scenarios for AI in Education: From Responsible Assistance to Co-Creation," Education in the Knowledge Society, vol. 26, art. e32932, 2025. doi: 10.14201/eks.32932.
  • [16] UNESCO, Guidance for generative AI in education and research. Paris, France: UNESCO, 2023. Disponible en: https://d66z.short.gy/SBxqSb.
  • [17] European Parliament y The Council of the European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance). Official Journal of the European Union. Official Journal of the European Union, European UnionDisponible: https://eur-lex.europa.eu/eli/reg/2024/1689/oj.
  • [18] EDSAFE AI, "What is the EDSAFE AI SAFE Framework?," EDSAFE AI, USA, 2021. Disponible en: https://d66z.short.gy/RNVmzh.
  • [19] M. Alier, F. J. García-Peñalvo, M. J. Casañ, J. A. Pereira y F. Llorens-Largo, "Safe AI in Education Manifesto. Version 0.4.0," October 8 2024. Disponible en: https://manifesto.safeaieducation.org.
  • [20] F. J. García-Peñalvo, M. Alier, J. Pereira y M. J. Casañ, "Safe, Transparent, and Ethical Artificial Intelligence: Keys to Quality Sustainable Education (SDG4)," IJERI – International Journal of Educational Research and Innovation, no. 22, pp. 1-21, 2024. doi: 10.46661/ijeri.11036.
  • [21] S. Barro. (2023). La pregunta equivocada sobre el uso de ChatGPT en la educación. En: Universídad. Disponible en: https://bit.ly/41LcAq9.
  • [22] A. Sims. (2023). ChatGPT and the future of university assessment. En: THE Times Higher Education. Disponible en: https://d66z.short.gy/h588GQ.
  • [23] F. J. García-Peñalvo, "The perception of Artificial Intelligence in educational contexts after the launch of ChatGPT: Disruption or Panic?," Education in the Knowledge Society, vol. 24, art. e31279, 2023. doi: 10.14201/eks.31279.
  • [24] E. P. H. Choi, J. J. Lee, M. H. Ho, J. Y. Y. Kwok y K. Y. W. Lok, "Chatting or cheating? The impacts of ChatGPT and other artificial intelligence language models on nurse education," Nurse Education Today, vol. 125, art. 105796, 2023. doi: 10.1016/j.nedt.2023.105796.
  • [25] J. J. De Haro. (2025). ¿Qué IA me conviene? Comparativa de chatbots gratuitos. En: Bilateria. Blog sobre educación. Disponible en: https://d66z.short.gy/sNsfhf.
  • [26] J. J. De Haro. [@jjdeharo] (2025, 21 October), "Nueva versión de la comparativa de chatbots en su versión gratuita (las versiones de pago no se consideran) - Artículo: https://educacion.bilateria.org/que-ia-me-conviene-comparativa-de-chatbots - Aplicación para crear nuestro propio ránking según lo que consideremos más importante: https://jjdeharo.github.io/comparativa-chatbots/," Disponible en: https://d66z.short.gy/IGQFHi.
  • [27] F. J. García-Peñalvo, F. Llorens-Largo y J. Vidal, "The new reality of education in the face of advances in generative artificial intelligence," RIED: Revista Iberoamericana de Educación a Distancia, vol. 27, no. 1, pp. 9–39, 2024. doi: 10.5944/ried.27.1.37716.
  • [28] D. Álvarez, "Inteligencia Artificial en Educación: Oportunidades y Desafíos para el Aula del s.XXI," presentado en SIMO Educación 2023, Madrid, España, 2023. Disponible: https://bit.ly/3QLGBlG.
  • [29] L. Castañeda, "La evolución de los PLE en la era IA: más preguntas en el mundo de las respuestas," Cuadernos de Pedagogía, no. 549, 2024.
  • [30] C. Nerantzi, S. Abegglen, M. Karatsiori y A. M. Arboleda Eds., "101 creative ideas to use AI in education, A crowdsourced collection." 2023. Disponible en: https://bit.ly/48D87dq. doi: 10.5281/zenodo.8355454.
  • [31] S. Abegglen, C. Nerantzi, A. Martínez-Arboleda, M. Karatsiori, J. Atenas y C. Rowell Eds., "Towards AI Literacy: 101+ Creative and Critical Practices, Perspectives and Purposes. #creativeHE." Zenodo, 2024. Disponible en: https://doi.org/10.5281/zenodo.11613520. doi: 10.5281/zenodo.11613520.
  • [32] J. P. Hernández-Ramos y A. Ortiz-López Eds., "Buenas Prácticas Docentes con Inteligencia Artificial: Una mirada desde la práctica en Educación Superior." Salamanca, España: Universidad de Salamanca. Instituto Universitario de Ciencias de la Educación, 2025. https://gredos.usal.es/handle/10366/167627.
  • [33] M. Alier, J. Pereira, F. J. Garcia-Peñalvo, M. J. Casañ y J. Cabré, "LAMB: An Open-Source Software Framework to Create Artificial Intelligence Assistants Deployed and Integrated into Learning Management Systems," Computer Standards & Interfaces, vol. 92, art. 103940, 2025. doi: 10.1016/j.csi.2024.103940.
  • [34] F. Llorens-Largo. (2025). Inteligencia artificial hasta en la sopa. En: Universídad. Disponible en: https://d66z.short.gy/4CtHJK.