Published February 19, 2026 | Version v1
Lesson Open

Semáforo de uso responsable de la Inteligencia Artificial en el contexto de la elaboración de un Trabajo de Fin de Título (TFT) del área de educación

Authors/Creators

  • 1. ROR icon Universidad Complutense de Madrid

Description

El documento que se adjunta corresponde a un material docente elaborado por la profesora Haylen Perines y que corresponde a un semáforo de uso responsable de la Inteligencia Artificial (IA) en el contexto de la elaboración de un Trabajo de Fin de Título (TFT) del área de educación.

Es un material que en principio se ha creado para ser utilizado por los estudiantes de la profesora Haylen, pero que se pone a disposición de la comunidad académica debido a su eventual utilidad para monitorizar trabajos de finalización de estudios en grado y máster. También se puede adaptar a otras actividades académicas.

El semáforo se centra en la interacción de los estudiantes con chatbots de IA, basados en modelos de lenguaje extensos que operan dentro del paradigma de la Inteligencia Artificial Generativa (IAG). No se focalizan en ninguno en específico, pudiendo ser utilizados en ChatGPT, Gemini, Copilot, Claude u otro. Cabe mencionar que los prompts sugeridos son breves y precisos, sin estructuras demasiado complejas. En caso de darles uso, cada persona los puede adaptar de acuerdo con sus necesidades.  

Los tres colores del semáforo (rojo, amarillo y verde) presentan las siguientes características generales:

1.       Rojo: los prompts del color rojo implican una sustitución de la autoría, solicitudes de productos finales y ausencia de transformación, análisis o reelaboración humana posterior.

2.       Amarillo: los prompts del color amarillo implican que frente al resultado dado por la IA haya una verificación o reformulación por parte de las personas autoras. 

3.       Verde: los prompts del color verde se focalizan en solicitudes de explicación de conceptos, en apoyo lingüístico o formal sobre textos producidos de forma autónoma, generación de preguntas para autoevaluación u organización del trabajo sin producir textos finales o definitivos. 

Un aspecto importante de tener en cuenta y que debes asumir es que los chatbots utilizan las interacciones para optimizar sus modelos.  Si bien el texto que introduces no se almacena como obra identificable, debes tener precaución con los datos que entregas, especialmente con aquellos que suponen datos personales o institucionales. Dentro de algunas herramientas existen funciones relativas a que tus interacciones no se utilicen con este fin, por ejemplo, en ChatGPT puedes seleccionar la opción “desactivado” en Configuración/Controles de datos/Mejorar el modelo para todos. La versión de pago también tiene una función que indica que el chat no aparecerá en tu historial ni se usará para entrenar los modelos. Aun así, es aconsejable cautelar la información que proporcionas.

Una herramienta que ha cobrado mucha notoriedad precisamente por estos aspectos es Notebook LM, debido a que representa un enfoque diferencial respecto a los chatbots generalistas. Estos últimos generan respuestas apoyándose en su entrenamiento previo y en el contexto conversacional inmediato, en cambio, Notebook LM organiza la interacción dentro de cuadernos creados por ti y limita el análisis a los documentos, enlaces y recursos que tú le incorporas. Esto favorece la trazabilidad de las fuentes y posibilita una interacción más controlada sobre el trabajo que se realiza.

A continuación, se presenta el semáforo ya descrito, con la finalidad de proporcionar criterios claros que permitan distinguir prácticas recomendadas, prácticas que requieren supervisión crítica y prácticas que deben evitarse, buscando promover una integración ética y reflexiva de estas herramientas en los procesos académicos, más aún en aquellos conducentes a un título profesional, como es el caso de los TFT.

 

Files

Semáforo de uso responsable de IA_Haylen Perines_versión Zenodo.pdf

Files (176.5 kB)