Skip to main content

La inteligencia artificial ya no es una promesa futura: está aquí. Los estudiantes acceden a herramientas generativas como ChatGPT, Gemini, Copilot o similares, dentro y fuera del salón de clases. Según un estudio reciente del Centro para la Democracia y la Tecnología (CDT), una gran mayoría de estudiantes (86%) y docentes (85%) informaron haber utilizado inteligencia artificial durante el año escolar 2024-25.

El estudio también reveló señales de alerta sobre cómo los jóvenes se están relacionando con la inteligencia artificial. Casi la mitad de los estudiantes encuestados expresó que el uso de IA en el salón de clases los hace sentir menos conectados con su maestro, y más de un tercio reconoció que, en ocasiones, les resulta más fácil conversar con una herramienta de IA que con sus propios padres.

A pesar de esto, solo una pequeña proporción de los docentes (alrededor de uno de cada diez) indicó haber recibido orientación sobre cómo manejar situaciones en las que la interacción del estudiante con la IA pudiera afectar su bienestar.

Ese vacío deja a muchas instituciones vulnerables ante el uso inadecuado de esta tecnología, incumplimientos de privacidad, incongruencias entre docentes (mientras uno “autoriza” su uso, otro lo prohíbe) y conflictos con familias preocupadas o desinformadas.

En el artículo de hoy te explicamos por qué es imprescindible que las escuelas consideren seriamente establecer una política institucional de uso ético de inteligencia artificial.

¿Por qué una política institucional es necesaria?

Orientar de manera coherente el uso educativo de la IA

Sabemos que la inconsistencia genera caos. Una política permite definir cuándo, cómo y por qué la IA puede integrarse al currículo, tareas, evaluaciones o servicios administrativos. Evita decisiones improvisadas o contradictorias entre docentes, estudiantes y familias. En otras palabras, promueve una visión compartida para que todos estén en la misma línea.

Garantizar equidad, protección y privacidad

Una política establece cómo proteger los datos de los estudiantes, exigir consentimientos informados, definir límites de uso, mantener estándares de transparencia y evitar el que se perpetúen los sesgos discriminatorios presentes en muchos sistemas de IA.

Fomentar un uso ético, crítico y responsable

No basta con permitir o prohibir: la política debe promover una cultura de pensamiento crítico frente a los resultados generados por la IA. La escuela tiene la responsabilidad de enseñar a cuestionar las respuestas, verificar fuentes y no depositar confianza ciega en los sistemas automatizados. Esta responsabilidad incluye educar a toda la comunidad escolar: estudiantes, docentes, personal administrativo y familias.

Preservar la integridad académica

Una política explícita ayuda a establecer qué constituye plagio asistido por IA, qué se considera uso legítimo (por ejemplo, como apoyo y no como sustituto) y cómo manejar sospechas de uso indebido.

Asegurar adaptabilidad frente al cambio tecnológico

Las tecnologías de IA evolucionan con rapidez. Una política formal puede contemplar mecanismos de revisión continua para adaptarse a nuevas herramientas, riesgos u oportunidades.

Reducir exposición legal o reputacional

Las instituciones sin políticas podrían enfrentar conflictos relacionados con filtraciones de datos, mal uso de plataformas o cuestionamientos éticos. Una política bien diseñada ayuda a anticipar y mitigar estos riesgos.

Un tema que va más allá de la tecnología

Contar con una política de IA no es una opción, es una necesidad. Este marco guía a la institución para apoyar el aprendizaje, fomentar la creatividad y asegurar que toda la comunidad escolar utilice la inteligencia artificial de forma segura, ética y formativa. Las instituciones que la desarrollen estarán mejor posicionadas para aprovechar las oportunidades de la innovación sin comprometer su misión educativa. Además, la manera en que una escuela aborda la inteligencia artificial influye directamente en cómo las familias perciben su capacidad para preparar a los estudiantes para el futuro. En este nuevo escenario, quedarse inmóvil equivale a perder competitividad. La IA será un verdadero diferenciador entre las escuelas que actúan con visión y las que se limitan a observar el cambio desde la distancia.

Cómo Forward Learning puede ayudarte

En Forward Learning acompañamos a las instituciones en cada fase del proceso:

  • Sensibilización y diagnóstico del contexto
  • Creación del comité de gobernanza de IA
  • Redacción colaborativa de la política
  • Diseño del plan estratégico de implementación

Cada escuela puede (y debe) ser protagonista en definir su propio camino hacia un uso responsable de la inteligencia artificial.

¿Tu institución está lista para dar el siguiente paso? Contáctanos para iniciar el proceso de desarrollo de tu política de IA y liderar el cambio educativo con propósito. 📩 info@forwardlearning.com 📲 787-764-2222

¡Conoce más de políticas de inteligencia artificial en las escuelas en Forward Teacher Podcast!

Este artículo fue hecho en colaboración con la compañera Liza Rivera, autora destacada del blog Forward Teacher.

Melisa Herrera

Melisa Herrera Cintrón se desempeña como Líder de Diseño Instruccional en Forward Learning. Cuenta con más de 14 años de experiencia en la implementación de currículo, técnicas y estrategias pedagógicas dirigidas a integrar efectivamente la tecnología en la educación. Es una apasionada de las tecnologías emergentes, las cuales considera que son el medio ideal para fomentar la creatividad, personalizar el aprendizaje y desarrollar el pensamiento crítico de los estudiantes. Tiene una Maestría en Educación Comercial y es Educadora Certificada por ISTE. Forma parte del equipo de evaluadores expertos del Programa ISTE Seal of Alignment. Este Programa reconoce la excelencia de productos y plataformas de tecnología educativa y les otorga un sello distintivo que evidencia su alineación con los Estándares ISTE.

Leave a Reply

This site uses Akismet to reduce spam. Learn how your comment data is processed.