Inteligencia artificial en la escuela: Cinco preguntas que los educadores deberían hacerse
1 de diciembre de 2023
1 de diciembre de 2023
Por Jesse Senechal, Mary Strawderman, Jonathan Becker, Chris Parthemos, Samaher Aljudaibi y Oscar Keyes
El lanzamiento público de ChatGPT hace un año desencadenó una avalancha de cobertura mediática especulando sobre el impacto que los modelos de lenguaje extensivo (LLM) y otras formas de inteligencia artificial generativa (GenAI) podrían tener en nuestro sistema educativo. Hoy en día, algunos observadores son optimistas respecto a la IA y afirman que estas tecnologías conducirán a formas mejoradas de aprendizaje personalizado que pueden potenciar el rendimiento de los estudiantes, abordando eficazmente tanto la pérdida de aprendizaje como las disparidades educativas que han plagado nuestro sistema. Otros son más pesimistas y advierten del aumento del plagio, la posibilidad de que la IA sustituya a los educadores y las amenazas a la privacidad de los estudiantes, entre otras preocupaciones.
Las reformas educativas centradas en la tecnología a menudo nos han llevado a adoptar una actitud de espera en el pasado, pero hay razones para que, como educadores, queramos aprender más sobre la IA. Vamos a oír hablar mucho más de este tema el año que viene y uno de los factores que debemos tener en cuenta es su oportunidad. Los LLM y otras tecnologías de IA se están introduciendo en un sistema escolar público sometido a una enorme tensión por los problemas de salud mental relacionados con la pandemia y la pérdida de aprendizaje, la escasez histórica de profesores y las agendas políticas que apoyan los enfoques del sector privado a la educación pública. Todos estos factores ofrecen un terreno fértil para la rápida integración y expansión de la IA en la educación.
En este artículo, presentaremos una serie de preguntas que debemos hacernos a medida que experimentamos el despliegue de la IA en nuestras escuelas públicas. Nuestro objetivo no es responder a todas estas preguntas, sino animarle a que empiece a planteárselas. Creemos que es fundamental que quienes trabajan en las aulas y las escuelas desarrollen una perspectiva profesional sobre el uso de los LLM y otras formas de IA, para que cuando surjan oportunidades puedan hablar con autoridad profesional sobre los beneficios y los riesgos. Un informe reciente de la Oficina de Tecnología Educativa del Departamento de Educación de EE.UU., titulado "Artificial Intelligence and Future of Teaching and Learning: Insights and Recommendations" (Inteligencia artificial y futuro de la enseñanza y el aprendizaje: ideas y recomendaciones), presenta principios fundamentales para desarrollar un enfoque de la IA en la educación. Resulta interesante, y creemos que acertado, que el primero de esos principios sea Centrarse en las personas (padres, educadores y alumnos).
Nuestra esperanza es que las cinco preguntas que siguen ayuden a los profesores y otros educadores a desarrollar sus perspectivas sobre el uso de los LLM de IA, de forma que centren sus voces, y las necesidades de alumnos y padres, en el debate que se avecina.
He aquí algunos puntos clave, y animamos a todos los educadores a aprender más sobre el funcionamiento de esta tecnología. Los LLM son una forma de IA generativa que utiliza algoritmos entrenados en grandes conjuntos de datos de texto, normalmente extraídos de Internet. En el caso de ChatGPT, el LLM se utiliza para realizar tareas de procesamiento del lenguaje natural (PLN), lo que permite al programa interpretar, procesar y generar contenidos que suenen humanos en respuesta a una petición del usuario. El resultado de un LLM es una predicción en la que el programa se pregunta una y otra vez: "¿Cuál sería la mejor (más predecible) palabra siguiente?Este proceso continúa hasta que se genera un bloque de texto completo (un informe de un libro, un poema, una receta, etc.). Una forma de verlo es como un autocompletado muy elegante que no se detiene hasta que termina la tarea de escritura asignada. Este proceso es la razón por la que, por ejemplo, cuando lees los resultados de ChatGPT, la escritura puede ser tan plana y genérica. Es, por diseño, una respuesta genérica a una pregunta. La respuesta también se limita a las predicciones del conjunto de datos con el que se ha entrenado el modelo.
Por esta razón, el uso de ChatGPT requiere una composición precisa de las preguntas para proporcionar respuestas específicas sobre temas concretos; cuanto más precisas y específicas sean estas preguntas, mejor será el resultado. También es importante saber que los LLM cuentan con ciertas barandillas diseñadas por humanos para evitar que se generen contenidos inapropiados. Puede imaginarse por qué esto sería necesario si se tiene en cuenta que Internet (es decir, los datos de entrenamiento para los LLM) está lleno de ideas que desafían las normas sociales. Estos guardarraíles varían según el modelo y se ha demostrado que se rompen en ciertos casos. Tampoco faltan los debates sobre los límites que deberían existir y los que no.
Aunque este debate básico sobre los LLM puede ser un buen punto de partida, animamos a todos los educadores a aprender más sobre el funcionamiento de estos modelos. Le sugerimos que investigue un poco -hay muchos debates interesantes sobre los LLM de IA dirigidos a no informáticos- y también es importante que utilice realmente las herramientas. Si aún no lo ha hecho, le recomendamos encarecidamente que cree una cuenta y experimente para ver qué puede y qué no puede hacer.
Pregúntele cómo pueden ayudarle los LLM a automatizar tareas como la planificación de clases, el diseño de tareas, la calificación y la comunicación con los padres. Muchos defensores de los LLM hablan de ellos como eficientes asistentes personales porque pueden generar planes, sugerir estrategias de enseñanza eficaces y adaptar los materiales didácticos a los objetivos de aprendizaje. También pueden crear contenidos educativos, personalizarlos para que se ajusten a los estilos de aprendizaje individuales y adaptar las lecciones a los alumnos con discapacidades o a los que no dominan el inglés, fomentando así la inclusividad. A la hora de impartir y evaluar la enseñanza, los LLM pueden ofrecer tutorías personalizadas, ayudar en la calificación e identificar sesgos en la evaluación. En cuanto a la implicación de los padres y la comunidad, los profesores pueden elaborar materiales de divulgación y facilitar la comunicación con las familias de habla no inglesa traduciendo los contenidos a varios idiomas. Además, pueden automatizar tareas administrativas como la elaboración de informes, aliviar la carga de trabajo manual y ayudar a desarrollar políticas y programas educativos, fomentando así un entorno de aprendizaje más eficiente.
Hay que tener en cuenta cómo podrían utilizarse estas herramientas para apoyar a los estudiantes y saber cómo las utilizan ya los alumnos. Aunque muchos educadores se centran principalmente en el plagio, algunos estudiantes han notado que los LLM de AI pueden apoyar su autodefensa, ayudándoles a redactar correos electrónicos o a practicar cómo hacer peticiones importantes a sus profesores. Otros han utilizado los LLM como apoyo directo al aprendizaje: En lengua, por ejemplo, pueden servir como compañeros de conversación, permitiendo practicar nuevo vocabulario o sintaxis. En las artes liberales, los LLM pueden permitir a los alumnos "hablar" en debates hipotéticos con figuras históricas, artistas o personajes literarios. Los LLMs pueden apoyar la escritura como un socio en lugar de sustituir el esfuerzo del estudiante. Este apoyo puede incluir ayudar a generar esquemas, identificar fuentes o temas comunes en áreas bien investigadas y proporcionar comentarios detallados sobre ortografía, gramática, sintaxis y lógica en los primeros borradores.
A medida que la IA y la tecnología LLM evolucionan en la educación, es probable que sus aplicaciones se amplíen, transformando aún más la práctica de la enseñanza y el aprendizaje. En una época en la que los profesores están sobrecargados de trabajo, es importante que aboguen por enfoques de IA y LLM que apoyen el aprendizaje de los alumnos, además de crear eficiencia en las tareas administrativas y de planificación y, en última instancia, hacer de la docencia una profesión más sostenible.
Aunque existen beneficios potenciales, te animamos a que aportes un sano grado de escepticismo a la conversación sobre los usos escolares de los LLM, como ChatGPT. Hay varias áreas clave de preocupación.
En primer lugar está la privacidad, tanto de los alumnos como de los profesores. Cuando los usuarios introducen datos que pueden incluir texto de composición personal o información identificable, la privacidad no está garantizada. Los datos que introducen los usuarios se procesan junto con otros medios o tipos de comunicación para entrenar los modelos. El uso de los LLM debe cumplir la normativa pertinente, como la Ley de Privacidad y Derechos Educativos de la Familia (FERPA), para garantizar que no se exponga información sensible sobre los alumnos. Para ello puede ser necesario filtrar cualquier documento o texto para eliminar información confidencial o sensible, como los nombres de los estudiantes y su rendimiento académico, antes de introducirlos en el modelo. También preocupa la propiedad intelectual de los profesores. Por ejemplo, un profesor puede cargar un plan de clase en un LLM y pedirle que lo adapte a un alumno concreto. Ese plan de clase pasa a formar parte de los datos de formación y las ideas pueden compartirse sin el consentimiento, el reconocimiento o la compensación del profesor.
Una segunda preocupación es la posibilidad de que los LLM socaven el valor pedagógico del proceso de escritura. La escritura es la columna vertebral de nuestro sistema educativo y forma parte integrante del plan de estudios desde los primeros cursos hasta la enseñanza secundaria y postsecundaria. No sólo constituye un método primordial para organizar las experiencias de aprendizaje, sino que la composición escrita se convierte con frecuencia en una herramienta fundamental para evaluar los conocimientos de los alumnos sobre una materia. Más allá de esto, la escritura desarrolla la voz y las perspectivas, sirviendo de espejo que refleja nuestras identidades. Sin duda hay motivos de preocupación porque un alumno, con poco esfuerzo, puede hacer que el modelo escriba un ensayo sobre las causas de la Guerra Civil, elabore un poema que refleje el estilo de Langston Hughes o escriba una carta persuasiva a un periódico local abogando por políticas más estrictas de control de armas. Esto no sólo suscita temores sobre el posible uso indebido de los LLM para hacer trampas, sino que también lleva a una preocupación aún mayor sobre cómo la tecnología podría alterar tanto el proceso como el producto de la escritura, socavando potencialmente su valor educativo central.
Por último, debemos considerar las formas en que los LLM y otras formas de IA pueden afectar a las relaciones entre alumnos y profesores. Sabemos por experiencia previa con las nuevas tecnologías educativas (por ejemplo, los dispositivos móviles) que las ventajas de estas herramientas a menudo se ven superadas por su capacidad de restar valor a la comunidad del aula. Los LLM añaden otra capa a este problema: están diseñados para ser conversacionales y atractivos. Por lo tanto, tienen el potencial de atraer a los estudiantes más hacia sus pantallas y alejarlos de las interacciones de persona a persona.
Todos los esfuerzos de reforma educativa deben considerarse desde la óptica de la equidad. Con la IA y los LLM, hay una amplia gama de cuestiones a considerar.
Como hemos visto, las nuevas tecnologías pueden distribuirse de forma desigual en los contextos educativos, perpetuando las desigualdades existentes. Dada nuestra actual brecha digital, no es difícil imaginar escenarios en los que ciertas escuelas, con buenos recursos, tengan enfoques pedagógicos de IA bien desarrollados, mientras que otras, debido a la falta de infraestructura tecnológica, se queden atrás. Por lo tanto, resulta crucial garantizar la igualdad de acceso y el uso adecuado entre las diversas cohortes de estudiantes. Se trata de promover un acceso equitativo e inclusivo en las distintas escuelas y aulas.
Una preocupación adicional centrada en la equidad tiene que ver con los contenidos generados por estas herramientas, que pueden mostrar sesgos que reflejen la visión del mundo de los datos con los que se entrenan, o contener contenidos inapropiados. Esto significa que los resultados del LLM pueden incluir sesgos raciales, de género, de edad, socioeconómicos y políticos, entre otros, que podrían afectar negativamente a los alumnos. En las aulas tradicionales, los profesores tienen cierto control sobre el contenido de la clase. Al empezar a utilizar los LLM en entornos educativos, es posible que estemos cediendo parte de ese control. Supervisar y evaluar las respuestas de los LLM en busca de prejuicios e implicar a los alumnos en conversaciones abiertas sobre dichos prejuicios permite comprender mejor las limitaciones de la tecnología.
A la luz de ambas preocupaciones, los educadores deben considerar si estas tecnologías están transformando nuestras escuelas de forma que se aborden tanto las diferencias de rendimiento como de oportunidades en la educación pública. Los educadores pueden estar a la vanguardia en el tratamiento de estas cuestiones planteándose preguntas críticas sobre el uso de las LLM en el aula y su impacto en la equidad en el proceso de enseñanza y aprendizaje.
La creciente concienciación sobre la IA y los LLM implica respuestas políticas, y animamos a los profesores a participar en esta conversación.
Un punto de partida debe ser la revisión de las políticas existentes para garantizar, entre otras cosas, que ninguna política nueva entre en conflicto con otra vigente. La redundancia puede ser aceptable en algunos casos pero, a menudo, es mejor actualizar las políticas existentes que elaborar otras nuevas. Por ejemplo, si existe preocupación en torno a la IA generativa y el plagio, es posible que la cuestión ya se aborde en un código de conducta estudiantil. Si es así, puede añadirse un breve texto para dejar claro en qué medida, si es que se da el caso, el uso de IA para ayudar en el trabajo escrito sin la debida atribución podría considerarse plagio.
En las nuevas políticas y en la actualización de las existentes, el lenguaje debe ser claro y preciso. Por ejemplo, una política sobre el uso de IA generativa por parte de los estudiantes no debería limitarse, digamos, a ChatGPT. Ese es un ejemplo de IA generativa, pero hay otros y surgirán más. Por lo tanto, un lenguaje amplio e inclusivo sobre la IA generativa puede ser más apropiado. Además, los estudiantes y las familias deben ser informados de las políticas nuevas o actualizadas. Cualquier acción disciplinaria relacionada con el uso de la IA debe seguir los procedimientos adecuados, y el debido proceso siempre implica una notificación adecuada.
A medida que nuestro sistema educativo avanza en el desarrollo de políticas y estrategias que repercutirán en el trabajo de los profesores y en su labor con los alumnos, animamos a los profesores a informarse más sobre estos debates políticos, quiénes participan y qué está en el orden del día. Como hemos argumentado anteriormente, hay una amplia gama de cuestiones que deben tenerse en cuenta, y es importante que estos debates incorporen principios centrados en el profesor y en el alumno. Esto implica definir las funciones y responsabilidades de los profesores a la hora de utilizar los LLM en la ensenanza y el aprendizaje, educar a los profesores con conocimientos para integrar los LLM eticamente en las practicas de ensenanza, establecer procesos para gestionar, supervisar y comunicar el uso de los LLM y los riesgos potenciales para los estudiantes, y aprovechar las herramientas que mejoren la eficacia y fiabilidad de los LLM.
Jesse Senechal es el director del Consorcio Metropolitano de Investigación Educativa, una asociación de investigación entre las divisiones escolares del área de Richmond y la Facultad de Educación de la Virginia Commonwealth University. Mary Strawderman es administradora de desarrollo de la investigación en la Oficina del Vicepresidente de Investigación e Innovación de VCU. Chris Parthemos es director adjunto de Accesibilidad y Oportunidades Educativas para Estudiantes en la Oficina de Recursos para Discapacitados de VCU.
Algunos recursos para ampliar sus conocimientos sobre IA:
La inteligencia artificial y el futuro de la enseñanza y el aprendizaje: Perspectivas y recomendaciones. Basado en extensas entrevistas con expertos en educación y tecnología educativa, este informe de la Oficina de Tecnología Educativa del Departamento de Educación de Estados Unidos describe la IA y sus posibles usos escolares, al tiempo que anima a los educadores a pensar de forma crítica tanto en las oportunidades como en los riesgos.
La IA va a acabar con la educación pública. O quizá no. El podcast sobre educación Have You Heard presenta una entrevista con Larry Cuban, un historiador de la educación pública que ha escrito mucho sobre los esfuerzos de reforma escolar basados en la tecnología. Cuban sugiere que el actual revuelo en torno a la IA se desvanecerá cuando nos demos cuenta de que la integración de la IA sólo se producirá de forma gradual y con resultados impredecibles.
Cómo la IA podría salvar (no destruir) la educación. Charla TED de Sal Khan, fundador y director ejecutivo de Khan Academy. Sostiene que la inteligencia artificial tiene el potencial, a través de la tutoría individual, de transformar la enseñanza y el aprendizaje de forma que se obtengan mejoras espectaculares en el rendimiento de los estudiantes.
Equilibrio entre los beneficios y los riesgos de los modelos lingüísticos de IA en las escuelas públicas K12. Este informe, publicado por el Consorcio Metropolitano de Investigación Educativa, examina las posibles repercusiones de los modelos lingüísticos de IA de gran tamaño en las escuelas públicas, incluidas las implicaciones para la enseñanza y el aprendizaje, y las consideraciones para la política de los distritos escolares.
Según una encuesta realizada por la Virginia Commonwealth University, el 66% de los virginianos afirma que las escuelas públicas no disponen de fondos suficientes para cubrir sus necesidades.
Más información