En medio del texto de una clase sobre la asignatura de comportamiento organizacional, se encontraba un diálogo entre el profesor y el chatbot, en el que él le pedía una descripción detallada de los modelos de liderazgo. El texto contenía numerosos errores ortográficos. También se encontraron otros indicios del uso de IA, como por ejemplo que las personas representadas en la presentación tenían brazos adicionales. Ella Stapleton expresó su descontento. Además, afirma que el profesor, llamado Rick Arrowood, prohíbe a los estudiantes utilizar inteligencia artificial, mientras que él mismo emplea redes neuronales y ni siquiera revisa el material.
La estudiante presentó una queja formal ante la Northeastern University y exigió el reembolso del costo del curso, lo cual equivaldría a más de 8.000 dólares. La administración de la universidad rechazó la solicitud de la estudiante.
El profesor Rick Arrowood ha enseñado durante casi veinte años. Admitió que quiso "refrescar" los materiales didácticos utilizando las capacidades de la inteligencia artificial. Para ello, usó ChatGPT, Perplexity y Gamma. Según él, en un primer momento la clase y la presentación que creó parecían excelentes. Sin embargo, al mirar atrás, lamenta no haberlas revisado con mayor detenimiento. El profesor expresó su arrepentimiento por el episodio y aclaró que los docentes deben utilizar la IA con especial precaución y atención, así como informar a los estudiantes cuando lo hagan.
Northeastern publicó un documento oficial que define la política de la universidad en relación con la inteligencia artificial. En él se establece que, en caso de usar redes neuronales, es necesario indicar la fuente de los datos y verificar su precisión. Al mismo tiempo, los representantes de la universidad afirmaron que utilizan la inteligencia artificial para mejorar todos los aspectos del aprendizaje y realizar investigaciones más profundas.
No obstante, este caso no es único. Estudiantes de muchas universidades estadounidenses se quejan de materiales de estudio, clases y presentaciones generadas por IA. Por ejemplo, en el otoño del año pasado, una estudiante de la Universidad del Sur de New Hampshire llamada Mary escribió un ensayo de antropología y recibió una calificación de A. En la sección de comentarios, notó que el profesor había publicado por error una conversación con un chatbot en la que pedía a ChatGPT que evaluara el trabajo de la estudiante y proporcionara una buena crítica. Mary está convencida de que el profesor ni siquiera leyó su ensayo. Los profesores, por su parte, afirman que los chatbots les permiten lidiar con una carga laboral abrumadora y automatizar muchos procesos. No obstante, la mayoría coincide en que es necesario verificar la información proporcionada por la IA y editar los materiales resultantes.