"Inteligencia artificial generativa y formación académica: criterios éticos para un uso responsable"
- 17 mar
- 4 Min. de lectura
Jornada Cultural 2026 - Ponente: Mtro. Gerardo Levet Sosa

Vivimos en la era de la gratificación instantánea, donde nuestra paciencia se mide en milisegundos. Piénsenlo por un momento: si el correo electrónico tarda apenas cinco segundos en cargar, la frustración nos invade. Sentimos que algo "no sirve" si no es inmediato. Esta urgencia ha permeado las aulas con la llegada de la Inteligencia Artificial (IA) generativa, planteándonos un dilema ético y cognitivo fundamental: ¿esta tecnología nos ayuda a pensar mejor o nos está entrenando para dejar de hacerlo por completo?
1. La trampa de la sustitución vs. el poder del complemento
La diferencia entre el éxito académico y el vacío intelectual reside en cómo usamos la herramienta. ¿La empleamos para "hacer la tarea" o para "entender el concepto"? Imaginemos a un estudiante enfrentándose a la densidad de Santo Tomás de Aquino. La IA brilla cuando se le pide: "Divide este pensamiento en partes pequeñas para que pueda asimilarlo". Aquí, la IA no hace el trabajo; actúa como una "pareja de estudio" que genera preguntas de repaso o sugiere ejemplos para aterrizar la teoría a la práctica profesional.
El riesgo es delegar el proceso. Debemos recordar que la tecnología no es un fin en sí misma, sino un medio. Como bien se recalca en el ámbito académico:
"La tecnología nunca debe de ser usada solamente porque la tecnología existe. Debe de tener un fin."
2. El mito de la infalibilidad: ceros, unos y alucinaciones
Es un error peligroso creer que la IA "piensa" o "comprende". Detrás de la interfaz no hay una mente, sino algoritmos procesando patrones de datos en forma de ceros y unos. Debido a esto, surge el fenómeno de las "alucinaciones". La IA puede sonar sumamente convincente mientras inventa datos o falla en verdades universales, como la fórmula básica para calcular el área de un cuadrado. Si un algoritmo puede errar en una estructura matemática tan simple, ¿cómo podemos confiarle ciegamente la interpretación de la ética o la medicina sin una validación humana constante?
3. La honestidad intelectual y la "firma invisible"
La integridad académica hoy se detecta con un clic. Muchos estudiantes copian y pegan respuestas de modelos como ChatGPT o Gemini sin sospechar que estas herramientas dejan rastros técnicos. Al activar el símbolo de formato (¶) en Word, los docentes pueden encontrar firmas ocultas en los metadatos o marcas de formato que delatan el origen algorítmico del texto.
Más allá de la detección, el problema es la renuncia al esfuerzo. Hemos visto casos de alumnos que entregan trabajos con errores de puntuación atroces, excusándose con un: "Es que la IA no puso los acentos". Cuando un estudiante no está dispuesto ni siquiera a dar un clic para corregir una tilde, no solo está entregando un trabajo ajeno; está renunciando a su propia formación.
4. El "agujero del conejo" y el orden en la investigación
Investigar hoy puede ser como caer en el agujero del conejo de Alicia: un enlace lleva a otro y, de pronto, estamos perdidos en un mar de información irrelevante. Aquí es donde herramientas como NotebookLM resultan revolucionarias. Este tipo de tecnología permite estructurar el caos, organizar apuntes y detectar vacíos en nuestros argumentos. La IA funciona como el andamio, pero nosotros debemos ser los arquitectos. El andamio ayuda a sostener la estructura mientras construimos, pero el edificio final —el conocimiento— debe ser de manufactura humana.
5. El negocio de no pensar: algoritmos y hábitos
Debemos entender que dejar el pensamiento en manos de la IA no es un acto inocente; es ceder ante un modelo de negocio. Los algoritmos de TikTok, Instagram o Reels están diseñados para que dejemos de pensar y simplemente consumamos. Su objetivo es mapear nuestros patrones de comportamiento.
Por ejemplo, un algoritmo puede detectar que un usuario suele comprar en línea después de las 9:00 PM, y a esa hora exacta inundará su pantalla con tiendas y ofertas. Si permitimos que la IA decida qué leemos, qué escribimos y cómo razonamos, nos convertimos en sujetos predecibles para un mercado que solo busca vender, no educar.
6. Lo que la máquina nunca tendrá: la experiencia vivida
Existe una ironía casi poética en la dependencia tecnológica moderna. Se ha documentado el caso de estudiantes de medicina que caminan por los pasillos con libros enormes bajo el brazo, pero que entran en crisis porque "no pueden estudiar" al estar caído el internet para acceder a BOTY (su tutor de IA). El libro físico está ahí, el conocimiento está impreso a centímetros de sus manos, pero la dependencia al algoritmo les ha hecho olvidar cómo leer y procesar por cuenta propia.
La IA carece de la sensibilidad de un artista y de la energía que dan los años de técnica. Un algoritmo puede procesar datos, pero no tiene vivencias, ni alma, ni la capacidad de explicar un tema desde su propia historia personal. Dos IAs explicarán un concepto de forma casi idéntica; dos seres humanos, jamás.
Conclusión: Un llamado al discernimiento
La responsabilidad no es de la herramienta, sino de quien sostiene el dispositivo. No se trata de prohibir —un esfuerzo inútil en la historia de la humanidad— sino de integrar la innovación con criterios de verdad y honestidad. La IA puede ser una aliada extraordinaria, siempre y cuando no se convierta en el sustituto de nuestra propia capacidad de asombro y análisis.
Al terminar tu próximo trabajo apoyado por IA, detente un segundo y pregúntate: ¿podrías explicar con tus propias palabras lo que acabas de entregar, o te has convertido simplemente en el mensajero de un algoritmo?

Comentarios