Desafíos ético-jurídicos de la integridad académica en la era de la inteligencia artificial
DOI:
https://doi.org/10.29105/nomos.v3i5.48Palabras clave:
Integridad académica, filosofía del derecho, responsabilidad ética, inteligencia artificial, autoría académicaResumen
El uso creciente de herramientas de inteligencia artificial generativa, como ChatGPT, en entornos académicos ha generado profundos debates éticos y jurídicos. Este artículo examina los desafíos que plantea la IA para la integridad académica desde una perspectiva de filosofía del derecho. Se abordan conceptos clave como responsabilidad, autoría, verdad y mérito, recurriendo a los aportes de Immanuel Kant y Paul Ricoeur para repensar los fundamentos éticos de la práctica académica en la era digital.
Mientras Kant resalta la autonomía moral y el deber como base de la acción ética, Ricoeur introduce la noción de responsabilidad narrativa: responder por los propios actos y palabras como autor de una historia significativa. En el contexto de la producción académica asistida por IA, estos marcos permiten problematizar si es posible preservar la integridad cuando una parte sustancial del proceso intelectual se delega a sistemas que carecen de conciencia.
El artículo también aborda cuestiones de justicia epistémica, desigualdad en el acceso a tecnologías y la posible erosión del mérito académico cuando los contenidos automatizados se vuelven indistinguibles de los elaborados por personas. Finalmente, se proponen principios normativos para orientar a las instituciones: transparencia, autonomía, proporcionalidad y rendición de cuentas ética.
Lejos de rechazar la IA de forma categórica, se plantea su integración crítica y responsable, situando al ser humano como agente central del proceso educativo. La filosofía del derecho se presenta como una herramienta clave para resguardar la verdad y la justicia en tiempos de transformación tecnológica.
Descargas
Citas
Aránguez Sánchez, T. (2017). Ética de la virtud y profesiones jurídicas. Problema. Anuario de Filosofía y teoría del derecho. doi:https://doi.org/10.22201/iij.24487937e.2018.12.12447
Balalle, H., & Pannilage, S. (2025). Reassessing academic integrity in the age of AI: A systematic literatura review on AI and academic integrity. Social Sciencies & Humanities Open, 2-12. doi:https://doi.org/10.1016/j.ssaho.2025.101299
Binimelis-Esponiza, H., & Roldán-Tonioni, A. (2017). Sociedad, epistemología y metodología en Boaventura de Sousa Santos. Convergencia. Revista de Ciencias Sociales(75), 215-235. Retrieved from https://www.scielo.org.mx/pdf/conver/v24n75/1405-1435-conver-24-75-00215.pdf
Dworkin, R. (1977). Taking Rights Seriously. Harvard University Press.
Floridi, L., & Cowls, J. (2019). A Unified Framework of Five Principles for AI in Society. Harvard Data Science Review, 2-14. doi:10.1162/99608f92.8cd550d1
Fricker, M. (2007). Injusticia epistémica. Barcelona: Oxford University Press. Retrieved from https://infanciastrans.org/wp-content/uploads/2023/07/Injusticia-Episte%CC%81mica.pdf
Gutiérrez Gómez, E. (2023). ¿Qué es un autor? El principio ético en investigación en Foucault. Horizontes. Revista de Investigación en Ciencias de la Educación, 6(25), 1691-1697. doi:https://doi.org/10.33996/revistahorizontes.v6i25.446
Haberman, J. (1981). Teoría de la acción comunicativa. Taurus.
Kant, I. (1996). Fundamentación de la metafísica de las costumbres. Edición bilingüe y traducción de José Mardomingo. Barcelona: Editorial Ariel, S.A. Retrieved from https://www.filosoficas.unam.mx/docs/541/files/Kant-Fundamentaci%C3%B3n-metaf%C3%ADsica-costumbres.pdf
Nino, C. S. (1980). Ética y derechos humanos. Paidós.
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2021). Recomendación sobre la Ética de la Inteligencia Artificial . Retrieved from https://unesdoc.unesco.org/ark:/48223/pf0000381137
Organización para la Cooperación y el Desarrollo Académico . (2022). OCDE Framework for the Classification of AI Systems. Retrieved from https://www.oecd.org/en/publications/oecd-framework-for-the-classification-of-ai-systems_cb6d9eca-en.html
Ricoeur, P. (1996). Soi-même comme un autre. (Español: Sí mismo, como otro). Editorial Trotta.
Universidad de Cambridge. (2023). Guidance on the Use of AI in Academic Work. Retrieved from https://www.cam.ac.uk/about-this-site/use-of-generative-AI
Universidad Nacional Autónoma de México. (2023). Recomendaciones para el uso de la inteligencia artificial generativa en la docencia. Retrieved from https://iagenedu.unam.mx/docs/recomendaciones_uso_iagen_docencia_unam_2023.pdf
University of Sydney. (2023). Academic Integrity and AI Tools (e.g. Chat GPT). Retrieved from https://www.sydney.edu.au/students/academic-integrity.html
Descargas
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 Verónica Rivera de la Rosa

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.
Los autores/as que publiquen en esta revista aceptan las siguientes condiciones:
a. Los autores/as conservarán sus derechos de autor y garantizarán a la revista el derecho de primera publicación de su obra, el cual estará simultáneamente sujeto a la Licencia Creative Commons Atribución-NoComercial 4.0 Internacional. que permite a terceros compartir la obra siempre que se indique su autor y su primera publicación esta revista.
b. Los autores/as pueden realizar otros acuerdos contractuales independientes y adicionales para la distribución no exclusiva de la versión del artículo publicado en esta revista (p. ej., incluirlo en un repositorio institucional o publicarlo en un libro) siempre que indiquen claramente que el trabajo se publicó por primera vez en Nomos: Procesalismo Estratégico.
c. Se permite y recomienda a los autores/as a publicar su trabajo en Internet (por ejemplo en páginas institucionales o personales) posterior al proceso de revisión y publicación, ya que puede conducir a intercambios productivos y a una mayor y más rápida difusión del trabajo publicado (Véase El efecto del acceso abierto).
