Catalina Nosiglia, secretaria de Asuntos Académicos de la UBA, visitó el auditorio de Ticmas y contó cuáles son los desafíos que la universidad lleva adelante en torno a la presencia de la inteligencia artificial en el ámbito académico.
En el universo en constante evolución de la Inteligencia Artificial, cada vez más personalidades analizan las implicancias y consecuencias en la educación, el trabajo, la sociedad. Catalina Nosiglia es secretaria de Asuntos Académicos de la Universidad de Buenos Aires (UBA) y en esta entrevista realizada en el auditorio de Ticmas, habló con Patricio Zunini sobre su la forma en que las universidades abordan esta nueva tecnología.
Cabe destacar, además, que entre mayo y julio, Nosiglia organizó en el Centro de Innovaciones en Tecnología y Pedagogía (CITEP) de la UBA un ciclo de debates en torno a la IA, en donde participaron referentes de distintas disciplinas, como Samuel Cabanchik, Pablo Rodríguez y Esteban Ierardo.
—¿Cuál es el rol de las universidades en torno a la Inteligencia artificial?
—La inteligencia artificial, por cierto, no comienza con el ChatGPT, pero hay que destacar que puso el tema en la agenda. Era una discusión que ya se daba en las universidades, pero todavía no en la televisión y la radio. Y esa es una virtud importante de este chat. La característica particular de la universidad es su contribución a la sociedad: es la producción, la transmisión y la transferencia de conocimientos a la sociedad. Y algo crucial para que la universidad pueda producir información, tiene que desarrollarse en un espacio de libertad académica y de autonomía del Estado y del mercado…
—El requisito de todo desarrollo científico.
—Por cierto. Por qué doy toda esta vuelta. La primera cuestión que quiero destacar es que hay ciertas voces críticas acerca del debilitamiento de la enseñanza de humanidades frente a las tecnologías en la universidad, un debilitamiento que, recordando a Martha Nussbaum, puede acarrear la vulneración de los derechos humanos, problemas en términos de la democracia, o simplemente de la libertad individual para la toma de decisiones. El debilitamiento de las humanidades y de la reflexión filosófica, de alguna manera, pudo haber anticipado una discusión acerca del uso de la inteligencia artificial.
—¿Es una discusión, entonces, que deben dar las ciencias sociales y las humanidades?
—Las humanidades son la voz crítica que alerta sobre el uso indebido incluso del propio conocimiento que se produce en la universidad. Hay muchas voces críticas. Ronald Barnet en Los límites de la competencia señala que hasta la década del 70, el conocimiento que se producía en la universidad tenía un valor básicamente cultural y de distinción social, y, luego, pasó a tener un valor económico y de uso. El conocimiento se transformó en un valor instrumental. Todo lo que menciono tiene que ver con los problemas que trajo la aplicación y el desarrollo de la inteligencia artificial, porque, de alguna manera, la universidad estuvo ausente en la anticipación de este debate.
—¿El conocimiento queda en manos de las máquinas?
—No me preocupa que el conocimiento lo manejen las máquinas. Hay que diferenciar la ciencia de la aplicación. Nosotros tenemos que seguir produciendo ciencia, y, si la ciencia es importante para desarrollar la inteligencia artificial, coincido con lo que dijo Chomsky, que no hay que parar la investigación. En todo caso, hay que hacer una discusión ética acerca del uso del conocimiento. Eso es lo que ha estado ausente y a lo que hago referencia. Es el debilitamiento de las humanidades en las currículas por el valor de uso del conocimiento. Si bien en círculos cerrados se venía discutiendo, no se planteó un debate público sobre las consecuencias.
—¿Cuál es ahora el rol de la universidad? ¿Cómo tiene que intervenir?
—Hay dos elementos muy importantes de las políticas universitarias de las últimas décadas, que cambiaron el funcionamiento de las instituciones. Por un lado, la internacionalización: la necesidad de estar en contacto en un mundo global con otras instituciones universitarias. Y, por otro lado, el desarrollo de redes universitarias. Nosotros, en el Sur, no tenemos las mismas posibilidades que en el Norte. Un mecanismo de ayuda y de potenciación de nuestras competencias es asociándonos con otros. Acá viene por qué nos asociamos con la Universidad Nacional Autónoma de México para el desarrollo del primer Laboratorio de Inteligencia Artificial, que lo hicimos antes de que emergiera la discusión con respecto a ChatGPT.
—¿Van ya tres años de esa asociación?
—Creo que son dos años. Dos años en los que empezamos a discutir de manera colaborativa e interdisciplinaria cuáles iban a ser los efectos de la inteligencia artificial en el ámbito universitario. Nos centramos en la enseñanza —porque soy secretaria de Asuntos Académicos y es mi responsabilidad—. Pensamos que la manera de contribuir de manera densa y profunda al debate era asociándonos con otras universidades del contexto latinoamericano.
—¿Qué entregables produjo o produce la asociación?
—Es una asociación que se hace en el marco de una red de universidades, que se llama Red de Macrouniversidades, y estamos trabajando en el desarrollo de laboratorios virtuales de manera asociada entre la UBA, la UNAM y la Universidad Nacional del Uruguay. También trabajamos en una base de fotografías digitales para los laboratorios. Todo lo hacemos de manera colaborativa porque es muy caro producir cada uno de estos desarrollos tecnológicos, y los recursos de las universidades hacen que debamos asociarnos para potenciarnos.
—¿Cómo abordan la cuestión ética en la inteligencia artificial?
—Por un lado, haciendo advertencias de las consecuencias negativas que puede tener el mal uso de la inteligencia artificial en aspectos como los derechos humanos, la dignidad de la persona, la libertad. El debilitamiento de la democracia no solo viene por no fomentar el pensamiento crítico y participativo, sino por difundir ideas o creencias falsas, que pueden cambiar las preferencias políticas de las personas. Y hacia el interior de la universidad, el debate es sobre la “integridad académica”, que indica cuáles son los comportamientos esperados por parte de los docentes y los alumnos en tanto honestidad y equidad. ChatGPT pone en discusión temas que son históricos como el plagio, la copia, la suplantación de la identidad. Es importante alertar y formar a alumnos y docentes con respecto a las conductas adecuadas. Y también ayudarlos a citar bien, a no plagiar. Por otro lado, me gustó mucho otra cosa que dijo Chomsky. Dijo que un alumno apasionado por un conocimiento no se va a copiar, sino que va a tratar de construirlo él.
—Lo que lleva a una revisión de las prácticas docentes: cómo hacer para que los estudiantes se sientan más involucrados con el objeto de aprendizaje.
—Por cierto. Pero los que se preocupan por estos temas no son los pedagogos: son los filósofos, los antropólogos, los sociólogos. Los pedagogos buscamos usos que nos puedan ayudar a la planificación, a tomar mejores decisiones. Incluso ChatGPT puede servirles a los alumnos para que descubran sus errores o encuentren un mejor camino de resolución de los problemas. Lo que tiene que cambiar es cómo se evalúa. Encontramos soluciones muy distintas: volver a la evaluación tradicional, valorizar la evaluación formativa —vos conocés cómo evoluciona un alumno y no te importa el resultado en un ensayo final—, usar la información que produce el ChatGPT para un análisis crítico, etc.
—¿Cuáles son las líneas de investigación que se están desarrollando?
—La inteligencia artificial y la investigación se trabajan en nuestra universidad desde hace mucho tiempo. Primero, alrededor de cuatro carreras centrales, que son: la Ingeniería en Informática, Análisis de Sistemas, la Licenciatura en Computación y, nuestra hija más joven, que es una Licenciatura en Ciencia de Datos, que se acaba de crear en la Facultad de Ciencias Exactas, uniendo computación y matemática. Alrededor de la enseñanza y la producción de conocimiento existen laboratorios de inteligencia artificial y centros de investigación. También se da en carreras de posgrados sobre esta temática, que pensamos hay que expandirlos.
—¿Cuál es el impacto de la inteligencia artificial en el medio ambiente?
—Hace un tiempo me topé con un libro de Fondo de Cultura Económica, que se llama Atlas de la inteligencia artificial, de Kate Crawford. Lo empecé pensando que me iba a hablar de cómo se formaban los algoritmos, cómo se usaba la inteligencia artificial para la enseñanza, para la investigación para la salud, pero no: lo que esta autora discutía es, si bien uno tiene la representación de que la inteligencia artificial es algo etéreo que está en la nube, es una tecnología que produce un montón de problemas en el planeta. Por el uso de energía que necesita para procesar y guardar esa cantidad de datos, por la explotación minera que requiere para las baterías, etc. La inteligencia artificial tiene una materialidad y esta materialidad no solo afecta la democracia, como dije, sino que también afecta al medio ambiente.
—Siempre que hablamos de tecnología, hablamos del hombre.
—Justamente, en el ciclo de charlas que hicimos en el CITEP, empezamos con una perspectiva filosófica y la pregunta que se hizo Samuel Cabanchik fue qué es lo propio de lo humano, qué nos diferencia de las máquinas. En su reflexión habló de autores clásicos, desde Pico della Mirandola hasta Thomas Hobbes, que, en la introducción al Leviatán, dice, refiriéndose al Estado, que el hombre crea una nueva máquina artificial. El problema de lo humano y de lo artificial está presente desde la filosofía muy antigua.