Skip to main content

En esta entrevista, la Dra. y Prof. Beatriz Peluffo (UDE) explica por qué la Inteligencia Artificial ya es un cambio irreversible en la educación y qué desafíos reales trae: ética, sesgos y discriminación, seguridad de datos y nuevas formas de aprender en entornos digitales e inmersivos. También presenta el Congreso Internacional de Educación de la UDE (22 de enero, Sede Depósitos), un espacio para investigadores y estudiantes de posgrado donde se discute la relación entre IA y educación, con participación nacional e internacional.


Si no puedes ver la entrevista, comprueba en este enlace la completa entrevista con la Dra. Beatriz Pelufo


Miguel Nogueira (MN): Miguel Nogueira: Hoy vamos a hablar con la doctora y profesora Beatriz Peluffo, integrante del grupo de investigación en política, gestión de conocimiento y calidad de la educación de la Facultad de Ciencias de la Educación de la UDE.
Beatriz Peluffo: Beatriz, bienvenida. Muchas gracias. Gracias por el espacio. Bueno, con mucho trabajo, a pesar de que es fin de año, no solo el trabajo del fin de año, sino por lo que se viene en enero y de eso queremos hablar. Bueno, sí, en enero, como todos los años hacemos las clases presenciales de la maestría y doctorado y hacemos el congreso internacional de educación, este, que son actividades que hacemos con estudiantes de posgrado y con profesores investigadores.

MN: Bien, contanos detalles de inscripciones, quiénes se pueden inscribir, este, días.
BP: Bueno, la inscripción es simplemente es ir el 22 de enero en la Sede Pocitos. Perfecto, ahí es el congreso. Este es un congreso para investigadores, este donde exponemos los avances en distintas temáticas.

MN: En este caso es la relación inteligencia artificial con educación y este y y bueno, y ahí participan estudiantes de posgrado que es darle el espacio para para que difundir su conocimiento.
BP: tenemos colegas de otras partes del mundo que también participan de forma virtual. Este, en fin, y ahí hay una metodología de reflexión y análisis de lo que a la gente le interesa y se preocupa, ¿no?

MN: Sí, como como decían en la vida y en la guerra, si no este si no podés vencerlo, únete a ella. Y hablo, me refiero a la inteligencia artificial, ¿no?
BP: Así es. Así es. Por eso mismo nosotros, el grupo que integramos este este comité, vamos a decir, del congreso, este bien preocupados por los por las temáticas que es el Dr. Juan Manuel Sarochar y Javier Lacia, que es lo que lo que trabajamos en la temática.

MN: Bien. Y y ¿cómo se ha ido llevando lo de la inteligencia artificial en las clases, por ejemplo, de este año que está terminando?
BP: Esto fue una explosión casi que de un día para el otro, a pesar de que, bueno, cualquier buscador inteligente es una especie de inteligencia artificial, obviamente, pero no con este grado de magnitud que no solo para buscar una información, sino para editar, para crear figuras, para crear videos, para crear logos, lo que pienses existe.

MN: Así es.
BP: Y una de las cosas que a nosotros nos preocupa es la ética. La ética en el uso de la inteligencia artificial. Ese es uno de los ejes de análisis que vamos a hacer.

MN: Qué barrera que ya en las redes se pasó de largo, ¿no?
BP: Sí, se pasó de largo y y el tema es reflexionar con la normativa internacional, las recomendaciones, este pero también qué es lo que sucede a nivel de la de la formación, ¿no? Cómo incorporas en la formación ética, este con el uso, pero tiene que ver en que eso es una parte, ¿no? O sea, la otra parte tiene que ver cómo hacemos la transición hacia estos modelos de aprendizaje digitales o inmersivos. que que no nos ponen desafíos diferentes, ¿no?

MN:Tú decías, derecho comparado, es decir, va muy adelante de de la ley esto va más siempre e el desarrollo y el avance de la ciencia y la tecnología va más rápido que la normativa.
BP: Ahí está, ¿no? Este, pero, sin embargo, los organismos internacionales han ido reaccionando frente a este problema que algunos llaman la antropología digital. Estamos en un mundo que convivimos con lo análogo y lo digital y este y bueno y para eso la educación tiene que tener su propia opinión, tiene que tener sus propios aportes a la discusión.

MN: Hubo un ejercicio, yo siempre digo que hubo un ejercicio y en la UDE se dio particularmente con la pandemia que de un día para el otro hubo que aprender no solo a entrar en Zoom, que es un par de cliqueos o de loguearte, sino a dar clases por Zoom, a recibir clases por Zoom, acostumbrarte una clase que hay de repente 20 20 muchachos, pero tienen prendida la cámara solo 10 y saber si están ahí o si no están ahí.
BP: Y entonces para esto, para la generación de docentes de más de 50 años también es un desafío. Claro, por supuesto. Eso el gran trabajo que hicimos y sobre todo desde la Facultad de Educación, donde tenemos un equipo que tenemos competencias digitales, vamos a decir, ayudar a las otras facultades, este a que los profesores planifiquen un aula digital, que no es lo mismo que dar una clase.

MN: Ahí está. Pero ¿cómo haces para que el clima de aprendizaje la persona aprenda sola frente a un computador?
BP: El aprendizaje frente a un computador es un tema y sobre todo donde empiezan a aparecer teorías nuevas del aprendizaje como el conectivismo que que cambia la definición de cómo se aprende como otras otras este otra otras teorías. Y bueno, esos son modelos que tenemos que discutir, que tenemos que analizar porque no tenemos que ver que hay una parte cultural que hay que mantenerte fija, ¿sí?

MN: No, y además tenés que tener claro, me pasa a mí en el periodismo, hay veces la inteligencia artificial está ha leído miles, decenas de miles de libros y información permanente, pero hay veces que no tiene el dato correcto, o no tiene nada sobre lo que estás buscando, o te dice algo que no es pero no digo, mira la palabra que le voy a poner a a la inteligencia artificial, no hay una maldad, hay un desconocimiento. No soy ingenuo. A veces hay decisiones, depende de la inteligencia artificial que estés usando de que determinada cosa viste que además se acusan ahora la de Elon Musk la acusan de machista y de no sé qué más a la inteligencia artificial. Hasta eso te pasa.
BP: Bueno, bueno, es que se ha llegado a descubrir que puede haber más discriminación si no alimentas bien esa inteligencia, o sea, la inteligencia artificial está alimentada por todo el conocimiento, los datos que a la cual accede. Por lo tanto, si tú no lo programas de alguna manera, puede causar muchas discriminaciones y bueno, ni hablar el tema del poder, el poder de los datos, el poder de la información, eso es otro tema, ¿no? Cómo es este el tema de la seguridad de los datos. Bueno, en fin, son temas que parece que no fueran de educación, pero sí pero lo son, ¿te fijas? Bien.

MN: Y bueno, pero la inteligencia artificial hay que educarla para que uno tenga la inteligencia artificial tiene que ser un buen asistente, un un buen compañero de ruta.
BP: Yo he sabido de funcionarios que trabajan, que lo han adoptado como un asistente, por ejemplo, si tienen que hacer una carta, si tienen que alguna norma que no saben sobre cómo proceder, lo han estado usando y lo usan. Entonces esa realidad es una realidad que nos implica que nosotros podemos educar la inteligencia artificial para nuestros usos y eso es una de las cosas que no están siendo visible, ¿te fijas? Está más como consultar cosas, pero no que sea un compañero o o un tutor que te acompañe. Es así.

MN: Estábamos hablando del 20, ¿cuánto me dijiste? Del 22 de enero.
BP: Sí, claro. Sí, se puede. Perfecto.

MN: Hemos estado hablando con la doctora y profesora Beatriz Peluffo, que es integrante del grupo de investigación en política, gestión de conocimiento y calidad de la educación de la Facultad de Ciencias de la Educación de cara a este a esta jornada este tan importante del 22 de enero allí en la sede Depitos de la UDE.
BP: Gracias. No, muchas gracias a ti.