Edición n° 2923 . 22/11/2024

El presente y futuro educativo diseñado en Silicon Valley

( Alfredo Moreno (*))Los inventores, inversores y comercializadores de la tecnología han presentado las redes sociales y la inteligencia artificial como una forma de progreso inevitable. Pero con el correr del tiempo vemos que estas herramientas, lejos de mejorarnos, han disminuido nuestra capacidad de atención y nuestro pensamiento profundo. La inseguridad que provocan ha complicado incluso la acción política y la vida democrática, donde algunos se refugian detrás de las pantallas para fomentar y agitar el odio y la violencia o buscan la simplicidad de la narrativa polarizadora. Pese a la creciente evidencia del daño, los tecnólogos niegan los efectos nocivos.Turkle Sherry[i].

El uso de la tecnología digital e internet, está impregnando y transformando todos los sistemas sociales, culturales, laborales y económicos; la educación de las personas está en su centro.

En los últimos años, el desarrollo de la Inteligencia Artificial sostenido por la velocidad de cálculo y procesamiento computacional y el inmenso volumen de datos que fluyen por la red de redes, ha producido nuevas ofertas de mercado y novedades de impacto pedagógico y humano que abonan en dotar a los sistemas educativos de soluciones «eficaces» y más personalizadas para la enseñanza y el aprendizaje.

Educadores e investigadores del campo de la educación y responsables políticosde la gestión educativa, en general, carecen de los conocimientos y experiencia necesarios para comprender la lógica subyacente en los procesos y nuevos sistemas de Inteligencia Artificial. Además, no su cuenta consuficientes investigaciones multidisciplinarias que ponga en evidencias resultados para comprender plenamente las consecuencias que tienen para el desarrollo humando (alumnado, maestros y profesores), tanto el uso extensivo de las pantallas como la creciente dependencia de los algoritmos, los asistentes artificiales personales en los entornos educativos.

Las metodologías de ciencia de datos se han utilizado con regularidad en la gestión política de la educación para evaluar la calidad de los sistemas educativos, como ejemplifica el Programa para la Evaluación Internacional de los Alumnos de la OCDE, comúnmente conocido como PISA3.

Los datos recogidos en este tipo de estudios están orientados a dar una visión global y, al mismo tiempo limitada, de los sistemas educativos. Inspirados en la explosión del Big Data, los nuevos campos de las analíticas de aprendizaje y la minería de datos educativos tratan de aprovechar las nuevas capacidades de recopilación de datos para crear nuevos modelos que fomenten el aprendizaje de los estudiantes.

Los procesos algorítmicos de la Inteligencia Artificial (IA), basados en software,implementan algunos modelos como los de predicción, de agrupamiento, de minería de relaciones, destilación de datos y aprovechan la gran cantidad de datos que se pueden recoger en plataformas de educación a distancia (e-Learning) como Canvas, Moodle, Sakai o Blackboard para el conocimiento personalizado del alumno o profesor y el análisis de sus conductas en redes sociales. Cada acción realizada,leer archivos, participar en foros, enviar mensajes o visitar enlaces recomendados, por ejemplo, deja una huella digital que permite mejorar el entrenamiento de los procesos de Inteligencia Artificial.

A medida que más escuelas adoptan plataformas de e-Learning y tecnologías móviles en su enseñanza diaria, la huella digital puede ser cosechada y procesada para construir perfiles de aprendizaje individualizados para cada estudiante como lo realiza Google con los datos que almacena en sus grandes data centers. Hace muchos años que el “buscador” paso a ser una filial de Alphabet Inc.; una multinacional tecnológica con sede en Estados Unidos cuya principal filial es Google. La corporación desarrolla productos y servicios relacionados con internet, software, electrónica de consumo, dispositivos electrónicos y tecnologías de big data e Inteligencia Artificial.

El gobierno de Lacalle Pou firmo un acuerdo con Google que aplica sus servicios directamente en el sector educativo. El acuerdo realizado entre la ANEP y Ceibal con Google permite continuar trabajando en la ampliación de los servicios ofrecidos a la educación, con hasta 100 GB de capacidad de almacenamiento.

Las prestaciones que potencian las ya disponibles a través de las plataformas de Ceibal son:

  • Correo electrónico sin publicidad.
  • Almacenamiento en la nube.
  • Acceso sin costo a una gran variedad de aplicaciones educativas que cada docente puede decidir agregar a las que encontrará por defecto.
  • Acceso al servicio garantido el 99,9 % del tiempo.
  • Acceso desde cualquier dispositivo (computadoras, tablets, celulares).
  • Acceso a herramientas de gestión como calendario, herramientas de oficina, intercambio y colaboración como Docs, Sheets, Slides, Hangouts, creación y hosting de sitios web, Sites, entre muchas otras.

  • Una única cuenta de correo habilita el acceso a las herramientas de Google y a todas las plataformas de Ceibal.

Uno de los principales problemas de la conversión de la educación en procesos de información para diseñadores, máquinas y alumnado es el reduccionismo de las relaciones que conlleva. Para el especialista en filosofía del lenguaje John Searle, la reducción ontológica consiste en “la forma en que se demuestra que los objetos de cierta clase no consisten en nada más que en objetos de otra clase”. Por ejemplo, si el aprendizaje consiste únicamente en “retener información”, todos los aspectos de la intencionalidad, el contexto, la elaboración de significados… desaparecen o se rechazan por no ser “objetivables”, medibles o eficaces.

Los debates relacionados con el papel de la Inteligencia Artificial para mejorar la educación y el aprendizaje no pueden abstraerse de los contextos. No podemos dejar de considerar que el aprendizaje es un fenómeno que involucra a personas reales que viven en contextos sociales reales y complejos de los que no pueden abstraerse de manera significativa. El alumnado como los docentes están contextualizados. Tienen un género, una orientación sexual, un estatus socioeconómico, una etnia, una cultura de origen; tienen intereses y cosas que les aburren y divierten.

Tenemos que considerar cómo las personas dan sentido a la información, a las situaciones por las que pasan, al mundo que les rodea, que puede ser restringido o ampliado por diferentes medios, capital social y cultural, acceso a las tecnologías digitales. Esto significa la importancia de considerar todos los procesos de aprendizaje en entornos sociales (escuela, familia, comunidad) o en los creados artificialmente.

En la era del capitalismo de la vigilancia[ii], cualquier corporación puede tener acceso a volúmenes masivos de datos sobre prácticamente todos los estudiantes, en particular los que más utilizan las plataformas digitales, tanto dentro como fuera de la escuela. Este es uno de los argumentos más poderosos para el uso de Big Data en la educación actual, pero estos datos están poco contextualizados, y a menudo, como se ha señalado, se recogen y utilizan sin tener en cuenta sus efectos colaterales. Esta tendencia se enfrenta a varias cuestiones importantes.

En primer lugar, la creciente identificación de niños y niñas va en contra de sus derechos digitales. «Una cuestión que ha empezado a cruzarse con los instrumentos existentes sobre los derechos de la infancia, como la Convención de las Naciones Unidas sobre los Derechos de la Infancia (UN CDN1989)».La argumentación esta sostenida en que los datos generados por estas tecnologías se utilizan con frecuencia para la vigilancia de datos, es decir, el seguimiento y la evaluación de los niños por ellos mismos o por otras personas, que puede incluir el registro y la evaluación de los detalles de su apariencia, crecimiento, desarrollo, salud, relaciones sociales, estados de ánimo, comportamiento, logros educativos y otras características.

Los algoritmos desarrollados y entrenados por seres humanos no son objetivos e imparciales. Además, la mayoría de las personas no poseen la experiencia necesaria para entenderlos, ya que funcionan como cajas negras. Podemos identificar el posicionamiento ideológico y los intereses de un proyecto de ley educativa, un plan de estudios, el proyecto educativo de centro de una escuela, una planificación universitaria, un libro de texto o una aplicación educativa. Sin embargo, la mayoría de nosotros apenas podemos entender las nociones de enseñanza, aprendizaje, conocimiento, alumnado y profesorado en las que se basan los algoritmos, más allá del relato de marketing de la corporación que los vende.

El movimiento actual de transformación de la educación por la frenética actividad de recopilación de datos que tiene lugar en muchos países, tiene como artífices a desarrolladores de tecnologías educativas con creciente influencia creciente en nuestras aulas y nuestro sistema educativo. Estamos asistiendo a un cambio en la educación pública desde un sistema gestionado democráticamente a uno diseñado y dirigido por dispositivos y softwares que implementan metodologías pedagógicas en los productos de las grandes corporaciones digitales.La sustitución de la experiencia humana del profesorado por la capacidad de detección de patrones producida por los algoritmos de análisis del aprendizaje puede reducir las oportunidades de los estudiantes a las suposiciones codificadas en la lógica algorítmica.

La progresión de las personas, y no solo en entornos institucionales, puede ser rastreada junto con acciones como la actividad física, el uso de dispositivos digitales, la participación en los medios sociales, etc. Información que puede cotejarse con los datos aportados por alumnos y profesores a través de plataformas y aplicaciones (apps) de aprendizaje personalizado utilizadas en las aulas o en las casas. La mayoría de ellas diseñadas con tecnologías persuasivas impulsadas por algoritmos basados en los datos del alumnado para fomentar el progreso y la motivación, así como la vigilancia.

No podemos negar la importancia que tiene la adquisición de habilidades digitales en el contexto de la sociedad de la información y el conocimiento. Sin embargo, resulta crucial no confundir “aprender sobre ‘lo’ digital con aprender ‘a través’ de lo digital[iii]. En la mirada del Neurocientífico francés “cuanto más dejamos una parte importante de nuestras actividades cognitivas en manos de la máquina, menos material encuentran nuestras neuronas para estructurarse, organizarse y conectarse”. «Los ‘nativos digitales’ son los primeros niños con un coeficiente intelectual más bajo que sus padres«.

La delegación de funciones del humano a un dispositivo con capacidad de almacenamiento de dato y procesamiento de algoritmos (celular, computadoras en sus diversas versiones) empobrece las capacidades cognitivas del humano. “Esta delegación de funciones masiva, no es solamente unidireccional. Cuando vos delegas las funciones, la máquina te formatea el cerebro.[iv] 

Probablemente por esta razón, los promotores del silicón valeyy principales beneficiarios de estas aplicaciones tecnológicas tratan de preservar a sus hijos e hijas de su influencia enviándolos a escuelas con poco o ningún uso de dispositivos digitales, pero con experiencias de naturaleza, arte y filosofía.

Los algoritmos de IA se están convirtiendo en algo omnipresente en la sociedad actual, pero se suelen ofrecer como cajas negras. También como secretos comerciales, propiedad intelectual de las grandes empresas, demasiado valiosos para discutirlos abiertamente. Por otro lado, los modelos que los gobiernan se basan a menudo en suposiciones sesgadas, y en conjuntos de datos recogidos de una “realidad” que dista mucho de ser “real”.

La IA puede ser útil, especialmente para complementar la instrucción humana o en situaciones en las que el contacto humano es limitado, como en los entornos de aprendizaje digital. Sin embargo, el uso de algoritmos en la educación requiere supervisión, profesionales informados que comprendan cuáles son los límites de los algoritmos y transparencia en su aplicación y en los datos que recogen. También depende de un alto nivel de madurez tanto del alumnado como del profesorado, para abordar de forma crítica las evaluaciones, predicciones o materiales que el algoritmo ofrece. Los docentes no pueden abdicar de su papel y los resultados de los algoritmos necesitan ser cuestionados cuando son defectuosos. Además, cuestiones de soberanía sobre los datos y las aplicaciones demandan contar con desarrollo de IA locales con procesamiento y almacenamiento en territorio nacional.

Hay importantes cuestiones éticas en torno a la recolección de datos del alumnado y el profesorado y la creación de modelos en torno a ellos. Los datos son una moneda muy valiosa de la economía digital y es esencial obtener el consentimiento de las personas y tratar los datos de forma adecuada, en términos de adquisición, almacenamiento, intercambio, anonimización y destrucción de los mismos.

Los Estado son responsables de promover políticas públicas para el cuidado y la promoción de la economía de los datos, proteger la privacidad de las personas, sobre todo de las menores, y para poner límites a lo que los desarrolladores de algoritmos y productos comerciales puedan disponer libremente del uso y explotación para beneficio corporativo sin responsabilidad social cultural y política.

El sector educativo no puede depender de los creadores corporativos de la IA para regular su propio trabajo. Para examinar y validar las nuevas y complejas aplicaciones de IA para su utilización formal en las escuelas, la UNESCO recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras ramas reguladoras del gobierno, en particular aquellas que regulan las tecnologías.

Pensar las aplicaciones  de IA para Educación con equipos multidisciplinarios locales (de cada país) con desarrollo del programas que implementan los algoritmos de IA propios (no compras cerradas) con almacenamiento y procesamiento de datos en nubes de servidores físicamente alojados en territorios nacionales es pensar en soberanía en tecnología educativa .

En noviembre de 2021, la UNESCO elaboró la primera norma mundial sobre ética de la IA: la Recomendación sobre la Ética de la Inteligencia Artificial. Este marco fue adoptado por los 193 Estados Miembros. La Recomendación subraya que los gobiernos deben velar por que la IA respete siempre los principios de seguridad, inclusión, diversidad, transparencia y calidad.

Alfredo Moreno


[i]Turkle Sherry es doctora en sociología y psicología de la personalidad por la Universidad de Harvard. Realiza investigaciones sobre el psicoanálisis y la interacción humano-tecnológica. Es Profesora Abby Rockefeller Mauzé de Estudios Sociales en Ciencia y Tecnología en el Instituto de Tecnología de Massachusetts. Fundadora y directora del Institute of Technology and Self.

[ii]La era del capitalismo de vigilancia. La lucha por in futuro humano frente a las nuevas fronteras de poder. Shoshana Zuboof. Ed. Paidós 2021.

[iii]Michel Desmurget, Neurocientífico francés

[iv] Miguel Benasayag argentino radicado en París es filósofo, epistemólogo, doctor en psicología e investigador en neurofisiología. “La inteligencia artificial no piensa (El cerebro tampoco)” ed. Prometeo 2024.