Edición n° 2737 . 20/05/2024

Karina Pedace: «Hay que poner en jaque la valoración de la tecnología como algo neutral»

La investigadora de la Universidad de La Matanza, reconocida como una de las cien Mujeres Brillantes en Ética de la Inteligencia Artificial del mundo, plantea la gravedad de dejarla librada a la buena voluntad de las corporaciones. Menciona cómo nos atraviesa en la vida cotidiana. Y aboga por avanzar en un alfabetismo digital.

Por: Gastón Rodríguez@Soyelpapadeleon

A principios del 2022, un mail notificó a Karina Pedace –doctora en Filosofía por la UBA, secretaria ejecutiva de la Red de Mujeres Filósofas de América Latina de la UNESCO y docente e investigadora en Humanidades y Ciencias Sociales de la Universidad Nacional de La Matanza, por nombrar solo algunos de los títulos que engordan su CV– de su ingreso a la lista de las 100 Mujeres Brillantes en Ética de la Inteligencia Artificial (IA), una distinción internacional que recién “rebotó” en los últimos días, en coincidencia con la publicación de un artículo suyo en el Transnational Institute (TNI), en el que apuntó los peligros de confiar en la IA para abordar problemas sociales y ambientales. Spoiler alert: nada es lo que parece.

Son días en los que la IA volvió a los primeros planos con el Chat GPT. Un sistema de chat con inteligencia artificial creado por OpenAI (de Elon Musk), «entrenado» para mantener conversaciones, generar textos, traducir, corregir, y dar respuestas a diversos temas a partir de información que obtiene sobre todo de internet. Ya lo usan universidades y escuelas y lo promueve el Gobierno de la Ciudad a través del Boti y talleres en los que plantean que bloquearlo «podría impedir el desarrollo de una de las mayores transformaciones del modelo educativo». Google y China ya trabajan en sus propios chats «inteligentes».

“Una advertencia importante –empieza Pedace– es que la Inteligencia Artificial no es ni tan inteligente ni tan artificial, tomando una cita de la investigadora Kate Crawford. No es artificial porque existe de manera corpórea: estos algoritmos corren físicamente, están hechos de recursos naturales, involucran mano de obra, combustibles, logística; ni tampoco son tan inteligentes porque no son capaces de discernir algo sin un entrenamiento extenso e intensivo, porque son un conjunto de datos que nosotros vamos predefiniendo. Eso quiere decir que hay estructuras políticas, culturales y sociales subyacentes; no se trata de un dominio puramente técnico”.

–El mito de la Inteligencia Artificial como algo neutral.

–Exacto. Se suele decir con ligereza que la tecnología es una herramienta más, que no es ni buena ni mala y que depende de cómo se usa. Nosotros, y hablo de mi grupo de investigación (ver recuadro), queremos poner en jaque esa valoración de la tecnología como algo neutral. La tecnología no gira en el vacío, está inmersa en una cultura y en una sociedad. Tanto en el diseño como en el uso que se hace de ella, se replican los valores que se van permeando dentro de la sociedad. Cuando uno puede estudiar la Inteligencia Artificial en profundidad aparecen aspectos problemáticos, existe mucha tensión y un enorme impacto sobre nuestras subjetividades.

–¿Cómo describiría ese impacto en nuestras vidas cotidianas?

–Está presente en nuestras vidas, en las películas que te recomienda el sistema de streaming, en las apps que instalamos en el smartphone. Lo interesante es pensar en qué sentido va y a quién está dirigida esa tecnología. Cuando se habla de Inteligencia Artificial parece no ser accesible a todos y por eso creo fundamental fortalecer la alfabetización digital. Por ejemplo, algo que no hacemos por pereza es leer los términos y condiciones. La tecnología disponible impone que nos volvamos sobre nosotros mismos para ver qué aspectos de nuestras vidas pueden estar involucrados. Desde nuestra privacidad hasta los tipos de sesgos que alimentaron el algoritmo que nos recomienda ciertas películas. Esos sesgos de género, de clase, de etnia, están presentes en los datos y no solo replican las desigualdades existentes, sino que se corre el riesgo de que las exacerben.

La trampa

Pedace emparenta su trabajo al comportamiento insistente del tábano: lo suyo es molestar. “Yo me venía dedicando a la filosofía de la mente, me preguntaba en qué consiste pensar, cómo lo hacemos. Pero en el medio se ‘coló’ la pregunta acerca de si las máquinas pueden pensar. Empecé a tirar de ese hilo y me pareció interesante todo ese desarrollo tecnológico que implica la Inteligencia Artificial, lo que me llevó a realizarme más preguntas de raigambre filosófica: plantear nuevos interrogantes incómodos más que apresurarme a encontrar respuestas celebratorias o recusatorias de la tecnología”.

–Pero algunas conclusiones habrán sacado.

–Me parece importante que exista un equilibrio reflexivo y de ese modo desmarcarse del dualismo extremo. No abrazar la tecnofilia (afición por la tecnología) ni tampoco recusar abiertamente cualquier tipo de innovación por el solo hecho de serlo. También me parecería grave dejar la cuestión de la tecnología librada a la buena voluntad de las corporaciones hegemónicas. Se impone una discusión en donde intervengan los Estados, la academia, las organizaciones civiles y de base, que sea un diálogo polifónico y abierto. Creo que una gran parte de la población puede dar cuenta del impacto que tiene en su día a día; y por eso, insisto, debemos involucrarnos y poner el tema en el centro del debate público. La trampa es pensar que si alguien no sabe lo que es un algoritmo no puede ser parte de la discusión. Hay una cuestión más allá de lo técnico y que involucra a la política, la cultura y los valores embebidos desde el diseño de la tecnología. Si esperamos las derivas de su uso, vamos a llegar a una reflexión tardía. Una conclusión sería que la tecnología no puede resolver per se los problemas que ella misma genera.

Foto: Lionel Bonaventure / AFP

«Un área que se torna cada vez más omnipresente»

Karina Pedace es, junto a Tomás Balmaceda, Diana Pérez, Diego Lawler, Maximiliano Zeller y Tobías Schleider, integrante del Grupo de Investigación de Inteligencia Artificial, Filosofía y Tecnología (GIFT); un conjunto de filósofos y filósofas que desde una perspectiva analítica están “abocados a considerar problemas éticos, políticos, epistemológicos y metafísicos relacionados con la Inteligencia Artificial y las diversas tecnologías que hoy nos atraviesan como individuos y moldean nuestra sociedad”.

En ese sentido, Pedace afirma que “más allá de que el reconocimiento fue en nombre propio (en referencia al galardón que la eligió como una de las 100 Mujeres Brillantes en Ética de IA), ninguna investigación la pienso en soledad, sino que se van refinando al interior del grupo de investigación que integro. El diálogo es esencial en la práctica filosófica en un área que se torna cada vez más omnipresente”.