Edición n° 2744 . 27/05/2024

El Chat GPT y la última milla del humanismo

Por Andrés Rabosto

En los últimos meses, hemos sido testigos de una avalancha de noticias, celebraciones y alarmas por las potencialidades de la inteligencia artificial en general y del Chat GPT en particular. Sin embargo, tanto los flashes deslumbrantes como los temores apocalípticos parecen haber desviado la discusión de las principales preguntas: ¿qué tipo de tecnología es el Chat GPT? ¿Qué transformaciones puede provocar en la economía y el mundo del trabajo? ¿Qué pasa con la titularidad de las entradas y salidas? ¿Quiénes son sus propietarios? ¿Qué tanto desafía a los humanos?

Definir el GPT, pensar el trabajo ¿humano?

GPT es la sigla de «Generative Pre-Trained Transformer», un tipo de modelo de inteligencia artificial que ha sido entrenado con grandes cantidades de datos para generar texto o lenguaje natural de manera autónoma. «Aprende» de los datos y descubre patrones y relaciones entre ellos, prestando atención al contexto y al significado y, sobre esa base, genera textos según lo que se le pida: no copia, crea. La particularidad es que estos modelos no realizan «una» actividad humana, sino todas las que sean concebibles que involucren lenguajes, texto o escritura, ya sea responder una pregunta, traducir texto, escribir una canción o programar en cualquier lenguaje. Adicionalmente, sobre GPT pueden desarrollarse piezas de software que involucren otras capacidades y realicen otras tareas, lo que extiende las capacidades de esta inteligencia artificial a los más recónditos ámbitos del quehacer humano. Esto es lo que potencialmente la convierte en una «tecnología de propósito general». Ese es uno de los motivos por los que el desarrollo del Chat GPT 4, basado íntegramente en esta tecnología, despertó las alarmas por los empleos que podrían perderse en sus manos, o más bien en sus líneas de código.

Entre quienes han intentado analizar el fenómeno –y las alarmas que conlleva– se encuentra un grupo de investigadores de la Universidad de Cornell. En un análisis publicado recientemente, Tyna Eloundou, Sam Manning, Pamela Mishkin y Daniel Rock no solo intentan estimar el impacto que el Chat GPT 4 puede tener en el mercado laboral, sino que pretenden, además, definir esta tecnología por sus implicancias. En tal sentido, argumentan que las tecnologías GPT son transversales a toda la sociedad y que su potencial impacta en todos los sectores. Según este grupo de académicos, las tecnologías GPT pueden transformarse en parte de la infraestructura crítica de la sociedad, como lo fueron en su día la máquina a vapor, la imprenta, la electricidad o internet. En la misma línea, pero en 2019, Nick Dyer-Witheford, Atle Mikkola Kjøsen y James Steinhoff publicaron Inhuman Power: Artificial Intelligence and the Future of Capitalism. Allí sostenían que se avecinaba un nuevo estadio del modo de producción capitalista dominado por la inteligencia artificial, en el que esta devendría la infraestructura crítica del capitalismo digital.

Este tipo de exploraciones sobre el impacto de la inteligencia artificial en el mundo del trabajo no es en rigor nueva. En 2013, los economistas de Oxford Carl Benedikt Frey y Michael Osborne escribieron un famoso paper que abordaba este interrogante y que, todavía hoy, levanta polémicas. Según los economistas, 57% de los puestos de trabajo en Estados Unidos corrían un alto riesgo de ser automatizados por la inteligencia artificial. Diez años después, el pronóstico no parece haberse cumplido, pero en aquel entonces el pánico cundió. El historiador Yuval Harari utilizó las estimaciones para ilustrar las catastróficas trasformaciones venideras en su best seller Homo Deus. Sobre la base de esa metodología, en su informe Dividendos digitales, el Banco Mundial estimó que un país como Argentina tenía 60% de empleos en riesgo de automatización. Para el resto de América Latina se estimaban niveles similares. Otros investigadores salieron a responder: Melanie Arntz, Terry Gregory y Ulrich Zierahn, de la Organización para la Cooperación y el Desarrollo Económicos (OCDE), argumentaron que las ocupaciones no son «automatizables», pero sí las tareas que las componen: según ellos, 9% de los empleos tenían riesgo alto de automatización. Erik Brynjolfsson, Tom Mitchell y Daniel Rock encontraron muchas ocupaciones en las que la inteligencia artificial podía realizar algunas tareas, pero ninguna en la que pueda realizar 100% de ellas. Por lo tanto, los empleos no necesariamente se perderían, sino que se reconfigurarían. David Autor, eminencia de los estudios laborales, sostuvo que a lo largo de la historia la automatización creó más empleos de los que destruyó: al aumentar la productividad, aumentan el ingreso y la inversión y, finalmente, el empleo.

El problema era, por consiguiente, qué tipos de empleos se perderían y cuáles se crearían. Y aquí hubo cierto consenso entre los especialistas: la automatización industrial ataca los empleos rutinarios de índole física o manual, llamados de «cuello azul». La automatización por inteligencia artificial haría lo propio pero con los empleos rutinarios cognitivos o de «cuello blanco». El resultado sería una pérdida neta de los empleos «rutinarios» que, típicamente, se corresponden con empleos de calificación y salarios medios. En paralelo, crecerían los empleos «no rutinarios» difíciles de automatizar, tanto manuales precarios –de baja calificación y salarios–, como altamente calificados y de elevados salarios. En definitiva, se produciría una verdadera polarización laboral. Enfermeras, albañiles, rappis y changarines, por un lado; gerentes, programadores, intelectuales y artistas por el otro. En el medio, un abismo de fábricas y oficinas extintas.

Un estudio específico

¿Cuál es entonces el diferencial que ofrece ahora el trabajo analítico realizado por el grupo de investigadores de la Universidad de Cornell? En primer lugar, que los autores no se preguntan por un conjunto difuso de tecnologías de inteligencia artificial, sino por una específica: el Chat GPT. Luego, establecen tres escenarios que pueden reducirse a dos: de mínima, solo Chat GPT; de máxima, Chat GPT junto con los softwares complementarios (que incluyen procesamiento y generación de imágenes además de texto). Por otro lado, no miden el «riesgo de automatización» de los empleos u ocupaciones, sino el grado de exposición de las tareas a la inteligencia artificial generativa. La exposición se define en función de si un GPT -como Chat GPT- podría realizar esa tarea al menos en 50% con resultados indistinguibles de los de un humano. El hecho de que varias tareas de una ocupación estén expuestas a la inteligencia artificial no significa que la ocupación será automatizada: puede serlo, pero también puede ser «aumentada» (un escenario en el que la ocupación se complejiza: el GPT asiste en las tareas simples, mientras que el humano profundiza las complejas), o reconfigurada (cambian las tareas, pero sobrevive la ocupación, o muta en una ocupación nueva). Finalmente, no los clasifican en rutinarios y no rutinarios, sino según el nivel de salario, las habilidades requeridas y la educación formal necesaria para el puesto. Última novedad: los autores «aumentan» su propio trabajo utilizando Chat GPT 4, que, además de ser el objeto de investigación, es sujeto investigador: etiqueta datos, establece criterios para determinar la exposición de las tareas a la inteligencia artificial, confecciona tablas, colabora en la redacción de los resultados y conclusiones. Los números que obtienen pueden ser o no impactantes según quien los lea: 80% de la fuerza laboral estadounidense tiene al menos 10% de sus tareas laborales expuestas, mientras que 20% tiene al menos 50% de sus tareas expuestas.

Sin embargo, lo crucial pasa por otro lado: al contrario de la bibliografía precedente, los autores concluyen que los empleos más expuestos a la inteligencia artificial generativa son los que habíamos llamado «cognitivos no rutinarios». Empleos de altos ingresos y elevadas barreras de entrada: programadores, profesores, intelectuales y artistas, entre otros, caen en la guillotina del GPT. También hay una fuertísima correlación entre digitalización y exposición a la inteligencia artificial, lo que resulta totalmente lógico: cuando realizan las estimaciones por sector de actividad, las más expuestas son las industrias de información, incluido el desarrollo de software.

Hay quienes podrían tentarse con dibujar una sonrisa burlona: GPT viene por snobshípsters y geeks. Pero hay una dimensión trágica incluida: en el mar de desconcierto de nuestra región, muchos jóvenes latinoamericanos, en gran medida de origen popular, vienen apostando un pleno al salvavidas de la programación. También lo hicieron los hacedores de política pública. Hay que tomar estos resultados con cautela, pero sugieren que podría ser un salvavidas de plomo.

Ciertamente, podría argumentarse que Chat GPT tiene sesgos, comete errores y, en ocasiones, miente descaradamente. Pero nada distinto ocurre con la generalidad de los seres humanos. Al fin y al cabo, para Chat GPT nada de lo humano es ajeno. En cualquier caso, GPT le cuenta las costillas al ya malogrado orgullo humanista: no hay actividad, menos aún trabajo, inherentemente humana.

Artistas automatizados y datos proletarizados

Hace pocos días, los artistas Drake y The Weeknd lanzaron el tema Heart on My Sleeve. Llegó a tener 15 millones de reproducciones en TikTok y más de 20 millones en Twitter. Apareció en todas las redes sociales y plataformas musicales y fue atribuido a un trabajo entre ambos artistas. Sin embargo, resultó ser un fake. Un usuario le pidió a Chat GPT que componga un tema en colaboración entre ambos artistas, luego se lo dio a otra inteligencia artificial generativa que le puso sonido y video. El tema emulaba a los artistas, pero era una composición realizada por la inteligencia artificial.

Universal Music Group amenazó con acciones legales a todas las plataformas que lo reprodujeran: en pocas horas fue eliminado de la web. En su comunicado, argumentaron que «entrenar a la inteligencia artificial generativa usando la música de nuestros artistas representa tanto una ruptura de nuestros acuerdos como una violación de los derechos de autor». Al mismo tiempo, afirmaban que «plataformas como Spotify o YouTube tienen una responsabilidad legal y ética para evitar el uso de sus servicios de forma que perjudiquen a los artistas».

Aquí aparecen varias tensiones del capitalismo digital y su armazón de propiedad intelectual. Los artistas pueden ser automatizados y Chat GPT puede hacer música con estilo de Drake & The Weekend indistinguible de ellos a los oídos del público. Pude hacerlo porque se entrenó, entre otros miles de millones de datos, con las canciones de estos artistas. La obra resultante ¿a quién debería pertenecer? ¿A OpenAI y Microsoft? ¿A Chat GPT? ¿A la discográfica titular de los derechos de autor de los artistas? ¿A los artistas? ¿A quien ingresó el prompt de instrucción en el chat? ¿Al dominio público? No parece haber una respuesta clara para esto.

Es relativamente sencillo ver las tensiones que Chat GPT provoca respecto a los derechos de titularidad y autoría en las salidas del modelo, las «obras» que genera. Pero la misma atención deberían recibir las entradas, los datos de entrenamiento: para entrenar a los GPT se utilizan cantidades titánicas de datos disponibles en internet. ¿Qué pasa con los titulares de esos datos? ¿Quiénes son? ¿Deberían poder decidir si sus datos pueden ser utilizados en estos procesos? ¿Deberían ser compensados? ¿De qué manera?

Hace más de una década, Mariano Zukerfeld denominó estos datos abiertos disponibles en internet «conocimientos doblemente libres»: libres de ser utilizados y libres de que se paguen recompensas por ellos. Durante el auge de la web 2.0, los gigantes digitales que dieron forma al capitalismo de plataformas montaron sus imperios explotando estos «conocimientos doblemente libres»: Facebook y Google son dos ejemplos claros, pero no los únicos. Ahora estos conocimientos «doblemente libres» son apropiados y explotados por OpenAI como feedlot para alimentar inteligencias artificiales generativas.

En el mundo de la programación un caso especial es el de GitHub Copilot. GitHub es el repositorio colaborativo para desarrollares de software más grande de la web, en el que se alojan miles de proyectos y millones de líneas de código aportadas por los usuarios. En 2018 fue adquirido por Microsoft y, poco tiempo después, las líneas de código subidas por cientos de miles de programadores comenzaron a utilizarse para entrenar a GitHub Copilot: un proyecto conjunto de OpenAI y GitHub para crear una inteligencia artificial generativa que asista a los programadores sugiriendo líneas de código según el contexto y el lenguaje que se esté utilizando. Copilot se basa en GPT 3 y fue lanzado al mercado en 2021.Si bien no «automatiza» el desarrollo de software por completo, simplifica el trabajo de manera significativa: según reportes de empresas que lo implementan, algunos meses de preparación bastan para formar un desarrollador junior que pueda programar asistido por Copilot, lo que disminuye la calificación necesaria para entrar en los puestos y presiona los salarios a la baja. Los propios programadores que aportaron sus códigos terminan siendo afectados por el resultado.

Pero pongamos otro ejemplo. El Estado argentino financia el sistema científico público que, siguiendo las buenas prácticas internacionales, tiene una política de datos abiertos. Todos los resultados de la I+D+I pública se encuentran en repositorios abiertos. Estos son utilizados, entre otros, para entrenar Chat GPT. ¿Deberíamos tener una regulación que los proteja o que imponga condiciones? ¿Qué compensaciones serían adecuadas? ¿Quién se queda con los beneficios de las inteligencias artificiales generativas?

Finalmente, resta preguntarse por la caja negra que media entre las entradas y las salidas: el algoritmo mismo que debería ser el foco de las hasta ahora inexistentes regulaciones.

Inteligencia artificial capitalista

Una pregunta nos quedó pendiente: ¿quiénes son los dueños de esta tecnología? El primer GPT fue lanzado en 2018 por OpenAI, la misma empresa que lanzó GPT 3 y Chat GPT 3 y 4. ¿Misma empresa? Bueno, no del todo. OpenAI fue fundada en 2015, entre otros, por Elon Musk y Sam Altman como una organización sin fines de lucro para la investigación de inteligencia artificial, con el objetivo de promover y desarrollar inteligencia artificial amigable y abierta que beneficie a la humanidad. En 2019 se creó la división OpenAI LP, una organización con fines de lucro «limitada». Pocos meses después se asoció con Microsoft anunciando un paquete de inversión de 1.000 millones de dólares en la compañía y licenciando comercialmente sus tecnologías. Luego de la publicación de Chat GPT en 2022, OpenAI recibió un nuevo financiamiento de 10.000 millones de dólares por parte de Microsoft. De este modo, la estructura de propiedad de OpenAI quedó con 49% de acciones para Microsoft, un porcentaje idéntico para otros inversores y 2% para la organización matriz sin fines de lucro, OpenAI. Microsoft se reserva 75% de las ganancias de OpenAI hasta recuperar su inversión y, después de eso, obtendría 49% de ellas. Asimismo, obtiene las licencias de uso exclusivas de todos los productos.

La filosofía de la técnica ha enseñado que la tecnología nunca es neutral: hay valores involucrados en ella. Según Nick Dyer-Witheford, Atle Mikkola Kjøsen y James Steinhoff, la inteligencia artificial es el producto no solo de una lógica tecnológica sino también de la lógica de producir plusvalor. Surgió y se desarrolló en un orden socioeconómico que recompensa a quienes poseen los medios para automatizar el trabajo, acelerar ventas, acrecentar ganancias e intensificar el control. Y esto está en su ADN.

Al final del día y pese a su maquillaje, OpenAI no es una empresa sin fines de lucro ni tampoco «abierta»: todos sus productos son de Microsoft con licencias exclusivas. Lo único «abierto» en su modelo de negocios son los datos de entrenamiento, a los que no reconocen ninguna titularidad. La lógica del plusvalor es, al fin y al cabo, su lógica. Y con la guerra armamentística que se está desatando en la industria de la inteligencia artificial, esa lógica no puede más que acrecentarse.

¿Quién acelera?

En el Manifiesto comunista, Karl Marx se deslumbraba por la fenomenal liberación de fuerzas productivas que posibilitó el capitalismo, al tiempo que lo aterraba el movimiento autónomo e impersonal que ese mismo modo de producción les imprimía. Este rasgo acompañó toda su obra: el capital era una fuerza imparable que empujaba a una revolución continua de las condiciones de producción mediante desarrollos tecnológicos. Al mismo tiempo, Marx describió cómo bajo el capital este desarrollo subsumía el trabajo vivo y lo convertía en un apéndice de las máquinas. En cualquier caso,  Marx consideraba en última instancia que solo mediante los frutos de la ciencia y la tecnología la humanidad podría emanciparse del capital.

Desde entonces, la izquierda ha oscilado entre posiciones paradójicas respecto a las tecnologías, particularmente sobre aquellas que tienen potencial de sustituir el trabajo humano. Mientras que algunos las combaten en el afán romántico de detener su marcha, otros empujan para acelerarlas y aumentar la marcha del tren de la historia.

Ni el decrecionismo ni ninguna de sus tribus aledañas son, en rigor, una vía factible: intentar detener la marcha de la inteligencia artificial o cualquier otra tecnología parece un intento vacuo. Pero al mismo tiempo es posible reconocer que las formulaciones aceleracionistas de Nick Srnicek y Alex Williams no parecen estar envejeciendo bien. Si aceleramos puede que, al salir del túnel, la inteligencia artificial no conduzca a la emancipación humana del capitalismo, sino por el contrario, como sugería Nick Land, a la emancipación del capital del género humano. Pisar o no pisar el acelerador no parece ser ya una decisión humana.

Las inteligencias artificiales generativas parecen estar asediando la última milla del humanismo, sus últimos refugios. Tal vez en este punto residan sus consecuencias más profundas y radicales: nada es, por derecho propio, atributo exclusivamente humano, «cosa en sí» humana. 

Nota del autor: agradezco a los miembros del equipo e-tcs, del que soy parte, en cuyos debates tomaron forma las principales ideas expresadas en este artículo. Como es natural, no son responsables por las opiniones aquí vertidas.

Fuente: https://nuso.org/