Es de verdad sorprendente cómo parece haber algo parecido al destino en la vida. O alguna sincronicidad. O cierta concatenación atemporal de eventos que, para citar a Steve Jobs, le permite a uno, a la vuelta de los años, unir los puntos. Me refiero a que, en 1984 o 1985, cuando opté por la especialización en Lingüística en la carrera de Letras de la UBA, todo parecía indicar que me encontraba en las antípodas de la tecnología. Mucho más cuando, a pesar de la fama de bravas que les habían hecho, me había quedado enamorado de las cátedras de gramática de Ofelia Kovacci y de griego clásico de Delia Deli. Y llevaba para entonces diez años estudiando latín. No podía haber nada menos tecno que eso. Es más: todavía conservo las fotocopias de los cursos teóricos que dictaba Ofelia, que se vendían como notas de clase y que, por sí, constituyen todavía un formidable curso de sintaxis. Sí, leíste bien: fo-to-co-pias.

Muy bien. Avanzamos rápido la película y llegamos al día de hoy, en el que ChatGPT se muestra capaz de escribir correctamente en unos 30 idiomas, aunque con calidad diversa; el lenguaje con el que mejor se maneja es el inglés, básicamente porque es el idioma más presente en Internet, e Internet es el corpus de datos (dataset en la jerga) con el que se entrenó esta red neuronal. ¿De dónde sale el número de 30 lenguajes? Tuve que insistirle bastante a ChatGPT para que en lugar de darme una respuesta vaga (”English, Spanish, French, German, Chinese, Japanese, Arabic, Hindi and many more”) me dijera, luego de disculparse (estas constantes disculpas de ChatGPT son programadas y tienen una explicación), que en total son unos 30 idiomas.

alojamiento wordpress

A propósito, la máquina de traducción universal con la que soñaba Chomsky en la década del ‘60 ya casi es una realidad. Casi.

Así que empiezo a unir los puntos, casi 40 años después, y resulta que ahora, al escribir sobre IA, nombres como Searle, Saussure, Husserl y Chomsky, para mi absoluto asombro, vuelven a aparecer. Más aún, el haberme especializado en lenguas clásicas me permite entender por qué los traductores automáticos pueden producir buenos resultados en un idioma como el inglés o el español (que prácticamente no usan casos), pero se van al pasto con bastante frecuencia con el ruso o el japonés. (Si quieren reírse un rato, prueben las traducciones del ruso y el japonés de Instagram; son lo más.)

Teoría y solfeo

Estudié aquellas disciplinas, sin embargo, por la misma razón que un aspirante a músico va al conservatorio. Me dedico a escribir, así que quería saber la teoría, solfeo, ritmo y armonía de la lengua. Sin embargo, hoy hemos llegado a la desdichada instancia en la que una máquina –me refiero a ChatGPT– es capaz de escribir con más corrección que muchos de los alumnos que se proponen alguna vez trabajar escribiendo o hablando. Lo sé porque dicto clases en una carrera de periodismo desde hace más de 16 años.

Así que hay acá un montón de paño para cortar. Empiezo por la cuestión pedagógica: puede no ser inmediatamente obvio, pero a pesar de que todos nos hacemos entender hablando –a veces con ciertas dificultades causadas por diferencias dialectales, falta de vocabulario, ruido ambiente o una larga lista de otras razones–, escribir bien requiere dominar una serie de disciplinas. Aparte de la morfología, que se supone que aprendemos en la primaria, hay que saber sintaxis y semántica, como mínimo. Varias ramas de la lingüística ayudan, además. Y por supuesto hay que leer mucho.

La paradoja es doble entonces. Por un lado, las carreras que forman a los futuros comunicadores se saltean estas disciplinas. Ignoro por qué; no sé si es simple negligencia, ideología o qué. Las comas, dejémoslo claro, no son para respirar. Son marcadores sintácticos. Si no sabés sintaxis, nunca vas a tener del todo claro dónde van las comas. ¿Por qué? Porque no vas a reconocer cuál es la función sintáctica de cada estructura dentro de cada oración. Vas a tocar de oído. Por ahí tocás super bien, pero esa es otra historia; también podés saber teoría, solfeo, armonía y ritmo y ser un desastre como músico.

El caso es que no se imparten las disciplinas que hacen al escribir. Mientras tanto, ChatGPT fue entrenado en un corpus de miles de millones de líneas de texto ponderadas por redes neuronales con 175.000 millones de parámetros. ¿De dónde surge esta imprecisión respecto de la cantidad de texto con la que se alimentó a ChatGPT? De ChatGPT. Normalmente, se habla de unas 300.000 millones de palabras o un dataset de 570 gigabytes. El bot, en cambio, respondió vagamente, y cuando le pedí que me dijera exactamente con cuánto texto había sido entrenado me respondió que “miles de millones de palabras” y que el dato exacto no está disponible públicamente.

Es lo de menos. Mientras por un lado supercomputadoras con miles de GPU se entrenan con miles de millones de palabras escritas por humanos y ponderadas por redes neuronales con 175.000 millones de parámetros (weights o pesos, en la jerga), la academia no se ocupa de entrenar a sus escritores, oradores y otros profesionales de la palabra en lo más elemental: la sintaxis y la semántica.

Las ruinas de la inconsciencia

En este punto, el aficionado a las conclusiones superficiales dirá que este análisis es una antigualla. Que es obvio, por ChatGPT y sus parientes, que la especie humana pronto ya no va a necesitar escribir más, del mismo modo que ya no necesita saber las tablas de multiplicar.

Lo que parece que no llegamos a ver, en esta tormenta perfecta que ha conjurado la súbita fama mediática de ChatGPT, es que los textos generados por la IA son un pelmazo. Un embole. Un hastío insufrible. Correctos, y nada más. Cierto, puede uno pedirle que escriba como una pluma conocida que nos gusta, pero no será esa pluma; será una imitación; y una imitación pésima. Tienen más alma las bandas tributo que ChatGPT. Miren, para dejar claro que no exagero, lo que hizo el bot cuando le pedí que escribiera un poema sobre el sentido de la vida en el estilo de Jorge Luis Borges:

La vida es un laberinto sin fin

Un camino sin destino claro

Un mar de incertidumbres y sinsabores

Que condena al hombre a sufrir.

***

En ella buscamos la verdad

La razón de nuestra existencia

Pero solo encontramos la muerte

Que nos acecha en cada esquina.

***

La vida es una ilusión pasajera

Un espejismo que nos engaña

Pues nada de lo que hacemos perdura

Y al final todo se desvanece.

***

Sin embargo, la vida tiene un sentido

Que solo el corazón puede entender

Pues en el amor y la amistad

Encontramos la razón de ser.

***

La vida es un regalo que debemos valorar

Aprovechar cada instante, cada momento

Pues solo así podremos encontrar

La felicidad y el verdadero conocimiento.

***

En resumen, la vida es un enigma

Un misterio que debemos desentrañar

Pero solo lo lograremos

Cuando aprendamos a amar.

Si no fuera real, parecería una broma de mal gusto. ¿De verdad la IA cree que es lícito poner a Borges rematando un poema con la frase “en resumen”? Es Borges, muchacho, no un informe financiero. Pero, más allá de eso, ¿a cuántos años luz está este mamarracho de “No son más silenciosos los espejos” o del principio increíble de Las Ruinas Circulares (“Nadie lo vio desembarcar en la unánime noche”)? El poemita rima, eso sí. Ah, y hay laberintos. Un par de cosas más: los asteriscos son míos, para desatacar las estrofas, y con los gatos no le fue mejor.

Le pedí también una canción de protesta al estilo Bob Dylan, que no transcribo porque me da vergüenza ajena. Auténtica y sincera vergüenza ajena.

Escribir, sumar y restar

Hay una razón para que, mientras creemos que la IA está por tomar el control del mundo, ocurran estos papelones. ChatGPT (y LaMDA o LlaMA) son modelos de lenguaje. Es decir, un tipo de inteligencia artificial cuya destreza es hablar. Eso es realmente mucho, sin duda. Y lo es por dos motivos. El lenguaje es increíblemente complejo (al punto que todavía se debate cómo apareció entre los humanos y cómo lo producimos cada día, cada hora, cada minuto, naturalmente, desde los dos años de edad) y el lenguaje nos hace humanos. Ningún otro ser vivo en este planeta es capaz de lo que se conoce como Doble Articulación del Lenguaje. Por eso, una máquina capaz de hablar con tanta soltura produce semejante impacto y causa la sensación de que hay alguien del otro lado.

El problema está en que poder hablar no significa decir ni cosas inteligentes ni verdaderas ni interesantes ni creativas. Ni que haya alguien del otro lado, para el caso. Por eso, porque no hay nadie, ni siquiera alguien que admira a Borges, es imposible pedirle a ChatGPT que imite a Borges o a Bob (Dylan) con un mínimo de dignidad. Ni que escriba solo mejor que correctamente. Y aquí está el problema principal.

Dejando de lado el que el no ser capaz de sumar, restar, multiplicar y dividir sin una calculadora constituye una desventaja, no podemos comparar la aritmética con la escritura. Los métodos mentales para hacer cuentas son numerosos, pero el resultado es siempre el mismo. Dos más dos es cuatro. El lenguaje es diferente. Es la única forma que conocemos de expresar sin ambigüedades (o con las ambigüedades que deseemos) ideas y emociones, y hay, por añadidura, millones de maneras de decir lo mismo.

Aquí es donde la paradoja se enrosca en una escalofriante vuelta de tuerca: la depreciación de la educación es tan grande que creemos que en escritura (o en cualquiera de las artes) con lo correcto alcanza. No, no alcanza. Borges, Dylan Thomas, Bob, Eliot, Vallejo, Safo, Dickinson, Huidobro, Catulo o Yeats –por citar unos pocos– no escribían correctamente. Ni siquiera podemos decir que escribían bien. No solo escribían muy por encima de lo que sería excelente, sino que además llevaron el lenguaje humano al límite de sus posibilidades, y con eso originaron en otros espíritus, incluso milenios después, emociones inolvidables.

Lo que hace ChatGPT, vuelvo a decirlo, es admirable. Pero es admirable en un software. Creo que los humanos deberíamos aspirar a más.

ChatGPT. Tienen más alma las bandas tributo
Estas leyendo: la nacion