Ojalá que ChatGPT pudiera hacer las partes aburridas de mi trabajo por mí, pero no puede".

ShutterStock

(Viene de la página 15)

Era el 21 de febrero y el chatbot ChatGPT estaba escribiendo un texto incoherente: "Estoy por. Estoy en. Estoy para, soy de, soy eso".

OpenAI, que administra a ChatGPT, admitió que había un problema y lo solucionó rápidamente, que es quizá lo menos que se puede esperar de una compañía valorada recientemente en US$80 mil millones. Explicó que una actualización había "introducido un error en la forma en que el modelo procesa el lenguaje".

Aun así, los defectos menos dramáticos de ChatGPT siguen ocurriendo de forma rutinaria. Ahora tiene que responder a las consultas con advertencias y contexto, insertados como elementos de seguridad. "¿Son ideas mías o ChatGPT4 es cada vez peor

en su trabajo? ¿Cada vez más obtuso?", se quejaba el mes pasado el físico David Deutsch, uno de los primeros en adoptar la tecnología.

ChatGPT también "alucina" regularmente; inventa información incorrecta. Cuando se le pidió que generara resúmenes científicos, inventó el 30 por ciento de las referencias; no hubo ninguna mejora real entre el rendimiento de la versión 3.5 y la versión 4.

A ChatGPT se le pidió que nombrara a los primeros ministros británicos con dos "t" en su nombre. Su respuesta: "1. Margaret Thatcher; 2. Winston Churchill (cuyo nombre completo no tiene dos "t"); Tony Blair (cuyo nombre completo sí las tiene); y 4. Matt Hancock (diputado británico que, hasta ahora, no ha fungido como primer ministro).

¿Cómo responder a una tecnología que es tanto brillante como incompleta? No se trata sólo de ChatGPT. Google tuvo que desconectar su generador de fotos Gemini, basado en inteligencia artificial (IA), después de que produjo imágenes históricamente inexactas y ofensivas, como personas de raza negra como nazis. Estas herramientas fallan de forma obvia: no son lo suficientemente fiables como para ser utilizadas de forma generalizada y regular. De ahí la broma, de la que se ha hecho eco el propio cofundador de OpenAI, Sam Altman: la IA es cualquier cosa que aún no funciona.

La respuesta más popular es suponer que las herramientas mejorarán. Ya hemos pasado por esto antes. Wikipedia antes era un chiste; ahora (gracias a la labor humana), tiene un valor incalculable. El uso de ChatGPT ha disminuido tras un repunte inicial, pero aún está en su infancia. El 5 de diciembre de 2000, The Daily Mail publicó el siguiente titular: "El Internet podría ser sólo una moda pasajera, ya que millones de personas están renunciando a utilizarlo". Tanto los optimistas como los pesimistas de la IA asumen que la tecnología también avanzará esta vez. Elon Musk predijo recientemente: "La IA será probablemente más inteligente que cualquier ser humano el año que viene". Geoffrey Hinton, exingeniero de Google, ha advertido que puede acabar con la humanidad.

Decepcionante

Pero el revuelo de la IA del último año también ha abierto la demanda de una perspectiva rival: la sensación de que la tecnología puede ser un poco decepcionante. En otras palabras, ni pesimismo ni optimismo, sino escepticismo. Si juzgamos la IA sólo por nuestras propias experiencias, el futuro no está garantizado.

Quizá el crítico más ruidoso que cuestiona la IA es Gary Marcus, un científico cognitivo que cofundó una empresa "startup" de IA y se la vendió a Uber en 2016. Marcus, a quien algunos califican como "escéptico del aprendizaje profundo", prefiere el término "realista".

No es un agorero que cree que la IA se volverá loca y nos convertirá a todos en clips (uno de los escenarios de pesadilla de los críticos de la IA). Quiere que la IA tenga éxito y cree que lo tendrá. Pero, en su forma actual, sostiene, está chocando contra muros.

Los grandes modelos de lenguaje (LLM, por sus siglas en inglés) actuales han aprendido a reconocer patrones, pero no comprenden los conceptos subyacentes. Por lo tanto, siempre producirán errores tontos, dice Marcus. La idea de que las compañías tecnológicas producirán inteligencia artificial general (IAG) para 2030 es "irrisoria".

La IA generativa está absorbiendo dinero, electricidad, agua y datos protegidos por derechos de autor. No es sostenible. Quizás se necesite un enfoque totalmente nuevo. Ed Zitron, experiodista especializado en juegos que ahora es publicista y crítico de tecnología en Nevada, lo explica con más crudeza: "Quizás estemos en el momento cumbre de la IA".

Este escepticismo es atractivo, en parte porque cuestiona la prepotencia de líderes tecnológicos como Altman y Musk. ¿A quién no le gusta echarles agua fría a multimillonarios engreídos? ¿Quién no se consuela a veces pensando que las cosas podrían seguir como están? Incluso aunque no articulemos explícitamente ese enfoque escéptico, lo apoyamos implícitamente con nuestro comportamiento. No estamos haciendo mucho para adaptarnos a la IA (o al cambio climático) porque no creemos en los cataclismos hasta que llegan.

Pero el escepticismo también es difícil porque la tecnología mejora muy rápidamente. En 2013, Marcus escribió sobre cómo el potente motor de búsqueda de Google no podía responder a preguntas que los adultos no se habían hecho antes, como: ¿Puede un caimán correr los 100 metros vallas? Ahora ChatGPT puede responder esa pregunta fácilmente.

Incluso los optimistas de la tecnología pueden resultar sorprendidos. El director de IA de Meta, Yann LeCun, les dijo a los líderes mundiales el 13 de febrero que no era posible un servicio de IA generador de texto a vídeo: "Básicamente no sabemos cómo hacerlo". Pocos días después, OpenAI reveló su modelo de conversión de texto a vídeo, Sora. Si dices en voz alta que la IA nunca será capaz de hacer algo, existe la posibilidad de que alguien en Silicon Valley se esté riendo de ti.

Marcus dice que el lenguaje de LeCun fue "descuidado". Sora aún no está disponible públicamente, y ya son obvios algunos de sus defectos. No incorpora las leyes de la física. Produjo un tablero de ajedrez de 7x7 con tres reyes. "Las cosas desafían la gravedad".

Lejos de amilanarse, Marcus se envalentona. Se enfoca en los recientes comentarios de Altman de OpenAI, que se niega a dar una fecha para la próxima actualización de ChatGPT. Demis Hassabis, cofundador de Google DeepMind, ha dicho que llegar a la inteligencia artificial general requerirá probablemente "varias innovaciones más". Se ha quejado de que el dinero que se invierte en IA trae consigo "un montón de exageraciones y quizás una que otra estafa".

"Todo el mundo decía que yo estaba loco", dice Marcus. "Un número sorprendentemente grande de personas han convergido en las cosas que llevo mucho tiempo diciendo". Su prueba del caimán fue superada, pero no su "espíritu". "Predije las alucinaciones en 2001. Dudo que mañana se acaben las alucinaciones".

No teníamos ni iPhones

Desde una perspectiva, el escepticismo tecnológico es raro. Hace dos décadas, ni siquiera teníamos iPhones. Pero precisamente por la revolución del iPhone, la tecnología actual puede parecer decepcionante. El Apple Watch resultó ser un contador de pasos ensalzado. El Vision Pro, el nuevo auricular de Apple, no parece ser la mejor manera de gastar US$3,499. El metaverso está más solo que un vegetariano en Nando's (la cadena sudafricana de restaurantes de comida rápida a base de pollo).

Esta semana, Amazon dijo que dejará de utilizar en sus supermercados de EE.UU. su cacareada tecnología de pago sin caja. La tecnología parecía sofisticada, pero se basaba en que más de 1,000 personas en India vieran vídeos de compradores y catalogaran sus acciones.

Hay precedentes para el escepticismo. En 1970, el pionero de la IA Marvin Minsky predijo: "En un plazo de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio". ¡Uy! En 2016 Tesla dijo que todos sus coches nuevos tenían el hardware necesario para conducirse a sí mismos de forma más segura de lo que podrían hacerlo los humanos. ¡Uy de nuevo! "Llevo diciendo desde 2016 que los coches sin conductor no van a ocurrir el año que viene", dice Marcus.

Otro socorro para los escépticos son las criptomonedas. Durante muchos años, las criptomonedas fueron promocionadas con gran revuelo por gente muy inteligente de Silicon Valley. Las presentaron como inevitables. Se pasó por alto su funcionamiento. Si preguntabas por sus aplicaciones precisas, sus inteligentísimos paladines casi ponían los ojos en blanco: ¿no era obvio? Las criptomonedas eran una revolución. La cadena de bloques, una tecnología asociada, podía reconfigurarlo todo.

Las limitaciones

¿Se puede lidiar con las limitaciones? En su podcast Mystery AI Hype Theater 3000, la lingüista Emily Bender y el sociólogo Alex Hanna intentan desmenuzar la grandilocuencia en torno a la IA, como la afirmación de un ejecutivo de Google de que las computadoras ya han obtenido IAG y la predicción de Goldman Sachs de que la IA sustituirá a una cuarta parte del trabajo actual.

"Es cierto que estas cosas pueden emitir textos plausibles sobre una gran variedad de temas, pero es sólo un mimetismo general que no tiene necesariamente ningún valor", dice Bender. "La carga de la prueba recae sobre las personas que hacen afirmaciones extraordinarias. Nadie está diciendo que la IA sea una exageración; estamos diciendo que sus afirmaciones sobre la IA son exageradas".

Marcus sugiere que el rendimiento puede empeorar: Los LLM producen resultados poco fiables, que luego son absorbidos por otros LLM. Los modelos se contaminan permanentemente. Los procesos de revisión por pares de las revistas científicas se verán abrumados, "lo que provocará una caída precipitada de su reputación", escribió recientemente Marcus.

El otro recurso de los escépticos es preguntarse si la gente utiliza realmente la IA. ¿Cuántas personas conoces que utilicen ChatGPT habitualmente? "Ojalá que ChatGPT pudiera hacer las partes aburridas de mi trabajo por mí, pero no puede", dice Zitron. Marcus ha criticado la predicción de que la IA era tan buena en el análisis de resonancias magnéticas y tomografías computarizadas que dejaría sin trabajo a los radiólogos. En 2022, escribió que: "No se ha sustituido ni a un sólo radiólogo".

Hay otros ejemplos. Zitron cita un estudio de Boston Consulting Group (BCG), que reveló que los consultores que utilizaban ChatGPT para ayudar a resolver problemas empresariales rendían un 23 por ciento menos que los que no lo usaban. (BCG sí descubrió que la herramienta aumentaba el rendimiento en innovación de productos en un 40 por ciento).

En efecto, una buena parte del público se muestra escéptica sobre la IA. Aproximadamente un tercio de los estadounidenses dice que la IA mejorará los resultados para los pacientes, otro tercio que los empeorará y el resto que no habrá mucha diferencia.

En el fondo, el escepticismo ante la IA no es más que la insistencia en que, independientemente de las máquinas que fabriquen los dioses de Silicon Valley, ellos mismos no son más que seres humanos.

LEER MÁS