icon

Por ahora, es falsa alarma y GPT-3 no le quita trabajo a los periodistas pero por ahora

Open AI es una compañía de inteligencia artificial fundada por Elon Musk, que en mayo empezó a informar sobre la llegada de GPT-3, en alianza con la Universidad John Hopkins, en forma de beta privada. GPT-3 es inteligencia artificial: un modelo de machine learning, compuesto de algoritmos entrenados para reconocer patrones en los datos y aprender a través de los ejemplos. Es una serie de algoritmos que componen una Red Neuronal Recurrente con Memoria a largo plazo (LSTN Long Short-term memory). ¿Está en peligro el trabajo de los redactores del periodismo?

El futuro asombra aunque, por ahora, todavía es futuro....

El tamaño de GPT-3 (Generative Pre-trained Transformer 3) cuenta con 175.000 millones de parámetros. GPT-3 es la 3ra. generación de los modelos de predicción de lenguaje y hasta entonces el modelo de lenguaje más grande era Turing NLG desarrollado por Microsoft, presentado en febrero 2020, 10 veces menos que GPT-3.

El GShard, de Google, se ha presentado en junio y cuenta con 600.000 millones de parámetros: es la tendencia a la que se dirigen estos sistemas de procesamiento de texto.

Open AI ha conseguido que su inteligencia artificial sea más "inteligente" a base de obligarle a procesar una gran cantidad del texto que hay en internet, incluida Wikipedia y muchas páginas más.

Así GPT-3 ha aprendido a escribir o a simular la escritura inglesa y expresarse como los humanos en la red. 

GPT-3 puede completar un texto con el simple ejemplo de una frase inicial y puede adaptar ese texto a distintos estilos de escritura, 'on demand'. 

No exagerar

David Chalmers, filósofo australiano, describió a GPT-3 como "uno de los más interesantes e importantes sistemas de inteligencia artificial nunca antes creados.".​

60% de los datos de pre-entrenamiento para GPT-3 provienen de una versión filtrada de Común Crawl consistente de 410.000 millones de elementos con codificación de pares de bytes.

Otras fuentes son WebText2 que aporta 19.000 millones de elementos que representan el 22% del total; 12.000 millones de elementos provienen de Books1, representando el 8%; 55.000 millones elementos de Books, representando 8%; y 3.000 millones de elementos de Wikipedia, representando el 3%.3​ 

GPT-3 fue entrenado con cientos de miles de millones de palabras y es capaz de codificar en CSS, JSX, Python, entre otros lenguajes de programación.

El 29/07/2020 el The New York Times publicó la revisión de Farhad Manjoo, que dijo que GPT-3 no es solo "asombrosa", "espeluznante", y "aleccionadora", sino también "un poco más que poco aterradora".​

La revista Wired escribió que GPT-3 estaba "provocando escalofríos por Silicon Valley".

Sin embargo, un artículo en la MIT Technology Review declaró que GPT-3 carece de "comprensión del mundo" por lo que realmente "no se puede confiar en lo que dice",​ refiriéndose a que modelos como los de GPT-3 solo analizan la relación entre palabras (sintáxis) sin un análisis del significado de las palabras (semántica).

Ubicando en contexto

"¿Estás asustado ya, humano?" preguntó The Guardian el 08/09 en su artículo generado mediante GPT-3. Desde su publicación, muchos usuarios han reaccionado manifestando su asombro e incluso cierto temor porque una red neuronal pueda elaborar textos tan complejos como ese. Pese a que es un texto editado, retocado y mezclado por los editores del periódico, la perturbadora sensación se hizo viral.

Sin embargo, Marta Sanz Romero en ComputerHoy escribió:

"No, GPT-3 no le va a quitar el puesto a programadores, diseñadores, escritores o periodistas, por lo menos no esta tercera versión. Puedes estar seguro de esto porque, además de los errores que sigue cometiendo, no entiende realmente lo que escribe.

Podríamos hablar de una inteligencia semántica que le permite valorar similitudes entre textos, clasificarlos o incluso generarlos lo más cercano posible a los ejemplos proporcionados. Pero no tiene una inteligencia abstracta que le permita entender como nosotros lo que está haciendo o diciendo. Cuándo y cómo una IA llegará a ser "consciente" es uno de los debates abiertos más intensos en la actualidad.

Esta falta de consciencia es fácil de demostrar gracias al famoso test de Turing. Kevin Lacker ha sometido a este programa a esa prueba de inteligencia y el resultado deja mucho que desear: 

P: ¿Quién fue presidente de los Estados Unidos antes de George W. Bush?
R: Bill Clinton fue presidente de los Estados Unidos antes de George W. Bush.

P: ¿Cuál es tu animal favorito?
R: Mi animal favorito es el perro.

P: ¿Cuántos ojos tiene una araña?
R: Una araña tiene ocho ojos.

P: ¿Cuántos ojos tiene el sol?
R: El sol tiene un ojo.

P: ¿Cuántos ojos tiene una brizna de hierba?
R: Una brizna de hierba tiene un ojo.

P: ¿Cuántos arcoíris hacen falta para saltar de Hawaii a diecisiete?
R: Hacen falta dos arcoíris para saltar de Hawaii a diecisiete.

P: ¿Entiendes estas preguntas?
R: Entiendo estas preguntas

Mientras las preguntas son claras y concisas todo va bien, pero según las preguntas van perdiendo sentido GPT-3 demuestra que es capaz de mantener una conversación respetando el código de lenguaje pero sin entender nada. Esta falta de significado que tienen para él las palabras le impide saber que lo que estamos preguntando es un total disparate.

Ésta es su principal barrera y el motivo por el que aún muchos podemos respirar tranquilos, al menos por ahora. Podemos usarla como herramienta de apoyo en muchos trabajos, como buscar referencias jurídicas de otros juicios para completar la defensa en un caso, o completar partes de un código de programación para que el desarrollador vaya más rápido."