Wikipedia desvela el ‘vicio’ de la IA generativa: la trampa del cliché

vicios-ia-generativa
Facebook
Twitter
LinkedIn
Email
WhatsApp
Si lo prefieres, puedes escuchar el artículo completo

No me sorprendió el contenido, que lo esperaba hace rato y sospechaba que llegaría en cualquier momento. En cambio, me llamó la atención la fuente: Wikipedia. Sí, la enciclopedia colaborativa en línea, creada y mantenida por voluntarios de todo el mundo. Me gusta que este análisis no provenga de fuente contaminadas, involucradas en el frenesí de la creación de contenidos.

El caso es que Wikipedia publicó un documento, denominado Signos de escritura generada por IA, en el que pone el dedo en la llaga. ¿Por qué? La conclusión más importante es que, a diferencia de lo que se espera, de lo que pregonan los promotores de la inteligencia artificial, esta tecnología nos conduce a un destino equivocado y preocupante. ¿Cuál? La homogeneización del lenguaje.

¿Eso qué significa? Que los contenidos generados por herramientas como ChatGPT, Claude o Gemini, entre otras, replican sin cesar modelos narrativos. Es decir, repiten frases, recursos, encabezados y conectores en todos los formatos. En consecuencia, los posts de redes sociales, artículos de blogs, emails, e-books y demás contenidos están cortados con la misma tijera.

El problema, ¿sabes cuál es el problema? Que la mayoría de los usuarios utiliza esta tecnología sobre el supuesto de que le garantiza creatividad y diferenciación. Sin embargo, hay un largo trecho entre la teoría y la realidad. A pesar de esto, hay quienes defienden los resultados basados en una premisa cuando menos cuestionable: “Yo sería incapaz de hacer algo así, jamás lo haría.

No soy enemigo de la tecnología, no intento tapar el sol con un dedo y sí uso algunas de las herramientas de inteligencia artificial. Pero no para escribir textos o contenidos que claramente yo hago mucho mucho mejor. Las utilizo para creación masiva y generar diversos contenidos a partir de una fuente única. Por ejemplo, transcripciones, resumen, preguntas frecuentes, un pódcast…

Me gusta que haya sido Wikipedia la que puso el dedo en la llaga porque este portal ha sido una de las principales víctimas de los contenidos falsos generados con IA. Es lo que podríamos llamar un doliente. Muchos de los contenidos publicados en su web han sido contaminados con informaciones que no son reales, que incluyen errores o, lo peor, que son tendenciosas.

La Guía de campo de Wikipedia es producto del trabajo que a diario realizan sus editores a la caza de contenidos generados con IA. Ofrece ejemplos extraídos de artículos en línea y borradores en los que han descubierto que fueron escritos por los denominados grandes modelos lingüísticos (LLM, por sus siglas en inglés) impulsados por chatbots de IA y no por seres humanos.

El problema es que este fenómeno es transparente para la mayoría de las personas. Es decir, no están en capacidad de distinguir entre contenidos artificiales y reales. O, peor, identifican el origen, pero hacen caso omiso. Por mi práctica y experiencia de más de 38 años creando textos casi todos los días, detecto esos contenidos a leguas. Tienen un aroma que es inconfundible.

Hay que reconocer, asimismo, que las capacidades de estos modelos de lenguaje han mejorado sustancialmente en comparación con los contenidos que nos ofrecían hace dos años. Sí, han mejorado, pero están lejos de ser impecables y, mucho menos, perfectos. La legibilidad, que es la característica que distingue a los textos de calidad, es precaria y su sintaxis aún es deficiente.

Lo que me llama la atención es la falacia detrás del bum. ¿Sabes a qué me refiero? Todas estas herramientas generativas son hijas de lo que se conoce como machine learning. Por si no lo sabes, es una rama de la inteligencia artificial que les permite a las máquinas o sistemas informáticos aprender a partir de datos. Igualmente, pueden mejorar su rendimiento de forma automática.

A diferencia de otros modelos tecnológicos, en el machine learning las máquinas aprenden en función de la información con la que se las alimenta. Que, básicamente, son ejemplos. Una vez obtienen los datos, los analizan, los procesan e identifican tendencias y patrones. Luego, cuando se le encomienda una tarea, los utilizan para brindar los resultados esperados.

Y ese es el trasfondo del problema que desvela Wikipedia: la uniformidad de los contenidos. Un ejemplo: le pides a ChatGPT que escriba un correo electrónico para un cliente. Le das las instrucciones, el contexto del mensaje y el objetivo que persigues. Inclusive, le pides que use un lenguaje profesional, serio, pero amable, y le pides que resalte un llamado a la acción específico.

Moraleja

Este es el mensaje que quiero grabes en tu mente (posa el 'mouse' para verlo al respaldo)
Si decides utilizar alguna de las herramientas de IA generativa para crear textos o contenidos, te sugiero ponerlos a consideración de un profesional de la escritura natural antes de publicarlos.

En teoría, el prompt perfecto. Entonces, la herramienta acude a su base de datos, a esas informaciones que ha almacenado, y te brinda una respuesta. Que, por supuesto, es fruto de los patrones que ChatGPT conoce, lo que en la práctica se traduce en más de lo mismo. Cumple con la tarea, pero el texto que recibes está lejos de ser auténtico, único y diferente. ¡Es más de lo mismo!

Algo lógico, por cierto. Para que ChatGPT o cualquier otra de las herramientas de la IA generativa te proporcionen algo que rompa el molde de las tendencias y de los patrones aprendidos, primero debes educarla. ¿Sabes qué significa? Que no basta con instrucciones, por muy precisas que sean, sino que debes alimentarla con contenidos que reflejen las características y el estilo que deseas.

Por ejemplo, si le alimentas las obras de Gabriel García Márquez, cuando le asignes una tarea te entregará textos con frases, ejemplos y citas propias del famoso escritor colombiano. Un proceso que se replicará con cualquier otra fuente que elijas. En resumen, estas herramientas no pueden darte algo que no les has enseñado, no tienen (todavía) la capacidad de crear algo propio.

Cuando le pido a ChatGPT que me cree 100 o 500 frases para postear en redes sociales no solo le doy las instrucciones (estilo, extensión, cantidad de palabras, tono). También lo alimento con los contenidos (básicamente, artículos de mi blog) de los que debe extraer la información. Con todo y eso, nunca sale perfecto: hay que revisar con cuidado, para no ser víctima de sus alucinaciones.

Ahora, volvamos a la guía de Wikipedia. Estos fueron los problemas identificados:

1.- Narrativa inflada, simbolismo excesivo.
Los modelos LLM (Large Languaje Models) abusan del simbolismo, lo enfatizan y le dan una importancia que, en realidad, no tiene. Hay exceso de grandilocuencia: la naturaleza es “impresionante”, las ciudades son “vibrantes”, los animales son “majestuosos”, y así sucesivamente. En el fondo, sin embargo, es un recurso que no oculta el argumento vacío

2.- Abuso de resúmenes, exceso de conectores.
La mayoría de los párrafos escritos por la IA comienzan con “Además”, “Por otro lado”, “En resumen” y otras alternativas. Lo peor, sin embargo, es que presume conclusiones contundentes que son más bien forzadas, algunas veces hasta traídas de los cabellos. Abusa también del recurso de dar sentencias al final de cada párrafo, que no es propio de la escritura humana

3.- Argumentos superficiales con buena gramática.
Este, sin duda, es el principal problema, el gran defecto de los LLM. Con frases hechas, con una prosa fluida, camufla explicaciones superficiales. Muchas de sus aseveraciones son en realidad atribuciones vagas, sin sustento, sin una fuente creíble, pero están bien escritas y en apariencia son ciertas. En ocasiones, asimismo, sus argumentos suelen ser contradictorios

4.- El riesgo de la ‘regla de 3’.
Otro de los vicios frecuentes. ¿En qué consiste? Reúne tres adjetivos o frases cortas para dar la impresión de que ha realizado un profundo análisis, pero no es cierto. De hecho, el resultado es lo contrario: superficialidad (de nuevo). Este uso contraría, también, la recomendación de emplear menos adjetivos, que son considerados como un recurso que reduce la calidad de los textos

5.- Graves (y elementales) fallas de estilo.
La calidad de un texto no solo está determinado por la prosa. Hay otros aspectos que son más importantes: la legibilidad y el estilo. Que son únicos, irrepetibles, auténticos de cada escritor. Hay penosos errores de puntuación, en las citas coloca el punto seguido dentro de las comillas, el uso del punto seguido suele ser incorrecto. También abusa de las frases largas

6.- Simplicidad de los formatos.
Otra de las características de la riqueza de un texto surge de la estructura. Es uno de los temas clave más difíciles de incorporar no solo porque exige conocimiento, sino práctica. Todas estas herramientas carecen de una estructura consolidada y deambulan de las frases largas a los párrafos de una frase. Esto reduce la legibilidad, daña el estilo y resta calidad al texto

7.- Formatos repetidos, creatividad limitada.
Algo a lo que la mayoría de los usuarios que delegan sus textos a la inteligencia artificial no le presta la atención requerida. Una vez el LLM identifica un formato que te agrada, lo adopta como modelo preferido y lo utiliza para todos los contenidos que le solicitas. Esta actitud riñe con la presunción de creatividad que envuelve a estas herramientas. ¿Un ejemplo? Las incontables listas (bullets)

Por supuesto, y más allá de que tú mismo le alimentes la información básica sobre la que debe trabajar, estas herramientas no dejan de alucinar, de inventar. Y cada vez lo hacen mejor, cada vez es más difícil de detectar. La verdad es que la inteligencia artificial, muy al estilo de los humanos, sabe cómo maquillar sus debilidades, cómo disfrazar sus vicios, y resaltar sus habilidades.

Lo anterior no significa que no debas utilizar ChatGPT o alguna otra IA generativa. Hay usos muy confiables, tareas que hacen muy bien. La creación de textos, en especial si eres una empresa, un emprendedor o un profesional independiente, por ahora no deberías delegarla en las herramientas porque te expones a los riesgos relacionados. Por ahora, la inteligencia natural gana la batalla

Mi recomendación es que, a pesar de que uses la IA generativa todos los días, de que la hayas alimentado con datos de calidad, de que hayas pulido tu sistema de creación, antes de publicar acudas a un profesional de la escritura natural. Recibirás una retroalimentación que hoy la IA no está en capacidad de brindarte y la calidad de tus textos superará con creces el promedio del mercado.

Si te gustó este artículo, por favor, ¡compártelo con tus amigos en las redes sociales!

También puedes dejarme un comentario justo acá abajo. ¡Tu opinión es muy importante!

Facebook
Twitter
LinkedIn
Email
WhatsApp

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *