¿Nos autoriza a instalar cookies durante su navegación por Estrategia del Contenido?

“La epidemia de contenido creado por robots y cómo afrontarla” entrada del blog corporativo de Estrategia del Contenido

Comunicación eficaz, competitiva y sostenible

Consultoría / externalización:
Periodismo de Marca, Estrategia de Contenidos, Semantic SEO y Content Marketing

Ruta de la página y presencia en Redes sociales

Buscador interno

Si le resulta más cómodo, puede utilizar también las opciones opensearch en este website

Buscador
Blog

La epidemia de contenido creado por robots y cómo afrontarla

Fotografías, vídeos, presentaciones
Pantallazo de un robot que crea contenido de marketing en Facebook

Darius Kazemi estrenó justo antes de Navidad su invento Content Forever. Se trata de un robot que es capaz de generar un resumen sobre cualquier tema posible, tras indicarle el tiempo de lectura disponible y la palabra clave apropiada. Su bot toma los datos de la Wikipedia y el resultado, si no es bueno, da el pego.

Lo de Kazemi tiene mucho de llamada de alerta artística sobre la información que nos llega. Sobre quién la elabora y en qué condiciones lo hace. Es una performance en Internet que pone de relieve una epidemia que se nos viene encima: el contenido generado por robots.

Un fenómeno causado por la producción intensiva y el marketing de contenidos

El uso de robots para la generación de contenido tiene mucho que ver con el marketing. Después de un par de años de producción masiva de mensajes de content marketing, las grandes marcas inversoras han llegado a la conclusión de que ahora todo aquello no es suficiente. Sus expertos han detectado que el individuo al que destinan sus mensajes divide su atención entre distintos dispositivos, diferentes actividades e, incluso, acciones que nada tienen que ver con Internet.

Lejos de plantearse si el ingente volumen creado responde a la calidad esperada, atribuyen el error a lo que denominan continuous partial attention (atención parcial continua) del destinatario, que prescinde del contenido creado para atraer su atención. Una de las soluciones que plantean las grandes empresas es el uso de herramientas algorítmicas para la construcción de contenidos que capten la atención de los usuarios sin interrumpir su vida diaria.

El segundo factor que alimenta este fenómeno son los denominados glance media, plataformas de comunicación que son capaces de transmitir sólo titulares porque las pantallas de los dispositivos no admiten mensajes de mayor tamaño: smartphones, relojes o gafas. Lógicamente, la construcción de un titular más breve que un tuit puede ser generada por un programa informático.

Una tercera causa es la necesidad de simulación del usuario. Como muestra el vídeo que abre esta entrada, la inmobiliaria canadiense Realtor, dispone de un software que le permite automatizar la construcción de contenido en redes sociales, tanto entradas completas como comentarios. Más que vender propiedades, se trata de proporcionar una imagen de gran actividad en el sector. El destinatario desconoce si se trata de intereses reales de personas, pero, si está interesado en la oferta, sabe que debe apresurarse.

Contenido estructurado en medios de comunicación

El último motivo es la necesidad de producir contenido muy estructurado de forma intensiva y eficaz. Este modelo se ubica en los medios de comunicación y obedece a necesidades productivas, no de marketing.

En makerting ‘Continous partial attention’: la atención del usuario repartida entre distintos dispositivos e incluso su propia vida fuera de la Red

La primera noticia automática la publicó Los Angeles Times en marzo de 2014. Ken Schwenke, periodista y programador, ajustó un robot a los algoritmos del Centro Geográfico de Estados Unidos, que alerta sobre terremotos, y al departamento de policía de la ciudad. El sistema escribe automáticamente la nota de urgencia, que debe ser validada por un redactor. Sólo 3 minutos después de un movimiento sísmico fue capaz de publicar la noticia.

Al LA Times siguió la agencia Associated Press, que encargó un robot a Automated Insights que toma los datos financieros de Zacks Investment Research para escribir historias de 150 a 300 palabras sobre resultados económicos de empresas. Empezó en junio y su objetivo es pasar de una producción de 300 notas trimestrales a 4.400.

En estos casos las noticias obedecen a una estructura determinada en la que prácticamente no se producen alteraciones. Antes de publicarse son autorizadas por un periodista y, presumiblemente, corregidas.

Una apuesta por la calidad para combatir el contenido robótico

La forma de combatir y diferenciarse de este tipo de contenidos está estrechamente vinculada a sus características intrínsecas:

  • Escasa calidad. El matiz, la denotación, la estructuración del discurso con originalidad son imposibles cuando redacta una máquina. Aunque el contenido sea correcto, la expresividad es plana. Por lo tanto, no existe una identificación con la voz y el tono de la marca que lo publica. A la expresión neutra se suma el uso de un único formato tecnológico, la brevedad y la reiteración para lograr los objetivos comunicativos.
  • Alcance social. El contenido robótico se destina únicamente a la captación del mayor alcance posible. Por lo tanto, usa primordialmente las redes sociales. Es un contenido de atracción que pretende generar un flujo de visitas al sitio principal, donde se producirá la acción (compra, descarga, suscripción, etcétera). La automatización de su exhibición en las redes sociales, incontrolable, puede generar situaciones perversas que perjudiquen a la marca en lugar de beneficiarla. Es el caso del contenido automatizado que muestra Facebook en función de la actuación del usuario en la red social y de los comentarios que reciba.
  • Contenido táctico y efímero. Se construye el contenido para el consumo inmediato. Después no tiene ninguna utilidad. No aporta nada. Se pretende una proximidad temporal al destinatario, en lugar de la contextualización del consumo y la conexión emocional con la audiencia. Su actividad en la cadena de valor del contenido es nula. Supone un gasto continuo, aunque el coste sea misérrimo.

Frente a estas características, la mejor forma de afrontar la avalancha de contenido automatizado que se nos viene encima debe reunir una serie de rasgos:

  1. Calidad. Contenido extenso. Primordialmente debe ser suficiente y enriquecido. Sólo así transmite la imagen corporativa y sacia la necesidad informativa de los usuarios.
  2. Contenido residente. El contenido de mayor calidad sólo puede encontrarse en el sitio corporativo, donde se tiene un control absoluto de su eficacia. La identificación entre el dominio y el contenido debe ser máxima para contribuir a la aportación de valor a la marca corporativa.
  3. Estrategia. El objetivo es comunicar mejor, no atraer ni persuadir ni provocar la acción. Si la esencia comunicada es capaz de satisfacer la necesidad de la audiencia individual, la acción requerida se producirá con naturalidad.
  4. Vigencia en el momento de consumo. El contenido automatizado tiene vigencia en el momento de la emisión. Su vida es brevísima y cae rápidamente en la obsolescencia. El contenido que se le opone tiene vigencia en el momento del consumo, independientemente de cuándo se produzca. Y tiene cualidades para ser revisado por el destinatario y recomendado a otros usuarios de forma indefinida y sin mayor esfuerzo ni inversión.
  5. Humano. El contenido debe aunar una voz y un tono que concuerden con las de la organización. El mensaje debe estar enriquecido con distintos formatos técnicos y con vínculos externos que abran un abanico de respuestas detalladas. Y debe estar respaldado por alguien que pueda dar fe de su autoría.

Y debe ser accesible, tecnológicamente estándar, semántico y estar correctamente datado. Mientras el resto se quema en la caldera de Internet, el contenido de calidad permanece. Y sigue aportando valor a la organización.

Comentarios

Lógicamente, un robot, es una máquina, nunca podrá sustituir la forma ni el estilo con que los humanos elaboramos y transmitimos nuestros mensajes, independiente del propósito.Los robots no están programdos para imprimir l carga de sentimientos, deseos y expectativas como lo hacen las personas, deberán transmitir órdenes en su lenguaje como máquinas, es lo que los diferencia de los humanos. Aunquenos perjudique, es saludable el filtro que antepone por ejemplo Google con Panda y Pinguino, para defender a los consumidores de este tipo de maniobra.

@afanando, a este nivel de calidad, Google ni se entera de que se trata de contenido fabricado por robots. El problema no es de posicionamiento, es de saturación de los canales con información, de modo que sólo queda una minúscula rendija por la que el destinatario llega a nuestro contenido.
Un saludo y gracias por tu comentario.

Todos quienes tenemos alguna URL, queremos servirnos de las redes sociales, especialmente Facebook, pero como usuarios de algunos años,tengo mis dudas de la efectividad de este enlace para vender. Quizas lo que más se pudiera asegurar es el "compartir" contenido a un sitio más allá de lo que es tu propio sitio. Ello, porque una gran mayoría de usuarios, o no anda en compras, o no le interesa lo que compartes, y es dificíl entonces conseguir por ahí una conversión. Lo otro es la "calidad" de los usuarios, que necesariamene no son compradores, pero si se desea exposición, pues allí es válido, al igual que en la mayoría de las redes. Enlazar a las redes sociales, se convierte así en un ejercicio de enlazar tu contenido, y eso se ha convertido en una moda, porque puede ayudar a obtener visitas no fidelizadas a curiosear por tu sitio.

Otra insistencia que quisieramos comentar por aquí es acerca del "contenido original". ¿Qué es original?, algo que ya se ha dicho, pero lo republicas con tus propias palabras?. No hay posiblemente nada nuevo, cuando tienes en la web, millones de caracteres, miles de libros electrónicos, fotos, vídeos, textos acerca de temas que han sido compartidos y sobre los cuales, lo único que falta es que comencemos a escribirlos, "al revés", o en otros idiomas. Pero, nuevo y original, es difícil alcanzarlo cuando todos los que buscamos cosas y tratamos de escribir para compartir,tenemos que apoyarnos en "fuentes". Yo por ejemplo que trabajo con la cateogría de medios de comunicación, recibo colaboraciones de amigos y relacionados, textos, fotos y videos, de manera que en mi categoría, lo menos que se puede hacer es copiar y publicar las colaboraciones. No sé si tendré problemas y el robot dará importancia para clasificar mis urls, pero sigo ahí, y todavía no hemos sentido penalizaciones, aunque sea imposible competir con sitios más antiguos y que han llegado a los primeros lugares de las búsquedas. Tengo muchas visitas al mes, no me quejo, y es con contenido de notas de prensa y comunicados, y de cuando en vez,escribo editoriales para exponer criterios acerca de un tema. No digo que esta ruta pueda ser exitosa, pero es el trabajo que realizamos como periodista en la web.

Añadir un comentario

Regístrese con Twitter

Para comentar necesita una cuenta de Twitter y registrarse con el botón situado a la izquierda. Así no tendrá que recordar claves de usuario. El sistema publicará un tuit por usted con el comentario.