Las redes sociales empiezan a tomar discretas medidas para regular el contenido viral
Todavía es pronto para saberlo, pero podríamos estar asistiendo a un cambio de paradigma. La connotación que tiene el contenido viral está cambiando a pasos agigantados, y las plataformas de contenido (no exclusivamente, pero fundamentalmente las redes sociales) están empezando a meterle mano al asunto.
El tema es que todos los términos que vamos a usar en este artículo son relativamente nuevos, y por tanto, sus significados y connotaciones son de reciente creación. Todavía, el término «viral» referido al contenido no ha tenido tiempo de asentarse en el léxico colectivo como para que tenga unos matices estáticos. Es decir, que aún estamos definiendo lo que significa más allá de «compartido o visualizado muchas veces». Y, en los últimos años, parece ser que las connotaciones de «viral» se están escorando hacia el lado peyorativo de la balanza lingüística.
De gatitos y bebés a teorías de la conspiración
El contenido viral por antonomasia tiene que ver con la ternura o la admiración. Lo primero que se nos venía a la mente hace pocos años cuando empezamos a usar el término «viral» era un gatito jugando con un ovillo de lana, o algún atleta haciendo proezas malabarísticas. Sin embargo, en los últimos tiempos, hemos asistido en primera fila al bochornoso espectáculo de cómo las redes sociales perdían todo control con respecto al contenido que se comparte en sus plataformas.
Tal y como nos contaban los diseñadores y creadores de las redes sociales más famosas en «The social dilemma», las plataformas no tienen, hasta ahora, ningún mecanismo de filtrado o control con respecto a qué contenido están consumiendo sus usuarios. De hecho, algo que nos llama mucho la atención, es que para describir una pieza de contenido que se expande rápidamente por Internet, utilicemos una palabra que refiere a la enfermedad. «Un vídeo viral». «Un post viral». Más que nunca en estos tiempos de pandemia que nos han tocado vivir, el término «viral» debería hacer sonar las campanas. Así como la ciencia trabaja a contrarreloj para encontrar una vacuna contra el coronavirus, las compañías tecnológicas están haciendo unos esfuerzos mucho más vagos para detener el avance incontrolado de contenido.
¿Cuál es el problema del contenido viral?
Nos lo dice el propio adjetivo del sintagma: el contenido viral se contagia sin control. Al igual que en el mundo real, algunos virus son inocuos mientras que otros pueden hacer mucho daño. En principio, un video de un señor que se emociona al saber que va a ser abuelo no tiene nada de malo. Incluso puede que entrar al trabajo por la mañana con una dosis extra de ternura en el cuerpo sea bueno. El problema es que categorizamos ese tipo de contenido bajo el mismo paraguas de vídeos terraplanistas, teorías de la conspiración y video bloggers que se dedican a negar la existencia de una pandemia mortal. Todo es contenido viral, y, por primera vez, nos empezamos a preguntar colectivamente si el hecho de lanzar contenido al vacío de Internet no debería venir con un acuerdo de responsabilidad social bajo el brazo.
Falacia ad populum: si lo piensa mucha gente, debe de ser verdad
Los humanos somos seres extraños. Nos creemos criaturas súper racionales y críticas a nivel individual, pero después nos juntamos en Internet y a veces nos parecemos más a una oveja que a una persona. El argumento de popularidad no es ni nuevo ni patrimonio de Internet, pero ha encontrado en la nube su jauja particular. Si lo dice (o, en este caso, si lo comparte) mucha gente, es que debe de ser verdad. Dejamos de consultar las fuentes, y damos por válida cualquier noticia, teoría o opinión por el simple hecho de que mucha otra gente lo haya hecho con anterioridad.
Las redes sociales se han ido oscureciendo con los años, y a fecha de hoy es posible encontrar cientos de miles de piezas de contenido que claman que las vacunas causan autismo o que la ingestión de lejía cura el coronavirus. La peligrosidad de la falacia ad populum es que es mucho más poderosa de lo que podría parecer. Un día estás paseando tranquilamente por tu timeline y te encuentras con que un amigo al que consideras razonable ha compartido un post: «10 motivos por los que no debes vacunar a tu hijo». Se te queda la cara a cuadros, claro.
La siguiente pregunta es: ¿de quién es la responsabilidad?
Teóricamente, de todos. Productores y consumidores. Lo ideal sería que todos usáramos Internet con sentido común. Pero no es ninguna novedad que el sentido común es el menos común de los sentidos, y evidentemente Internet no iba a venir a resolver este problema. Ya es un tema que discutimos en el post sobre «The social dilemma»: cuando una empresa ofrece un producto al público sin coste alguno, no es que el producto sea gratis, es que el público es el producto. Las redes sociales hacen negocio a través de nuestra actividad en sus plataformas, y esto significa que deben también asumir la responsabilidad del uso que hagan los usuarios.
Sí, es cierto que existen unas normas comunitarias para cada red social que hay que aceptar cuando uno se abre una cuenta (¿sabéis ese botón de «Acepto los términos y condiciones de uso» que todos pulsamos sin leer? Pues ahí lo pone). El problema es que, aunque las normas estén escritas en algún sitio, no funcionan en la mayoría de los casos. Si funcionasen, las redes sociales serían el sitio que nos gustaría que fuera, y no el sitio que es. Bueno, pues parece que las compañías se están empezando a enterar de qué va la vaina.
Cada vez más plataformas están empezando a implantar medidas para frenar la propagación descontrolada de contenido
Ojo, no decidir qué se hace viral y qué no. Simplemente, frenar la propagación. Slow the spread. Frenar la curva. Es alarmante la cantidad de similitudes que hay entre el contexto histórico dentro de Internet y fuera de él. WhatsApp, TikTok, Twitter y Facebook han anunciado medidas para controlar la viralidad de su contenido. Al igual que en una mala gestión política, algunas de estas medidas parecen confusas con respecto a su efectividad. Por ejemplo, el gran gesto de Twitter será, al parecer, pedir a los usuarios que comenten un tweet antes de retuitearlo. Con esta pequeña medida, se pretende evitar el retuiteo indiscriminado, y dar tiempo a los verificadores para que contrasten información. Es decir, que por lo menos tengas que leer el tweet que estás a punto de compartir antes de darle al cuadradito verde. ¿Funcionará? Ya lo estudiaremos.
Facebook, por su parte, siendo la factoría de bulos que es, ha tomado otro tipo de medidas. De momento, y de cara a las elecciones estadounidenses de noviembre, ha publicado el anuncio de que eliminará todas las cuentas de Facebook e Instagram que representen a QAnon, un movimiento conspiranoico demasiado bizarro como para explicar en un este post. De momento, parece que las medidas propuestas por Facebook son parches en un barco lleno de boquetes. Es lógico: a la plataforma de Zuckerberg le interesa la viralidad a cualquier precio.
Por su parte, WhatsApp está empezando a limitar la capacidad de los usuarios de reenviar mensajes en cadena (gracias, WhatsApp), y TikTok tiene a moderadores revisando contenido antes de incluirlo en el feed principal.
Cada vez es más necesario poner a alguien al volante. ¿Es el principio del fin del contenido viral?
Probablemente no. Como hemos dicho, a las redes sociales les interesa la viralidad. Tendremos que esperar un tiempo para saber si están dispuestas a tenerla a cualquier precio. Quizá, a través de la presión popular y gubernamental (y, con suerte, un poquito de conciencia social), empiecen a realizar cambios efectivos. De momento, lo que nos queda es hacer nuestra parte para encontrar el equilibrio entre la diseminación indiscriminada de contenido y la aspiración al éxito en redes sociales. Usar las redes como herramienta y no como agujero negro. Encontrar esa línea en la arena puede llegar a ser muy difícil. Pero, en fin, para eso estamos nosotros.
Las imágenes seleccionadas para ilustrar este artículo han sido extraídas de Unplash.com.