Viralidad, desgranando su secreto

Todo publicista (os recomendamos este reportaje de Muy Interesante que da mucho que pensar), político, influencer o actor en internet busca sin descanso crear contenidos que sean virales. Esos que, de golpe, tienen impacto sobre millones de personas gracias a que encienden algo en nosotros consiguen un éxito “inesperado”.

Sí, inesperado va entre comillas porque cada vez son más los grupos de investigadores -públicos y privados- que buscan la receta que permita que el mensaje emitido sea un éxito y se convierta en viral. Uno de los estudios más recientes se ha llevado a cabo en la Escuela Annenberg de Comunicación de la Universidad de Pensilvania, en Estados Unidos, que ha concluido que la viralidad del contenido depende de la actividad cerebral del receptor.

Los investigadores contaron con la ayuda de 80 individuos que fueron sometidas a resonancias magnéticas funcionales mientras leían 80 artículos de similar extensión relacionados con salud y publicados en The New York Times. De esta forma, tenían que valorar su interés por la lectura de los artículos y compartirlos libremente mientras se realizaban las mediciones.

De esta forma, el estudio arroja que las personas tendemos a leer y compartir contenidos que conectan con nuestras experiencias, con el sentido de quienes somos o quienes queremos llegar a ser. Así, compartimos contenidos que creemos que ayudan a mejorar nuestras relaciones sociales haciéndonos parecer más inteligentes o empáticos.

La clave es que cuando un individuo escoge compartir con otros un contenido, lo hace pensando en sí mismo y en los demás, lo que hace que haya mucha más actividad neuronal. Pensar qué se va a consumir (leer) y qué se va a compartir, son por tanto, comportamientos sociales. Y esto es lo que, precisamente, permite a los investigadores predecir la viralidad de un texto.

Los usuarios del estudio compartieron en sus redes sociales los contenidos 117.611 veces. Y en todas ellas se daba una determinada combinación neuronal. De forma inconsciente se generaba una señal que daba “cierto valor” al artículo que indicaba qué se iba a compartir y qué no.

La conclusión es que es necesario generar un mensaje que haga creer al receptor que se le va a percibir de una forma positiva o que va a mejorar una relación. Si se cumple esto se va a conseguir que la tasa de dispersión del mensaje crezca.

Lo más peligroso es que, como casi todo en ciencia -incluimos las ciencias sociales- puede ser utilizado para algo muy bueno -emisión de mensajes de responsabilidad social, educación, salud, etc.- o algo muy bueno para pocos -réditos políticos o económicos, por ejemplo-.

Redes sociales, su impacto a estudio

Las redes sociales no son nada nuevo. Aunque para toda una generación sean una parte inseparable de su vida real, este enorme negocio hunde sus raíces en los años 90. Proyectos como Geocities, de 1994 en el que se podían colgar webs por temáticas en cada uno de sus “barrios”; Classmattes, que solo un año después buscaba ser una herramienta para encontrar antiguos compañeros de colegio; o Sixdegrees que era pionero en esto de diseñar un perfil de usuario y agregar amigos.

El desarrollo de la web 2.0 (en la que dejábamos de ser meros espectadores para tomar las riendas de internet) trajo consigo My Space en 2003, LinkedIn en 2004 y Microsoft Messenger. Y no fue hasta que un joven Mark Zuckerberg se sacó “de la manga” Facebook, cuando podemos hablar de una transición completa que vendría suscrita por la llegada de Twitter en 2006 o de Instagram en 2009. Por cierto, YouTube, el portal de vídeos convertida en mitad herramienta mitad red social vio la luz en 2005.

Y desde entonces todos hemos sabido de sus virtudes (conectarnos) y potencial (sobre todo económico); de sus excepcionales cifras -su crecimiento sostenido, su facturación, su impacto- pero no demasiado -al menos de una forma empírica- de sus impactos negativos. Hasta ahora.

Un equipo de la Sociedad Real de Salud Pública y el Movimiento Juvenil de la Salud del Reino Unido ha llevado a cabo casi 1.500 encuestas a jóvenes de entre 14 y 25 años de edad para pulsar el eco de las principales redes sociales (Facebook, Twitter, Instagram, Snapchat y YouTube) en la ansiedad, depresión, acoso, propiocepción y el miedo a perderse algo (lo que los anglosajones denominan FOMO, fear of missing out).

El estudio se solapaba con un informe más completo realizado sobre una generación, la de los nativos digitales, que no ha vivido en un mundo sin internet. En el que, por lo tanto, estas herramientas de socialización tienen un impacto definitivo porque no contemplan su inexistencia.

El mapa que dibujaba el estudio arrojaba que el 91% de los jóvenes utiliza internet a diario y que una gran mayoría cuenta con perfiles en redes sociales. Esto les permitía gozar de un enorme sentido de comunidad más allá de los preceptos clásicos de generaciones anteriores. Sin embargo, también genera un mayor impacto negativo en el sueño (vital para la salud y el aprendizaje), el acoso y la ansiedad por el “miedo a perderse algo”.

Aunque el estudio se hizo preguntando a los jóvenes cómo se sienten al usar cada una de las redes sociales de las que forman parte, el propio informe dice que no se puede entablar una relación empírica entre éstas y el notable incremento de las tasas de depresión y ansiedad en esta franja de edad.

Además de un potente sentido comunitario, las redes sociales también ayudan a subrayar la identidad del individuo. Sin embargo, para que estos efectos positivos no tengan contrapartida es absolutamente necesario educar a los jóvenes en conceptos de seguridad digital y proteger su bienestar mental derivado del mismo.

Por cierto, los usuarios estudiados decían que Instagram, Snapchat y Facebook eran las tres que tenían un impacto más negativo en ellos, seguido de Twitter y YouTube, del que casi no resaltaban ningún efecto negativo.

Licencias abiertas, un gran paso para proteger la propiedad intelectual

Las licencias abiertas y su uso ha sido motivo de debate -también jurídico- durante mucho tiempo. Sin embargo, la semana pasada un juez federal de Estados Unidos sentó un precedente importante en el caso de este tipo de derechos: licencias como las GNU GLP (licencia pública general GNU) pueden ser tratadas como contratos legales y los desarrolladores que las utilicen en sus programas pueden demandar a quienes lo hagan violando esos contratos.

El inicio de la contienda legal comenzó cuando los desarrolladores de Hancom Office, una suite informática coreana, añadieron un lector PDF open source llamado Ghostscript en su programa. La herramienta está regulada por una licencia AGPL (diseñada específicamente para asegurar la cooperación con la comunidad en caso de que el software esté sito en servidores en red) que exige que si se redistribuye su software en forma binaria se debe liberar su código fuente.

Además, si se combina Ghostscript con otro programa sin solicitar otra licencia comercial alternativa, el segundo está obligado a liberar el código fuente de todo el conjunto. Algo que Hancom Office no hizo nunca. Tampoco pagó nunca a Artifex por una licencia comercial alternativa que le permitiera la explotación del lector de PDF. De esta forma, desde 2013, la empresa coreana ha estado ganando dinero sin afrontar sus obligaciones legales.

Cuando se llegó a los tribunales, Hancom alegó que nunca firmó nada puesto que la licencia AGPL no es un contrato y, por lo tanto, no es vinculante.  No obstante, la juez Jacqueline Corley determinó que la licencia de Artifex deja claro que se aceptan los términos de uso cuando alguien no accede a una licencia comercial.

De esta forma, cuando Hancom renunció a pagar, aceptaba de forma intrínseca los términos de uso y, por lo tanto, quedaba vinculado a las condiciones de la GNU GLP y, por lo tanto, debía liberar el código del programa final que se aprovechaba de Ghostscript.

Este tipo de licencias son de las más usadas en el mundo ya que cuando un software es publicado bajo la misma se garantiza a los usuarios finales la posibilidad de estudiar, compartir, modificar, usar y modificar el producto de modo que el resultado final se rija bajo las normas del copyleft, es decir, se publicará bajo la misma licencia que el original.

Casi desde su nacimiento, de la mano de Richard Stallman, ha habido un debate acerca de su aplicación y un enorme vacío sobre su cumplimiento legal ya que, aunque las licencias open source son consideradas derechos de autor, aún no había sentencia que considerase su incumplimiento como una violación de un contrato.

La diferencia entre el software libre y el que no lo es radica en la forma de uso y distribución que los autores de un programa quieren para el mismo. De esta forma, es el programador quien escoge la licencia sopesando pros y contras de cada formato. Los creadores de software libre no renuncian nunca a la propiedad intelectual del mismo, tan solo permiten que terceros lo usen, modifiquen y redistribuyan de una determinada forma. Ahora la ley quiere garantizar que así sea.

Darknet, ¿por qué es tan difícil atacarla?

Es muy habitual la metáfora en la que internet se representa como un iceberg: el usuario medio tan solo conoce la punta. Una porción menor al 10% en la que se encuentra la parte indexada de la red. Aquello a lo que Google, Yahoo!, Bing y compañía llegan. Bajo el mar se encuentra lo que muchos denominan Deep Web. El resto del iceberg, el no comercial y no indexado. Y más abajo aún de esa enorme masa de datos se encuentra Darknet.

Podríamos definirlo como un conjunto de tecnologías y redes superpuestas que tienen como fin proteger el anonimato de sus usuarios. El peaje por esta oscuridad es que puede que tengan que conectarse a un servidor privado o cumplir unos requisitos específicos como tener instalado un software determinado.

De facto esto hace que los buscadores “tradicionales” no puedan rastrear sus contenidos y, además, tanto el origen como el destino de los datos permanece oculto. Todo el proceso de la red es invisible. Esto hace que sea el emplazamiento perfecto para contenidos de seguridad, datos de administraciones, etc. Pero también permite que se lleven a cabo en este espacio operaciones ilícitas. En cualquier caso, todo atisbo de ciberataque es prácticamente inútil puesto que se trata de una zona de la red “impenetrable”.

¿Por qué? Al fin y al cabo, sobre el papel, si sabemos “dónde está” deberíamos poder atacarla -si así quisiéramos-. Un estudio publicado en la revista Physical Review E ha averiguado que Darknet es capaz de autoprotegerse y corregir por sí misma agresiones de forma espontánea. En él Manlio De Domenico y Alex Arenas, del Departamento de Ingeniería Informática y Matemáticas de la Universidad Rovira y Virgili y Tarragona concluyen que la clave está en su “particular topología más descentralizada que el resto de la red”.

Para poder constatar esto los autores de la investigación crearon un modelo que explica cómo se transmite la información en la Darknet y descubrieron que no emplea una distribución homogénea de conexiones sino que se va encriptando en distintas capas.

Una vez hecho esto simularon tres tipos de ataques: dirigidos contra un nodo en concreto; contra varios de forma aleatoria y otros diseñados para provocar una cascada de fallos y propagarse por la red (el modelo). El resultado es que concluyeron que para atacar Darknet es necesario atacar cuatro veces más sus nodos que los del resto de internet. Y esto tan solo provocaba ciertas perturbaciones. Además, su propia estructura permite solucionar de forma autónoma los problemas y neutralizar los fallos en cascada.

Esto hace que, a pesar de que se considere más ineficiente que la red superficial -la información emplea algoritmos criptográficos más complejos y va de nodo en nodo aleatoriamente en vez de directamente al destinatario- haya una pequeña base de fieles que hayan construido una zona libre informativa en la que están apartados del resto de la red. Con todo lo bueno y todo lo malo que esto trae.

Tim Berners-Lee, preocupado por la evolución de internet

Este fin de semana tuvo varias efemérides. Ayer, por ejemplo, se cumplían 70 años del nacimiento del primer Ferrari. Y este mismo fin de semana hacía 28 de la propuesta de Tim Berners-Lee de una red global. Así, el británico aprovechó el aniversario para publicar una carta abierta en la que mostraba sus sensaciones sobre el estado de la web y sus retos.

En el artículo Berners-Lee se muestra muy preocupado por tres tendencias que cree que necesitan combatirse con urgencia: el más importante, la difusión indiscriminada de noticias falsas. Lo más importante, es que el británico apunta a quiénes deben realizar más esfuerzos por mitigar este problema. Google y Facebook han de liderar la lucha por mucha presión que tengan de los usuarios.

El problema reside en que, mediante los algoritmos, los grandes de internet priorizan el contenido sobre el que creen que vamos a hacer click. No importa que este sea cierto o falso. Esto hace que sea demasiado fácil hacer que los contenidos desinformativos se conviertan en virales en la red. Al fin y al cabo “a través de la ciencia de datos y de los ejércitos de bots, aquellos con malas intenciones pueden engañar al sistema para difundir información errónea y obtener beneficios financieros o políticos”, sentencia.

Berners-Lee también apunta a los usuarios que somos los que debemos hacer presión para que las grandes tecnológicas no cesen en su empeño de controlar la veracidad de los contenidos así como de evitar que se creen “órganos centrales que decidan que es verdad y qué no”. Por eso es importante que los algoritmos sean públicos y transparentes y que la sociedad sea consciente y pueda ejercer de forma natural su poder regulador.

En segundo lugar muestra su preocupación por la pérdida del control sobre nuestros datos personales mediante largos y confusos “términos y condiciones de uso” que se han de aceptarse a la hora de registrarse y acceder de forma gratuita a algunas webs y servicios. Si a esto le sumamos, como reveló hace pocos días WikiLeaks, que los Gobiernos están realizando recopilaciones masivas de datos sin permiso de los particulares, nos encontramos con la libertad de expresión seriamente dañada así como evita que la red sea un espacio libre independientemente de nuestro sexo, religión o procedencia.

Relacionado con los anteriores, el tercer problema es la falta de transparencia de las campañas políticas en internet. Al acceder a nuestros datos -como hemos visto en el segundo punto- los políticos pueden lanzar varios mensajes a cada usuarios -la desinformación del primer ítem- de una forma poco ética pero tremendamente eficaz a la hora de conseguir votos: a cada uno le dicen lo que quieren oír.

¿Hay alguna solución a estos problemas? Básicamente “devolverle a la gente el control de sus datos”. Crear un sistema justo de micropagos que no bloquee a la gente el acceso a los servicios y que nos libere de la publicidad, crear legislación para las campañas políticas y la desinformación y tribunales supranacionales contra los abusos de las administraciones. Nada de esto será rápido pero es la única forma de proteger un mundo digital cada vez más hibridado con el real.