Tim Berners-Lee, preocupado por la evolución de internet

Este fin de semana tuvo varias efemérides. Ayer, por ejemplo, se cumplían 70 años del nacimiento del primer Ferrari. Y este mismo fin de semana hacía 28 de la propuesta de Tim Berners-Lee de una red global. Así, el británico aprovechó el aniversario para publicar una carta abierta en la que mostraba sus sensaciones sobre el estado de la web y sus retos.

En el artículo Berners-Lee se muestra muy preocupado por tres tendencias que cree que necesitan combatirse con urgencia: el más importante, la difusión indiscriminada de noticias falsas. Lo más importante, es que el británico apunta a quiénes deben realizar más esfuerzos por mitigar este problema. Google y Facebook han de liderar la lucha por mucha presión que tengan de los usuarios.

El problema reside en que, mediante los algoritmos, los grandes de internet priorizan el contenido sobre el que creen que vamos a hacer click. No importa que este sea cierto o falso. Esto hace que sea demasiado fácil hacer que los contenidos desinformativos se conviertan en virales en la red. Al fin y al cabo “a través de la ciencia de datos y de los ejércitos de bots, aquellos con malas intenciones pueden engañar al sistema para difundir información errónea y obtener beneficios financieros o políticos”, sentencia.

Berners-Lee también apunta a los usuarios que somos los que debemos hacer presión para que las grandes tecnológicas no cesen en su empeño de controlar la veracidad de los contenidos así como de evitar que se creen “órganos centrales que decidan que es verdad y qué no”. Por eso es importante que los algoritmos sean públicos y transparentes y que la sociedad sea consciente y pueda ejercer de forma natural su poder regulador.

En segundo lugar muestra su preocupación por la pérdida del control sobre nuestros datos personales mediante largos y confusos “términos y condiciones de uso” que se han de aceptarse a la hora de registrarse y acceder de forma gratuita a algunas webs y servicios. Si a esto le sumamos, como reveló hace pocos días WikiLeaks, que los Gobiernos están realizando recopilaciones masivas de datos sin permiso de los particulares, nos encontramos con la libertad de expresión seriamente dañada así como evita que la red sea un espacio libre independientemente de nuestro sexo, religión o procedencia.

Relacionado con los anteriores, el tercer problema es la falta de transparencia de las campañas políticas en internet. Al acceder a nuestros datos -como hemos visto en el segundo punto- los políticos pueden lanzar varios mensajes a cada usuarios -la desinformación del primer ítem- de una forma poco ética pero tremendamente eficaz a la hora de conseguir votos: a cada uno le dicen lo que quieren oír.

¿Hay alguna solución a estos problemas? Básicamente “devolverle a la gente el control de sus datos”. Crear un sistema justo de micropagos que no bloquee a la gente el acceso a los servicios y que nos libere de la publicidad, crear legislación para las campañas políticas y la desinformación y tribunales supranacionales contra los abusos de las administraciones. Nada de esto será rápido pero es la única forma de proteger un mundo digital cada vez más hibridado con el real.

Perspective, IA para plantar cara a los trolls

Pocos países han aupado más internet que Estados Unidos. Su penetración en la sociedad, en las costumbres de los ciudadanos, es enorme. Por una parte, Silicon Valley y sus empresas retroalimentan la digitalización de una sociedad en parte menos temerosa que otras a las nuevas tecnologías. Por otra, la regulación permite la creación de nuevos modelos de negocio sin la supervisión de otras áreas económicas. Sin embargo, ser el conejillo de indias tiene un precio: un estudio del Instituto de Investigación Data Society sobre acoso y abuso en internet revela que casi la mitad de los usuarios estadounidenses ha sufrido acoso; que tres cuartas partes ha sido testigo de ese acoso y que tres de cada diez se autocensuran a la hora de opinar por miedo a las consecuencias.

Google, el ojo que todo lo ve en internet ha decidido tomar medidas en el asunto -igual que prometió combatir las noticias falsas que tantas consecuencias han tenido en 2016- y lanzó el pasado jueves Perspective. Se trata de una herramienta de inteligencia artificial diseñada para identificar los comentarios tóxicos de los “trolls” de la red para eliminarlos y excluir a esos usuarios de la conversación.

Jigsaw, la filial de Alphabet que ha desarrollado el software y que antes respondía al nombre de Google Ideas, busca que en internet “se puedan volver a entablar conversaciones y debates interesantes”. Un código abierto -buscan potenciar a todas las plataformas en la red- que busca hacer de internet un entorno más seguro. Cualquier editor o desarrollador de contenido podrá usarlo para controlar qué se puede decir y qué no en su web.

Además, Perspective se ha creado con varios niveles de exigencia para que cada titular de una web pueda decidir qué hacer con la información que recibe: se pueden marcar los comentarios para que se moderen uno a uno y que se decida si entran o no en la conversación; que la propia persona que escribe los comentarios pueda ver en tiempo real el nivel de “toxicidad” de su reseña o que se clasifiquen de forma automática los comentarios en base a ese mismo criterio.

Su funcionamiento es sencillo en teoría. Un conjunto de personas han clasificado comentarios que consideran tóxicos porque incluyen faltas de respeto, insultos, amenazas o palabras malsonantes. Después, la IA se ha encargado de analizar de forma autónoma miles de comentarios en la red y, para saber si son tóxicos o no los ha comparado con los de su base de datos. Un entrenamiento con el que Perspective ha ganado capacidad ante palabras y frases. El último paso fue su lanzamiento a la web para que sea empleado por quien quiera. Además, cuanto más se implante más aprenderá.

Su mejor baza es el machine learning de Google que tiene la capacidad de analizar datos y crea patrones a partir de los mismos. Cuanto más se usa más aprende. Y en esta fase de aprendizaje serán tan importante los moderadores como los propios usuarios que podrán enseñarle al sistema qué es un comentario tóxico y qué no.

Aunque de momento solo esta disponible en inglés, la empresa ha explicado que pronto estará disponible en otros idiomas. Será fundamental la colaboración de editores y plataformas de otros países (no angloparlantes) para que se pueda crear un modelo efectivo como ocurrió en su momento con el inglés y el medio The New York Times, que ya tiene un equipo humano que se encarga de moderar los 11.000 comentarios diarios de su web. Eso ha provocado que solo se pueda comentar en el 10% de los artículos de su web. Perspective, gracias a su algoritmo permitirá que su trabajo sea más eficaz y sencillo.

Aunque hay empresas como Twitter y Mozilla que tienen en marcha iniciativas similares, la de Google -por potencial y herramientas- parece la más capaz de sobrevivir y de convertirse en estándar en internet.

Frío y tecnología textil, ¿hay alternativa a las plumas?

Con la llegada del invierno y de varias olas de frío polar al sur de Europa, son muchas las personas que se están acercando a las tiendas para hacerse con prendas de abrigo para protegerse de las temperaturas bajo cero. La respuesta que se encuentran ante la pregunta de ¿qué es lo mejor para abrigarse del frío? depende, mucho, del tipo de establecimiento al que acudan.

En las tiendas de las firmas de moda la respuesta es unánime: las prendas técnicas rellenas de pluma. No hay duda de su sobresaliente capacidad de aislamiento frente al frío. Sin embargo, este tipo de prenda tiene dos problemas, uno técnico y otro ético. El primero es simple: cuando la prenda se moja, si no es completamente impermeable -y pocas veces lo son por el diseño de las prendas (tienen costuras para no estar excesivamente “hinchadas”) las plumas pierden el 100% de su capacidad calórica. La solución que tienen algunas de estas empresas es utilizar el efectivo recubrimiento de GoreTex pero esto hace que el precio de la prenda se dispare (fácilmente por encima de los 400€). En cualquier caso, el lavado de la prenda seguirá siendo un problema -con o sin recubrimiento- ya que al mojarse las plumas se apelmazan y con el paso del tiempo pierden capacidad aislante.

El segundo problema, el ético, se explica fácilmente si uno navega un poco por la web y averigua cómo se consigue la pluma de las aves (las de mayor calidad son las de pato y ganso nórdico. Salvo alguna empresa que emplea materiales de animales alimentarios -y raras veces consiguen cubrir toda la demanda- el proceso es sencillamente atroz y salvaje.

¿Qué ocurre entonces cuando buscamos una alternativa tecnológica (sintética) a la capacidad aislante de las plumas? Desde hace décadas son varias las empresas que han buscado alternativas que sirvan para aislar la temperatura corporal sea cual sea la temperatura ambiente.

Probablemente el más avanzado de todos sea el PrimaLoft desarrollado por Albany Internation y empleado preferentemente por The North Face. La empresa californiana ha creado un tejido de relleno que inicialmente era una mezcla de materiales naturales (pluma reciclada) y sintéticos que garantizaba un aislamiento térmico del 98% incluso en condiciones de humedad extrema.

Con diferentes rangos de capacidad calórica (Silver, Gold y Black Hi-Loft) hace poco presentaron un giro más de tuerca al concepto con el PrimaLoft Silver Eco: confeccionado en un 70% con materiales reciclados sintéticos sometidas a un tratamiento hidrófugo permite una sensación de calidez inmediata sin abultamiento. Además, permite guardarse plegado -las plumas se deben guardar extendidas-, un lavado convencional y un mantenimiento de larga duración.

Otro de los sistemas más reputados del mercado es el Thinsulate de 3M. Del mismo modo que ocurrió con el exitoso GoreTex, la empresa de Minnesota ha desarrollado diferentes variables para aplicarlo a todo tipo de prendas y calzados. La tecnología Thinsulate no solo permite aislar térmicamente la temperatura corporal del usuario sino que no permite pasar la humedad -incluso en forma de lluvia o nieve intensas- más allá de su capa exterior.

El sistema es tan eficiente que han desarrollado variantes que resisten el fuego, son sumergibles, se ajustan completamente al cuerpo para la práctica deportiva o se pueden aplicar en ventanales. Uno de sus recubrimientos más exitosos es el que han conseguido con un 50% de materiales reciclados gracias a los últimos desarrollos que permiten su reutilización.

El último sistema que traemos hoy es el Hollofil desarrollado por DuPont. Esta química, también estadounidense, emplea el relleno Dacron (una fibra con diferentes composiciones -la principal es el poliéster- desarrollada por otra empresa) que estructura con un núcleo hueco para hacerlo más liviano -y darle forma a pequeñas “celdas” de aire que retienen el calor corporal y se convierten en un conjunto comprimible y liviano.

A esto le suman el aislante Thermolift Extreme, que sirve de recubrimiento para el núcleo del tejido y lo mantiene a salvo de la humedad y el frío exterior. El resultado es uniforme, muy ligero, aislante y con un mantenimiento tremendamente sencillo. Además, como en los anteriores, las empresas han realizado evoluciones hacia materiales reciclados y reciclables.

En definitiva, alternativas igual de efectivas en picos de frío, con una mayor vida útil, mucho más respetuosos con el medio ambiente y con un precio más competitivo. Nosotros ya tenemos respuesta para quien nos pregunte si es mejor la pluma o el sintético.

Facebook, guerra a las noticias falsas

Desde hace mucho tiempo Mark Zuckerberg ha intentado que Facebook sea el medio a través del cual entramos en la red de redes. No solo con proyectos para llevar la conexión a todo el planeta, sino que no ceja en el empeño de convertir su red social en una plataforma donde comprar, compartir o informarse. Instant Articles, es la cristalización en lo que a medios de comunicación se refiere. Una forma de llegar a su enorme base de clientes usuarios y de conocer más de ellos.

Sin embargo, como novela de Lemony Snicket, una serie de catastróficas desdichas ha puesto a la plataforma de noticias de Facebook en el disparadero. La elección de Donald Trump como presidente o la elección de “postverdad” como palabra del año por Oxford Dictionaries ha hecho que la sociedad se haya echado encima de Facebook para exigirles que controlen la difusión de bulos en su red.

Muy a su forma, el CEO de la empresa ha lanzado una nota cercana en su muro en la que explica que “nos tomamos la desinformación muy en serio. Nuestra meta es conectar a las personas con las historias que tienen más sentido para ellos y sabemos que quieren información certera. Llevamos bastante tiempo trabajando en este problema”. Una forma muy clara de reconocer su responsabilidad y que no son solo un difusor.

El problema es complejo. Es cierto que, por un lado, Facebook es solo un potente altavoz (el más potente hasta la fecha) de cualquier idea o noticia. Falsa o no. Es cierto que responsabilizar a la red social de que determinadas noticias falsas hayan calado en la sociedad (con Trump, con el Brexit, con lo que sea) es una forma muy descarada de lavarse las manos por parte de los ciudadanos y políticos. Pero también es verdad que jamás ningún medio -y ninguno es imparcial o desintersado- han tenido acceso a semejante cantidad de público.

Es por ello que la empresa decidió crea un Editor de Contenido cuya función es, precisamente, controlar este tipo de bulos y evitar que se expandan y se conviertan en medias verdades a base de ser repetidos. El problema es que no ha sido todo lo eficaz que debería dentro de su News Feed. Por eso Zuckerberg ha publicado siete medidas llamadas a atajar este problema:

  • Sistemas de detección más sólidos que rastrearán más eficazmente lo que los propios usuarios marquen como falso.
  • Avisos más sencillos para que los lectores puedan ponerse en contacto con la red social.
  • Verificaciones por terceros por parte de organizaciones externas expertas en esta materia y sin conflictos de intereses con la red social y sus anunciantes.
  • Advertencias que indiquen que una historia ha sido marcada como falsa por otro usuario.
  • Certificado de calidad de los artículos relacionados con las historias publicadas.
  • Acabar con las fuentes de negocio de los generadores de noticias falsas. Según Facebook coinciden muchas veces con los creadores de spam por lo que es fácil rastrearles y bloquearles.
  • Escuchar a miembros del sector de las comunicaciones como periodistas para aprender de sus sistemas de verificación y sus formas de trabajar ante contenidos poco fiables.
Son varias las voces que han pedido que Facebook no se convierta en un censor, pero que sí tome cartas para evitar que los contenidos malintencionados que pueden tener consecuencias nocivas para la sociedad no tengan difusión en su espacio.
Nuestra duda es si es un problema que se puede solucionar solo con un puñado de humanos y algoritmos o si, realmente, se necesita un planteamiento y una resolución más compleja y eficaz: qué queremos atajar realmente y cómo debemos hacerlo para que no queden puertas traseras. No es solo una cuestión de Facebook (¿qué pasa con la información falsa comercial como las fotos de famosos en Instagram anunciando productos “veladamente” y engañando a los usuarios descaradamente?). Hay un grave problema educacional sobre esta nueva herramienta que son las redes sociales y eso es algo mucho más difícil de atajar.

Inteligencia Artificial, Google ya piensa en el botón rojo

Sin duda, la Inteligencia Artificial es una de las áreas con más posibilidades de desarrollo durante los próximos lustros. Y como todo avance científico y técnico trae aparejado un profundo debate ético (aunque alguna mente maestra de nuestro sistema educativo quiera eliminar la filosofía como asignatura troncal en todos los bachilleratos). Precisamente por eso, personalidades como Stephen Hawking, Elon Musk, Bill Gates o Mark Zuckerberg se han posicionado a favor y en contra de su libre desarrollo.

Son muchos los que a día de hoy buscan implementar sistemas de inteligencia artificial y machine learning pero pocos tienen unas bases tan sólidas y un proyecto tan avanzado como DeepMind, adquirido por Google en 2014 por 580 millones de dólares y en el que a día de hoy trabajan científicos de Harvard y Oxford.

Sin embargo, la presión social y de esas esferas científicas ha hecho que los expertos no solo trabajen en su desarrollo sino también en un sistema que nos permita desactivarla en caso de un riesgo potencial para nuestra supervivencia.

Puesto en marcha por el Instituto para el Futuro de la Humanidad de la prestigiosa universidad británica e investigadores de Google -se puede seguir todo el razonamiento del sistema en el documento Safely Interruptible Agents- buscan poner una serie de normas y funciones que eviten que DeepMind pueda tomar el control de sí misma de forma autónoma: dejar de ser controlable por sus creadores.

De esta forma, se puede activar un protocolo ajeno al propio DeepMind para que los humanos puedan volver a retomar el control. Aunque pueda sonar a película de ciencia ficción, el propio Instituto lo define como una suerte de “póliza de seguros” que “garantiza un óptimo funcionamiento de los sistemas” refiriéndose estos a todos aquellos equipos o líneas de fabricación totalmente automatizados en los que no existe posibilidad de intervención humana.

Uno de los retos a los que se están enfrentando los expertos es cómo crear un protocolo que la IA no sea capaz de comprender y, por tanto, desactivar. De ocurrir esto, DeepMind sería absolutamente independiente y sería prácticamente imposible desactivarlo. Aquí es donde aparece Q-learning y Sarsa, dos algoritmos completamente independientes e imposibles de modificar por la propia IA.

El problema reside en que multitud de sistemas de machine learning no está implementando este botón rojo. Y es aquí donde los Hawking y compañía piden que se implementen de forma urgente los módulos de seguridad que no dejen aspectos críticos en manos de una inteligencia imposible de controlar.

DeepMind nació con el objetivo de “tratar de resolver la inteligencia”. El reto, enorme, tiene como daño colateral que en menos de cien años podría ser más astuta que la propia especie humana lo que la convierte en potencialmente peligrosa si es capaz de volverse autónoma, independiente y, sobre todo, gestiona recursos críticos del planeta.