Fake news, ¿y si solo eran un punto intermedio?

Corría 2016 cuando Aviv Ovadya advertía del impacto de las fake news en las redes sociales con motivo de la campaña presidencial estadounidense. Un fenómeno que no solo estaba teniendo una injerencia crítica en la política, sino también en la salud, la educación y las relaciones internacionales (seguridad, por ejemplo).

Ahora, dos años más tarde, el tecnólogo vuelve a avisarnos: las fake news fueron solo un primer paso en un camino que nos llevará a un “apocalipsis informativo” puesto que las tecnologías que distorsionan la realidad avanzan más rápido que nuestra capacidad para gestionarlas y para controlar este fenómeno.

Los primeros síntomas, explica, los encontró poco antes de la victoria de Donald Trump. Fue entonces cuando se volcó en intentar advertir de la crisis de desinformación que se estaba avecinando. Él lo denominó “Infocalypse” y, como desgranan en un sobresaliente reportaje en BuzzFeed News del que se hace eco Genbeta, la cuestión gira en torno a la forma en la que el sistema “premia” información que muchas veces resulta ser engañosa y polarizante.

Es llamativo que en la presentación de sus conclusiones había representantes de tecnológicas como Facebook que, directamente, no le tuvieron en cuenta. El problema es que el desarrollo de herramientas de inteligencia artificial permitirá a quién lo desee manipular la realidad y hacer que un hecho que nunca ha ocurrido puede parecer cierto.

Como explican en Genbeta, algo que parece “distópico” ya está empezando a ocurrir. Tenemos el caso de vídeos porno falsos con famosas creados a partir de algoritmos de aprendizaje automático y software de código abierto -de nuevo, una herramienta indispensable mal utilizada- que ya ha tenido que ser baneado por los portales de referencia.

Más grave (aún) es el caso de manipulaciones de audio que puede sufrir una emisión en tiempo real haciendo que se sincronice un discurso con los labios de un ponente. Esto permite poner en boca de alguien algo que nunca ha dicho delante de las cámaras. El caso más flagrante que expone Ovadya es el de la “manipulación diplomática”: una inteligencia artificial puede aprender de horas de vídeos de dirigentes para luego, cuando desee una tercera persona, recrear una declaración de guerra casi imposible de distinguir de un discurso “normal”.

Esta suerte de “simulación política” puede ocurrir mucho antes de lo que parece y, tal y como pinta, dejará a las fake news como una curiosidad de principios de siglo. Por eso es fundamental trabajar a fondo para intentar adaptarnos a unas tecnologías que, en nuestra opinión, su creadores no llegan a comprender del todo.

Facebook, su giro “humanista” para 2018

Mark Zuckerberg está preocupado. Es cierto que su empresa marcha viento en popa y que ya es, de forma sostenida, una de las cinco grandes tecnológicas del momento (y por ende, casi una de las cinco empresas más grandes e influyentes) junto con Apple, Amazon, Alphabet (Google) y Microsoft. Es cierto que la comunidad de usuarios de su red social ha subido hasta los 2.000 millones (son “el primer país” del mundo por población) y también que ha conseguido volverse estratégico en algunos mercados como el publicitario y el informativo.

Sin embargo, 2017 ha sido demasiado agitado para la red social: han estado continuamente en el ojo del huracán. El año comenzó con el escándalo de las noticias falsas, las métricas erróneas y los avisos de publicidad “problemática” durante las elecciones estadounidenses de 2016. Incluso con un enfrentamiento con el actual inquilino del despacho oval (aunque eso no es ni extraño ni malo viendo cómo se las gasta Trump). Es por ello que 2018 se plantea para Facebook como un año de cambios.

El más radical, según anunció el propio fundador de la empresa, será un nuevo muro. Las noticias de empresas, marcas y medios de comunicación dejarán de tener el sitio privilegiado que tienen ahora para fomentar las charlas con familiares y amigos. La conclusión es casi directa: las organizaciones y entidades bajarán su popularidad y, por lo tanto, su impacto tanto en la red social como en internet (por el papel de importancia que tiene Facebook en ella).

Zuckerberg explicó que el motivo es la queja que han recibido de multitud de usuarios acerca de la excesiva exposición a contenidos de empresas y marcas que acaba desplazando los momentos personales, supuestamente, la razón de ser de una red social. Esto hizo que la empresa sintiera la obligación de mejorar el bienestar de sus usuarios y la mejor solución que encontraron fue priorizar el contenido interpersonal y hacer que solo el contenido institucional que promueva estas interacciones pase a tener una relevancia “prioritaria”.

Sobre los vídeos, que han ido ganando un lugar de privilegio entre los contenidos, Adam Mosseri expuso que las grabaciones en directo que aparecerán en los muros serán aquellos que generen una mayor discusión social.

Sin duda, el golpe a algunos medios de comunicación es enorme. Realmente, la decisión afecta a todos, no obstante, algunos están demasiado expuestos a las redes sociales -Facebook en especial- y podrían ver afectada su difusión y, por lo tanto, sus ingresos publicitarios (siempre relacionados con esa difusión y ese impacto social).

Además, las declaraciones (especialmente las de Mosseri) nos hacen preguntarnos sobre qué priorizará su algoritmo. ¿Qué significa generar mayor discusión social? ¿Se verificará la fiabilidad del contenido? ¿Se centrarán solo en lo más controvertido? ¿En política? ¿Cómo se controlarán las noticias falsas que son las que más discusión provocan?

Curiosamente, el objetivo de los de Zuckerberg es hacer que la gente “pase menos tiempo en Facebook” y que su “participación disminuya”. La idea es hacer que el tiempo que dediquemos al red social sea “menor pero más valioso”. Es su idea de “reparar” la red social que ya propuso a finales del año pasado como su objetivo prioritario para este 2018.

Quiere reparar la plataforma para que sea más segura, más humana, menos influenciable y, sobre todo, que robe a sus usuarios menos tiempo de la “vida real”. Para muchos es solo una forma de reactivar su valor de marca a la vez que demuestra a inversores, medios y otras empresas su enorme capacidad de influenciar a la sociedad. Para nosotros, mientras no haya un debate abierto sobre cómo se definen los algoritmos, solo será un trabajo medio hecho para sacar más dinero a los medios de comunicación y seguir ganando influencia entre aquellos que no saben o quieren distinguir entre la vida que realmente viven y la vida que les gustaría vivir. Al fin y al cabo, cuando no nos cobran por una mercancía es porque nosotros somos la mercancía.

Resumen 2017, los gazapos tecnológicos

A falta de pocos días para terminar 2017 es momento de recapitular. Los grandes avances de 2017, los dispositivos e ideas que han puesto cimientos para un 2018 aún más fascinante y, por qué no, los grandes errores de la industria que nos han demostrado que una novedad o algo “smart” o 2.0 no necesariamente tiene que suponer un avance o una mejora sobre lo establecido.

El mercado smartphone lleva siendo una década el catalizador de lo que supone una sociedad móvil y digitalizada. Ha transformado el modo en el que nos comunicamos entre nosotros y también mercados como el de la música, los juegos, el deporte o la imagen. Sin embargo, es un negocio dominado por cada vez menos agentes donde es muy difícil hacerse un hueco sin importar el nombre del creador de una determinada empresa o iniciativa. Por eso uno de los fracasos más sonados del año lleva la firma, ni más ni menos, que de Andy Rubin, padre de Android, el sistema operativo más utilizado en el mundo.

Su Essential Phone (en la foto que abre el post) era un phablet de 5,71 pulgadas y un diseño sobresaliente que apostaba por el diseño modular. Una idea muy interesante para crear terminales ajustándose a las necesidades de los usuarios que ya probaron en el pasado sin éxito Motorola, LG o Google. Los 699 dólares que pedía por terminal (objetivamente muy poco comparado con los iPhone X o el Galaxy Note) era demasiado para un producto sin pedigrí y con problemas en su cámara. El mercado volvió a rechazar los equipos modulares y el terminal llamado a revolucionar el mercado solo comercializó 50.000 unidades. Ahora cuesta 499 dólares (se pueden encontrar ofertas por menos precio) y, sobre todo, ha enseñado una lección a una empresa que no se rinde y que volverá a mostrar un nuevo modelo en 2018.

El error, sin embargo, tiene también nombres más conocidos para el gran público. Como las Spectacles de Snapchat. Unas gafas que permitían grabar vídeos cortos para colgar en la red social gracias a una pequeña cámara colocada en la montura. Una buena campaña de marketing (o más bien, una masiva) permitieron que tuvieran mucha visibilidad al principio pero las cuentas finales arrojan que solo un 1% de los usuarios de la red las han adquirido o usado. Puede que el precio de 129 dólares haya sido excesivo.

Pero si hablamos de precios disparatados, el primer premio se lo lleva Juicero, un exprimidor conectado a internet (sí, habéis leído bien, no es una errata) con un precio de 700 dólares compuesto por más de 400 piezas y recubierto de aluminio de alta calidad que obtenía zumo de unas bolsas que emulaban a las cápsulas de Nespresso, solo que cada una de ellas costaba 7 dólares. Algo llamativo para bolsas de jugo de frutas concentrado que se podían exprimir con las manos. Lo más llamativo es que 17 inversores le dieron más de 118 millones de dólares. Google y Sopas Campbell estaban entre ellos. A principios de año el precio bajó a 350 dólares y en septiembre la empresa cerró. Un ejemplo de la burbuja que existe en parte de Silicon Valley.

El año ha tenido otros momentos sonrojantes para grandes empresas como Apple (y su lío de software por culpa de un iOS 11 pensado solo para el potente chip A11 Bionic que comenzó friendo las baterías de cualquier dispositivo con procesador A9 o anterior), los continuos hackeos de Yahoo! (más de 3.000 millones de cuentas afectadas desde 2013) o la discreta entrada de SkyTV en el mercado estatal de streaming (como apuntan en El Confidencial, no es solo su catálogo, sino lo a destiempo que se ha hecho la llegada a la oferta).

Durangoko Azoka, espacio cultural y digital

Un año más la Durangoko Azoka ha sido el epicentro de la cultura vasca durante la primera semana de diciembre. Un escenario perfecto en el que durante cinco días en el que la creatividad, la historia, la tradición y las nuevas tecnologías han ido de la mano para subrayarnos en un entorno cada vez más gloablizado y mostrarnos al mundo como una cultura de vanguardia.

Con más de 110.000 visitantes, la 52 edición de la Azoka volvió a estar dividida en varios espacios (ocho) temáticos entre los que destacó de nuevo Kabi@, un entorno volcado con la digitalización que bajo el lema “ha pasado de ser a actuar” ha buscado señalar la importancia de la comunidad.

La “plaza digital” contó el primer día con una “Gamer Gela” y con el exitoso “Game Erauntsia” en el que los videojuegos vascos volvieron a tener un lugar de privilegio para mostrar al público -pequeños y mayores- que hay vida más allá de los grandes estudios internacionales y que cultura y nuevas tecnologías pueden y deben ir de la mano.

El jueves 7 se cedió el testigo a las aplicaciones y los teléfonos móviles con iniciativas como AppInventor que permitieron conocer más de cerca el trabajo necesario para desarrollar estos pequeños programas que nos hacen la vida mucho más fácil. También hubo tiempo para hablar de ciberseguridad con talleres en los que se trató la privacidad y la gestión de la seguridad en nuestro entorno.

El viernes 8 le llegó el turno a Wikipedia. La gran herramienta de conocimiento online desde principios de este siglo supone un enorme reto en cuanto a la creación y gestión de contenidos. Precisamente por eso se presentaron charlas en las que se animó a los asistentes a aprender a hacerlo y a poner en valor el enorme trabajo de todos aquellos que hacen posible (con sus errores y virtudes) la gran plataforma online para la democratización del conocimiento.

Con el comienzo del fin de semana, el espacio Kabi@ se centró en la comunidad de contenidos vascos en la red centrándose especialmente en bloggers, operadores, cooperativas y la revolución digital en materia editorial. Una oportunidad, esta última, que permite dar una difusión mucho mayor a las culturas “minoritarias” gracias a la globalización que permite internet.

El domingo, último día de la Plaza Digital tuvo un papel especialmente relevante el análisis de la situación de la mujer en la tecnología. Una temática cada vez más presente en las mesas redondas y que se centra, sobre todo, en la importancia de dotar a los avances técnicos y a los contenidos del punto de vista femenino, así como de aprovechar la enorme capacidad de las nuevas generaciones como se ha hecho en otras disciplinas.

En definitiva, una cita ineludible en el calendario para aquellos que disfrutamos de la cultura, defendemos la nuestra como un elemento diferenciador y entendemos las nuevas tecnologías como la herramienta indispensable para expandirla y democratizarla.

Noticia recomendada por Binary Soul

5G, comienza el despliegue de la sociedad 3.0

La próxima década se antoja revolucionaria en lo que refiere a la tecnología: coches autónomos, Big Data, Blockchain, inteligencia artificial, drones, internet de las cosas, Industria 4.0, etc. Y todo ello tiene en común el 5G. El ancho de banda de telefonía móvil que permitirá la transmisión de datos a ultra alta velocidad y que permitirá la conversión del mundo digital a una sociedad digital.

Aunque llevamos tiempo oyendo hablar de ello parece que por fin esta tecnología llegará a nuestro mercado en los próximos meses. El problema es que hasta que los usuarios podamos disfrutar de todas sus virtudes pasarán al menos tres años si, burocracia, lobbys y políticos poco ambiciosos no lo retrasan. Para ello el Ministerio de Industria ha puesto en marcha el Plan Nacional 5G en el que nos jugamos no volver a quedarnos retrasados frente a otras regiones del planeta.

Sin embargo, antes de comenzar a hablar de plazos, comencemos explicando por qué el 5G es tan importante. Se trata de la quinta iteración en cuanto a comunicaciones móviles. El 1G, lanzado en los años 80 (sin ese nombre, por cierto), fue el lanzamiento de la tecnología móvil. El 2G llegó de la mano de los SMS y el abandono de la tecnología analógica. El 3G permitió la navegación por internet desde los móviles. El 4G amplió estas posibilidades y supuso la semilla del IoT que se irrigó con el LTE.

El 5G promete velocidades hasta 100 veces superiores a las actuales. Actualmente el 4G, de media, mueve 40 megabits por segundo. En picos puede alcanzar (LTE) hasta un gigabit siempre y cuando no haya interferencias WiFi, de edificios, etc. Las pruebas más recientes de 5G ofrecen hasta 10 gigas por segundo con 100 dispositivos conectados a la vez. Además, lo consigue con una latencia muy baja (el tiempo de espera en la respuesta), lo que lo hace imprescindible para tecnologías como el coche autónomo o para el control remoto de robots ya que permite desarrollar a distancia IA que controle dispositivos o incluso tomar el control de los mismos sin esa inteligencia.

Y todo ello con una demanda energética ínfima gracias al desarrollo de sensores que pueden tener hasta 10 años de vida sin necesidad de realizar mantenimientos en sus baterías. El pistoletazo de salida a todo esto será en 2020 de la mano de Corea del Sur y Japón -que aprovechará sus Juegos Olímpicos de Tokyo para demostrar al mundo la capacidad de esta tecnología en la que es una referencia-.

En Europa la fecha de salida es la misma: en ese momento “una gran ciudad de cada Estado” deberá tener cobertura 5G y, si tenemos en cuenta que hay un gran evento deportivo como la Eurocopa que se celebrará por todo el continente, hay quienes creen que las sedes serán las ciudades elegidas. Una buena noticia porque Bilbao está entre esas sedes, por cierto.

El Ministerio de Industria ya ha presentado su hoja de ruta a Bruselas -solo por detrás de Reino Unido y Alemania- con la que pretende iniciar el reparto de frecuencias a partir de este mismo mes de enero. Hay cuatro: la de 26 GHz con mucha capacidad y poco alcance y que se destinará a zonas con alta densidad de conexiones; las de 3,6 y 1,5 GHz que son las que se licitarán en enero ya que son las cruciales para crear smart cities; la de 700 MHz, con mucha menos capacidad que la primera pero mucha más cobertura y que tiene como problema que es la ocupada por la TDT, que deberá abandonarla y reordenarse.

En verano de 2020 los operadores de todo el continente deberían estar usando esa banda si nos fijamos en la hoja de ruta de Bruselas, será la que antes debería llegar a los usuarios ya que ofrecerá como mínimo 100 megas y es la que mejor cobertura tiene. En 2018 comenzará con el despliegue de un programa piloto del que no se sabe prácticamente nada pero que los analistas creen que será para la sanidad, la automoción, la industria y la agricultura inteligente. En cualquier caso, esperemos que los intereses de unos pocos no hagan que el Estado se quede atrás en una revolución digital que se antoja imprescindible.