Google Backup and Sync, ¿el backup definitivo?

Google sigue en su cruzada por hacer que cambiemos por completo la forma en la que nos relacionamos con los dispositivos electrónicos. Su idea es que internet, la nube -y a poder ser Google Drive- sea el centro de todo lo que hacemos. El soporte desde el que gestionamos nuestras búsquedas, nuestras compras, que nos sirve de guía y en el que guardamos todos nuestros recuerdos.

Precisamente, relacionado con este último punto, la semana pasada la empresa de Mountain View anunciaba una gran evolución en su servicio de almacenamiento en línea. Bajo el nombre de Backup and Sync, buscan que Drive genere una copia de seguridad completa de nuestro ordenador en sus servidores para evitar que nuestra información crítica dependa un dispositivo físico que, entre otras cosas, es perecedero y susceptible de rupturas que nos puedan hacer perder todo.

Si hasta ahora los servicios Google Fotos y Google Drive contaban con millones de usuarios en todo el mundo por su potencia y facilidad de uso, la empresa quiere ir un paso más allá unificando ambos sistemas y añadiendo más capacidad de archivo al poder volcar todo el contenido de nuestros equipos.

De una forma muy sencilla, una vez instalada la aplicación -disponible para PC y Mac- el usuario se olvide de tener que hacer esas copias de seguridad periódicas: el programa lo hará en segundo plano de forma automática. Además, aunque no hay demasiados datos sobre su funcionamiento, en la presentación aseguraron que se podrá elegir qué carpetas se quieren respaldar y cuáles no.

Esto permitirá al usuario acceder a sus contenidos protegidos desde cualquier ordenador que tenga instalada la aplicación lo que será especialmente útil en caso de pérdida, avería o robo. La única limitación que se prevé al sistema es la capacidad de almacenamiento contratada por el cliente: se dispondrá de 15GB gratuitos y varios paquetes de pago para cubrir diferentes perfiles de uso.

Para Google esta es una herramienta pensada exclusivamente para clientes particulares puesto que las empresas, que necesitarán más volumen disponible, seguirán teniendo planes específicos de almacenamiento a la medida de sus necesidades.

El lanzamiento de Backup and Sync se hará en todo el mundo el 28 de junio y será a partir de entonces cuando conoceremos todos los detalles (y restricciones) de uno de los proyectos más ambiciosos de Google en los últimos tiempos.

Whole Foods, la compra más cara en la historia de Amazon

El pasado viernes saltaba una de las noticias más controvertidas de los últimos meses -al menos en el sector tecnológico-: Amazon, la empresa que quiere cambiar la forma en la que consumimos, anunciaba la adquisición de Whole Foods por 13.700 millones de euros. Los de Jeff Bezos entran por la puerta grande al mercado de distribución estadounidense al hacerse con una plataforma que cuenta con 450 tiendas y tiene su seña de identidad en los productos orgánicos.

La operación supera con creces la más grande hasta la fecha (que era de 1.000 millones por una compañía no cotizada) y supone valorar cada título de Whole Foods en 42 dólares -que abonará en efectivo-. En el anuncio Jeff Bezos explicaba que la minorista es una empresa que sus clientes “aman”, motivo por el cual ambas seguirán cotizando por separado y se mantendrán sus marcas bien diferenciadas.

Este movimiento supone agitar por completo el sector en Estados Unidos. En un momento en el que los medios estaban volcados con el desembarco de Lidl en el país y su compatriota Aldi, propietaria de Trader Joe’s, la dupla Amazon-Whole Foods supone crear un gigante con presencia en 42 estados y, sobre todo, una plataforma logística incomparable. En definitiva, se van a cambiar las normas de redistribución de alimentos.

Y esto se ha reflejado en una apreciación de ambas empresas un 27% (Whole Foods) y Amazon (un 3%) y en la caída de los principales competidores: Supervalue se dejó un 16%, Korger un 15%, Target un 11% y Dollar General un 6%. Si tenemos en cuenta que hasta ahora Amazon estaba pugnando en el mercado de bajo coste con Walmart, la nueva empresa cubrirá casi todos los segmentos de mercado.

Los analistas, tanto del sector minorista como del tecnológico, dan una enorme importancia a la operación y la equiparan a la fusión de TimeWarner y AOL puesto que el conjunto del mercado mueve cada año 800.000 millones de dólares. El impacto, sin embargo, se prevé que sea mayor puesto que por el momento la relación de de las distribuidoras con internet era el indispensable y por el enorme músculo financiero que ya cambió el negocio de las librerías y las tiendas de electrónica.

Ahora que este mercado que suele ser pionero en la entrada de nuevas tecnologías será mirado con lupa en otros países ya que parece una evolución natural en cuanto al modelo de negocio y, sobre todo, en el posicionamiento en el mercado de Amazon, que adquiere centros de distribución estratégicos en zonas poblacionales de renta media-alta.

La presencia de Whole Foods por todo el territorio crea además una potente red de distribución para los de Jeff Bezos de cara a entrar de una forma más sólida en el mercado de parafarmacias o la expansión de Fresh (su línea de comida fresca). Además, se da por hecho que todo el catálogo de la empresa adquirida pasará a estar disponible en Amazon Echo (el altavoz inteligente) y por supuesto dentro de las habilidades de Alexa.

Además, la firma cuenta con un perfil de cliente especialmente fiel: personas que buscan una alimentación sana y responsable. Cerca a la alimentación orgánica y vegetariana y que entienden esto como un modo de vida. Asimismo, tiene líneas de productos responsables dedicadas a personas alérgicas y cubre un nicho de mercado cada vez más al alza en un país con graves problemas de salud alimentaria.

Videojuegos, algo pasa en la industria vasca

Durante mucho tiempo la industria de los videojuegos que consumíamos parecía reservada a los grandes estudios japoneses, norteamericanos o franceses. Empresas con un buen catálogo o que se hicieron de golpe un hueco en el mercado cuando éste era más pequeño y, por qué no, más impresionable. Atrás quedaba la época dorada del spectrum en la década de los 80 (con un entorno de desarrollo asequible que dio pie a joyas como La Abadía del Crimen o Livingstone, supongo.

Eso hizo que estudios de otras regiones, como la nuestra, pasaran desapercibidas durante décadas y que lo más a lo que podía optar un buen desarrollador fuera a emigrar o bien a tener un equipo sólido y que lo comprara un rival de más empaque (o con mejor bolsillo).

Sin embargo, el apoyo del público y las instituciones, así como iniciativas como Fun&Serious y AZPlay ha permitido que pequeños estudios como Kaia o Binary Soul se hayan podido dar a conocer. Además, plataformas como Steam también han sido un empujón definitivo para que estos puedan llegar a cualquier gamer de cualquier rincón del planeta sea cual sea su perfil.

Precisamente si hace unos días os hablábamos de la inminente llegada de Sorgina: A Tale of Witches a la mayor plataforma de juegos en línea del planeta, hoy toca el turno del reconocimiento a Dynasty Feud, el premiado título de Kaia Studios que también ha recibido el suficiente apoyo para dar el salto a Steam.

Por si esto fuera poco, Relevo, un veterano estudio Indie con sede en Bilbao también está de enhorabuena gracias al salto de Baboon al universo Play Station, uno de los más importantes del negocio. Disponible para PS4 y PS Vita, es solo la punta del iceberg del trabajo bien hecho con el lanzamiento de British Bob para equipos móviles o de Mindtaker, también ultimándose para dar el salto a la consola de referencia. Una experiencia de coproducción (con Virtualware) por la que van a seguir apostando para su nuevo título, con un acuerdo, esta vez, con el estudio japonés YugenStudi.

Y no nos olvidamos de la apuesta de Delirim Studios por el western VR con Unforgiven o los 8 days de SantaClara Games en PS4 y Xbox One, por citar algunos más (podemos consultar todos en el minimapa Jolasean de Ubik).

No podemos dejar de señalar tampoco la madurez de la prensa especializada (videojuegos vascos, pixel de halabedi irratia o gamerauntsia entre otros), creciendo a la par que los nuevos estudios, y el auge del mundo youtuber (con ejemplos como @nebukai@robouteguilliam@peibol@specialk y muchos más) o la apuesta por la formación especializada (Digipen desde hace varios años a la que ahora se suma la EHU/UPV entre otras).

Todo ello son ejemplos -tenemos que hablar de algo mucho más allá de las pistas o los síntomas- de que algo está cambiando en la industria del videojuego en Euskadi. Primero por su enorme capacidad para adaptarse a otros mercados por medio de sus capacidades de gamificación y su experiencia en la virtualización (Binary Soul es un ejemplo), después por su potencial a la hora de hacerse un nombre en eventos en los que se compite por premios con estudios mucho mayores (Kaia) y, por último por su enorme potencial de realizar proyectos que gusten al público por su sencillez y su planteamiento inteligente (Relevo).

Muestras de que el futuro de nuestra economía pasa por la digitalización y también por la creación de nuevos actores que sean competitivos en sectores hasta ahora “vetados” para nuestras empresas.

Wikipedia, sus donaciones en el punto de mira

Internet es espejo y altavoz de todas las virtudes y defectos de la sociedad digitalizada en la que vivimos. Una esfera en la que caben los recovecos más oscuros de las redes sociales y proyectos tan ilusionantes y democráticos como Wikipedia, la enciclopedia que se ha convertido en el mayor proyecto colaborativo de internet y una de las primeras señas sobre el cambio de un mundo analógico a uno digital (al menos en cuanto a la gestión del conocimiento).

Sin embargo, como se hace eco El Confidencial, la mala gestión de la Fundación Wikimedia ha puesto en riesgo la supervivencia de la web. Al menos según se desprende del informe que ha hecho público Guy Macon, editor de la enciclopedia desde 2006.

La historia de Macon es el mejor ejemplo del éxito de internet bien utilizado. Ingeniero autodidacta comenzó a editar porque encontró en Wikipedia “mejor información que en algunos de los caros libros que compraba” para sus estudios. Lo que comenzó como corregir pequeños errores se convirtió en editar sobre ciencia e ingeniería.

Sin embargo, el estadounidense muestra su preocupación por el devenir del crecimiento de la web. Actualmente, si se suman todas las ediciones de Wikipedia, se suman 16.000 millones de lectores. Esto le supone un gasto en hosting de 2 millones de dólares y un equipo de 300 empleados. Si lo comparamos con hace una década las cifras no cuadran: el tráfico ha crecido hasta multiplicarse por 12, pero el gasto en hosting se ha multiplicado por 33. En cuanto a la plantilla: hace una década no había empleados, solo colaboradores.

El problema es que la dependencia de las donaciones es un hecho que la Fundación no parece creerse y no es capaz de controlar el gasto y el crecimiento. Hay factores que pueden hacer que éstas bajen y que el legado desaparezca.

Y eso se traduce también en sentimientos encontrados con los donantes: algunos se preguntan porque si el dinero es suficiente para mantener la enciclopedia como está ahora, por qué se sigue pidiendo dinero como si el cierre fuera inminente. Otros se quejan de que el crecimiento de las donaciones no ha cristalizado en un software mejorado. Además, expertos se quejan de la creación de una élite alrededor de Wikipedia… y eso se ha traducido en que sean muchos los que piden que cesen las donaciones hasta que todo esto se aclare. ¿Un caso de corrupción 2.0?

Por su parte, la Fundación se defiende diciendo que aunque las críticas de Macon son útiles y las tendrán en cuenta, el informe solo da información parcial. En primer lugar explican que el dinero de los presupuestos no se va solo al mantenimiento de servidores, sino que tiene que ver con dar soporte a las comunidades de colaboradores de todo el planeta y en mantener la plataforma completa rápida y segura (Wikiquote o Wikimedia Commons, por ejemplo).

Asimismo, la Fundación ha conseguido gastar menos durante el último periodo contable de 2016 y ha presupuestado aún menos para el ciclo 2017 y 2018 (respecto al bienio anterior). Aún así, sabedores de los problemas que pueden surgir en el futuro, hace tiempo que se creó un fondo llamado Wikimedia Endowment. Además, gran parte de los ingresos de la estructura colaborativa provienen de gigantes de Silicon Valley como Apple, Intel o la Fundación Bill y Melinda Gates así como de otras empresas como Boeing.

La Fundación dice ser absolutamente transparente con sus gastos y también reconoce no tener un libro de ruta definido en caso de que bajen las recaudaciones (algo que nunca ha ocurrido hasta la fecha) puesto que, dependiendo de la fuente de ingresos que flaquee se esforzarían en salvaguardar diversas partes del proyecto.

Mientras el número de usuarios crece, la duda que nos surge es si realmente la Fundación Wikimedia también ha caído en manos de una gestora manirrota y la corrupción.

Darknet, ¿por qué es tan difícil atacarla?

Es muy habitual la metáfora en la que internet se representa como un iceberg: el usuario medio tan solo conoce la punta. Una porción menor al 10% en la que se encuentra la parte indexada de la red. Aquello a lo que Google, Yahoo!, Bing y compañía llegan. Bajo el mar se encuentra lo que muchos denominan Deep Web. El resto del iceberg, el no comercial y no indexado. Y más abajo aún de esa enorme masa de datos se encuentra Darknet.

Podríamos definirlo como un conjunto de tecnologías y redes superpuestas que tienen como fin proteger el anonimato de sus usuarios. El peaje por esta oscuridad es que puede que tengan que conectarse a un servidor privado o cumplir unos requisitos específicos como tener instalado un software determinado.

De facto esto hace que los buscadores “tradicionales” no puedan rastrear sus contenidos y, además, tanto el origen como el destino de los datos permanece oculto. Todo el proceso de la red es invisible. Esto hace que sea el emplazamiento perfecto para contenidos de seguridad, datos de administraciones, etc. Pero también permite que se lleven a cabo en este espacio operaciones ilícitas. En cualquier caso, todo atisbo de ciberataque es prácticamente inútil puesto que se trata de una zona de la red “impenetrable”.

¿Por qué? Al fin y al cabo, sobre el papel, si sabemos “dónde está” deberíamos poder atacarla -si así quisiéramos-. Un estudio publicado en la revista Physical Review E ha averiguado que Darknet es capaz de autoprotegerse y corregir por sí misma agresiones de forma espontánea. En él Manlio De Domenico y Alex Arenas, del Departamento de Ingeniería Informática y Matemáticas de la Universidad Rovira y Virgili y Tarragona concluyen que la clave está en su “particular topología más descentralizada que el resto de la red”.

Para poder constatar esto los autores de la investigación crearon un modelo que explica cómo se transmite la información en la Darknet y descubrieron que no emplea una distribución homogénea de conexiones sino que se va encriptando en distintas capas.

Una vez hecho esto simularon tres tipos de ataques: dirigidos contra un nodo en concreto; contra varios de forma aleatoria y otros diseñados para provocar una cascada de fallos y propagarse por la red (el modelo). El resultado es que concluyeron que para atacar Darknet es necesario atacar cuatro veces más sus nodos que los del resto de internet. Y esto tan solo provocaba ciertas perturbaciones. Además, su propia estructura permite solucionar de forma autónoma los problemas y neutralizar los fallos en cascada.

Esto hace que, a pesar de que se considere más ineficiente que la red superficial -la información emplea algoritmos criptográficos más complejos y va de nodo en nodo aleatoriamente en vez de directamente al destinatario- haya una pequeña base de fieles que hayan construido una zona libre informativa en la que están apartados del resto de la red. Con todo lo bueno y todo lo malo que esto trae.