5G, comienza el despliegue de la sociedad 3.0

La próxima década se antoja revolucionaria en lo que refiere a la tecnología: coches autónomos, Big Data, Blockchain, inteligencia artificial, drones, internet de las cosas, Industria 4.0, etc. Y todo ello tiene en común el 5G. El ancho de banda de telefonía móvil que permitirá la transmisión de datos a ultra alta velocidad y que permitirá la conversión del mundo digital a una sociedad digital.

Aunque llevamos tiempo oyendo hablar de ello parece que por fin esta tecnología llegará a nuestro mercado en los próximos meses. El problema es que hasta que los usuarios podamos disfrutar de todas sus virtudes pasarán al menos tres años si, burocracia, lobbys y políticos poco ambiciosos no lo retrasan. Para ello el Ministerio de Industria ha puesto en marcha el Plan Nacional 5G en el que nos jugamos no volver a quedarnos retrasados frente a otras regiones del planeta.

Sin embargo, antes de comenzar a hablar de plazos, comencemos explicando por qué el 5G es tan importante. Se trata de la quinta iteración en cuanto a comunicaciones móviles. El 1G, lanzado en los años 80 (sin ese nombre, por cierto), fue el lanzamiento de la tecnología móvil. El 2G llegó de la mano de los SMS y el abandono de la tecnología analógica. El 3G permitió la navegación por internet desde los móviles. El 4G amplió estas posibilidades y supuso la semilla del IoT que se irrigó con el LTE.

El 5G promete velocidades hasta 100 veces superiores a las actuales. Actualmente el 4G, de media, mueve 40 megabits por segundo. En picos puede alcanzar (LTE) hasta un gigabit siempre y cuando no haya interferencias WiFi, de edificios, etc. Las pruebas más recientes de 5G ofrecen hasta 10 gigas por segundo con 100 dispositivos conectados a la vez. Además, lo consigue con una latencia muy baja (el tiempo de espera en la respuesta), lo que lo hace imprescindible para tecnologías como el coche autónomo o para el control remoto de robots ya que permite desarrollar a distancia IA que controle dispositivos o incluso tomar el control de los mismos sin esa inteligencia.

Y todo ello con una demanda energética ínfima gracias al desarrollo de sensores que pueden tener hasta 10 años de vida sin necesidad de realizar mantenimientos en sus baterías. El pistoletazo de salida a todo esto será en 2020 de la mano de Corea del Sur y Japón -que aprovechará sus Juegos Olímpicos de Tokyo para demostrar al mundo la capacidad de esta tecnología en la que es una referencia-.

En Europa la fecha de salida es la misma: en ese momento “una gran ciudad de cada Estado” deberá tener cobertura 5G y, si tenemos en cuenta que hay un gran evento deportivo como la Eurocopa que se celebrará por todo el continente, hay quienes creen que las sedes serán las ciudades elegidas. Una buena noticia porque Bilbao está entre esas sedes, por cierto.

El Ministerio de Industria ya ha presentado su hoja de ruta a Bruselas -solo por detrás de Reino Unido y Alemania- con la que pretende iniciar el reparto de frecuencias a partir de este mismo mes de enero. Hay cuatro: la de 26 GHz con mucha capacidad y poco alcance y que se destinará a zonas con alta densidad de conexiones; las de 3,6 y 1,5 GHz que son las que se licitarán en enero ya que son las cruciales para crear smart cities; la de 700 MHz, con mucha menos capacidad que la primera pero mucha más cobertura y que tiene como problema que es la ocupada por la TDT, que deberá abandonarla y reordenarse.

En verano de 2020 los operadores de todo el continente deberían estar usando esa banda si nos fijamos en la hoja de ruta de Bruselas, será la que antes debería llegar a los usuarios ya que ofrecerá como mínimo 100 megas y es la que mejor cobertura tiene. En 2018 comenzará con el despliegue de un programa piloto del que no se sabe prácticamente nada pero que los analistas creen que será para la sanidad, la automoción, la industria y la agricultura inteligente. En cualquier caso, esperemos que los intereses de unos pocos no hagan que el Estado se quede atrás en una revolución digital que se antoja imprescindible.

Ford, repensando los EcoBoost

Muy pocas marcas evocan la Motown, los V8, los muscle cars y el sueño americano -sobre ruedas- como Ford. Sin embargo, este centenario fabricante, también ha tenido siempre una especial sensibilidad por las necesidades de otros mercados, sobre todo los europeos. Es por ello que, a la vez que fabricaba las poderosas F150, dedicaba gran parte de sus esfuerzos a desarrollar modelos tan míticos como los Escort o Focus. Formatos contenidos como los Fiesta (Bobcat) y automóviles con alta carga tecnológica como los Orion o Sierra.

Es por ello que nadie se sorprendió cuando hace más de un lustro los EcoBoost reformularon por completo la idea del downsizing y comenzaron a coleccionar premios por su excelente funcionamiento en todo tipo de vehículos.  Su éxito ha sido tal que incluso se han atrevido a implementarlo en un modelo icónico como su Mustang.

No obstante, si Ford sigue siendo una empresa independiente -y con un tamaño considerable en el mercado- es por su alta capacidad para reinventarse. Y el último ejemplo tiene que ver, de nuevo, con sus motores y con su búsqueda continua de mecánicas que aúnen placer de conducción, eficiencia y respuesta independientemente del tamaño del motor o del vehículo.

Hasta ahora, cuando hablamos de un motor Turbo, hablábamos de turbocompresores por etapas que se activan en función de la demanda de potencia del conductor (que la pide a través del pedal del acelerador). Turbos de geometría variable o turbocompresores eléctricos con un único fin: eliminar la demora entre el acelerón y la respuesta y evitar el vacío de potencia que tanto achacan los amantes de los motores atmosféricos (mucho menos eficientes en líneas generales en el uso diario).

Ahora, como se hacen eco Motorpasión y Car and Driver, el ingeniero de Ford Jim Clarke quiere rehacer el diseño de los motores turbo siguiendo un principio básico: cuánto más cerca están las turbinas y las válvulas menor es la pérdida energética y el turbolag (el tiempo de respuesta del turbo a la presión del acelerador).

Esto se consigue con unas turbinas más pequeñas que conllevan menos inercias y, por tanto, que tardan menos en ponerse en movimiento. Es un paso más allá en la idea principal de los EcoBoost que ya incorporan una turbina de tamaño y peso normal para los momentos en los que el motor funciona a plena carga, y otra más pequeña y “ágil” para soplar aire a regímenes más bajos.

Ahora Clarke quiere implementarlos dentro de los propios cilindros: tres miniturbos que redundarían en un tamaño un 20% menor a colocar un único turbo convencional en un tricilíndrico y, sobre todo, un coste un 50% menor. El currículo de Clarke pasa por la optimización de los motores V8 y Duratec V6 de Ford, así como los Yamaha V8 y las variantes V12 para Aston Martin. La única contrapartida que le ven algunos expertos es que aumentaría el número de piezas en el motor (algo que la industria, habitualmente, intenta evitar).

LibreCon 2017, con la industria en el punto de mira

Faltan pocos días para que tenga lugar una nueva edición del mayor evento internacional de tecnologías libres en Santiago de Compostela, el LibreCon 2017. Este año, además, el encuentro contará con un nuevo evento, el Librehack en el que 50 hackers crearán en tiempo real y durante 11 horas prototipos de software libre que permitan mejorar la Industria 4.0 y el sector primario.

Encajados en cuatro categorías diferentes (cloudbig data, Internet de las cosas y economía colaborativa), los proyectos desarrollados podrán ser el germen de nuevas start ups e iniciativas que cristalicen en mejoras en el sector.

Por si esto fuera poco, IBM presentará su nuevo sistema de software libre Qiskit que permite desarrollar computación cuántica, uno de los ítems clave en el sector informático y en el que ya están invirtiendo entidades como la NASA, la CIA, Google o el contratista militar Lockheed Martin. Hay sectores clave que podrían ver un desarrollo exponencial con el empleo de estas nuevos campos del conocimiento.

Por supuesto, el LibreCon también tendrá espacio para la seguridad. De esta forma, entre los ponentes estarán Antonio Fernandes de la Asociación Nacional de Peritos Judiciales Informáticos y la Asociación Mediterránea de Peritos Informáticos de las TIC y desde hace unos meses miembro de la Agencia Europea de Seguridad de las Redes y de la Información con el fin de fortalecer las estructuras que protegen a organismos públicos y empresas de ciberataques.

Otra de las estrellas será Appybee, una aplicación made in Galicia desarrollada por Nuno Troitiño, un programador y apicultor 2.0, que busca detectar y controlar las plagas que afectan a las colmenas de abejas. Hasta el momento, las cifras del proyecto son prometedoras: ha conseguido mejorar la productividad un 17% y minimizar la mortalidad de los enjambres de una especie que poliniza entre el 25 y el 30% de los alimentos que consumimos.

Y este es solo un pequeño ejemplo de lo que la revolución digital puede hacer más allá de la industria (4.0 o no) cuando se aplica a otros sectores estratégicos como el agroalimentario. Permite que los procesos se agilicen y abaraten, así como crear redes de colaboración entre diferentes productores para ganar competitividad en el mercado.

En definitiva, la séptima edición del LibreCon viene para confirmar la importancia estratégica del software libre en la sociedad y en la revolución tecnológica, para demostrar que existen opciones para el desarrollo de plataformas independientes para potenciar la Industria 4.0 y para llevar la digitalización a mercados que hasta ahora parecían apartados de este tipo de innovaciones.

IBM, regreso al futuro

Cuando parece que hemos llegado a un techo tecnológico se hace un anuncio que bate todos los registros anteriores. El último ejemplo tangible es el de un equipo de IBM que ha desarrollado un cartucho de cinta magnética que cabe en una mano y que tiene una densidad de almacenamiento de 201 gigabit por pulgada cuadrada: permite almacenar 330 terabytes de datos sin comprimir o, lo que es lo mismo, 330 millones de libros.

La cifra de densidad es absolutamente magnífica: más de 20 veces el de una cinta magnética comercial convencional. Estos equipos, que para la mayoría del público son conocidas por ser el soporte de las cintas Beta, VHS y los casetes inventados hace más de 60 años, han seguido en el mercado de grandes centros de almacenamiento (documentos fiscales o expedientes médicos) gracias a su alta capacidad y precio ajustado.

La evolución desde las primeras épocas de esta tecnología es evidente: según The Verge la primera unidad de IBM empleaba carretes de media pulgada de ancho en la que tan solo se podían almacenar 2 megabytes.

Para la fabricación de este nuevo prodigio IBM ha contado con la colaboración de Sony Storage Media Solutions y, según ambas empresas permitirá que este formato de almacenamiento siga siendo viable durante la próxima década.

El formato, hasta la fecha, se ha empleado para el almacenamiento de archivos de vídeo, copias de seguridad, réplicas para la recuperación y conservación de instalaciones después de desastres, etc. Sin embargo, la industria empieza a barajar la opción de que haya una expansión hacia la computación en la nube debido a la alta demanda de capacidad por parte tanto de empresas como de instituciones y particulares.

La cinta ha sido fabricada mediante un sistema conocido como pulverización catódica tiene un coste ligeramente al proceso de una cinta comercial convencional si bien, el crecimiento exponencial de la capacidad de almacenamiento hace que el costo por terabyte sea mucho más atractivo que en cualquier versión anterior. Según Evangelos Eleftheriou de IBM, incluso lo es “para el almacenamiento en frío en la nube”.

Ubik, cuando aprender es un juego

El verano es siempre una época de ilusiones y retos. Un momento en el que nos tomamos un descanso de nuestra rutina laboral (y educativa) y nos dedicamos a hacer lo que nos gusta y, muchas veces, nos replanteamos cómo debe ser el nuevo año. Precisamente por eso, el estío es un reto para conseguir que los más jóvenes se acerquen a actividades poco convencionales y que éstas, además de ser divertidas, sean productivas.

Precisamente por eso merece un espacio aparte hablar del Taller de Gamificación y Desarrollo de Videojuegos que Binary Soul impartirá entre el 1 y el 4 de agosto dentro de Ubik, la biblioteca creativa de Tabakalera Donostia. Con una duración de 12 horas y un público jóven (a partir de 15 años y sin necesidad de conocimientos técnicos de base) la propuesta de la cooperativa bilbaína busca romper moldes.

En primer lugar porque tiene un enfoque que busca romper los estereotipos de talleres dedicados a solo a chicos; en segundo lugar porque no quiere que sea un ejercicio para aficionados y personas con sólidos conocimientos técnicos: busca acercar los videojuegos y la gamificación a cualquier joven con curiosidad por cambiar su perspectiva de este mundo y las nuevas tecnologías. Por último, porque, como es habitual en la empresa, siguen apostando sólidamente por el euskera y la cultura vasca.

Inspirados en la gesta de Katherine Switzer, primera mujer en disputar el Maratón de Boston a pesar de la oposición de los jueces, el taller busca acercar al público femenino igual que al masculino y demostrar que todas las perspectivas son necesarias a la hora de ser creativos.

El primer bloque del taller buscará analizar qué es un videojuego, los tipos que hay, sus características y para qué sirven. Además, mostrarán las trastienda de los mismos: cómo funcionan, sus componentes, sus motores gráficos, su ciclo de creación y el proceso de documentación necesario para crear la historia del mismo.

Una vez contextualizados, los jóvenes conocerán la herramienta elegida para su proyecto: Unity 3D. De la mano de Binary Soul los asistentes conocerán todas las características del mismo: la instalación, el funcionamiento de la interfaz, cómo crear e importar proyectos, programación C#, assets store e importación, etc. Unos cimientos necesarios para pasar al desarrollo de un videojuego.

La idea será crear un “arkanoid”, un juego tipo Pong. Un formato reconocible por los asistentes -casi todo el mundo ha jugado a éste tipo de juego ya que es sencillo de entender, de programar, desarrollar y personalizar. Cada alumno aspirará a crear su escenario, su pelota y enemigo, sus efectos de sonido y partículas, etc.

En definitiva, una experiencia de aprendizaje en el que romper barreras y enseñar a los más jóvenes que el mundo de las tecnologías y la gamificación es mucho menos ajeno de lo que podemos plantearnos de partida.