CES 2018, las claves para entender este año


Un año más el Consumers Electronics Show de Las Vegas supone el pistoletazo de salida del año “tecnológico”. Después de la competida campaña navideña (en la que las grandes empresas de electrónica hacen caja) la primera y principal feria del año nos indica cuáles son las tendencias que hemos de esperar a corto y medio plazo. Estas son las claves para entender el evento.

2018 será el año de los hogares inteligentes. No tanto por la llegada de la domótica a las viviendas -su coste es aún elevado debido a las inversiones que puede suponer en edificios antiguos- sino por la entrada de los asistentes virtuales. Si el año pasado fue el de Alexa, este año el foco recae sobre Google Assistant (los de Mountain View vuelven a Nevada), Bixby de Samsung y Siri de Apple.

Precisamente el retorno de Google supone una inyección a muchos de sus socios (LG o Sony ya han anunciado equipos multimedia inteligentes compatibles con su plataforma) así como un espaldarazo a un nuevo perfil de eventos que empieza a quitarle protagonismo incluso a los Salones del Automóvil.

Y es que en solo dos días, desde que el CES cierre las puertas, el NAIAS de Detroit abrirá las suyas en un momento clave en la reconversión de la industria del motor. Los coches autónomos y las fuentes de energía sostenibles serán los protagonistas en ambos eventos. La duda es cuál de los dos ganará la batalla a la hora de presentar los avances más trascendentes en el negocio de las cuatro ruedas.

También es un momento clave en el negocio de los televisores. Este año hay mundial de fútbol y, al igual que los años “olímpicos” hay una subida importante en las ventas de estos dispositivos. Si bien parece que el mercado ha desechado las tecnologías 3D y las pantallas curvas, el 4K se ha convertido en un estándar consolidado y la duda queda entre los sistemas OLED y LCD. O, lo que es lo mismo, LG contra Samsung.

No menos importante es todo lo que ha rodeado a los contenidos. Cuando aún no ha pasado la sorpresa por la compra de 21st Century Fox por parte de The Walt Disney Company y aún no se sabe cómo acabará la fusión de AT&T y Time Warner a causa del complejo entramado legal por el que está pasando, se empieza a notar la tensión legal que rodea a la neutralidad en la red (o la falta de la misma) en Estados Unidos. De cómo se resuelva esto dependerá el futuro de muchos mercados: el de los contenidos en streaming, el de las empresas de telecomunicaciones y el de los distribuidores de internet.

Y es que estos últimos están en plena conversión hacia el 5G. Aunque su implantación no despegará hasta 2019 y no será hasta Tokyo 2020 cuando el gran público podrá ver su potencial, este CES ya ha demostrado las virtudes del LTE Gigabyte y del 5G inalámbrico para hogares. Es cierto que muy pocos equipos son compatibles (el Galaxy Note 8 es de los pocos que se nos ocurre), pero también que puede ser el primer pilar de las ciudades inteligentes.

Precisamente preparar para esta nueva generación a los dispositivos móviles hace que el evento haya sido el escenario perfecto para la presentación de las novedades de Energous y Powercast en materia de carga inalámbrica de dispositivos -parece que ninguna empresa consigue dar un salto de calidad en la autonomía de las baterías– y también para comprobar el estado de salud de Intel después del escándalo de la seguridad de sus chips y de comprobar que, mientras, Qualcomm y Nvidia siguen con su carrera por desarrollar chips “móviles” cada vez más capaces.

Y es que el mercado PC y tablet ha demostrado en la cita, una vez más, que está cada vez más cerca de unificarse (para el gran público), con prestaciones que se igualan, una autonomía y movilidad cada vez mayores y, sobre todo, una nueva forma de uso cada vez más similar. Incluso entre profesionales.

Sobre todo si tenemos en cuenta el ritmo al que crecen las ventas y se diversifican los nuevos dispositivos wearable. Los equipos de Fitbit, Garmin y Apple son cada vez más fiables para la monitorización de la salud y esto ha provocado la llegada de todo un arsenal de periféricos para todo tipo de usuario. Casi todo es susceptible de llevar un chip y tanto el CES como lo que vendrá durante los últimos meses buscará hacernos la vida más sencilla (y segura).

Por último, este parece el año del todo o nada de las realidades aumentada y virtual. Las herramientas ARKit de Apple y ARCore de Google, el hardware MagicLeap, la división Oculus de Facebook, así como los nuevos proyectos de HTC, Intel y HP indican que es algo más que una moda pasajera. ¿Se adaptará a la mayoría de usuarios? ¿Se quedará como una herramienta profesional o como una excentricidad incomprendida para geeks? En la Feria han apostado fuerte, pero no siempre aciertan.

Noticia recomendada por Binary Soul

5G, comienza el despliegue de la sociedad 3.0

La próxima década se antoja revolucionaria en lo que refiere a la tecnología: coches autónomos, Big Data, Blockchain, inteligencia artificial, drones, internet de las cosas, Industria 4.0, etc. Y todo ello tiene en común el 5G. El ancho de banda de telefonía móvil que permitirá la transmisión de datos a ultra alta velocidad y que permitirá la conversión del mundo digital a una sociedad digital.

Aunque llevamos tiempo oyendo hablar de ello parece que por fin esta tecnología llegará a nuestro mercado en los próximos meses. El problema es que hasta que los usuarios podamos disfrutar de todas sus virtudes pasarán al menos tres años si, burocracia, lobbys y políticos poco ambiciosos no lo retrasan. Para ello el Ministerio de Industria ha puesto en marcha el Plan Nacional 5G en el que nos jugamos no volver a quedarnos retrasados frente a otras regiones del planeta.

Sin embargo, antes de comenzar a hablar de plazos, comencemos explicando por qué el 5G es tan importante. Se trata de la quinta iteración en cuanto a comunicaciones móviles. El 1G, lanzado en los años 80 (sin ese nombre, por cierto), fue el lanzamiento de la tecnología móvil. El 2G llegó de la mano de los SMS y el abandono de la tecnología analógica. El 3G permitió la navegación por internet desde los móviles. El 4G amplió estas posibilidades y supuso la semilla del IoT que se irrigó con el LTE.

El 5G promete velocidades hasta 100 veces superiores a las actuales. Actualmente el 4G, de media, mueve 40 megabits por segundo. En picos puede alcanzar (LTE) hasta un gigabit siempre y cuando no haya interferencias WiFi, de edificios, etc. Las pruebas más recientes de 5G ofrecen hasta 10 gigas por segundo con 100 dispositivos conectados a la vez. Además, lo consigue con una latencia muy baja (el tiempo de espera en la respuesta), lo que lo hace imprescindible para tecnologías como el coche autónomo o para el control remoto de robots ya que permite desarrollar a distancia IA que controle dispositivos o incluso tomar el control de los mismos sin esa inteligencia.

Y todo ello con una demanda energética ínfima gracias al desarrollo de sensores que pueden tener hasta 10 años de vida sin necesidad de realizar mantenimientos en sus baterías. El pistoletazo de salida a todo esto será en 2020 de la mano de Corea del Sur y Japón -que aprovechará sus Juegos Olímpicos de Tokyo para demostrar al mundo la capacidad de esta tecnología en la que es una referencia-.

En Europa la fecha de salida es la misma: en ese momento “una gran ciudad de cada Estado” deberá tener cobertura 5G y, si tenemos en cuenta que hay un gran evento deportivo como la Eurocopa que se celebrará por todo el continente, hay quienes creen que las sedes serán las ciudades elegidas. Una buena noticia porque Bilbao está entre esas sedes, por cierto.

El Ministerio de Industria ya ha presentado su hoja de ruta a Bruselas -solo por detrás de Reino Unido y Alemania- con la que pretende iniciar el reparto de frecuencias a partir de este mismo mes de enero. Hay cuatro: la de 26 GHz con mucha capacidad y poco alcance y que se destinará a zonas con alta densidad de conexiones; las de 3,6 y 1,5 GHz que son las que se licitarán en enero ya que son las cruciales para crear smart cities; la de 700 MHz, con mucha menos capacidad que la primera pero mucha más cobertura y que tiene como problema que es la ocupada por la TDT, que deberá abandonarla y reordenarse.

En verano de 2020 los operadores de todo el continente deberían estar usando esa banda si nos fijamos en la hoja de ruta de Bruselas, será la que antes debería llegar a los usuarios ya que ofrecerá como mínimo 100 megas y es la que mejor cobertura tiene. En 2018 comenzará con el despliegue de un programa piloto del que no se sabe prácticamente nada pero que los analistas creen que será para la sanidad, la automoción, la industria y la agricultura inteligente. En cualquier caso, esperemos que los intereses de unos pocos no hagan que el Estado se quede atrás en una revolución digital que se antoja imprescindible.

CES, ¿cómo cambiará todo en 2017?

Si hace pocos días analizábamos las novedades de la feria de electrónica de consumo de Las Vegas, ahora nos toca el turno de saber cómo cristalizarán las tendencias en el actual mercado. La gran apuesta sin duda serán las realidades. Tanto la aumentada como la virtual verán crecer su espacio en nuestro día a día y la unión de ambas parece llamada a ser un nuevo soporte para todo tipo de contenidos.
Aunque para muchos la realidad virtual esté aún lejos de ser un producto/servicio consolidado para el gran público, durante los últimos meses son varios los fabricantes que han demostrado sus enormes posibilidades en campos como los juegos, la formación, la medicina, la industria o la investigación. HTC, Sony, Facebook, Microsoft, Google o Samsung no quieren perderse esta nueva forma de acceder a contenidos y quieren recuperar los miles de millones invertidos en los últimos meses.
La realidad aumentada, que aunque parezca más desconocida tuvo en Pokémon Go su mejor exponente, también tiene mucho que decir en campos como el comercial (automoción, textil, inmobiliario, etc.), educación, comunicación, etc.
Es por ello que la suma de ambas tecnologías, que los expertos han empezado a llamar mixed reality, cuenta con muchos ingredientes para empezar a implementarse en juegos (Hololens), sistemas móviles (Project Tango), etc.
Sin duda, para que esta triada se consolide será necesario que el hardware esté a la altura. Y no solo en forma de potentes equipos de sobremesa. También será necesario un salto en componentes y periféricos. En primer lugar destaca el nuevo cerebro que Qualcomm ha preparado para dispositivos móviles. En segundo lugar, wearables, drones, etc. que permitan una nueva forma de captar la realidad y de relacionarnos con ella.
Muy ligado a esta nueva forma de obtener contenidos multimedia están las nuevas tecnologías de imagen: léase pantallas OLED, pantallas ultraplanas, mejores tarjetas gráficas, etc. que se implementan en todo tipo de soportes. Los ordenadores, que por mucho que los sentencien nunca acaban de morirse, alcanzan un nuevo formato: el de los convertibles. Lejos de ser una suma de tableta y teclado, permiten resoluciones increíbles, velocidades de procesado fulgurantes, etc.
De esta forma, 2017 se antoja como el año de la revolución de los soportes. Consumiremos contenidos en gafas de realidad virtual; los ordenadores mutarán en tabletas y las tabletas en smartphones. Las pantallas se confundirán entre sí gracias a que todos los equipos tienen potencia para hacer casi de todo. El motivo es que a las puertas de la conectividad 5G los usuarios quieren consumir todo tipo de contenidos en cualquier lugar. Es la ultraconectividad por velocidad y por demanda.
Un momento de inflexión en mercados como el de los videojuegos, el comercio electrónico, internet, la educación (mediante la gamificación), la industria, etc. El CES de Las Vegas, un año más, nos ha demostrado -excentricidades al margen- la velocidad a la que puede (y debe) cambiar el mundo.
Noticia recomendada por Binary Soul

España, paradoja de la movilidad

Netradar es una interesante web que nos permite indagar cuál es la cobertura de nuestra operadora móvil en cualquier zona del planeta. Un sitio más que recomendable antes de contratar nuestro servicio -os llevaréis sorpresas, muchas de ellas sin explicación, de la cobertura en ciertas zonas de algunas ciudades-. Pero el problema no se da solo en la cobertura para hablar sino en el básico 3G y en el novedoso 4G que algunas operadoras nos quieren vender como la panacea y que en muchas regiones de Europa, Asia y Norteamérica está mucho más que superado (¿algún día tomara nota de esto Euskaltel?).

Y navegando sobre telefonía móvil y datos nos hemos cruzado con un interesantísimo reportaje de Miguel Ángel Criado para El País en el que nos desentraña un excelente estudio realizado sobre cinco millones de usuarios de todo el mundo y que concluye que la velocidad de “banda ancha” de la que disfrutamos en el Estado es la mitad que en muchas regiones del resto de Europa (algunas zonas nórdicas y de Asia, incluso, la quintuplican).

En el mercado nacional en 2014 había contratadas 50 millones de líneas y unos 38 millones tenían asociadas a su número una tarifa con banda ancha, según cifras de la Comisión Nacional de los Mercados y la Competencia. De facto, las campañas de las operadoras para captar clientes para sus servicios de 4G deberían haber subido estas cifras. Sin embargo, el informe que expertos de la Universidad de Aalto (Finlandia) han realizado sobre 200.000 líneas arroja que la velocidad de conexión media en el Estado es de 4,6 Mbps.

Esto nos coloca en el puesto número 30 de los países analizados. Si nos comparamos con Dinamarca (22,3 Mbps); Suiza, Bélgica, Canadá, Corea o Japón, las cifras nos hacen palidecer. En el peor de estos casos superan los 10 Mbps. ¿Qué factores provocan estas diferencias? El más obvio es el de los terminales que compra cada usuario. El Estado es un mercado android en el que, de media, priman las gamas medias, sin embargo, por rendimiento, todos ellos deberían trabajar sin problemas con redes 3G bien optimizadas (a más de esos 4,6 Mbps). Además, la “eclosión” del 4G debería empujar aún más la velocidad. Hasta ahora se cubre al 22% de los usuarios (nada mal teniendo en cuenta que a finales de 2014 la cifra era del 10%) muy lejos del 70% que prometen las operadoras y muy por debajo de la media mundial.

El problema es que nuestro 4G también es más lenta. El usuario tiene de media una tasa de descarga de 17,6 Mbps, cuatro veces mejor que la media pero muy por debajo de los 29,4 Mbps, la mejor tasa del continente (aunque no la mejor en el ranking mundial).

Por eso, si nos centramos en lo que explica Jukka Manner, uno de los profesores que ha realizado el análisis, “la existencia de pocas bases cubriendo áreas muy pobladas y la disponibilidad de la red” son al final mucho más importantes. No da nombres, solo se fija en los resultados que arroja Netradar, la plataforma que antes mentábamos y que envía datos de velocidades de conexión de forma anónima.

Y esos resultados también se fijan en la latencia: el retardo entre el envío y la recepción de un paquete de datos. La cifra es de 254 milisegundos. Puede parecer poco pero es un número trascendental para entender el funcionamiento de los servicios de VoIP o las videoconferencias. En Suiza (de nuevo) la cifra es de 119 ms. En Irán de 1 segundo.

Internet móvil, en busca de la alta velocidad (real)

2020 es una fecha marcada en rojo para la industria de las comunicaciones móviles tanto por las operadoras como por los usuarios. En un lustro la consolidación del estándar 5G debería permitirnos tasas de transferencia tales que podamos descargarnos una película completa en un segundo en un smartphone. Permitirá mover los coches de modo autónomo y remoto con la seguridad de un coche de radiofrecuencia. Será el empujón definitivo para la domótica y el pilar sobre el que construir más avances del tan cacareado Internet de las cosas.

No es ciencia ficción. Con el 4G desplegado casi por completo en toda la Península -y no es que sea una región con alta densidad tecnológica-, operadoras como Vodafone ya están desplegando en Madrid y Barcelona las primeras redes de transición que permiten una tasa de hasta 300 Mbps y que ha sido bautizadas como 4,5G.

 Mapa de cobertura 4G en el Estado a finales de 2014

 

La mezcla del cloud computing, parte ya indispensable para entender la digitalización de la sociedad; de las comunicaciones M2M (machine to machine) y la implementación de tecnología SIM en casi cualquier dispositivo o equipo doméstico e industrial nos denotan que estamos al principio de una nueva revolución tecnológica que muchos ya han denominado 3.0. (Mucho más realista que el rimbombante 4.0 de la industria germana).

Si las cifras son ciertas -y hasta ahora siempre se han quedado cortas- en cinco años habrá 26.000 millones de equipos conectados a internet con el único fin de racionalizar los servicios y “quitarnos de encima” las tareas más arduas y complejas. Crear ciudades inteligentes, minimizar nuestro impacto ambiental y generar entornos más humanos son el fin de una tecnología que, sobre el papel, ha de ser el salto definitivo a la revolución iniciada hace 20 años por las TICs.

Pero todo esto no va a ser gratis. De hecho, va a ser muy caro. Hacen falta miles de millones de euros para invertir en infraestructuras que permitan estos sistemas tanto por parte de operadoras y administración… como por parte de los clientes finales que tendrán que adaptar sus equipos. En este caso, la inversión europea en redes 5G (frente al paso atrás que supuso quedarse al margen en el desarrollo del 4G, Europa es ahora líder en esta nueva generación) sólo en investigación supera ya los 3.000 millones de euros. Sin embargo, salvo el momento inicial -al que nadie se le escapa que tendrá un precio premium si los reguladores no lo evitan- las propias operadoras insisten en que esta nueva tecnología no debería suponer una subida de tarifas respecto al actual 4G.

De facto, si miramos las cifras de penetración de las anteriores generaciones, cada nueva versión siempre ha traído más clientes, una mayor expansión y, por lo tanto, una brecha digital cada vez menor. El 5G -que debe permitir a la UE ser alternativa a EEUU en el universo de las telecomunicaciones- se ha diseñado para permitir una experiencia always-on más segura; ahorrar energía (también en los dispositivos) y, dar cobertura ha más de 7.000 millones de usuarios (según fuentes de Orange, Vodafone y Movistar).

A diferencia de las versiones 3G y 4G, el 5G se ha pensado para unir a las personas y también a las cosas. Eliminar el retardo en las conexiones es el factor fundamental que permita una experiencia plena tanto a nivel interpersonal como profesional. Sólo hemos de echar la vista atrás. En 2001, con tecnología GPRS, se tardaban 34 horas en descargar 1 GB. En 2020 se tardará, como hemos dicho, 1 segundo. La prueba de fuego serán los Juegos Olímpicos de Invierno de Pyeongchang (Corea del Sur) en 2018 donde, por primera vez, se tendrá acceso al 5G. El país asiático promete poder dar cobertura incluso en los trenes de alta velocidad (que circulan dentro de sus fronteras a más de 500 km/h). Un año más tarde llegarán los smartphone con esta tecnología a precio razonable… y en 2020 el futuro se convertirá en un presente prometedor.