CES 2018, las claves para entender este año


Un año más el Consumers Electronics Show de Las Vegas supone el pistoletazo de salida del año “tecnológico”. Después de la competida campaña navideña (en la que las grandes empresas de electrónica hacen caja) la primera y principal feria del año nos indica cuáles son las tendencias que hemos de esperar a corto y medio plazo. Estas son las claves para entender el evento.

2018 será el año de los hogares inteligentes. No tanto por la llegada de la domótica a las viviendas -su coste es aún elevado debido a las inversiones que puede suponer en edificios antiguos- sino por la entrada de los asistentes virtuales. Si el año pasado fue el de Alexa, este año el foco recae sobre Google Assistant (los de Mountain View vuelven a Nevada), Bixby de Samsung y Siri de Apple.

Precisamente el retorno de Google supone una inyección a muchos de sus socios (LG o Sony ya han anunciado equipos multimedia inteligentes compatibles con su plataforma) así como un espaldarazo a un nuevo perfil de eventos que empieza a quitarle protagonismo incluso a los Salones del Automóvil.

Y es que en solo dos días, desde que el CES cierre las puertas, el NAIAS de Detroit abrirá las suyas en un momento clave en la reconversión de la industria del motor. Los coches autónomos y las fuentes de energía sostenibles serán los protagonistas en ambos eventos. La duda es cuál de los dos ganará la batalla a la hora de presentar los avances más trascendentes en el negocio de las cuatro ruedas.

También es un momento clave en el negocio de los televisores. Este año hay mundial de fútbol y, al igual que los años “olímpicos” hay una subida importante en las ventas de estos dispositivos. Si bien parece que el mercado ha desechado las tecnologías 3D y las pantallas curvas, el 4K se ha convertido en un estándar consolidado y la duda queda entre los sistemas OLED y LCD. O, lo que es lo mismo, LG contra Samsung.

No menos importante es todo lo que ha rodeado a los contenidos. Cuando aún no ha pasado la sorpresa por la compra de 21st Century Fox por parte de The Walt Disney Company y aún no se sabe cómo acabará la fusión de AT&T y Time Warner a causa del complejo entramado legal por el que está pasando, se empieza a notar la tensión legal que rodea a la neutralidad en la red (o la falta de la misma) en Estados Unidos. De cómo se resuelva esto dependerá el futuro de muchos mercados: el de los contenidos en streaming, el de las empresas de telecomunicaciones y el de los distribuidores de internet.

Y es que estos últimos están en plena conversión hacia el 5G. Aunque su implantación no despegará hasta 2019 y no será hasta Tokyo 2020 cuando el gran público podrá ver su potencial, este CES ya ha demostrado las virtudes del LTE Gigabyte y del 5G inalámbrico para hogares. Es cierto que muy pocos equipos son compatibles (el Galaxy Note 8 es de los pocos que se nos ocurre), pero también que puede ser el primer pilar de las ciudades inteligentes.

Precisamente preparar para esta nueva generación a los dispositivos móviles hace que el evento haya sido el escenario perfecto para la presentación de las novedades de Energous y Powercast en materia de carga inalámbrica de dispositivos -parece que ninguna empresa consigue dar un salto de calidad en la autonomía de las baterías– y también para comprobar el estado de salud de Intel después del escándalo de la seguridad de sus chips y de comprobar que, mientras, Qualcomm y Nvidia siguen con su carrera por desarrollar chips “móviles” cada vez más capaces.

Y es que el mercado PC y tablet ha demostrado en la cita, una vez más, que está cada vez más cerca de unificarse (para el gran público), con prestaciones que se igualan, una autonomía y movilidad cada vez mayores y, sobre todo, una nueva forma de uso cada vez más similar. Incluso entre profesionales.

Sobre todo si tenemos en cuenta el ritmo al que crecen las ventas y se diversifican los nuevos dispositivos wearable. Los equipos de Fitbit, Garmin y Apple son cada vez más fiables para la monitorización de la salud y esto ha provocado la llegada de todo un arsenal de periféricos para todo tipo de usuario. Casi todo es susceptible de llevar un chip y tanto el CES como lo que vendrá durante los últimos meses buscará hacernos la vida más sencilla (y segura).

Por último, este parece el año del todo o nada de las realidades aumentada y virtual. Las herramientas ARKit de Apple y ARCore de Google, el hardware MagicLeap, la división Oculus de Facebook, así como los nuevos proyectos de HTC, Intel y HP indican que es algo más que una moda pasajera. ¿Se adaptará a la mayoría de usuarios? ¿Se quedará como una herramienta profesional o como una excentricidad incomprendida para geeks? En la Feria han apostado fuerte, pero no siempre aciertan.

Noticia recomendada por Binary Soul

Televisiones, ¿cómo escoger la adecuada?

2016 es año bisiesto y eso significa que además de tener un día más, cuenta con un verano cargado de eventos deportivos: a los habituales (ciclismo, tenis, varias competiciones de motor…) se le suman la Copa América y la Eurocopa de fútbol y, sobre todo, los Juegos Olímpicos. Y cuando esto ocurre los fabricantes de televisores saben que se juega mucho ya que son millones los clientes en todo el mundo que se plantean cambiar su equipo para ver como nunca a sus héroes deportivos.

Sin embargo, del mismo modo que ocurre con los teléfonos inteligentes o los ordenadores, enfrentarse a las especificaciones técnicas de estos dispositivos puede ser muy complicado -sobre todo si queremos compararlos- y puede hacer que tomemos una decisión poco acertada (y paguemos por algo que no queremos o, sobre todo, necesitamos).

Lo más importante es centrarnos en para qué vamos a usar el televisor (¿realmente usaremos el 3D?, ¿es fundamental para nosotros el 4K?), no salirnos de nuestro presupuesto (hay muy buenos equipos por mucho menos de lo que pensamos) y decidir a partir de estos cinco parámetros: el tipo de pantalla, la resolución, la tasa de refresco, la conectividad y el tipo de smart TV que es.

  • Tipos de pantalla: hay cuatro. Los paneles de plasma, los LCD, los LED y las OLED. Y la clave en todas ellas es la luz. Cómo se ilumina cada una de ellas. Porque de esto sale también la calidad de la imagen y la duración de los propios equipos. Las LCD lo hacen mediante bombillas fluorescentes cuya luz es bloqueada por los pixeles de la pantalla de cristal líquido (LCD). Las LED usan el mismo sistema solo que emplean, como su nombre indica, LEDs. La tercera evolución del sistema es el de las OLED en las que en vez de emplear una fuente de luz son los propios píxeles los que se iluminan mediante diodos orgánicos. Finalmente, el plasma emplea una mezcla de gases nobles entre dos cristales que al recibir una corriente eléctrica se convierten en plasma y generan luz. Todas ellas tienen ventajas y desventajas. Las primeras son las más económicas; las LED sacan pecho en resolución y brillo; las OLED son imbatibles en cuanto a profundida de negros y contrastes; y las de plasma son las que ofrecen los mejores y más variados colores.
  • Resolución. Básicamente hay tres niveles. El primero lo componen los televisores HD Ready con una resolución de 1280×720 píxeles. La más habitual en equipos de precio bajo es cada vez más escasa por la democratización de los paneles Full HD con resolución 1920×1080 píxeles. Por encima se encuentra el 4K que cuenta con una resolución mínima de 3840×2160 píxeles y que cuando reproduce contenidos con esta resolución es casi hipnótico. El problema es que casi no hay. Fuera de este peldaño hay fabricantes como Samsung que han mejorado la ultra alta definición con mejoras de color y contraste y lo han bautizado SUHD.
  • Tasa de refresco. Tan importante como el punto anterior (aunque muchos vendedores lo obvien) es la tasa de refresco de la imagen de nuestro posible televisor. Se mide en hercios porque se refiere al número de veces por segundo que la luz ilumina la pantalla. La media se encuentra entre los 50 y los 240 Hz aunque hay equipos que rondan los 1000 Hz (eso sí no de forma constante sino actuando de una forma similar al turbo de los coches, puntualmente). A mayor tasa de refresco más calidad de imagen y menos sombras (ghosting).
  • Conectividad. Es cierto que con la mejora de capacidades de las consolas, los home cinemas (muchos de ellos con reproductores integrados) y las plataformas en línea cada vez necesitamos menos cables para sacar todo el partido a nuestro televisores. No obstante no todo el mundo tiene una PS4-Xbox One, un home cinea con bluray integrado o un Chromecast/Apple TV con lo que será fácil que mientras nuestros equipos se actualizan necesitemos un buen puñado de puertos. Por eso la mayoría suelen venir con varias entradas HDMI y puede que algún euroconector (Samsung, por ejemplo, trae un adaptador HDMI-Euroconector entre la colección de cables que regala) para no dejar desconectado a los equipos más antiguos.
  • Smart TV. Y es que el HDMI, como hemos dicho con los Chromecast y compañía, es clave en la forma en la que consumimos televisión. Plataformas como Netflix, Waki, HBO Premium en breve, YouTube o Spotify están cambiando la forma en la que accedemos a los contenidos y por eso es importante tener claro que nuestro equipo tenga (o sea compatible con equipos) Smart TV. De esta forma no solo podremos mantener actualizado el software del dispositivo. Samsung utiliza Tizen, LG y Sony, Android TV, aunque todas ellas son compatibles con las principales plataformas.
Volviendo a factores más mundanos como el precio, por menos de 500 euros es fácil encontrar equipos de Sony, Panasonic o LG que ofrecen resolución 4K, smart TV e incluso compatibilidad con contenidos 3D (pasivo o no da para otro post). A partir de esta cifra encontraremos modelos con Android TV, mejor conectividad, paneles curvos (Samsung), mejoras en el audio y mucha más tasa de refresco.
Y será a partir de los 1.000 cuando encontremos los paneles más grandes con tecnología OLED (ahora mismo la mejor del mercado junto a la Quantum Dot de Samsung) 3D activo de última generación, 4K, etc. Solo hay una cosa que nosotros no podemos responder: ¿qué necesitas realmente? No es lo mismo usarla para ver un partido de fútbol que una serie cargada de efectos especiales o cine de autor.

HDR, ¿qué significan las “nuevas” siglas de la televisión?

Llevan meses siendo la comidilla en el negocio de los paneles, monitores y televisores. Tres letras que prometen traer un salto al mundo de la imagen mayor que el que supuso el 4K. A la altura de la brecha entre el DVD y el BluRay. Y, sin duda, en el pasado CES 2016 han sido las siglas más escuchadas en los stands de algunos fabricantes: HDR o High Dynamic Range. Pero, ¿qué significan realmente y qué aportan a nuestra experiencia de usuario?

Si seguimos un orden cronológico en lo que a calidad de imagen se refiere, al Full HD le superó el 4K y la UHD -ultra alta definición- y parecía que el summum durante un tiempo serían los quantum dots o puntos cuánticos. Sin embargo, la llegada a los televisores de la tecnología HDR (presente en las cámaras desde hace tiempo) promete poner todo patas arriba.

Como hemos dicho, cualquier aficionado a la fotografía o a los videojuegos lleva oyendo estas siglas desde hace tiempo. Incluso los smartphones incluyen esta opción desde hace algunas generaciones. Muchas tarjetas gráficas incorporan esta tecnología que tiene como objetivo reproducir una gama de luminancia más amplia. Explicado de una forma más sencilla, es capaz de crear mayor intensidad en las gamas más oscuras y en las más claras para ganar más detalle. Los negros son más oscuros y los tonos claros más luminosos. Un contraste mucho más potente y marcado que nos ofrece un nivel de detalle sin comparación con los televisores comercializados hasta la fecha.

En fotografía la forma de aplicarlo es sencilla: se emplean varias capturas de la imagen con diferentes exposiciones que al combinarse entre ellas permiten obtener una instantánea con una gran cantidad de información y por lo tanto con un gran detalle en las zonas más claras y oscuras. En definitiva, una imagen más definida y de más calidad.

Cuando aplicamos esto al vídeo la imagen multiplica su calidad y conseguimos una nueva forma de ver lo grabado. Y aquí es donde entra otra de las bazas del HDR en juego: si el 4K supuso una enorme inversión para toda la cadena de producción y los Quantum Dots son una baza solo del reproductor, el HDR permite incluir a los productores sin un gran esfuerzo económico pues, como hemos dicho, es una tecnología que se lleva tiempo utilizando en otros campos.

De hecho, si el talón de Aquiles de la Ultra Alta Definición ha sido que el hardware ha estado listo antes que los contenidos, ya hay productoras como Netflix o Amazon que ya tienen contenidos compatibles con esta tecnología.

Por eso cuando algunos fabricantes decidieron implementar nuevos sistemas de atenuación de la retroiluminación (bajar el tono negro sin evitar que los claros sean más brillantes) todas las piezas del puzzle encajaron. Lo más curioso es que según muchos expertos el HDR podría dejar fuera de juego a la sensación del último año en paneles: el OLED de LG. El motivo es sencillo, si bien permite tonos negros mucho más oscuros al apagar selectivamente los LEDs, sus tonos claros no consiguen todo el brillo que necesita el HDR para completar escenas más nítidas. Es cierto que en la feria de Las Vegas los coreanos mostraron un panel específico para este “nuevo” sistema, pero también lo es que Sony y Samsung llevan cierta ventaja y que Panasonic ya ha lanzado su propio Dynamic Range Remaster.

Pantallas, ¿cómo proteger nuestros ojos?

En muy poco tiempo hemos pasado a que casi todos los equipos con los que nos relacionemos tengan una pantalla que no supone el principal puerto de entrada y salida de datos. Las hay de varios tipos y todos los fabricantes tienen una “favorita”. Paneles IPS, OLED y AMOLED en smartphones, tabletas, ordenadores, reproductores multimedia, televisores, etc. ¿Estamos preparados para este agresivo impacto visual?

A finales del año pasado hablábamos de cómo un uso incorrecto de las pantallas LED las convertían en dispositivos de riesgo. La evolución natural del ser humano nos programaba para entender lo que nos rodea de una forma diferente a la que nos proponen estos equipos -el famoso sistema circadiano-. Ahora son cada vez más los especialistas que advierten de los síntomas de fatiga visual que ven cada vez más en los pacientes.

Esa fatiga no es más que el resultado del esfuerzo muscular al que sometemos a nuestros ojos durante el uso -prolongado o no- de pantallas. Sin embargo, hay factores determinantes que concluyen que no todos los paneles son iguales y que hay unos tipos mucho más agresivos con nuestra vista. De este modo, hay estudios que determinan que los paneles LCD, TFT y otros derivados no producen problemas graves sobre la vista a largo plazo. Sin embargo, un uso irresponsable (como siempre) sí pueden producir trastornos a corto plazo.

Uno de los factores fundamentales a la hora de evaluar el riesgo de un panel sobre nuestra visión es la tasa de refresco. Cuanto mayor es el ratio menos será la fatiga visual que nos produzca. Asimismo, a mayor resolución veremos con mayor claridad y menor será el daño que nos hará. Unos parámetros opuestos al brillo: cuanto menor sea mejor para nuestra salud ocular. Finalmente, una buena orientación de la luz natural que incida sobre el dispositivo será fundamental para protegernos.

De este modo, la iluminación y los colores -léase la configuración correcta o no del dispositivo- son factores ineludibles a la hora de protegernos de lesiones oculares a medio y largo plazo. De este modo, los paneles AMOLED suelen tener un mejor contraste de color (los negros son más negros) lo que ayuda a minimizar la fatiga visual. Como contrapartida, la luz que emiten es más azulada lo que nos dificultará conciliar el sueño si las utilizamos en la cama o justo antes de dormir.

Los paneles LCD IPS por su parte, ofrecen un mayor brillo máximo lo que significa que bien regulados -en consonancia con la luz ambiental- nos permitirían proteger mejor nuestra visión. No existe una tecnología mejor o peor, solo un uso responsable de la misma y trucos para que aquellos esclavos de las pantallas puedan relajar sus músculos -recomiendan mirar a un objeto alejado de 10 a 30 segundos de forma periódica para descansar la vista-.

Láser blanco, ¿revolución en los paneles?

La revolución que lleva viviendo la imagen durante la última década es vertiginosa. Desde que se abandonó el tubo de rayos catódicos los fabricantes han entrado en una vorágine por encontrar el panel más nítido, más fino, con mayor resolución y menos demanda energética posible que ha dado como resultado paneles de todo tipo para todo tipo de dispositivos -el do de pecho lo siguen dando los televisores aunque los smartphones y tabletas no se quedan atrás-.

El primer emisor láser data de 1960 y durante más de medio siglo las mejoras en este campo han sido evidentes. Sin embargo había algo que se le seguía resistiendo a los científicos: crear un láser de color blanco. Y decimos que seguía resistiéndose porque investigadores de la Universidad de Arizona han conseguido este hito que redundará en pantallas más eficientes (energéticamente) y eficaces -con mucha más calidad de imagen-.

Un láser común emite un “haz de luz coherente”, esto es, una única frecuencia y longitud de onda que determina su color entre otras características. Sin embargo, el láser que han diseñado emite un haz incoherente lo que se traduce en múltiples frecuencias y longitudes de onda.

Conseguir un láser con diferentes longitudes de onda ha sido muy complejo ya que ha requerido del diseño y construcción de un emisor a escala nanométrica con un grosor de una milésima parte del grosor de un cabello humano. El mismo, a su vez, se divide en tres emisores láser que emiten los tres colores típicos de la escala RGB.

De este modo, el sistema puede emitir un haz de luz rojo, uno verde y uno azul… y cualquier otro color que resulte de la combinación de estos tonos primarios. De este modo, si se activan las tres partes al unísono y a máxima potencia el resultado es un láser blanco.

Los investigadores de la Universidad de Arizona han explicado que, entre otras muchas funcionalidades, permitirá el desarrollo de una nueva generación de pantallas ya que en las pruebas han conseguido demostrar que su capacidad para reproducir colores está un 70% por encima de cualquier pantalla actual -incluidas las OLED, las de mayor calidad en la actualidad-.

Es cierto que el sistema aún está en un proceso embrionario ya que para poder aplicarse en la electrónica de consumo habrá que saltar otro obstáculo: por el momento el sistema desarrollador por los investigadores funciona estimulando los electrones de otro láser ya existente y para poder llevarse a un panel es necesario un LED que funcione con electricidad directa.

¿Otra de las aplicaciones más interesantes de este sistema? Los semiconductores ópticos que verían ostensiblemente mejoradas sus características de rendimiento y su necesidad de abastecimiento energético. Toda una promesa que esperemos no tarde mucho en convertirse en realidad.