Dell-EMC, ¿qué hay detrás de la mayor fusión de la historia?

Lo que fueron rumores durante semanas cristalizó el día 12 de este mes como la mayor operación del sector tecnológico de la historia: Dell llegó a un acuerdo con EMC para absorberla por 67.000 millones de dólares (unos 59.000 millones de euros) que deja en un juego de niños la compra de Broadcom por Avago Technologies y sus 37.000 millones de dólares. Pero, más allá de cifras escandalosas, ¿qué hay detrás de esta unión histórica?

Antes de seguir analizando los pormenores de la fusión presentemos a cada uno de los participantes. Fundada en 1984 por Michael Dell, Dell factura cada año 57.000 millones de dólares. Sin embargo, sus dos principales negocios están ahora mismo en una encrucijada. Por un lado, los PCs siguen bajando sus ventas trimestre tras trimestre ante el cambio de hábitos de los consumidores -mucho más dispuestos a dejarse su dinero en dispositivos móviles-. El último trimestre, por ejemplo, las ventas se dejaron un 7,7% a nivel mundial respecto a 2014. Por otra parte, el negocio de los servidores deja cada vez menos márgenes debido a la presión de fabricantes asiáticos como Huawei o ZTE.

EMC, por su parte, se creó en 1979 y está especializada en software y sistemas de administración y almacenamiento de información (cloud computing) dos herramientas clave en la era de los Big Data. Aunque su presencia en el mercado es similar a la de otros antiguos gigantes del hardware como IBM o HP, su facturación de poco más de 24.400 millones de dólares el año pasado la colocaba como uno de los “mordiscos” más apetecibles del mercado.

Dell y EMC ya tenían una historia de colaboraciones desde 2001 y no son nuevos los rumores sobre una fusión o compra entre las mismas. Ahora que se ha hecho realidad se crea la mayor empresa de servicios informáticos del planeta. Líder en suministro de servidores, dispositivos de almacenamiento, virtualización (la firma VMware seguirá como empresa independiente en su cotización y su gestión pero también forma parte del conglomerado) y ordenadores, así como en la gestión y almacenamiento de datos.

El objetivo de Michael Dell es claro: crear una “central de soluciones para empresas”. Es la respuesta a un momento en el que la demanda se ha endurecido y la mayoría de las firmas buscan refugiarse en los servicios de negocios ante la perdida de beneficios en la electrónica de consumo en manos de las “nuevas ricas” de Silicon Valley.

Como siempre, una operación de estas características tendrá “daños colaterales” en forma de departamentos completos solapados entre ambas compañías. El año pasado EMC se vio obligada a despedir a casi 1.000 trabajadores en unos recortes que vio necesarios para seguir siendo competitiva ante HP, Cisco -la única grande que no ha movido ficha recientemente en forma de fusión- y Oracle (probablemente las dos firmas más afectadas por el nuevo gigante).

A pesar de los titulares sensacionalistas sobre los millones de dólares que se espera que facture la nueva empresa algunos analistas consideran esta operación un movimiento a contracorriente. Sobre todo si recordamos que no hace mucho que IBM cedió a Lenovo su división de ordenadores o que HP anunció hace meses que se “partirá” en dos sociedades más pequeñas centradas cada una de ellas en diferentes áreas de negocio: hardware y gestión de datos. Incluso eBay anunció recientemente su separación de la división de pagos online: PayPal.

La duda es cuántos serán los despedidos afectados por la fusión, cómo redundará esto en terceras empresas que trabajaban con la empresa de gestión de servidores (Google o Amazon, por ejemplo) y qué tiene en cabeza Michael Dell para volver a revolucionar el mercado como lo consiguió en los ’90 al ser el primer fabricante que permitía crear ordenadores a medida y su compra directa sin intermediarios.

Videojuegos, motor de la industria del ocio

Si la salvaje subida que sufrió el IVA sobre el cine -así como la eliminación de las ventajas fiscales- y la piratería ha reducido la posibilidad de éxitos a los blockbusters de Hollywood y mientras la industria musical todavía intenta encontrar formatos que la hagan sostenible frente al cambio de soporte y de las nuevas preferencias de los consumidores, los videojuegos parecen ajenos a la palabra crisis.

Durante 2014, y solo en el Estado, el sector facturó 412,4 millones de euros, un 31% más que el año anterior; disfrutó de la creación de 70 nuevas empresas -ya hay registradas más de 400- y consiguió incrementar el empleo un 28% y del número de entidades de un 21%. Si queremos ponerle una pega a un año tan redondo cabría destacar que en la industria estatal solo el 18% de los trabajadores son mujeres.

Espoleada por la venta en soportes digitales (en 2014 solo el 11% de los juegos comprados tenían soporte físico) los analistas dan por hecho que, al igual que en el resto del mundo, se puede dar casi por cerrada la transición al mercado online.

Con un perfil bastante diferenciado a otros sectores, las cifras indican que el 97% del capital de las empresas dedicadas a los videojuegos es nacional mientras que sus exitosos productos se dedican en un 56% a la exportación. Esto ha hecho que, además de las nuevas sociedades, un informe recogido en el Libro Blanco del Desarrollo de Videojuegos en España arroje que a finales de 2014 había al menos 180 iniciativas y proyectos empresariales a lo largo de este año.

Por regiones, Madrid y Catalunya (30 y 27%) aglutinan casi la mitad de las empresas y algo más de la mitad de la facturación global. Le siguen de lejos Valencia (11%), Andalucía (8%) y Euskadi (7%). Cabe reseñar que durante 2014 la comunidad que más creció fue la valenciana.

Con una vida de las empresas muy cortas (el 65% tiene menos de un lustro de antigüedad y casi un 30% menos de dos años) y una esperanza de crecimiento interanual de casi el 25% hasta 2018 -cuando se deberían superar los 1.000 millones de facturación- la industria se va posicionando poco a poco en un competido mercado que el año pasado facturo casi 80.000 millones de dólares en todo el mundo y que en 2015 superará holgadamente los 86.000 millones.

Con un dominio casi absoluto de Asia (36%) y Norteamérica (32%), Europa parece estar descubriendo que a través de estudios pequeños y dinámicos todavía está a tiempo de entrar en un negocio que, parece, marcará nuestra forma de entretenernos durante al menos una década.

Clima, ¿podemos jugar a ser dioses?

Siempre hemos defendido la tecnología como el conjunto de conocimientos técnicos que permiten crear bienes y servicios que facilitan la adaptación al medio para satisfacer las necesidades (y deseos) humanos. Sin embargo, la incapacidad que está mostrando nuestra especie de para ponerse de acuerdo en salvar el planeta de las agresiones a las que le sometemos está haciendo que muchos científicos se planteen cambiar la relación que tenemos con él y la tecnología. Como explicaban perfectamente en un reportaje en El País el pasado 8 de febrero, son muchos los que hablan de un plan B: emplear los conocimientos de ingenieros, climatólogos y científicos para cambiar y enfriar la temperatura del planeta.

La geoingeniería es la herramienta que se propone para conseguir lo que la política y el sentido común no ha conseguido: si no rebajamos las emisiones para facilitar un enfriamiento del clima estaremos condenados a la extinción (nuestra tecnología aeroespacial avanza mucho más despacio que nuestra capacidad de destrucción).

Las propuestas habidas hasta la fecha han sido muchas y muy variadas: desde un sistema de espejos que refractara la luz solar hasta sistemas de captura de CO2 para relajar la presión del efecto invernadero sobre la atmósfera. La situación para muchos científicos ya es irreversible y si la temperatura aumenta de media 2 grados antes del final del siglo (algunos estudios hablan de que ocurrirá antes de 2050) será necesario tomar medidas drásticas.

Fertilizar el suelo, limpiar el océano y rebajar las radiaciones solares son el único modo alternativo para detener el atroz avance que la industrialización irresponsable ha hecho sobre la temperatura. Universidades como el Instituto Carnegie de Washington hablan de la necesidad de pasar de modelos de ordenador a pruebas prácticas para estar preparados “si los políticos fallan” (pocas veces no lo han hecho en esta materia, la economía manda).

La gestión de la radiación puede comenzar haciéndose de una forma poco agresiva, como pintando edificios y tejados de blanco para minimizar el impacto de la radiación de la superficie o conseguir que las carreteras (una buena cantidad de millones de kilómetros cuadrados en todo el planeta, sobre todo las áreas más urbanizadas y agresivas con el medio) reflejen la radiación. Pero, si esto no es suficiente, todos los ojos se fijan en las nubes.

Mientras unos científicos abogan por convertirlas en “espejos” que reflejen al sol, otros hablan de hacerlas más permeables para que el calor pueda escapar del planeta. Ya ha habido proyectos para hacer pequeños experimentos, como SPICE (Inyección Estratosférica de Partículas para la Ingeniería Climática) que pretendía lanzar un globo aerostático que mediante aerosoles de dióxido de azufre en las capas altas de la atmósfera haría más refractantes las nubes.

Ahora la comunidad científica pide crear un marco legal que les permita actuar a pequeña escala para cotejar los datos de la realidad con los de sus simulaciones en laboratorio. Es necesario para saber exactamente cómo afecta la acción humana sobre el viento, la lluvia o la capa de Ozono (el proyecto SCoPEx de Harvard estudia esto mismo).

Otros proyectos han ido mucho más lejos. Buscan colocar gigantes espejos en el Punto de Lagrange L1 a 1,5 millones de kilómetros de La Tierra, donde la gravedad del planeta y del sol se anulan. Eso permitiría una estacionalidad necesaria para que estas “pequeñas sombras” ayudaran a rebajar la incidencia de la estrella sobre la temperatura del planeta. Estos “parasoles” del tamaño de 1,4 veces España ubicados para proteger cada hemisferio pueden parecer descabellados, pero la posibilidad física de hacerlo así como su supuesta nula incidencia en otros factores como la capa de Ozono o la meteorología los hacen muy atractivos para la comunidad científica.

¿Cuál es entonces el problema? El mismo que nos ha llevado hasta aquí: el dinero. El proyecto costaría cerca del 1,5% del PIB mundial. Y si no rebajar la producción está por encima de no matarnos, no parece que se vayan a conseguir fácilmente esos fondos para proteger el planeta. Habrá que explicar a los dirigentes -en sus términos- que el impacto de un cambio climático irreversible sería de, al menos, el 5% del PIB planetario.

De nuevo, os dejamos con un excepcional reportaje de El País con los pros y los contras de la geoingeniería. ¿Hará nuestra irresponsabilidad que tengamos que jugar a ser dioses?

Terminales modulares, ¿el futuro de la industria móvil?

Las cifras de ventas de smartphones siguen siendo espectaculares. En los últimos tres meses, y solo mentando a los dos líderes del mercado, Apple ha comercializado unos 75 millones de iphone y Samsung unos 90 millones de terminales. Solo dos empresas que venden 21 teléfonos por segundo. Sin embargo, a pesar de la oferta existente en el mercado (los coreanos tienen un catálogo con más de 20 modelos, lo mismo que Sony, LG, HTC, Xiaomi y compañía) es prácticamente imposible que nadie encuentre un terminal realmente adaptado a sus necesidades.

La solución de la mayoría de los fabricantes es “tirar hacia arriba” y entrar en una batalla de cifras: núcleos, velocidad de procesado, resolución de la cámara o pulgadas de pantalla. No obstante, el uso que cada uno de nosotros (y somos 7.000 millones) es completamente diferente. Incluso en el tiempo -los adolescentes juegan más, los veinteañeros queman las redes sociales, los padres de familia usan más la cámara, los profesionales tiran de suites ofimáticas, etc.-.

Esto genera varios problemas. Por un lado, la obsolescencia (programada o no) que hace que los consumidores estemos en un bucle de renovación de terminales que no podemos permitirnos (el problema no es sólo económico, sino de recursos naturales). Por otro, el enorme esfuerzo económico al que se ven sometidos los fabricantes (sólo Apple y Samsung tienen beneficios en un mercado multimillonario).

Proyecto Ara

¿Os imagináis poder escoger los componentes de un smartphone como se hacía hace no mucho con los ordenadores clónicos? Decidir cuál es la potencia de procesado que queremos, la capacidad de la batería, la potencia gráfica o la resolución de pantalla que realmente necesitamos ajustándonos a lo que queremos y podemos gastar y, sobre todo, a lo que realmente utilizamos. Pues no hace falta que lo imaginéis como un imposible… El proyecto Ara de Google, diseñado por la empresa Phonebloks está cobrando cada vez más fuerza y subraya que, también en este sector, conceptos de economía circular y sostenible son posibles.

 

Imagen de previsualización de YouTube

 

Durante el pasado mes de enero, en Singapur y San Francisco tuvo lugar la conferencia para desarrolladores de este proyecto y en él se pudo ver un nuevo concepto de tecnología personal. Por un lado porque podremos gestionar y modificar nuestros dispositivos en función de nuestras necesidades (si usamos mucho la cámara y queremos una mejor, sólo tendremos que cambiar esa parte del smartphone, por ejemplo). Por otro, porque este tipo de diseño permitirá convertir el dispositivo en el centro de gestión de multitud de periféricos añadiéndole o quitándole funciones (un pulsómetro o una cámara con funciones específicas).

Es cierto que en el pasado ya ha habido propuestas similares (en El País nos recuerdan a la empresa israelí Modu Mobile) que a pesar de sus excepcionales diseños y características del hardware cayeron por la pésima experiencia del usuario. Y es precisamente donde la entrada de Google se convierte en algo crucial. Ninguna otra empresa (quizá ahora Microsoft) tiene tanta experiencia en crear un entorno operativo que funcione con una gran variedad de componentes y dispositivos. Y su implicación y la de sus desarrolladores pueden ser el espaldarazo definitivo para que la responsabilidad entre tanto en las empresas como en los hogares.

El proyecto ya ha comenzado a funcionar como piloto en Puerto Rico (es una población pequeña bastante homogénea y con una enorme implantación de las nuevas tecnologías) y la acogida está siendo sorprendente. No sólo por la funcionalidad y por la variedad de componentes que se han puesto a disposición de los consumidores (Toshiba ha llevado tres cámaras que van desde una básica de 5Mp hasta una de 13 con un sistema de cámara lenta cuasi profesional) sino por la forma en la que se han propuesto los puntos de venta y pruebas. Camiones que emulan a los food truck con los que demuestran que escoger un módulo y cambiarlo por uno que ya tenemos (y por el que nos pagan al dejarlo en la tienda) es sencillo y tremendamente rápido.

¿Y cómo podemos personalizar el teléfono si empezamos de cero? Pues la carcasa que escojamos -o diseñemos- la tendremos disponible en muy poco tiempo gracias a impresoras 3D que emplean diferentes elastómeros para hacerlas completamente personalizables, resistentes y compatibles entre sí. La placa inicial cuesta 50 dólares y el precio se queda en lo que queramos gastar. La clave, como siempre, es el sentido común. Esperemos que el proyecto de pronto el salto a todos los mercados.

ZTE-Euskaltel, alianza en Bizkaia

ZTE, una de las multinacionales chinas con más presencia y mayor crecimiento en el negocio de las TICs ha llegado a un acuerdo con Euskaltel que redundará en la instalación de su sede para el Sur de Europa en Euskadi. La alianza, con una duración mínima de diez años, permitirá a los asiáticos acceder al sistema de redes de alta velocidad de la empresa dirigida por Alberto García Erauskin (el acuerdo también implica la cesión de 133 trabajadores encargados de la gestión de dicha red) y varios proyectos entre los que destaca uno inminente para migrar la red a IP por cinco millones de euros.

La alianza, hecha pública el pasado lunes en la sede de Euskaltel en el Parque Tecnológico de Zamudio, vincula la empresa vasca con un gigante presente en 160 países, más de 80.000 empleados -los 133 cedidos mantendrán las condiciones laborales y salariales que tenían en Euskaltel- y un beneficio neto en el último trimestre de 130 millones de euros, un 225% más que el mismo periodo del año anterior.

Este trato no sólo garantiza la independencia de Euskaltel (así como su viabilidad) durante la próxima década, sino que le dota de un aliado estratégico que le permitirá modernizar su red y mejorar su gama de servicios a sus clientes. La tecnología que aporta ZTE (Erauskin subrayó que el acuerdo trae más ventajas en este campo que en económico) permitirá modernizar la gestión de las redes, dotándolas de una mayor capacidad con menor coste de mantenimiento.

Estratégicamente, el acuerdo no sólo debería apuntalar el empleo en la empresa -y en las dependientes de Euskalet- sino que, según el CEO vasco, tendrá un “efecto tractor” en la economía vasca y servirá para fomentar el empleo cualificado en el territorio.

Xiao Ming, CEO de ZTE en Europa y Jia Yunpeng explicaron que contar con la estructura de Euskaltel les permitirá dar servicio más eficiente a sus clientes -no sólo trabajará con Euskaltel- del Sur de Europa de una forma mucho más efectiva y ya ha anunciado proyectos con operadores como Jazztel para el que han contratado a diez personas.

Si se toma como referencia -así lo hicieron los mandatarios chinos- al centro que la empresa tiene en Alemania, desde su implantación ha requerido la contratación de más de 1.000 ingenieros, ha aumentado considerablemente la penetración de la empresa en la región norte del continente y, además, ha permitido un crecimiento exponencial de las operadoras de la zona.

La implantación de la sede garantiza, en palabras de Ming, “poder dar el servicio adecuado a todos los clientes de la región desde Euskadi durante al menos una década”. La cesión de un edificio en el Parque Tecnológico de Zamudio se une a la reciente externalización del equipo de mantenimiento de sistemas a GFI.

Proyecto IP

 

La migración a una red VoIP permitirá mejorar ostensiblemente los servicios de la operadora vasca a sus clientes. Desde la implantación de mejores tecnologías por voz y mayor cantidad de servicios multimedia (por la mayor capacidad de la red) en cualquiera de las forma de acceso a la red de internet: tanto móvil como fija.

Además, la optimización de los costes de despligue de la nueva red permitirá a la operadora acceder a poblaciones y zonas de ciudades a las que ahora por su alto coste tenía mucho más complicado llegar. Fernando Ojeda, director de Euskaltel, también anunció que a principios de 2015 Euskaltel alcanzará un acuerdo para desplegar la cobertura 4G (uno de sus talones de Aquiles frente a la competencia) en base a su propia licencia LT -es decir, independiente de su acuerdo con Orange-.

Ojeda explicó que, si bien ZTE no era “la opción más barata” sí es el perfil más parecido a Euskaltel ya que les permite acceder a una economía de escala hasta ahora impensable para la empresa. Las otras opciones fueron la sueca Ericsson y la también china Huawei aunque ninguna de ellas ofrecía tantas posibilidades como ZTE.

Finalmente, ambos directivos subrayaron que la llegada de nuevas alianzas no supondrá en ningún caso la externalización de trabajadores o servicios ya que Euskaltel ha cerrado su ciclo de dos años en los que puso en marcha un “necesario proceso de transformación” para asegurar su viabilidad e independencia.

Por su parte, los responsables de la multinacional explicaron que la estructura de la Euskaltel y el tejido productivo vasco con una alta colaboración público-privado fueron fundamentales a la hora de escoger Euskaltel como su socio estratégico.