IBM, regreso al futuro

Cuando parece que hemos llegado a un techo tecnológico se hace un anuncio que bate todos los registros anteriores. El último ejemplo tangible es el de un equipo de IBM que ha desarrollado un cartucho de cinta magnética que cabe en una mano y que tiene una densidad de almacenamiento de 201 gigabit por pulgada cuadrada: permite almacenar 330 terabytes de datos sin comprimir o, lo que es lo mismo, 330 millones de libros.

La cifra de densidad es absolutamente magnífica: más de 20 veces el de una cinta magnética comercial convencional. Estos equipos, que para la mayoría del público son conocidas por ser el soporte de las cintas Beta, VHS y los casetes inventados hace más de 60 años, han seguido en el mercado de grandes centros de almacenamiento (documentos fiscales o expedientes médicos) gracias a su alta capacidad y precio ajustado.

La evolución desde las primeras épocas de esta tecnología es evidente: según The Verge la primera unidad de IBM empleaba carretes de media pulgada de ancho en la que tan solo se podían almacenar 2 megabytes.

Para la fabricación de este nuevo prodigio IBM ha contado con la colaboración de Sony Storage Media Solutions y, según ambas empresas permitirá que este formato de almacenamiento siga siendo viable durante la próxima década.

El formato, hasta la fecha, se ha empleado para el almacenamiento de archivos de vídeo, copias de seguridad, réplicas para la recuperación y conservación de instalaciones después de desastres, etc. Sin embargo, la industria empieza a barajar la opción de que haya una expansión hacia la computación en la nube debido a la alta demanda de capacidad por parte tanto de empresas como de instituciones y particulares.

La cinta ha sido fabricada mediante un sistema conocido como pulverización catódica tiene un coste ligeramente al proceso de una cinta comercial convencional si bien, el crecimiento exponencial de la capacidad de almacenamiento hace que el costo por terabyte sea mucho más atractivo que en cualquier versión anterior. Según Evangelos Eleftheriou de IBM, incluso lo es “para el almacenamiento en frío en la nube”.

FLL Euskadi, el éxito de apostar por los más jóvenes

Decía el filósofo, psicólogo y pedagogo estadounidense John Dewey que “lo ideal no es que un niño acumule conocimientos, sino que desarrolle capacidades” y bajo esta idea se lleva desarrollando desde hace años la First Lego League (FLL), un torneo internacional con formato deportivo que busca potenciar la ciencia y tecnología así como el espíritu creativo e innovador en jóvenes de entre 10 y 16 años.

La finalidad es educar divirtiendo (gamificación) a través de la elaboración de un proyecto científico, el diseño y programación de un robot Lego MindStorms y consolidar los valores de la FLL: el trabajo en equipo, la innovación, la inclusión y la coopertición -la suma de cooperación y competición, competir ayudando y aprendiendo de los demás-.

Este pasado fin de semana tuvo lugar la octava edición de la FLL Euskadi, que se ha convertido en un programa integral de promoción de la ciencia, la tecnología y la innovación entre escolares. Hasta la fecha han participado más de 2.000 escolares y 12 equipos han llegado a los torneos internacionales.

Sin embargo, gracias a la colaboración con la Agencia Vasca de la Innovación-Innobasque, podemos decir que la FLL Euskadi cuenta con algunos factores diferenciales respecto a otras que se celebran en el resto del planeta. Dentro de este proyecto colaborativo participan centros de investigación, voluntarios, empresas, centros educativos y la propia Administración.

De hecho, es el único en el que tanto empresas como centros tecnológicos imparten charlas y visitas a los escolares para que estos conozcan los proyectos de I+D+i que se desarrollan en Euskadi además de los perfiles profesionales asociados a todos estos retos. En definitiva, una forma de dar valor añadido a la competición local y de unir la realidad socioeconómica vasca con el reto internacional FLL.

En esta edición han formado a los escolares Neiker Tecnalia, la Cátedra de Cultura Científica de la Universidad del País Vasco, Urdaibai Bird Center, Azti Tecnalia, Aberekin, Aquarium Donostia, Animalario SGIkerb de la UPV, la Fundación Hazim, el Basque Center for Applied Mathematics (BCAM), Ertzaintza, Ethological Solutions y Txepetxa Asociación de Anillamiento.

2017, una edición multitudinaria y responsable


Las cifras de la edición de este año han sido sobresalientes. La sede de Euskaltel en Derio fue el marco perfecto para que 500 jóvenes organizados en equipos mostraran a los más de 1.500 asistentes sus propuestas innovadoras. La cita, además, contó con un completo programa de actividades programadas en el Opengune como un taller de drones, una exhibición de la unidad canina de la Ertzaintza o propuestas de start ups como Binary Soul que acercaron con sus nuevos juegos móviles.

Dos equipos de la ikastola Begoñazpi de Bilbao y uno de Axular Lizeoa coparon los tres primeros puestos que dan derecho a acceder a la final estatal desde donde podrán optar a clasificarse para el Open European Championship y al World Festival de Estados Unidos donde se citarán los finalistas de las 1.500 ediciones celebradas en 88 países de todo el mundo y que tenían como reto la forma de mejorar la relación entre animales y personas.

Inteligencia artificial, llega su botón del pánico

Alphabet, matriz de Google, es con toda seguridad la multinacional con más ganas de cambiar el mundo por completo. De darle un impulso que lo lance hacia el futuro por medio de las nuevas tecnologías y todas sus posibilidades. No obstante, pocas empresas son tan conscientes del riesgo que trae consigo el avance tecnológico gracias a su larga experiencia con el formato prueba-error.

Es por ello que somos muchos los que hemos sentido alivio cuando Deep Mind, su filial/start up dedicada a la inteligencia artificial y el Instituto para el Futuro de la Humanidad de la Universidad de Oxford anunciaron que habían desarrollado un gran “botón rojo” de emergencia para evitar que las máquinas realicen una “secuencia de acciones dañinas” para el entorno, el operador humano o ellas mismas y poder “ser guiadas a un entorno seguro”.

Son muchas las voces (entre ellas algunas tan respetadas como la de Stephen Hawking) que han pedido en repetidas ocasiones un sistema de supervisión en el desarrollo de inteligencia artificial. El motivo es sencillo: es inevitable que en algún momento las máquinas superen en inteligencia a los humanos. En ese escenario es improbable que las máquinas se comporten de manera óptima de continuo para con su entorno. Es por ello que es necesario garantizar que el operador humano pueda interrumpir de forma segura e incluso repetida determinados tipos de inteligencia artificial.

De hecho, ante el incremento de capacidades de las máquinas, los investigadores dicen haberse asegurado de que las máquinas puedan aprender a prevenir, impedir o provocar estas interrupciones. Una forma que también se puede entender como un sistema de aprendizaje en el que se podría interrumpir la actividad de un robot cuando deba enfrentarse a una tarea para la que no estaba desarrollado inicialmente.

Sin embargo, son muchos los desarrolladores que dudan de si todos los algoritmos de la inteligencia artificial pueden ser interrumpidos. Es aquí donde juega un papel importante el aprendizaje reforzado, un tipo especial de IA que se basa en el autoajuste de la misma para tener un comportamiento ideal en todo escenario de forma autónoma: básicamente optimiza una función matemática para mejorar su rendimiento o comportamiento sin entender los conceptos sobre los que trabaja: solo entiende las fórmulas, no el objetivo de su trabajo.

Frente a esto existe una corriente que apuesta por un sistema de inteligencia artificial que implemente en los robots el significado de sus tareas para, de esta forma, evitar que por un concepto absolutamente mecanizado se pudiera infringir daño al entorno, los humanos u otras máquinas.

En cualquier caso, la creación de una superinteligencia que no solo superara a la de sus desarrolladores sino que fuera capaz de tomar conciencia de sí misma y fuera capaz de trazar estrategias de funcionamiento anticipándose a la de sus creadores es uno de los grandes peligros que ve parte de la comunidad científica en la apuesta por la inteligencia artificial. Aunque las cifras que se barajan pueden parecer lejanas, expertos como Nick Bostrom, del ya citado instituto de Oxford cree que entre 2075 y 2090 ya habrá inteligencias artificiales tan potentes como la humana.

Brexit, un duro golpe para la investigación europea

Y llegó el día y los británicos votaron que prefieren abandonar la Unión Europea después de 40 años de integración. Los resultados por segmentos de población (y sobre un mapa) han sido claros. Lo menores de 50 años han votado mayoritariamente quedarse dentro de la UE sabedores del enorme potencial que les da la libre circulación por otros 27 Estados. Sin embargo, según baja la formación del votante -y su edad- el voto pasa a ser mayoritariamente partidario del Brexit.

Durante la campaña fueron varios los científicos (Reino Unido es una potencia en este ámbito) que argumentaron a favor del Bremain explicando a los ciudadanos todas las ventajas que tiene colaborar sin restricciones con laboratorios, parques tecnológicos y universidades del otro lado del Canal de la Mancha.

Previo referendo una encuesta hecha por la revista Nature a 907 científicos se saldó con un 83% de votos a favor de seguir en la UE. Ahora han sido los primeros en alzar la voz para mostrar su desasosiego por el resultado. El motivo es porque hay multitud de proyectos continentales con una amplia participación anglosajona como el CERN y el Human Brain Project que ahora podrían continuar sin ellos (es cierto que el conocimiento no sabe de fronteras, pero los visados de trabajo sí).

Además, si nos aferramos a los fríos números, en cuanto a investigación, Reino Unido es un receptor neto de fondos comunitarios. De 2007 a 2013 recibió 8.800 millones de euros mientras que aportó 5.400 millones. La salida provoca incertidumbre tanto en Bruselas como en Londres. El Reino Unido se queda aislado frente a otras potencias investigadoras como Estados Unidos, China, Japón o la propia Unión Europa -aunque ahora quede fuertemente mermada-.

Curiosamente, aunque el discurso que ha cimentado el Brexit es que los extranjeros comunitarios en el países quitan recursos y puesto de trabajo a los británicos, las cifras en el campo de la investigación dicen todo lo contrario. Reino Unido es uno de los países que más se aprovecha de las becas del Consejo Europeo de Investigación y de las Marie Curie.

Cada año percibe 2.700 millones de euros para atraer talento muy por delante de Alemania, Francia, Holanda. Es cierto que otros países extracomunitarios como Suiza o Israel están también dentro de estos programas, pero con cuantías mucho menores. Además, Reino Unido tendrá que negociar un nuevo status con los otros 27 miembros y suponemos que después de las trabas que ha puesto a la Unión no será fácil conseguir un acuerdo ventajoso en ciertos campos.

Además, ni el país helvético ni Israel pueden decidir a qué áreas asignar el fondo para las investigaciones ya que las becas fuera de la Unión se dan para investigar en un proyecto determinado. La salida de la UE no solo mermará los fondos que lleguen sino que atacará a uno de los pilares que la han sustentado como puntera durante los últimos tres siglos: la cantidad de talento extranjero que ha sido capaz de atraer.

Es cierto que un investigador de alto nivel no tendrá problemas para conseguir un visado. Pero también lo es que el grueso de estos investigadores se decantarán por proyectos a los que les es más fácil acceder y que cuentan con muchos más fondos.

Stephen Hawking y varios premios Nobel como Peter Higgs enviaron una carta a “The Times” en la que explicaban el desastre que supondría abandonar la Unión. Pero los daños no se quedarán solo en la isla. El sistema europeo de investigación funciona muy bien. Cada vez mejor de hecho. Y uno de los principales motivos es la colaboración y el potencial del Reino Unido.

Los grandes de la Unión van a perder un socio muy relevante que sirve de puente a otros centros neurálgicos como Estados Unidos, Canadá o Australia. En definitiva una pésima noticia que nos hace perder a todos mucho más de lo que creemos.

Inteligencia Artificial, la encrucijada entre ciencia y humanidad

Realidad virtual e Inteligencia Artificial son dos conceptos que oiremos mucho durante los próximos años. Dos conceptos -muy diferentes entre sí- que están en plena expansión por sus enormes posibilidades en todo tipo de campos. Sin embargo, el potente crecimiento del segundo los últimos meses también ha disparado la preocupación de multitud de expertos y analistas lo que ha llevado a la Casa Blanca a tomar cartas en el asunto (al menos públicamente).

El Ejecutivo americano ha anunciado que el subcomité para el Aprendizaje Automático e Inteligencia Artificial del Consejo Nacional de Ciencia y Tecnología se reunirá todas las semanas para monitorizar todos los avances del sector. En realidad, si atendemos a expertos, este titular más cercano a una película de ciencia ficción protagonizado por Tony Stark, no es tan mala idea.

El subcomité reunirá toda la información disponible en los avances en Inteligencia Artificial tanto en el sector público como el privado. Esto, más allá de permitirles conocer de primera manos los avances de sus rivales, también está pensado para que aprendamos a regular todo el proceso para evitar algo que ya ha ocurrido en otros ámbitos anteriormente: la falta de control en un avance tecnológico es aprovechado por “pioneros” a costa de los demás.

Los principales problemas a los que se enfrenta la IA son una mala codificación, un diseño poco seguro que permita la interferencia de terceros o, peor aún, la creación de unos algoritmos que alternaran drásticamente (casi en cualquier dirección) la vida humana. Lo más curioso es que el anuncio se produce días después de que el Gobierno americano publique un informe relacionado con las oportunidades, retos y derechos civiles en un mundo excesivamente automatizado.

Una de las conclusiones más llamativas del documento es que: “dado que los servicios basados en datos son cada vez más omnipresentes y dado que cada vez dependemos más de ellos, debemos abordar las preocupaciones sobre los sesgos intencionales o implícitos que puedan surgir de los datos y los algoritmos utilizados así como su impacto en los individuos y la sociedad”. ¿Son el problema los datos o su interpretación? ¿Quién debe enseñar a la IA a entender los datos? ¿Debe siquiera llegar a entenderlos un sistema “digital”?

El problema surge cuando instituciones y organizaciones usan los sistemas algorítmicos y los procesos automatizados para tomar decisiones que afectan a nuestra vida como si estamos en condiciones o no de recibir un crédito o de entrar a trabajar en una empresa. Un fallo humano a la hora de crear estos sistemas puede ser crucial a la hora de vetarnos la entrada a una universidad o algo incluso más grave si seguimos permitiendo una escalada “gratuita” no humana en decisiones críticas (militares o médicas, por ejemplo).

Esto no significa que, como explican en Genbeta, la Casa Blanca vaya a abandonar sus investigaciones en este campo estratégico. Nada más lejos de la realidad, Washington incluso ha anunciado el patrocinio de eventos relacionados con la IA, pero estos siempre llevarán aparejados programas de investigación y el soporte de expertos científicos tanto en leyes como en ciencia y ética. El factor humano imprescindible para toda revolución tecnológica.