Darknet, ¿por qué es tan difícil atacarla?

Es muy habitual la metáfora en la que internet se representa como un iceberg: el usuario medio tan solo conoce la punta. Una porción menor al 10% en la que se encuentra la parte indexada de la red. Aquello a lo que Google, Yahoo!, Bing y compañía llegan. Bajo el mar se encuentra lo que muchos denominan Deep Web. El resto del iceberg, el no comercial y no indexado. Y más abajo aún de esa enorme masa de datos se encuentra Darknet.

Podríamos definirlo como un conjunto de tecnologías y redes superpuestas que tienen como fin proteger el anonimato de sus usuarios. El peaje por esta oscuridad es que puede que tengan que conectarse a un servidor privado o cumplir unos requisitos específicos como tener instalado un software determinado.

De facto esto hace que los buscadores “tradicionales” no puedan rastrear sus contenidos y, además, tanto el origen como el destino de los datos permanece oculto. Todo el proceso de la red es invisible. Esto hace que sea el emplazamiento perfecto para contenidos de seguridad, datos de administraciones, etc. Pero también permite que se lleven a cabo en este espacio operaciones ilícitas. En cualquier caso, todo atisbo de ciberataque es prácticamente inútil puesto que se trata de una zona de la red “impenetrable”.

¿Por qué? Al fin y al cabo, sobre el papel, si sabemos “dónde está” deberíamos poder atacarla -si así quisiéramos-. Un estudio publicado en la revista Physical Review E ha averiguado que Darknet es capaz de autoprotegerse y corregir por sí misma agresiones de forma espontánea. En él Manlio De Domenico y Alex Arenas, del Departamento de Ingeniería Informática y Matemáticas de la Universidad Rovira y Virgili y Tarragona concluyen que la clave está en su “particular topología más descentralizada que el resto de la red”.

Para poder constatar esto los autores de la investigación crearon un modelo que explica cómo se transmite la información en la Darknet y descubrieron que no emplea una distribución homogénea de conexiones sino que se va encriptando en distintas capas.

Una vez hecho esto simularon tres tipos de ataques: dirigidos contra un nodo en concreto; contra varios de forma aleatoria y otros diseñados para provocar una cascada de fallos y propagarse por la red (el modelo). El resultado es que concluyeron que para atacar Darknet es necesario atacar cuatro veces más sus nodos que los del resto de internet. Y esto tan solo provocaba ciertas perturbaciones. Además, su propia estructura permite solucionar de forma autónoma los problemas y neutralizar los fallos en cascada.

Esto hace que, a pesar de que se considere más ineficiente que la red superficial -la información emplea algoritmos criptográficos más complejos y va de nodo en nodo aleatoriamente en vez de directamente al destinatario- haya una pequeña base de fieles que hayan construido una zona libre informativa en la que están apartados del resto de la red. Con todo lo bueno y todo lo malo que esto trae.

Tim Berners-Lee, preocupado por la evolución de internet

Este fin de semana tuvo varias efemérides. Ayer, por ejemplo, se cumplían 70 años del nacimiento del primer Ferrari. Y este mismo fin de semana hacía 28 de la propuesta de Tim Berners-Lee de una red global. Así, el británico aprovechó el aniversario para publicar una carta abierta en la que mostraba sus sensaciones sobre el estado de la web y sus retos.

En el artículo Berners-Lee se muestra muy preocupado por tres tendencias que cree que necesitan combatirse con urgencia: el más importante, la difusión indiscriminada de noticias falsas. Lo más importante, es que el británico apunta a quiénes deben realizar más esfuerzos por mitigar este problema. Google y Facebook han de liderar la lucha por mucha presión que tengan de los usuarios.

El problema reside en que, mediante los algoritmos, los grandes de internet priorizan el contenido sobre el que creen que vamos a hacer click. No importa que este sea cierto o falso. Esto hace que sea demasiado fácil hacer que los contenidos desinformativos se conviertan en virales en la red. Al fin y al cabo “a través de la ciencia de datos y de los ejércitos de bots, aquellos con malas intenciones pueden engañar al sistema para difundir información errónea y obtener beneficios financieros o políticos”, sentencia.

Berners-Lee también apunta a los usuarios que somos los que debemos hacer presión para que las grandes tecnológicas no cesen en su empeño de controlar la veracidad de los contenidos así como de evitar que se creen “órganos centrales que decidan que es verdad y qué no”. Por eso es importante que los algoritmos sean públicos y transparentes y que la sociedad sea consciente y pueda ejercer de forma natural su poder regulador.

En segundo lugar muestra su preocupación por la pérdida del control sobre nuestros datos personales mediante largos y confusos “términos y condiciones de uso” que se han de aceptarse a la hora de registrarse y acceder de forma gratuita a algunas webs y servicios. Si a esto le sumamos, como reveló hace pocos días WikiLeaks, que los Gobiernos están realizando recopilaciones masivas de datos sin permiso de los particulares, nos encontramos con la libertad de expresión seriamente dañada así como evita que la red sea un espacio libre independientemente de nuestro sexo, religión o procedencia.

Relacionado con los anteriores, el tercer problema es la falta de transparencia de las campañas políticas en internet. Al acceder a nuestros datos -como hemos visto en el segundo punto- los políticos pueden lanzar varios mensajes a cada usuarios -la desinformación del primer ítem- de una forma poco ética pero tremendamente eficaz a la hora de conseguir votos: a cada uno le dicen lo que quieren oír.

¿Hay alguna solución a estos problemas? Básicamente “devolverle a la gente el control de sus datos”. Crear un sistema justo de micropagos que no bloquee a la gente el acceso a los servicios y que nos libere de la publicidad, crear legislación para las campañas políticas y la desinformación y tribunales supranacionales contra los abusos de las administraciones. Nada de esto será rápido pero es la única forma de proteger un mundo digital cada vez más hibridado con el real.

Perspective, IA para plantar cara a los trolls

Pocos países han aupado más internet que Estados Unidos. Su penetración en la sociedad, en las costumbres de los ciudadanos, es enorme. Por una parte, Silicon Valley y sus empresas retroalimentan la digitalización de una sociedad en parte menos temerosa que otras a las nuevas tecnologías. Por otra, la regulación permite la creación de nuevos modelos de negocio sin la supervisión de otras áreas económicas. Sin embargo, ser el conejillo de indias tiene un precio: un estudio del Instituto de Investigación Data Society sobre acoso y abuso en internet revela que casi la mitad de los usuarios estadounidenses ha sufrido acoso; que tres cuartas partes ha sido testigo de ese acoso y que tres de cada diez se autocensuran a la hora de opinar por miedo a las consecuencias.

Google, el ojo que todo lo ve en internet ha decidido tomar medidas en el asunto -igual que prometió combatir las noticias falsas que tantas consecuencias han tenido en 2016- y lanzó el pasado jueves Perspective. Se trata de una herramienta de inteligencia artificial diseñada para identificar los comentarios tóxicos de los “trolls” de la red para eliminarlos y excluir a esos usuarios de la conversación.

Jigsaw, la filial de Alphabet que ha desarrollado el software y que antes respondía al nombre de Google Ideas, busca que en internet “se puedan volver a entablar conversaciones y debates interesantes”. Un código abierto -buscan potenciar a todas las plataformas en la red- que busca hacer de internet un entorno más seguro. Cualquier editor o desarrollador de contenido podrá usarlo para controlar qué se puede decir y qué no en su web.

Además, Perspective se ha creado con varios niveles de exigencia para que cada titular de una web pueda decidir qué hacer con la información que recibe: se pueden marcar los comentarios para que se moderen uno a uno y que se decida si entran o no en la conversación; que la propia persona que escribe los comentarios pueda ver en tiempo real el nivel de “toxicidad” de su reseña o que se clasifiquen de forma automática los comentarios en base a ese mismo criterio.

Su funcionamiento es sencillo en teoría. Un conjunto de personas han clasificado comentarios que consideran tóxicos porque incluyen faltas de respeto, insultos, amenazas o palabras malsonantes. Después, la IA se ha encargado de analizar de forma autónoma miles de comentarios en la red y, para saber si son tóxicos o no los ha comparado con los de su base de datos. Un entrenamiento con el que Perspective ha ganado capacidad ante palabras y frases. El último paso fue su lanzamiento a la web para que sea empleado por quien quiera. Además, cuanto más se implante más aprenderá.

Su mejor baza es el machine learning de Google que tiene la capacidad de analizar datos y crea patrones a partir de los mismos. Cuanto más se usa más aprende. Y en esta fase de aprendizaje serán tan importante los moderadores como los propios usuarios que podrán enseñarle al sistema qué es un comentario tóxico y qué no.

Aunque de momento solo esta disponible en inglés, la empresa ha explicado que pronto estará disponible en otros idiomas. Será fundamental la colaboración de editores y plataformas de otros países (no angloparlantes) para que se pueda crear un modelo efectivo como ocurrió en su momento con el inglés y el medio The New York Times, que ya tiene un equipo humano que se encarga de moderar los 11.000 comentarios diarios de su web. Eso ha provocado que solo se pueda comentar en el 10% de los artículos de su web. Perspective, gracias a su algoritmo permitirá que su trabajo sea más eficaz y sencillo.

Aunque hay empresas como Twitter y Mozilla que tienen en marcha iniciativas similares, la de Google -por potencial y herramientas- parece la más capaz de sobrevivir y de convertirse en estándar en internet.

OnePlus y Meizu, ¿otro caso de engaño a los consumidores?

Es fácil escuchar en la calle que los smartphones no valen lo que cuestan. Ciertamente, los márgenes de beneficio por unidad que obtienen algunos fabricantes (especialmente Apple) hace que muchos se pregunten cuál es el sobreprecio que se paga por llevar un logotipo en el dispositivo. Y precisamente en ese segmento del mercado es donde los fabricantes chinos han encontrado su hueco. Prometen un rendimiento espectacular a un precio irrisorio si lo comparamos con los primeros espadas de la industria.

No es difícil pues, darse un paseo por blogs especializados en los que se habla de las virtudes de los terminales -la mayoría de ellos Android- frente a los sobrevalorados iPhone y Windows Phone. Incluso hablan de las virtudes de los nuevos fabricantes chinos frente a otros consolidados como Samsung, LG, HTC o Sony.

Además, casos como el de Samsung en 2013 en el que se demostró que mediante un software potenciaba la velocidad del procesador para incrementar la de su tarjeta gráfica de 480 MHz a 533 MHz cuando el Galaxy S4 detectaba que estaba siendo a una prueba de rendimiento subrayan las trampas de las empresas para conseguir cifras mejores que las de sus rivales. Una suerte de dieselgate sin partículas cancerígenas.

No obstante, esta vez han sido las prometedoras OnePlus y Meizu las empresas que han sido pilladas in fraganti. Ambos fabricantes han trucado sus teléfonos móviles para mejorar sus prestaciones cada vez que eran sometidos a un benchmark: una prueba de rendimiento para determinar la velocidad de los procesadores o la potencia de las tarjetas gráficas.

En ambos casos, según un estudio publicado por XDA-Developers, las modificaciones afectaban a la velocidad de los núcleos de la CPU -el chip- lo que hacía que sus rendimientos fueran superiores al de otros smartphones con idénticos procesadores. El caso más llamativo fue el de los modelos OnePlus 3 y 3T capaces de incrementar notablemente su rendimiento cada vez que eran sometidos a una prueba de rendimiento.

Los cambios de velocidad se veían claramente cuando el dispositivo pasaba de ejecutar aplicaciones normales frente a aquellas que habitualmente se emplean para medir el rendimiento de un teléfono inteligente. En el caso de los chips de ocho núcleos, en los cuatro núcleos más potentes la velocidad se multiplicada de los 0,31 GHz a los 1,29 GHz, mientras que los otros cuatro subían hasta los 0,98 GHz.

Por si fuera poco, también detectaron que el fabricante había listado las aplicaciones más habituales en los benchmark para poder monitorizar cada uno de sus dispositivos cuando éste estaba siendo testado. El equipo de XDA-Developers fue capaz de detectar la artimaña ejecutando una versión de Geekbench 4 de incógnito con un nombre diferente que fue capaz de pasar desapercibida ante el software del terminal.

Ante estos hechos, OnePlus no ha tenido más remedio que reconocer esta práctica irregular y ha prometido no volver a llevar a cabo estrategias de este tipo, si bien, se reservan esta posibilidad para mejorar el rendimiento del teléfono cuando se estén ejecutando juegos especialmente exigentes.

La estrategia de Meizu era diferente. En el caso de los terminales con procesadores de ocho núcleos, los cuatro más potentes permanecen siempre en letargo y se trabaja solo con los cuatro “normales” sea cual sea la aplicación que se utilice. Sin embargo, cuando el Pro 6 detecta que está siendo sometido a una prueba de rendimiento se activan todos los núcleos para dar un rendimiento muy por encima del habitual.

Lo más grave es que en el informe se deja claro que saben que otros fabricantes han hecho lo mismo aunque, por el momento, no tienen pruebas para inculparlos. Solo han podido realizar una lista de fabricantes que están “limpios” de haber realizado estas prácticas: Google, HTC, Xiaomi, Honor, Huawei y Sony.

FLL Euskadi, el éxito de apostar por los más jóvenes

Decía el filósofo, psicólogo y pedagogo estadounidense John Dewey que “lo ideal no es que un niño acumule conocimientos, sino que desarrolle capacidades” y bajo esta idea se lleva desarrollando desde hace años la First Lego League (FLL), un torneo internacional con formato deportivo que busca potenciar la ciencia y tecnología así como el espíritu creativo e innovador en jóvenes de entre 10 y 16 años.

La finalidad es educar divirtiendo (gamificación) a través de la elaboración de un proyecto científico, el diseño y programación de un robot Lego MindStorms y consolidar los valores de la FLL: el trabajo en equipo, la innovación, la inclusión y la coopertición -la suma de cooperación y competición, competir ayudando y aprendiendo de los demás-.

Este pasado fin de semana tuvo lugar la octava edición de la FLL Euskadi, que se ha convertido en un programa integral de promoción de la ciencia, la tecnología y la innovación entre escolares. Hasta la fecha han participado más de 2.000 escolares y 12 equipos han llegado a los torneos internacionales.

Sin embargo, gracias a la colaboración con la Agencia Vasca de la Innovación-Innobasque, podemos decir que la FLL Euskadi cuenta con algunos factores diferenciales respecto a otras que se celebran en el resto del planeta. Dentro de este proyecto colaborativo participan centros de investigación, voluntarios, empresas, centros educativos y la propia Administración.

De hecho, es el único en el que tanto empresas como centros tecnológicos imparten charlas y visitas a los escolares para que estos conozcan los proyectos de I+D+i que se desarrollan en Euskadi además de los perfiles profesionales asociados a todos estos retos. En definitiva, una forma de dar valor añadido a la competición local y de unir la realidad socioeconómica vasca con el reto internacional FLL.

En esta edición han formado a los escolares Neiker Tecnalia, la Cátedra de Cultura Científica de la Universidad del País Vasco, Urdaibai Bird Center, Azti Tecnalia, Aberekin, Aquarium Donostia, Animalario SGIkerb de la UPV, la Fundación Hazim, el Basque Center for Applied Mathematics (BCAM), Ertzaintza, Ethological Solutions y Txepetxa Asociación de Anillamiento.

2017, una edición multitudinaria y responsable


Las cifras de la edición de este año han sido sobresalientes. La sede de Euskaltel en Derio fue el marco perfecto para que 500 jóvenes organizados en equipos mostraran a los más de 1.500 asistentes sus propuestas innovadoras. La cita, además, contó con un completo programa de actividades programadas en el Opengune como un taller de drones, una exhibición de la unidad canina de la Ertzaintza o propuestas de start ups como Binary Soul que acercaron con sus nuevos juegos móviles.

Dos equipos de la ikastola Begoñazpi de Bilbao y uno de Axular Lizeoa coparon los tres primeros puestos que dan derecho a acceder a la final estatal desde donde podrán optar a clasificarse para el Open European Championship y al World Festival de Estados Unidos donde se citarán los finalistas de las 1.500 ediciones celebradas en 88 países de todo el mundo y que tenían como reto la forma de mejorar la relación entre animales y personas.

Imagen de previsualización de YouTube