Darknet, ¿por qué es tan difícil atacarla?

Es muy habitual la metáfora en la que internet se representa como un iceberg: el usuario medio tan solo conoce la punta. Una porción menor al 10% en la que se encuentra la parte indexada de la red. Aquello a lo que Google, Yahoo!, Bing y compañía llegan. Bajo el mar se encuentra lo que muchos denominan Deep Web. El resto del iceberg, el no comercial y no indexado. Y más abajo aún de esa enorme masa de datos se encuentra Darknet.

Podríamos definirlo como un conjunto de tecnologías y redes superpuestas que tienen como fin proteger el anonimato de sus usuarios. El peaje por esta oscuridad es que puede que tengan que conectarse a un servidor privado o cumplir unos requisitos específicos como tener instalado un software determinado.

De facto esto hace que los buscadores “tradicionales” no puedan rastrear sus contenidos y, además, tanto el origen como el destino de los datos permanece oculto. Todo el proceso de la red es invisible. Esto hace que sea el emplazamiento perfecto para contenidos de seguridad, datos de administraciones, etc. Pero también permite que se lleven a cabo en este espacio operaciones ilícitas. En cualquier caso, todo atisbo de ciberataque es prácticamente inútil puesto que se trata de una zona de la red “impenetrable”.

¿Por qué? Al fin y al cabo, sobre el papel, si sabemos “dónde está” deberíamos poder atacarla -si así quisiéramos-. Un estudio publicado en la revista Physical Review E ha averiguado que Darknet es capaz de autoprotegerse y corregir por sí misma agresiones de forma espontánea. En él Manlio De Domenico y Alex Arenas, del Departamento de Ingeniería Informática y Matemáticas de la Universidad Rovira y Virgili y Tarragona concluyen que la clave está en su “particular topología más descentralizada que el resto de la red”.

Para poder constatar esto los autores de la investigación crearon un modelo que explica cómo se transmite la información en la Darknet y descubrieron que no emplea una distribución homogénea de conexiones sino que se va encriptando en distintas capas.

Una vez hecho esto simularon tres tipos de ataques: dirigidos contra un nodo en concreto; contra varios de forma aleatoria y otros diseñados para provocar una cascada de fallos y propagarse por la red (el modelo). El resultado es que concluyeron que para atacar Darknet es necesario atacar cuatro veces más sus nodos que los del resto de internet. Y esto tan solo provocaba ciertas perturbaciones. Además, su propia estructura permite solucionar de forma autónoma los problemas y neutralizar los fallos en cascada.

Esto hace que, a pesar de que se considere más ineficiente que la red superficial -la información emplea algoritmos criptográficos más complejos y va de nodo en nodo aleatoriamente en vez de directamente al destinatario- haya una pequeña base de fieles que hayan construido una zona libre informativa en la que están apartados del resto de la red. Con todo lo bueno y todo lo malo que esto trae.

Tim Berners-Lee, preocupado por la evolución de internet

Este fin de semana tuvo varias efemérides. Ayer, por ejemplo, se cumplían 70 años del nacimiento del primer Ferrari. Y este mismo fin de semana hacía 28 de la propuesta de Tim Berners-Lee de una red global. Así, el británico aprovechó el aniversario para publicar una carta abierta en la que mostraba sus sensaciones sobre el estado de la web y sus retos.

En el artículo Berners-Lee se muestra muy preocupado por tres tendencias que cree que necesitan combatirse con urgencia: el más importante, la difusión indiscriminada de noticias falsas. Lo más importante, es que el británico apunta a quiénes deben realizar más esfuerzos por mitigar este problema. Google y Facebook han de liderar la lucha por mucha presión que tengan de los usuarios.

El problema reside en que, mediante los algoritmos, los grandes de internet priorizan el contenido sobre el que creen que vamos a hacer click. No importa que este sea cierto o falso. Esto hace que sea demasiado fácil hacer que los contenidos desinformativos se conviertan en virales en la red. Al fin y al cabo “a través de la ciencia de datos y de los ejércitos de bots, aquellos con malas intenciones pueden engañar al sistema para difundir información errónea y obtener beneficios financieros o políticos”, sentencia.

Berners-Lee también apunta a los usuarios que somos los que debemos hacer presión para que las grandes tecnológicas no cesen en su empeño de controlar la veracidad de los contenidos así como de evitar que se creen “órganos centrales que decidan que es verdad y qué no”. Por eso es importante que los algoritmos sean públicos y transparentes y que la sociedad sea consciente y pueda ejercer de forma natural su poder regulador.

En segundo lugar muestra su preocupación por la pérdida del control sobre nuestros datos personales mediante largos y confusos “términos y condiciones de uso” que se han de aceptarse a la hora de registrarse y acceder de forma gratuita a algunas webs y servicios. Si a esto le sumamos, como reveló hace pocos días WikiLeaks, que los Gobiernos están realizando recopilaciones masivas de datos sin permiso de los particulares, nos encontramos con la libertad de expresión seriamente dañada así como evita que la red sea un espacio libre independientemente de nuestro sexo, religión o procedencia.

Relacionado con los anteriores, el tercer problema es la falta de transparencia de las campañas políticas en internet. Al acceder a nuestros datos -como hemos visto en el segundo punto- los políticos pueden lanzar varios mensajes a cada usuarios -la desinformación del primer ítem- de una forma poco ética pero tremendamente eficaz a la hora de conseguir votos: a cada uno le dicen lo que quieren oír.

¿Hay alguna solución a estos problemas? Básicamente “devolverle a la gente el control de sus datos”. Crear un sistema justo de micropagos que no bloquee a la gente el acceso a los servicios y que nos libere de la publicidad, crear legislación para las campañas políticas y la desinformación y tribunales supranacionales contra los abusos de las administraciones. Nada de esto será rápido pero es la única forma de proteger un mundo digital cada vez más hibridado con el real.

Gamificación, el juego y las apps como pilares de la enseñanza

Durante siglos la educación se ha visto como una relación docente-discente en la que el primero daba una clase magistral al segundo. En un aula volcaba sus conocimientos teóricos sobre un determinado tema -en alguna materia había también conocimientos prácticos- para que el segundo tomara nota y en un ejercicio memorístico demostrara que era capaz de reproducirlos lo más fiablemente posible.

Desde la educación infantil hasta la última etapa universitaria. Sin excepción. Casi sin importar la materia, la disciplina o el centro educativo. No obstante, cada vez son más los estudios que demuestran que el cerebro humano no aprende a base de discursos. Uno de los más llamativos lo realizó hace más de una década (2006) Alf Inge Wang, profesor de Ciencias de la Computación en la Universidad de Ciencia y Tecnología de Noruega. En él afirma que la atención humana raras veces supera los 20 minutos y que se requieren herramientas interactivas entre profesor y alumno para reiniciar ese cronómetro.

Al principio recurrió a juegos de preguntas (gamificación) con un formato similar al televisivo Quién quiere ser millonario. Los resultados no se hicieron esperar y la implicación de los alumnos se multiplicó. También sus resultados académicos y su tasa de aprendizaje. Motivado por ello, se unió a un grupo de alumnos para lanzar, en 2011, Kahoot, una app educativa con 40 millones de usuarios únicos diarios que en 2015 ganó el EdTechX Europe, el premio más importante a las iniciativas innovadoras en el campo de la educación del continente.

Básicamente, la app es una herramienta que permite a los profesores crear cuestionarios sobre cualquier materia, introducir contenidos multimedia y medir el nivel de conocimiento de los alumnos tanto antes como después de tratar un tema en el aula. Los alumnos pueden responder desde diferentes plataformas en tiempo real tanto de forma individual como en grupo y siempre hay un ganador. Potencia el aprendizaje como un juego, crea competitividad, sentido de equipo y la interacción. Algo fundamental en una época en la que los usuarios están acostumbrados a dar siempre respuesta a cualquier tipo de estímulo.

Johan Brand, cofundador de Kahoot y CEO de la empresa, explica en un reportaje de Ana Torres Menárguez en El País, que “el juego es nuestro primer lenguaje, la forma en la que aprenden los niños y una de las más efectivas para el aprendizaje de los adultos”. El éxito residen en que el aprendizaje se convierte en algo adictivo y social. Y esto es crítico ante las demandas de habilidades sociales del siglo XXI.

Los datos en el Estado son muy buenos: 80.000 profesores han creado 600.000 cuestionarios solo en 2016. La herramienta subraya el papel del docente como diseñador de experiencias de aprendizaje, no como transmisor de información. El motivo es sencillo: los alumnos pueden conseguir mucha más cantidad de conocimientos de una forma más rápida en la web sin necesidad de un tercero. Chema Lázaro, uno de los pioneros en su uso en el Estado lo hizo porque quería dar un giro a sus clases y no solo buscó esta alternativa sino que creó el interesante blog Pizarras Abiertas, ganador en 2013 el premio nacional sobre las TIC en el aula del Ministerio de Educación.

Lázaro se apoyó en la neurodidáctica en su búsqueda de un sistema que permitiera a sus alumnos “aprender para toda la vida”, algo que la memorística no permite. Esta disciplina ha permitido saber que el cerebro procesa los datos desde el hemisferio derecho -más relacionado con la intuición, la creatividad y las imágenes- lo que explica por qué los contenidos audiovisuales y sociales (aprendidos con otros) se retienen más fácilmente.

Su experiencia le permite ser tajante: “en mis clases los chavales se aprendían las capitales ganando puntos (en Kahoot). La gamificación funciona“. Cuando somos capaces de activar el sistema de recompensa cerebral, aquel que se vincula con la dopamina y la serotonina, mejoramos el estado de ánimo y fortalecemos vínculos -con los demás y la actividad- lo que hace que el aprendizaje sea más eficiente y efectivo.

Hay más ejemplos, como EDpuzzle, una suerte de YouTube didáctico nacido en Silicon Valley en 2013 que ya usan 9 millones de profesores en 150 países. Genial.ly, dedicado a la creación de gráficos, presentaciones, mapas, iconografías, etc. tanto de forma individual como colaborativa y que ya tiene más de 40.000 profesores y 150.000 alumnos como usuarios únicos. O Symbaloo Lesson Plans, que permite convertir los planes de estudios en juegos de mesa donde cada casilla es una materia y en la que se pueden volcar todo tipo de contenidos en multitud de formatos. 10 millones de usuarios avalan un formato que cada vez tiene más adeptos.

Lo mejor de la gamificación es que no entiende de edades y que, aunque tiene un enorme potencial en el sistema educativo, también tiene un espacio de enorme utilidad en la capacitación de profesionales de todo tipo de disciplinas.

Noticia recomendada por Binary Soul

Singularity University, ¿y si lo reformulamos todo?

Es habitual que cuando pensamos en las universidades de referencia a lo largo y ancho del planeta nos vengan nombres tan célebres y antiguos como Oxford, Cambridge, Havard, Stanford, MIT, Imperial College o Zurich. Sin embargo, las nuevas tecnologías y el espíritu innovador (más bien disruptor) de algunas regiones del planeta ha hecho que incluso la enseñanza universitaria se esté reformulando por completo.

Uno de los ejemplos más claros es el de Singularity University, una institución académica con sede en Silicon Valley cuyo objetivo es “reunir, educar, e inspirar a personas que se esfuercen por comprender y facilitar el desarrollo exponencial de tecnologías y promover, aplicar, orientar y guiar estas herramientas para resolver los grandes desafíos de la Humanidad”.

Ubicado en el Centro de Investigación Ames de la NASA, es una de las referencias desde su fundación en septiembre de 2008 como un complemento a las universidades tradicionales para potenciar el emprendimiento, la innovación y la tecnología.

Con esta carta de presentación no es de extrañar las expectativas que levantó la presentación de Diego Soroa el pasado 19 de enero de su programa Global Solutions y del nodo Singularity U en Bilbao que ha puesto en marcha junto con otros emprendedores.

El Global Impact Challemge (curso que, por cierto, sigue abierto a inscripciones) busca ampliar la visión tanto de los innovadores como de los inversores. Romper la barrera -miedo- que hace que se quiera minimizar el riesgo y que acaba limitando el progreso en el área tecnológica y, sobre todo, estrangula el futuro de las start ups, pequeñas empresas llamadas a cambiar las reglas.

La propia SingularityU se define a sí misma como un Think tank que se centra en buscar soluciones a los grandes retos de la Humanidad. Lo que puede parecer -desde un punto de vista tradicional- algo megalómano o utópico, recibe las alas y las vías necesarias para obtener coaching y financiación.

De hecho, el programa presentado, Global Solutions Program, permite, durante 10 semanas, entrar en contacto con expertos en tecnologías disruptivas con una gran influencia para, en una última fase poder crear un proyecto de negocio en equipo que podría generar un impacto positivo en más de 10 millones de personas. En definitiva, una posibilidad de crecer con unas métricas muy provocadoras.

Para ingresar se pueden seguir varios caminos, desde la inscripción directa (hasta el 13 de febrero), hasta un concurso de acceso (hasta el día 21) o bien mediante el Global Impact Challenge. En cualquier caso, el Bilbao Chapter -nodo Bilbao- seguirá estando asentado en la Villa formado por personas que han pasado por la SingularityU y que tienen como objetivo identificar proyectos y personas con potencial disruptivo y allanarles el camino.

Una herramienta que mediante reuniones periódicas cada dos o tres meses sobre temáticas especializadas permita crear soluciones y servicios en el contexto local. Un proyecto, por ahora, sin ánimo de lucro que cuenta con un enorme recorrido y con la posibilidad de crear un gran valor añadido en la sociedad.

Noticia recomendada por Binary Soul

Contaminación y tráfico, la UE busca su camino

Durante los últimos meses, la industria de la automoción europea (una de las principales del continente por facturación, empleos, empresas auxiliares, inversión en I+D+i, etc.) ha estado continuamente envuelta en escándalos. El más importante sin duda, el célebre Dieselgate, hizo que millones de consumidores nos preguntáramos para qué servían las normativas anticontaminación y si, realmente, este potente lobby era intocable.

Aunque la segunda respuesta sigue sin tener una respuesta satisfactoria, todo este proceso ha cristalizado en una nueva normativa publicada el pasado 26 de enero por la Comisión Europea y dirigida a todos los Estados miembros. El objetivo es acabar de una vez por todas con la diatriba de qué dispositivos son lícitos y cuáles no y cómo se deben medir de una las temidas partículas contaminantes.

En un comunicado, la Comisión ha hecho público un comunicado en el que explica punto por punto lo que significa “dispositivo de desactivación” de modo que no quede posibilidad a una interpretación libre y ambigua de la normativa.

Es cierto que esta reglamentación no se puede aplicar de forma retroactiva a los millones de coches que han sido vendidos con estas modificaciones. En definitiva, el marco de homologación ya no deja lugar a que haya equipos o modificaciones de software que alteren el rendimiento y las emisiones de de los motores.

El texto no deja lugar a dudas y elimina la posibilidad de implementar dispositivos como el que empleó Volkswagen o el que ha empleado “presuntamente” Renault en sus motorizaciones. Desde enero de 2016 la matriz de la alianza Renault-Nissan está siendo investigada por la fiscalía de París después de que las pruebas llevadas a cabo por el Ministerio de Ecología francés con ciertos modelos de la casa del rombo arrojaran datos de emisiones de NOx y CO2 superiores a las homologadas.

“Todo elemento de diseño que detecta la temperatura, la velocidad del vehículo, las revoluciones por minuto, la marcha introducida, la depresión de admisión, etc. con el fin de activar, modular, aplazar o desactivar el funcionamiento de cualquier pieza del sistema de control de emisiones, y reduce la eficacia de dicho sistema en condiciones que puede esperarse razonablemente que se produzcan durante el funcionamiento y la utilización normales del vehículo”.

De esta forma, explica la normativa, “estará prohibido el uso de desactivación que reduzcan la eficacia de los sistemas de control de emisiones. La prohibición no se aplicará cuando la necesidad del dispositivo se justifique como protección del motor contra averías o accidentes y en aras del manejo seguro del vehículo; el dispositivo no funcione más allá de las exigencias de arranque del motor; o en los procedimientos de ensayo se incluyan las condiciones apropiadas para verificar las emisiones de evaporación y las emisiones medias del tubo de escape”.

En todo este proceso de homologación, el máximo responsable del control son las autoridades nacionales: una vez recibe el visto bueno en un Estado el modelo ya puede circular por toda la Unión siempre y cuando cumpla la normativa. En definitiva, es necesario un círculo de confianza entre Estados, Comisión y fabricantes.

Por eso a partir de ahora los fabricantes tendrán que facilitar el acceso a los protocolos de software de los vehículos lo que se complementa con las medidas de control de emisiones en condiciones reales de conducción y la obligatoriedad (como en Estados Unidos) de todos los fabricantes de desvelar claramente cuáles son sus estrategias para reducir emisiones.

Mientras, la Unión Europea se consolidó como el segundo mercado mundial de vehículos eléctricos con 200.000 matriculaciones durante 2016, por detrás de China (que superó las 350.000) y por delante de Estados Unidos que se quedó a poco de las 160.000 unidades.