Ciberseguridad - Privacidad - Fake News - Ciberdelitos

El ciberespionaje israelí contado desde dentro
Dov Alfon, que fue miembro del servicio secreto, novela en su debut los entresijos de una unidad secreta de inteligencia militar
El escritor Dov Alfon, en 2016 en la plaza Diaghilev de París, uno de los escenarios de su novela.
El escritor Dov Alfon, en 2016 en la plaza Diaghilev de París, uno de los escenarios de su novela.Assaf Matarasso

Juan Carlos Galindo
Madrid - 06 jun 2020 - 19:30 ART

En noviembre de 1979 un joven israelí a punto de iniciar su servicio militar fue apartado junto a otros 23 reclutas a una sala donde se les comunicó que iban a formar parte de la Unidad 8200, algo que no podían decir a nadie bajo pena de prisión y expulsión. El secretismo era tal que Dov Alfon (Susa, Túnez, 59 años) borró de su mente cualquier comentario a nadie. Hace 12 años, ya como oficial en la reserva, tuvo que pasar un detector de mentiras en el que le preguntaron si se drogaba, si tenía amigos iraníes o si pensaba usar lo que sabía para escribir un libro. Las tres respuestas fueron negativas y superó la prueba, pero al salir se dio cuenta de que no era tan mala idea. Ese es el germen de Una noche muy larga (Salamandra), según cuenta por videoconferencia Alfon desde su acristalado piso de París, ciudad en la que es corresponsal del diario Haaretz.
Intentaba reflejar hasta qué punto nos rastrean tecnológicamente. Y no solo Rusia o China. Es tu Gobierno el que te espía y no se habla de esto

“No, no puedo hablar de lo que hice en la Unidad 8200”, responde, con la fórmula aprendida, sobre su paso por allí cuando la sección tecnológica del espionaje israelí fue, por ejemplo, responsable de la destrucción del reactor nuclear iraquí en la Operación Ópera. “Mi experiencia me ha servido para hablar del poder y de cómo se maneja. Además, lo increíble es que no ha cambiado tanto. Los principios son los mismos y la unidad empezó muy pronto a tener algunas de las tecnologías que usa todo el mundo ahora. Yo tenía una especie de Google Maps en 1981”, relata.

Una noche muy larga es un thriller de espías que transcurre en 24 horas entre París y varios puntos de Israel, una historia en la que dos miembros de la Unidad 8200 tratan de encontrar antes que ciertos agentes chinos a un soldado israelí que lleva encima información de gran importancia. Mientras, asesinatos, venganzas y traiciones se desarrollan a la par que una carrera de espías en la Red por obtener los datos que den la victoria a su bando.

El trasvase entre los servicios de inteligencia y el mundo de la empresa privada en el país con más compañías tecnológicas por habitante es continuo, y es algo que queda muy bien reflejado en el libro. También la censura de los gobiernos democráticos o la invasión de la vida privada de sus ciudadanos en aras de la seguridad. “Intentaba reflejar hasta qué punto nos rastrean tecnológicamente hoy en día. Y no digo solo Rusia o China. Es tu propio Gobierno el que te espía, con agentes muy jóvenes, y no se habla de esto. Por eso pensé que este libro tenía una oportunidad”, explica.
La gran mayoría de los protagonistas de las novelas de espías son hombres, pero Israel debe mucho del éxito de su espionaje a las mujeres
El mundo ha cambiado muy rápido y la novela de espías, a pesar de vivir una edad de oro, no lo había hecho del todo. El libro de Alfon, publicado en hebreo en 2016, es el primero que desnuda el mundo del espionaje de comunicaciones, el que se desarrolla con algoritmos y tecnología punta, el que se ha llevado por delante las formas tradicionales de inteligencia. “El 80% de la información valiosa que Israel maneja antes de una operación militar viene de la 8200. Y en el caso de la NSA llega al 90%, solo el 10% es información aportada por agentes de la CIA como en los viejos tiempos. Hay algo tan inhumano en el mundo del espionaje de hoy”, remata riéndose, en una referencia a Zeev Abadi, uno de los dos protagonistas, un tipo que tiene a todo el mundo en contra y que llega a añorar la Guerra Fría, cuando el instinto y las dotes investigadoras valían para algo. Le acompaña Oriana Talmor, una jovencísima sargento de la unidad con mucha chutzpah, la famosa mezcla israelí de desvergüenza y cuestionamiento de las jerarquías, una herramienta esencial para un espía. “La gran mayoría de los protagonistas de las novelas de espías son hombres, pero Israel debe mucho del éxito de su espionaje a las mujeres, por eso quería un personaje femenino fuerte. En Alemania decían que no podían publicarla porque una militar no puede dirigirse así a sus superiores, creían que había un error. Les tuve que explicar que yo había vivido no menos de 10 situaciones similares”.

No hay un relato de espías sin un conflicto moral y aquí gira en torno a la lealtad. “Es la esencia de este mundo. Cuando vas a matar a alguien te planteas una serie de cuestiones morales y a quién debes lealtad es una de las principales. ¿A mi país, a mi causa, a unos ideales universales? El lector deberá preguntarse si sería capaz de actuar como mis personajes”.

Tampoco existe una narración del género que se precie, de Ian Fleming a Charles Cumming pasando por John Le Carré, que no tenga un gran enemigo. Aquí es China. “No diría que es una amenaza en la vida real. No. Pero es verdad que es una superpotencia y que si, hablamos de servicios de inteligencia, están mucho mejor equipados y actúan de manera más racional que Rusia y, hoy en día probablemente que Estados Unidos también. Saben lo que hacen y no se les está prestando atención”, analiza.

La estructura de la novela —trama en 24 horas, múltiples escenarios, decenas de personajes— fue una “pesadilla” para un autor novel, pero al final las piezas encajaron y Alfon ya prepara la segunda parte y también la adaptación televisiva de la mano de Keshet, la productora de la serie Homeland. Nunca un detector de mentiras sirvió para tanto en la ficción.

Las dos caras de la verdad

Dov Alfon tuvo un contacto muy distinto con la verdad cuando pasó de espía a periodista y luego a dirigir el diario 'Haaretz' entre 2008 y 2011. En esa época publicó una filtración de documentos del Ejército de Israel que demostraban que falsificaban informes para actuar saltándose las normas en zonas palestinas. La exclusiva generó una gran polémica en su país, pero no en el sentido que Alfon esperaba: “Yo creo que un periodista puede publicar cualquier cosa que sea verdad y que sea de interés público. Otras cuestiones como si es bueno para el país no son relevantes en este caso. En ese sentido fue fácil. Pero la gente tiene miedo de la verdad y el escándalo no fue lo que publicamos, que se olvidó en una semana, sino cómo habíamos conseguido esos informes, una polémica que duró meses”.

 
Google afronta una demanda de 5.000 millones por recolectar datos de usuarios en modo incógnito
La denuncia sostiene que la empresa engaña a los consumidores dándoles una falsa sensación de privacidad
Modo oculto en Chrome
Modo oculto en Chrome

Guillermo Vega
Madrid - 03 jun 2020 - 11:48 ART

Google se enfrenta a una multimillonaria demanda colectiva en California que podría alcanzar los 5.000 millones de dólares (algo más de 4.600 millones de euros) si se demuestra que ha violado la Ley Federal de Intercepción Telefónica (Federal Wiretap Act) al continuar recogiendo información sobre lo que los usuarios hacían en Internet sin su permiso y a pesar de estar navegando en modo incógnito o privado, según ha anunciado el New York Times. Según la demanda, Google rastrea y recoge el historial de navegación de los consumidores incluso si los usuarios tomaban medidas para mantener su privacidad. Los demandantes afirman que la compañía también ha violado una ley del Estado que requiere el consentimiento de las partes a la hora de recopilar datos.

La denuncia sostiene que cuando un usuario opta por la navegación privada, la empresa utiliza otras herramientas de seguimiento que proporciona a los editores y anunciantes para controlar qué sitios web visita el usuario. “Google rastrea y recopila el historial de navegación de los consumidores y otros datos de actividad en la web, independientemente de las medidas de protección que los consumidores adopten para proteger la privacidad de sus datos”, afirma el texto legal presentado por Mark C. Mao, socio del bufete de abogados Boies Schiller Flexner.

“Nos oponemos firmemente a estas afirmaciones y nos defenderemos contra ellas con determinación", han asegurado a EL PAÍS fuentes de la compañía. "El modo de incógnito en Chrome da la opción a los usuarios de navegar por Internet sin que su actividad se guarde en el navegador o dispositivo. Así lo indicamos claramente cada vez que se abre una nueva pestaña de incógnito. Indicamos, además, que los sitios web podrían recoger información sobre su actividad de navegación durante su sesión.”

Google ha enfrentado recientemente otras demandas por su forma de recolectar datos. En esta ocasión, la clave está en que los demandantes han echado mano de la Ley Federal de Intercepción Telefónica, que otorga a los usuarios el derecho a demandar si sus comunicaciones privadas son interceptadas. En la demanda se afirma que Google hace acopio del contenido de las comunicaciones entre los usuarios y los sitios web mediante la recopilación del historial de navegación, las direcciones específicas de los sitios web y las consultas de búsqueda.

Vista del logotipo de Google, en la sede de su empresa en Nueva York (Estados Unidos).
Vista del logotipo de Google, en la sede de su empresa en Nueva York (Estados Unidos). EFE

¿De qué sirve navegar en modo incógnito?

Navegar por Internet sin dejar ningún tipo de rastro es prácticamente imposible con los buscadores tradicionales. Pese a que tanto Google como Mozilla posibilitan al usuario la opción de realizar búsquedas en una sesión privada, esta función no garantiza en absoluto el anonimato. ¿Qué significa exactamente navegar en modo incógnito?

“El modo incógnito es eficaz cuando queremos que nuestra actividad en la web no sea conocida por otros usuarios del mismo equipo. Por ejemplo, si estamos buscando un regalo para nuestra pareja o si queremos que las sesiones que tenemos activas en nuestros navegadores sean ignoradas. Pero, aparte de esto, no proporciona una gran protección de nuestra privacidad”, explicó recientemente a EL PAÍS Javier Tallón, miembro del Grupo de Seguridad Informática y para la Defensa del Consejo General de Colegios de Ingeniería Informática(CCII).

Cuando un usuario navega en modo incógnito, el navegador le protege de dos maneras. Por un lado, deja de guardar en el historial de navegación información sobre los sitios webs a los que accede. De esta forma, otros usuarios con acceso al equipo no pueden ver qué páginas ha visitado. Por otro, el navegador no utiliza las cookies que el usuario tiene previamente almacenadas: “Las cookies son pequeños elementos de información que las páginas web guardan en nuestros navegadores y que les permiten recordar qué acciones hemos realizado previamente: qué tenemos en nuestro carrito de la compra, quienes somos en Instagram o por dónde nos quedamos viendo el último capítulo en tu plataforma. También se usan para “ofrecernos publicidad dirigida o estudiar nuestro comportamiento”.

Es decir, el uso del modo incógnito básicamente libra al usuario de los curiosos domésticos, pero no enmascara su identidad o actividad en línea. Al navegar por Internet, los datos pasan antes de llegar a su destino por la red del hogar o lugar de trabajo del usuario y por la compañía que le da acceso a Internet.

Engaño

Pese a que esta circunstancia es bien sabida, la demanda sostiene que los usuarios tienen una “expectativa razonable” de que sus comunicaciones no son interceptadas o recogidas cuando se encuentran en modo de navegación privada. Además, asegura que las prácticas de Google “engañan intencionadamente a los consumidores” para que crean que mantienen el control de la información compartida con la empresa y les animan a navegar por la web en modo de navegación privada si quieren mantener su privacidad. Sin embargo, en este sentido Google no menciona que otras herramientas de rastreo utilizadas por la empresa pueden seguir controlando a los usuarios mediante as direcciones de protocolo de Internet, así como información sobre el navegador y el dispositivo, según la denuncia.


 
¿Cómo evitar que las redes sociales rastreen todo lo que hacemos?
Una pequeña guía para evitar que las aplicaciones tomen más información de la que queremos compartir

time-left.png
2 Minutos de lectura
18 de Junio 2020 / 10:42 CEST - JUAN ANTONIO MARÍN




Así es como puedes evitar que las redes sociales te rastreen

Una usuaria utiliza su smartphone para acceder a sus redes sociales
© GettyImages


Seguro que alguna vez te ha ocurrido que estás buscando un tema en internet o en una red social y, como por arte de magia, todos los anuncios que empiezas a ver son de ese producto o servicio que estabas buscando. Esto es lo que se conoce como remarketing y es una de las estrategias más efectivas que usan empresas como Amazon, Facebook o Google para que termines comprando ese producto que te interesa. Pero ¿cómo puedes evitar que rastreen tus búsquedas por internet?

Comencemos por el principio. Cuando aceptamos los términos y condiciones de la mayoría de los servicios web (sí, también las molestas cookies que están por todas partes) estamos permitiendo que dicha empresa pueda registrar nuestra visita a esa web. Las famosas cookies (cuyo nombre vendría a significar, figuradamente, rastro de migas de galleta) es, literalmente, el rastro que deja cada usuario cuando navega por un sitio web.

Con las redes sociales pasa lo mismo. Los analistas estiman que Instagram genera unos 17.000 millones de euros en publicidad y forma un binomio inseparable de su empresa matriz, Facebook, para que esa publicidad sea lo más personalizada posible. Ocurre lo mismo con empresas como Google o Twitter, que recopilan datos del usuario cuando este utiliza su servicio para mejorar sus anuncios.

¿Qué se puede hacer?
Estas plataformas suelen ser bastante claras con sus políticas de privacidad y se pueden consultar de manera más o menos clara en sus páginas web. Sin embargo, el resumen vendría a ser: si no te gusta, desinstala la aplicación. Hay poco que el usuario pueda hacer para evitar esa recopilación de datos, aunque sí que se puede limitar algunos aspectos.

Limitar el acceso a la ubicación
Cuando se realiza una publicación desde el smartphone en cualquier red social, la app preguntará al usuario si le da acceso para añadir la ubicación. Si se lo concedes, estarás compartiendo tu ubicación con dicha app. Esto se puede cancelar o limitar desde la pestaña Privacidad > Localización en iPhone y Ajustes > Contraseñas y seguridad / Privacidad > Ubicación en Android.

Limitar el acceso a los datos
Otra cosa que se puede hacer es limitar la información que se comparte con las redes sociales. Por ejemplo, borrando información personal como estudios, lugar de trabajo, ciudad de nacimiento, edad o situación sentimental.

Eso sí, hay que tener en cuenta que, tanto Facebook como Instagram, recopilan hasta 25 categorías de información y el hecho de eliminar esos datos solo los borra de manera local, dado que los servidores de estas redes sociales siguen teniendo esa información.
Si quieres acceder a esta información para ver lo que se ha recopilado de ti, basta con entrar a la página de configuración de Instagram y luego hacer tap en Seguridad > Acceder a Datos.

Limitar los anuncios en las Stories
Siguiendo con el caso de Instagram, esta red social muestra anuncios basados en la información que el usuario le ha proporcionado a Facebook y también en los Likes que le haya dado a determinadas publicaciones. Esto supone una información muy valiosa para poder personalizar la publicidad, pero también puede controlarse.

Para verla, hay que acceder a Configuración > Actividad publicitaria, donde podrás ver cómo has interactuado con los anuncios y lo que Instagram y Facebook creen que te gusta.

Limitando estos intereses podrás borrar algunos de tus datos o, al menos, ser más consciente de la información que estás compartiendo realmente en tus redes sociales.



 
30 horas detenido por el error de un algoritmo: primer caso de un hombre falsamente acusado por el reconocimiento facial

30 horas detenido por el error de un algoritmo: primer caso de un hombre falsamente acusado por el reconocimiento facial





Lo que diga un algoritmo es suficiente para arrestarnos. Pero las máquinas también se equivocan. El New York Times describe el caso de Robert Julian-Borchak Williams, quien fue arrestado enfrente de su mujer e hijos el pasado enero en la ciudad de Detroit tras ser identificado por un algoritmo de reconocimiento facial. Salvo que en realidad él no tenía nada que ver con quien la policía andaba buscando.

Se trata del primer caso conocido de una persona arrestada erróneamente tras ser identificada por un software de reconocimiento facial. Williams fue acusado de robar cinco relojes por un valor de casi 4.000 dólares en una tienda, en octubre de 2018. Debido a ello fue enviado a la sala de interrogación y retenido durante unas 30 horas, antes de quedar en libertad sin cargos.


Un ejemplo claro de discriminación racial en los algoritmos

DataWorks Plus, el software utilizado por la policía del estado de Michigan, identificó a Williams después de conectar la foto de su licencia de conducir con las imágenes de la cámara de vigilancia de la noche del crimen.

Pero lo que para el reconocimiento facial era un caso de posible positivo de persona identificada, según describe NPR, para los policías estaba claro que no eran la misma persona. "La máquina lo ha captado mal", parece que indicó el policía después de comparar presencialmente las imágenes con el propio Williams.

"Cuando miro la foto de la persona, solo veo a un negro grande. No veo ningún parecido. No creo que se parezca a mí en absoluto. Espero que no piense que todos los negros son iguales", explica Williams.




Sin embargo, pese al claro error del software, Williams no fue inmediatamente liberado y estuvo retenido durante toda la noche con una fianza de mil dólares, según describe el NYTimes.

Facial Recognition


El software DataWorks Plus no identificó a Williams como el culpable directo, simplemente envió una información de un posible sospechoso. Según recoge el informe policial: "es solo una pista de investigación y no es causa probable de arresto". Este proceso tuvo un error adicional, pues la imagen fue mostrada también a un guardia de seguridad, quien también identificó erróneamente a la persona.




Distintos expertos en inteligencia artificial han señalado que los sistemas de reconocimiento facial tienen un problema de discriminación racial por falta de muestras, siendo el caso de Williams el primero que ha tenido consecuencias directas.



A principios del mes de junio, IBM anunció que ponía fin al desarrollo y la venta de software para el reconocimiento facial. El CEO de IBM enviaba una carta alertando que "es el momento de iniciar un diálogo nacional sobre si la tecnología de reconocimiento facial debe ser empleada por los organismos nacionales encargados de hacer cumplir la ley".
En respuesta, a través de un comunicado, la Fiscalía del condado de Wayne ha emitido sus disculpas explicando que "no compensa de ninguna manera las horas que Mr.Williams pasó en la cárcel". En esta línea, el acusado podrá ver el caso y sus huellas digitales borradas de la base de datos.


 
Mercadona instala un sistema de reconocimiento facial en sus supermercados: cómo funciona y por qué genera importantes dudas sobre la privacidad

1024_2000.jpg


Hace 4 horasActualizado 2 Julio 2020, 09:42
Enrique Pérez @Lyzanor


Mercadona ha anunciado la instalación de un sistema de reconocimiento facial para sus supermercados, creado para detectar personas con una "sentencia firme de orden de alejamiento del establecimiento en menos de 0,3 segundos", según explica la compañía.

A continuación os explicamos qué pretende Mercadona con este nuevo sistema, cómo funciona la empresa tecnológica que está detrás y qué implicaciones tiene a nivel legal sobre la privacidad de los clientes.

Un sistema activo en 40 tiendas

La cadena de supermercados ha instalado su nuevo sistema de reconocimiento facial en unas 40 tiendas de Mallorca, Zaragoza y Valencia. Según describe la compañía, las tiendas que utilicen este sistema tendrán un cartel informativo disponible en los accesos.

Mercadona Reconocimiento Facial


Jesús Ruiz, director institucional de Mercadona en Castilla-La Mancha, destacaba este sistema durante la apertura de uno de los nuevos supermercados. Unas cámaras con reconocimiento facial para "facilitar el trabajo a la Guardia Civil y la Policía si necesitase las grabaciones".

El sistema está creado para detectar personas con "sentencia firme y medida cautelar de orden de alejamiento del establecimiento, dictadas por un juzgado, con el objetivo de reforzar la seguridad de sus clientes y trabajadores". Una vez detectada que esta persona quiere entrar en el establecimiento, permite alertar a las fuerzas y cuerpos de seguridad, responsables de hacer cumplir la orden de alejamiento.

Según describe Mercadona, este sistema "no guarda ningún tipo de información adicional" y la imagen es eliminada en su totalidad en 0,3 segundos, duración de todo el proceso de identificación y descarte.

Quién es AnyVision, la compañía israelí detrás del reconocimiento facial
Anyvision


El proveedor del sistema de cámaras y reconocimiento facial de Mercadona es la empresa israelí AnyVision. Según describe la propia compañía, se trata del "diseñador y desarrollador líder mundial de plataformas de reconocimiento". AnyVision fue fundado en 2015 y ha creado una "tecnología de software que aprende sobre la fuente y es personalizable, y se ejecuta en múltiples plataformas, incluida la infraestructura de CCTV existente".

Entre sus clientes se encuentran empresas como Bosch, Milestone, NVIDIA o Genetec. No figura directamente Mercadona, pero sí anunciaron una alianza con Telefónica en 2018. Según describía el operador, "la tecnología en inteligencia artificial de AnyVision se integrará en la proporcionada por Telefónica para ofrecer soluciones end-to-end personalizadas y proyectos llave en mano para los clientes".

Entre los productos que ofrece AnyVision se encuentra, según describe su página web, un sistema "automatizado de alerta de listas de vigilancia que identifica a las personas de interés y su historial de contactos en tiempo real e históricamente al tiempo que protege la identidad de los transeúntes". Este sistema puede integrarse en cualquier cámara, promete una velocidad de detección de 0,2 segundos y un 0,1% de alarmas falsas.



Qué explica Mercadona

Según explican desde Mercadona, el nuevo sistema de "detección anticipada en las cámaras de acceso a nuestras tiendas" está creado para "reforzar la seguridad". El sistema "detecta, única y exclusivamente, la entrada de personas con sentencias firmes y medida cautelar de orden de alejamiento en vigor contra Mercadona o contra alguno de sus trabajadoras o trabajadores".
Desde hace años Mercadona lleva arrastrando problemas con los robos y hurtos en sus supermercados, incluso provocando algunas polémicas pasadas. Con este sistema de seguridad, Mercadona instala una herramienta para permitir identificar a aquellos delincuentes contra los que mantiene una orden de alejamiento.





Otro de los casos donde se aplicaría este sistema es para casos de violencia de género, donde el sistema de reconocimiento facial identificaría a aquellas exparejas que quieran acercarse a las distintas empleadas de los supermercados y cuenten con una orden expresa de alejamiento.
La compañía explica que toda la infraestructura se ha llevado a cabo "siempre en constante contacto con las autoridades correspondientes para garantizar la total protección y todas sus garantías legales".

Mercadona como gran ejemplo del debate sobre el reconocimiento facial

El sistema instalado por Mercadona es un perfecto ejemplo de las implicaciones que tiene el reconocimiento facial a nivel legal. Según explican los responsables, el sistema de AnyVision "realiza la identificación en tiempo real y borra inmediatamente toda la información, únicamente utilizando los resultados positivos para ponerse en contacto con las autoridades en caso de detección".

A finales de mayo, la Agencia Española de Protección de Datos publicaba un informe sobre este tema. Según explicaba la AEPD, "las técnicas de reconocimiento facial con fines de identificación biométrica suponen un tratamiento de categorías especiales de datos para los que el Reglamento exige garantías reforzadas".

Estas categorías especiales requieren que exista un "interés público esencial, recogido en una norma con rango de ley que no existe actualmente en el ordenamiento jurídico". Es decir, para que el reconocimiento facial pudiera tener un mejor amparo legal necesitaría de una ley específica. En base a esto, la Agencia "rechaza que la legitimación reconocida para los sistemas de videovigilancia que sólo captan y graban imágenes y sonidos pueda abarcar tecnologías como el reconocimiento facial".

La Agencia Española de Protección de Datos rechaza que la legitimación de los sistemas de videovigilancia (cámaras para grabar robos en los cajeros, por ej) abarque también el reconocimiento facial.

El artículo 48 del Código Penal establece "la privación del derecho a residir en determinados lugares o acudir a ellos impide al penado residir o acudir al lugar en que haya cometido el delito". En su apartado 4 añade que "el juez o tribunal podrá acordar que el control de estas medidas se realice a través de aquellos medios electrónicos que lo permitan". Una de las opciones es que el usuario condenado consienta la toma de imágenes y la instalación de un sistema de reconocimiento para asegurar que se cumple la decisión, pero se trataría de una decisión puntual como la ocurrida en un jugado de San Sebastián. Difícilmente el sistema de reconocimiento facial de Mercadona obtenga el consentimiento de todos los delincuentes.

Borja Adsuara

Sobre esto nos contesta Borja Adsuara, abogado y consultor en Derecho: "Dando por bueno eso, que tengo mis dudas. Solo será mientras esté vigente la condena. ¿Usted mantiene las fotos por si vuelve dentro de un año? Nos tenemos que fiar que solo es una base de fotos de condenados, no de sospechosos".

"Lo que tiene que hacer la AEPD es pedir más información, porque transmite muchas dudas", expresa Adsuara. "Hay que analizar si hay legitimación legal. ¿Por qué mantienen una base de datos de fotografías de gente condenada por robar?. Pueden argumentar que se aportaron en su día como prueba de videovigilancia, pero una cosa es que las aportaras y otra cosa es que las conserves. ¿Con qué base legal captan con una cámara de reconocimiento facial la imagen de todos los clientes que entran en Mercadona? Es una premisa muy gorda."





Jorge Garcia Herrero, abogado especializado en Protección de datos, es de la opinión que desde Mercadona "saben lo que hacen" y por ello tiene "mucha curiosidad por cómo se desarrollará el tema". "Lo que más me interesa es la base de legitimación".

"El caso de Mercadona sería el más importante. Hemos visto experiencias piloto en aeropuertos, pero el de Mercadona sería el primero. Vimos lo que hizo AENA de la mano de Indra e iba por consentimiento, todo se puede mejorar pero no tenía tan mala pinta. Pero esto es totalmente distinto, el problema es que todavía sabemos muy poco", explica Herrero, que manifiesta las mismas dudas que Adsuara.

"Mercadona solo puede tener acceso a la base de datos de los juzgados. Y los juzgados no tienen por qué tener mi cara".

"Necesitas una doble legitimación. La normal para hacer cualquier tratamiento de datos, que no tiene más complicación y la segunda, porque tratas datos biométricos. Hay un tema técnico y es que se distingue identificación y autenticación. En los cacharros que detectan tu huella, la máquina compara tu huella con la guardada. Eso es autenticación. En cambio, si lo que ocurre es que la máquina compara tu huella con la de toda la base, entonces es identificación y es mucho más agravante. Es lo que ocurre con el reconocimiento facial", nos explica Herrero.

Jorge

Y es que el asunto del reconocimiento facial de Mercadona engloba varios puntos. Por un lado el hecho de realizar la identificación y por otro lado la información necesaria para lograrlo. Así nos explica Jorge García Herrero el segundo punto:
"Aunque no guarde las imágenes, es un tratamiento. La clave es de dónde saca Mercadona las imágenes de los delincuentes. Quién se los da. Mercadona solo puede tener acceso a la base de datos de los juzgados. Y de hecho los juzgados no tienen por qué tener mi cara. ¿De dónde saca Mercadona mi rostro para realizar la comparación?. Salvo que la tuviera en sus cámaras originales, pero Mercadona además tendría que haberlos guardado".

"El único sentido que tendría es que las cámaras fueran operadas por los cuerpos de seguridad del Estado. Si eso fuera así se aplicaría la Ley de Protección de Datos específica. Pero esto no creo que sea así, porque sino también tendríamos lo mismo para El Corte Inglés, Carrefour, etc. Habría que saber más sobre quién gestiona el sistema."
"Mercadona puede decir que quiere prevenir delitos, pero no son cuerpos de fuerzas de seguridad del Estado. Y según el informe de la AEPD, no podría utilizar el reconocimiento facial para esto. El rollo es que las cámaras captan no solo los potenciales delincuentes, también trata datos del resto", continúa Herrero.

Borja Adsuara recuerda el caso de Cristina Cifuentes; "había infracción porque se había conservado unas imágenes que debían haberse borrado. Se eliminaron de la empresa, pero hubo una copia".

"Hay algunos casos extraordinarios donde hay un interés justificado. Pero aquí no dicen cuál es el interés público esencial. Debe ser una medida proporcionada. ¿Cuántos acusados en firme hay?", expresa Adsuara. "Se están intentando amparar en la videovigilancia. Pero eso es para determinadas zonas, accesos, cajas, donde está admitido. Pero la AEPD ya dice que la videovigilancia no es reconocimiento facial, este requiere una legitimación especial.
"Dicen que no hay tratamiento. Por eso hablan de los 0,3 segundos. Es un tema que me recuerda al de La Liga y los audios. Para llegar hasta ahí sí trataban datos. Mercadona tiene que ir por la premisa de que no trato datos porque lo hago muy rápido. Para eso tendrán que convencer a la gente. O bien por la otra vía, que es ampararse en el interés público general, pero la AEPD dice que no hay norma que establezca este uso".

Para Adsuara, "la violación de la privacidad es como la violación de la intimidad física. De hecho se utilizan términos equivalentes. "Es que fue muy rápido" no es excusa. Respecto al caso de que la orden de alejamiento se aplica para la violencia de género, Adsuara manifiesta igualmente sus dudas; "¿qué ocurre por ejemplo si el delincuente se acerca al supermercado cuando su ex-pareja no está trabajando en ese momento?".

"La referencia a la orden de alejamiento respecto de alguno/a de sus trabajadores/as suena a utilización del tema de la violencia de género para justificar esta medida. Pero tendría que explicar por qué tiene las fotos de esos condenados en procesos de los que no es parte", explica Adsuara en redes sociales.



"En Mercadona tienen que tener un planteamiento para este tema. Cuando un tema levanta tantas dudas a nivel jurídico, al final se intenta resolver desde un punto de vista técnico. Me imagino que irán por ahí, por el hecho de que tienen una tecnología suficiente rápida", opina Herrero. La tecnología de reconocimiento facial genera enormes dudas entre los expertos y el hecho que Mercadona no haya ofrecido más detalles no ayuda.

Desde Xataka hemos contactado con Mercadona España para conocer más detalles sobre el funcionamiento de su sistema de reconocimiento facial. Actualizaremos cuando la compañía ofrezca nueva información.

 
Cuando una empresa puede conocernos mejor que nadie gracias al reconocimiento facial y sin poder negarnos: el desafío legislativo

Cuando una empresa puede conocernos mejor que nadie gracias al reconocimiento facial y sin poder negarnos: el desafío legislativo



Hace 10 horas
Javier Lacort @jlacort

Hace diez años, mucho antes de caernos del guindo respecto a las intenciones de Facebook, etiquetábamos a nuestros contactos en las fotos, y además específicamente encima de su rostro. "Para que cualquiera que vea la foto pueda saber quién es quién", pensábamos. Poco después, Facebook empezó a sugerir los nombres de las personas que estaban en cada foto.

Parecía cómodo y apropiado, pero pasó a tener una cara B perversa: gracias a los algoritmos creados por los talentosos ingenieros de Facebook, y a la enorme base de datos entrenada por nosotros mismos durante años, la empresa había desarrollado DeepFace, que reconocía identidades específicas gracias a rostros con casi un 98% de precisión. Eso era en 2014.


"Con el reconocimiento facial, una empresa puede saber si un chico de 15 años es gay antes incluso que él mismo"

En los últimos años, las tecnologías de reconocimiento facial han experimentado un crecimiento explosivo. Amazon Rekognition es un software que forma parte de Amazon Web Services, sirve para detectar todo tipo de imágenes en cualquier otro software que implemente su API. También rostros. Ha sido usado por multitud de agencias gubernamentales y entidades privadas, de Estados Unidos y del resto del mundo.

Con el reconocimiento facial, la privacidad termina de morir. La combinación de su software con cámaras más baratas y omnipresentes que nunca, incluyendo las de los drones, hacen que sea cada vez más difícil evitar ser rastreado. Es posible que alguien pase a una base de datos con tintes negativos o sospechosos por el simple hecho de acudir a una manifestación o dar un like a una publicación en Twitter si usa su rostro como avatar.

Cámaras


El problema no termina ahí: no solo es que un software pueda etiquetar nuestro comportamiento en base a acciones activas, como acudir a una manifestación o dar ese like, sino que puede detectar nuestras emociones ante distintos estímulos simplemente en base a qué miramos, de qué forma y durante cuánto tiempo. Por tener una cara.

Es muy distinto usar una cara como método de autenticación, donde se compara una cara frente a la que se tiene registrada, como en muchos smartphones u otros sistemas de acceso a recintos físicos; a usar una cara como método de identificación, donde se compara una cara frente a todas las recogidas en una base de datos para dar una identidad a ese rostro.

Yuval Noah Harari, filósofo y escritor israelí autor del libro Sapiens (ed. Debate, 2015), habló de todo esto en una entrevista para TV3 (en inglés, con subtítulos en catalán):
Cuando camino por la calle o cuando miro vídeos en YouTube, es posible seguir el movimiento de mis ojos. Si veo a un chico o a una chica atractiva, ¿hacia dónde se me van los ojos? ¿Hacia dónde los dirijo? En cinco minutos ya me puede decir cuál es la orientación sexual de alguien. Y quizás yo todavía no sé que soy gay, pero Coca-Cola ya lo puede saber. Piensa en la situación: tengo 15 años, aún no sé que soy gay, pero Coca-Cola ya lo sabe. Y por lo tanto, cuando me quiere anunciar una bebida nueva, elige el anuncio en el que sale un chico sin camiseta, y no el de la chica en bikini.
Los años diez terminan con nosotros cayendo en la cuenta de lo que implicaron todos nuestros likes años atrás. Los años veinte pueden terminar con nosotros cayendo en que ni siquiera tuvimos que hacer nada de forma consciente para que nuestros datos más íntimos pululen sin control por bases de datos de empresas privadas, que quieren conocernos lo mejor posible para ofrecernos sus productos con mejor ratios de ventas conseguidas que nunca; y por gobiernos y agencias gubernamentales, que pueden tenernos perfilados en base a algo tan simple cómo dónde hemos estado y en qué momento.


IBM anunció hace unas semanas que abandonaba el negocio del software de reconocimiento facial por preocupaciones en torno a la privacidad y la discriminación que esta puede conllevar. "Es el momento de iniciar un diálogo nacional sobre si la tecnología de reconocimiento facial debe ser empleada por los organismos nacionales encargados de hacer cumplir la ley", dijo su CEO en una carta en la que también conminaba a las autoridades a abordar la legislación de esta tecnología para determinar cómo debe usarse.

En la misma línea y pocos días después, Amazon suspendió el uso de Rekognition durante un año para el uso policial, en vistas a que fuese un tiempo suficiente para que el Congreso estadounidense pudiese legislar sobre qué se puede hacer con esa tecnología y qué no.

Innovación vs legislación

Reconocimiento facial


Ese es el punto clave: normalmente, la innovación tecnológica suele avanzar mucho más rápido que la legislación. Es hora de que suceda lo contrario y se legisle de forma específica lo que se puede hacer con el reconocimiento facial y lo que no antes de que sea demasiado tarde y grandes empresas —y gobiernos— acaben ostentando información privada e íntima recolectada a gran escala sobre cada ciudadano gracias a algo a lo que no se puede negar: a tener un rostro y a experimentar emociones frente a los estímulos del día a día. Como el ejemplo, totalmente factible, de una gran empresa sabiendo que un adolescente es gay antes incluso de que él lo descubra. ¿Por qué no pensar en una forma de oponerse a su uso

El reconocimiento facial ocurre de forma transparente, sin que prácticamente podamos evitarlo
Sean McGrath, experto en privacidad digital de ProPrivacy, advirtió de otro peligro velado: es muy fácil imaginar un escenario en el que las empresas o gobiernos que implementen sistemas de este tipo los utilicen más allá de sus propósitos oficiales. Es invisible al usuario que pone su cara, no tiene que hacer nada, no tiene escapatoria.

Quizás, por una vez, y viendo lo que ha pasado en los últimos diez años, estaría bien paralizar cualquier avance en materia de reconocimiento facial hasta que haya una legislación específica preparada para su desembarco masivo. No hay mucho espacio para el optimismo: incluso la Unión Europea, que básicamente es el mejor territorio del mundo en cuanto a preocupación por la privacidad de sus ciudadanos, está preparando un fichero con información Biométrica —huellas y rostros— de sus 350 millones de habitantes.

Al menos, Margrethe Vestager, Comisariados de Competencia en la Comisión Europea, ya dijo que "el reconocimiento facial, tal y como está, incumple la GDPR. Y si algo ha caracterizado a Vestager es que no le ha temblado el pulso a la hora de enfrentarse a gigantes.
Ilustración destacada: Jesús León.

 
Cómo actuaron los hackers rusos que intentaron robar información sobre vacunas contra el coronavirus
El Reino Unido, Estados Unidos y Canadá denunciaron que el grupo APT29, también conocido como Cozy Bear, y ligado a los servicios de inteligencia del Kremlin, atacó distintos laboratorios de sus países. El modus operandi
16 de Julio de 2020



Una científica trabaja en el laboratorio de fabricación donde se ha producido una vacuna contra el coronavirus en el Hospital Churchill de Oxford, el 24 de junio de 2020 (Steve Parsons/Pool vía REUTERS)
Una científica trabaja en el laboratorio de fabricación donde se ha producido una vacuna contra el coronavirus en el Hospital Churchill de Oxford, el 24 de junio de 2020 (Steve Parsons/Pool vía REUTERS)

El Centro Nacional de Ciberseguridad (NCSC) del Reino Unido hizo este jueves el anuncio, que se coordinó con las autoridades de los Estados Unidos y Canadá. Las tres naciones alegaron que el grupo de hackers APT29, también conocido como Cozy Bear (“oso amigable”) y del que se dice que forma parte del servicio de inteligencia ruso, está atacando a las instituciones de investigación académica y farmacéutica que participan en el desarrollo de la vacuna contra el coronavirus, con el fin de robar información.

Los persistentes y continuos ataques son vistos por los funcionarios de inteligencia como un esfuerzo para robar la propiedad intelectual, pero no para interrumpir las investigaciones. La campaña de “actividad maliciosa” está en curso e incluye ataques ”predominantemente contra objetivos gubernamentales, diplomáticos, de centros de estudios, de salud y de energía,″ dijo el Centro Nacional de Ciberseguridad en un comunicado.

No está claro si alguna información llegó a ser efectivamente robada, pero el organismo dice que la información confidencial de los individuos afectados no se ha visto comprometida. Cozy Bear, alternativamente llamado “Los Duques”, ha sido identificado por Washington como uno de los dos grupos de hackers vinculados al gobierno ruso que irrumpieron en la red informática del Comité Nacional Demócrata y robaron correos electrónicos antes de las elecciones presidenciales de 2016. El otro grupo suele llamarse Fancy Bear (“oso sofisticado”).


Los hackers rusos son una fuente de preocupación creciente para el Europa y Estados Unidos (REUTERS/Kacper Pempel/)
Los hackers rusos son una fuente de preocupación creciente para el Europa y Estados Unidos (REUTERS/Kacper Pempel/)

“APT29 utiliza una variedad de herramientas y técnicas para dirigirse predominantemente a objetivos gubernamentales, diplomáticos, de centros de investigación, sanitarios y energéticos para obtener información”, informó el Centro Nacional de Ciberseguridad. “El grupo está utilizando malwares personalizados conocido como ‘WellMess’ y ‘WellMail’ para dirigirse a varias organizaciones a nivel mundial. Esto incluye a aquellas organizaciones involucradas en el desarrollo de la vacuna contra el COVID-19. WellMess y WellMail no habían sido sido previamente asociados públicamente a APT29”.

WellMess es un malware escrito en Golang o .NET y ha estado en uso desde al menos 2018. Se llama así por uno de los nombres de sus funciones: ‘wellmess’. Es un malware ligero diseñado para ejecutar comandos shell arbitrarios, cargar y descargar archivos. El malware soporta métodos de comunicación HTTP, TLS y DNS.

WellMail es otra herramienta ligera diseñada para ejecutar comandos o scripts y los resultados se envían a un servidor codificado. El NCSC ha denominado a este malware ‘WellMail’ debido a las rutas de archivo que contienen la palabra ‘mail’ y al uso del puerto 25 del servidor presente en la muestra analizada. Como WellMess, WellMail utiliza certificados TLS de cliente y de autoridad de certificación codificados para comunicarse con los servidores C2.

Los hackers aprovechan las fallas de seguridad que son de público conocimiento para penetrar en los sistemas (REUTERS/Steve Marcus)
Los hackers aprovechan las fallas de seguridad que son de público conocimiento para penetrar en los sistemas (REUTERS/Steve Marcus)

Cozy Bear utiliza con frecuencia fallas de seguridad de dominio público para realizar escaneos generalizados contra sistemas vulnerables, en un esfuerzo por obtener credenciales de autenticación que le permitan un mayor acceso. Esta amplia selección de objetivos puede dar al grupo acceso a un gran número de sistemas en todo el mundo, muchos de los cuales no tienen quizás un valor de inteligencia inmediato, pero pueden tenerlo en el futuro, como se ve ahora con los centros de investigación que están desarrollando tratamientos contra el coronavirus.

“El grupo puede mantener un almacén de credenciales robadas para acceder a esos sistemas en caso de que se vuelvan más pertinentes para sus necesidades. En los recientes ataques dirigidos a la investigación y el desarrollo de la vacuna contra el COVID-19, el grupo llevó a cabo un escaneo de vulnerabilidad básica contra direcciones de IP externas de las organizaciones. A continuación, el grupo explotó las vulnerabilidades de los servicios identificados”, explicó el informe.

Un laboratorio en el Imperial College de Londres donde se investigan tratamientos contra el coronavirus (Imperial College London/Thomas Angus/via REUTERS)
Un laboratorio en el Imperial College de Londres donde se investigan tratamientos contra el coronavirus (Imperial College London/Thomas Angus/via REUTERS)

Una vez que acceden a un sistema, los hackers abandonan estos instrumentos y buscan obtener credenciales legítimas de los sistemas comprometidos para mantener un acceso permanente. Todo indica que utilizan servicios de anonimato al usar las credenciales robadas, de modo que no puedan ser identificados.

“Es probable que APT29 siga atacando a las organizaciones que participan en la investigación y el desarrollo de la vacuna contra el COVID-19, en la medida en que traten de responder a cuestiones de inteligencia adicionales relacionadas con la pandemia. Se recomienda encarecidamente a las organizaciones que utilicen las normas aconsejadas para detectar la actividad que se detalla en este informe”, sostuvo el NCSC en la conclusión del documento difundido.

Con información de AP

 
Este malware infecta cargadores para cambiar su potencia y que sobrecalienten el móvil hasta quemarlo

Este malware infecta cargadores para cambiar su potencia y que sobrecalienten el móvil hasta quemarlo



Hace 7 horas
Cristian Rus @CristianRus4

Cuando uno piensa en el cargador del móvil difícilmente se le ocurre que puede reventar el teléfono. Es un dispositivo relativamente simple (aunque hay cosas a tener en cuenta al comprar uno) y dado que los móviles y los propios cargadores cuentan con controladores para regular la potencia, uno no tiene que preocuparse de mucho. Ahora bien, si un malware modifica esos controladores las cosas pueden ser muy diferentes, llegando incluso a explotar el teléfono.

Una vulnerabilidad descubierta por Xuanwu Labs (empresa perteneciente a Tencent) permite modificar el firmware de los cargadores móviles. BadPower es el nombre que recibe y modifica el firmware para que en vez de ofrecer la potencia aceptada por el teléfono (5W, 10W, 20W...) ofrezca mucho más con tal de sobrecalentarlo hasta que se queme por dentro o explote.


La "carga rápida" no deseada

Esencialmente esta nueva vulnerabilidad modifica el firmware que comunica los cargadores con los teléfonos. Este firmware se utiliza para que el teléfono y el móvil se comuniquen y establezcan cuánta potencia debe enviarse desde el cargador a la batería del teléfono. Cuanta más potencia se envíe, más rápido se carga el teléfono. Pero claro, hay un límite de cuánto acepta cada teléfono antes de degradar la batería o directamente hacerla explotar.

Los investigadores consiguieron modificar el firmware del cargador para que envíe mucha más electricidad de la que el móvil puede soportar, independientemente de lo que el móvil diga. Con esto el resultado es evidente: se sobrecalienta tanto el teléfono que acaba derritiendo componentes o, lo que es más peligroso, explotando la batería.

En el siguiente vídeo podemos ver un ejemplo de cómo prende fuego un aparato que se está cargando con un cargador infectado por BadPower:

Indican desde Xuanwu Labs que probaron a infectar con este malware a un total de 35 modelos de cargadores diferentes de los más populares del mercado. De esos 35 un total de 18 (fabricados por 8 fabricantes diferentes) eran susceptibles al ataque.

La "buena noticia" es que provocar este ataque por BadPower no es tan sencillo. Para ello el atacante debe tener acceso físico al cargador y modificarlo desde un ordenador o móvil conectado al cargador. Si se consigue infectar el teléfono de forma remota es ya otra historia.
Según las investigaciones realizadas, es posible actualizar el firmware para evitar este tipo de modificaciones. Pero claro, no todos los fabricantes ofrecen soporte para actualizar el firmware de un cargador.

Si bien no hay indicios de que se haya usado a día de hoy este ataque o similares, siempre es conveniente estar alerta de ellos. Y, como siempre, la mejor defensa es la precaución. Siempre es recomendable utilizar cargadores oficiales o certificados, así como conectar los dispositivos a cargadores o fuentes fiables y no de desconocidos o públicos.

Vía | Android Authority
Más información | Xuanwu Labs

 

La Guardia Civil se prepara para usar reconocimiento facial en el control de multitudes en fiestas y festivales

La Guardia Civil se prepara para usar reconocimiento facial en el control de multitudes en fiestas y festivales



Hace 11 horas
Enrique Pérez @Lyzanor

"Por ejemplo, el festival Viña Rock". La Guardia Civil ha llegado a un acuerdo de contratación precomercial de servicios I+D en materia de seguridad con el Ministerio del Interior y el Centro para el Desarrollo Tecnológico e Industrial. Según describe el BOE, el cuerpo de seguridad español pretende usar un "sistema de reconocimiento de personas (por ejemplo, sistema de reconocimiento facial)" para ayudar al "control de acceso en la entrada al evento".

El Servicio de Innovación Tecnológica de la Guardia Civil quiere mejorar, entre otras funciones, el "control de multitudes en festivales y fiestas populares" en el medio rural con nuevas tecnologías, ya que según describen "las soluciones existentes en el mercado no satisfacen las requeridas necesidades".



Reconocimiento facial para ayudar a encontrar personas con "asuntos pendientes"

La Guardia Civil nombra específicamente el festival de rock, "un evento multitudinario real que se celebrará en la Comunidad Autónoma de Castilla-La Mancha, en particular en la provincia de Albacete". Este evento será uno de los escenarios de validación de las distintas tecnologías a emplear, entre ellos el reconocimiento facial.

Así describe el propio BOE el uso de esta tecnología en el 'Escenario 2: Control de eventos multitudinarios':
"Sistema de reconocimiento de personas (por ejemplo, sistema de reconocimiento facial). A ser instalado en el propio punto de control de acceso en la entrada al evento. Su propósito es proporcionar a los agentes que controlan los accesos al evento alertas para detener a personas con asuntos pendientes con la justicia".
Es decir, la Guardia Civil detalla cómo implementará un sistema de reconocimiento facial en la entrada del festival para ayudar a los agentes a determinar si los asistentes tienen "asuntos pendientes con la justicia".

El reconocimiento facial funciona equiparando el rostro de las personas con el de una base de datos de aquellas personas que tienen asuntos pendientes con la justicia. Cuando la cámara y el sistema identifica una similitud con algún rostro de la base de datos, el sistema envía una alerta. En este punto es donde se encuentra la mayoría del debate; tanto en el hecho de si la cámara identifica a todos los asistentes, si queda registrado algún tipo de información y sobre la validez de disponer de una base de datos de los acusados.

Además de la tecnología de reconocimiento facial, la Guardia Civil también prevé utilizar un sistema de reconocimiento de matrículas, sistema de detección de teléfonos móviles basado en IMSI-catcher, un sistema de procesamiento de datos y generación de alertas y un sistema de visualización.

El uso del reconocimiento facial se encuentra en entredicho. El pasado mes de junio, IBM anunció que abandonaba el negocio alegando preocupaciones de privacidad y discriminación racial. En España, recientemente Mercadona ha decidido implementar este sistema en algunos de sus supermercados, lo que también ha generado dudas sobre la legitimación de este sistema y ha provocado que la Agencia Española de Protección de Datos inicie una investigación sobre su uso.

Reconocimiento Facial Concierto


En los Estados Unidos ya han surgido iniciativas que solicitan a los festivales que bloqueen el uso de esta tecnología de reconocimiento facial en sus conciertos.

La inteligencia artificial es "un buen método para corregir dichas carencias en el ámbito de la seguridad", explican desde la Guardia Civil. Además del control de multitudes, este tipo de soluciones basadas en inteligencia artificial podrían ayudar a detectar el robo de material agrícola, la detección de plantaciones de drogas y la persecución de delitos medioambientales.

Vía | ElDiario.es

 
Microsoft niega que poder descargar malware con Windows Defender sea un problema de seguridad

Microsoft niega que poder descargar malware con Windows Defender sea un problema de seguridad



Hace 8 horas
Gabriela González @gabriela2400

Hace algunos días, un investigador de seguridad descubrió que, irónicamente, Windows Defender puede usarse para descargar malware en Windows 10. Esto sucede porque Microsoft actualizó su solución de seguridad recientemente para permitir que este pueda descargar todo tipo de archivos a través del símbolo del sistema.
Básicamente, a través del comando -DownloadFile, Microsoft Defender se convierte en una herramienta para descargar archivos si proporcionamos la ruta desde donde obtenerlo de forma remota. Y aunque suene alarmante, Microsoft ha explicado que esto no es un problema de seguridad.


No importa qué uses para descargar archivos, si son maliciosos Defender los detectará
windows defender


Para descargar un archivo con Microsoft Defender se necesita acceso al usuario local, ya sea Administrador o no. El archivo malicioso sea descargado a través del antivirus o no, seguirá siendo examinado, detectado y bloqueado en caso de representar una amenaza.


Eso es lo que explicó un portavoz de la empresa a Forbes: "El antivirus Microsoft Defender y Microsoft Defender ATP seguirán protegiendo a los usuarios de malware. Estos programas detectan archivos maliciosos descargados al sistema a través de la función de descarga de archivos del antivirus".

No parece haber tampoco riesgo de escalada de privilegios, puesto que el usuario que inicia la descarga no puede descargarlos a directorios sobre los cuales no tiene privilegios. Lo que algunos argumentan como riesgo es la posibilidad de que otros antivirus no pueda detectar los archivos maliciosos descargador a través de Windows Defender.
Es algo que Microsoft no ha aclarado por ahora, y la función como tal, que es reciente, no ha sido explicada detalladamente. Para los administradores de sistemas puede representar una puerta adicional que monitorizar, pero no es una vulnerabilidad como tal en el sistema.

 
Ten cuidado al personalizar tu escritorio, hay temas de Windows 10 que pueden ser usados para robar tu contraseña

Ten cuidado al personalizar tu escritorio, hay temas de Windows 10 que pueden ser usados para robar tu contraseña



9 Septiembre 2020
Gabriela González @gabriela2400

El investigador de seguridad Jimmy Bayme, conocido en Twitter como @bohops, descubrió recientemente que hay temas de Windows 10 especiales que pueden ser usados para ejecutar ataques "Pass-the-Hash".
Este tipo de ataques sirven para robar nombres de inicio de sesión de Windows y los hashes correspondientes de la contraseña. Lo que hacen es engañar al usuario para acceder a un servidor remoto que requiera autenticación.




El wallpaper que te roba la contraseña


En el método descrito por @bohops, el atacante solo tienes que crear un archivo .theme, es decir, un archivo de tema de Windows, y modificar el ajuste para el wallpaper de forma que necesite usar un recurso alojado de forma remota que requiera autenticación.


Básicamente, los temas de Windows tienen varios parámetros que cambian el estilo de múltiples partes del escritorio, como los colores o el fondo de pantalla. Si un tema en cuestión utiliza un recurso que esté almacenado de forma remota, como por ejemplo, un wallpaper, cuando Windows intente acceder a ese fondo almacenado en un servidor remoto, automáticamente intentará iniciar sesión enviando el hash NTLM y el nombre de usuario de la cuenta de Windows.

Ehkqtgcwkaedwmk


Windows intenta iniciar sesión automáticamente en el servidor remoto donde está el supuesto wallpaper

El ataque Pass-the-hash no requiere la contraseña como tal en texto plano, sino que le basta con el hash NTLM del password del usuario, por lo tanto no tiene que usar fuerza bruta para obtener la contraseña y el robo es mucho más fácil.

Es ahí entonces cuando el atacante puede recoger las credenciales e intentar hacer dehash de la contraseña usando scripts especiales. En Bleeping Computer cuentan como probaron este método y el dehashing de una contraseña fácil tomo apenas 4 segundos.

El investigador explicó que reportó su descubrimiento a Microsoft a principios del año pero no se solucionó porque se trata de una "característica por diseño". La recomendación de este investigador es bloquear todas las extensiones de archivo .theme, .themepack. y .desktopthemepackfile, lo que básicamente rompe las funciones de temas de Windows 10 y te impide volver a cambiar de tema.

No descargar ni instalar archivos con estas extensiones es también una solución menos drástica pero que requiere que el usuario esté más pendiente de lo que hace.
Vía | BleepingComputer

 
Un ataque ransomware en el hospital Moisès Broggi, en Barcelona, provoca el colapso de algunos servicios secundarios

Un ataque ransomware en el hospital Moisès Broggi, en Barcelona, provoca el colapso de algunos servicios secundarios



Todo parece valer para ciertos grupos de ciberdelincuentes que acaban atacando incluso sistemas informáticos de hospitales, con las consecuencias que eso puede tener para los pacientes.

Ya lo vimos en enero de 2020 en el hospital de Torrejón, en Madrid, y ahora acabamos de saber que el hospital Moisès Broggi de Sant Joan Depí, en Barcelona, ha sido también víctima de un ataque de ransomware. El impacto no es demasiado grave, pero pone de manifiesto la gravedad de unos ciberataques sin demasiados escrúpulos.


Los profesionales, obligados a volver a usar papel y boli

Este hospital, que inició su actividad en 2010, fue atacado este fin de semana con un ransomware que según los primeros datos procede de atacantes en Rusia. Algunos sistemas han acabado estando colapsados y con su información cifrada.

Este archivo de video no se puede reproducir.(Código de Error: 102630)
Los responsables del hospital no han pagado el rescate pedido por los ciberatacantes, y se han puesto en contacto con los Mozos de Escuadra y la Agencia de Ciberseguridad catalana para tratar de recuperar los servidores.


En RAC1 indican que aunque el ataque ha sido importante, no se ha recolectado "información sensible ni datos confidenciales ni de pacientes ni de profesionales".

Algunos sistemas secundarios pero importantes como el acceso a las imágenes de radiología, el correo corporativo o el servicio telefónico se han visto afectados, lo que "ha obligado a los profesionales a recuperar el papel y el boli" para trabajar mientras se vuelven a poner en marcha esos servicios.

El ciberataque se produce sin duda en un momento delicado: los rebrotes de coronavirus hacen precisamente necesario que los hospitales puedan funcionar con todos sus recursos al completo, y este tipo de acciones complican aún más la situación.
Vía | RAC1

 
Back