Ciberseguridad - Privacidad - Fake News - Ciberdelitos

Un informe de Malwarebytes avisa: el malware en macOS ha subido como la espuma

1024_2000.jpg


¿Qué ocurre cuando el uso de una plataforma es cada vez más popular? Pues que cada vez hay más código malicioso que la amenaza. Es lo que han detectado desde Malwarebytes, la desarrolladora de las aplicaciones de seguridad con el mismo nombre. Desde el último trimestre de 2018 al primero de 2019 el crecimiento de ese malware en macOS ha sido de un 60%, nada menos.

Lo que más ha contribuido a este crecimiento ha sido el adware, que ha crecido un 201% durante los últimos seis meses. Entre ellos se encuentran el infame MacKeeper, seguido de MacBooster y versiones fraudulentas de reproductor mPlayerX. Pero el que más se ha propagado ha sido un adware llamado PCVARK, escondido en anuncios de páginas web que promocionan una aplicación llamada "Advanced Mac Cleaner".


Poco puede hacer la protección de macOS frente a esto, porque depende casi enteramente del usuario. Y es muy común: de repente te aparece una ventana en la que te dice que tienes varias infecciones en el Mac, motivándote a que te descargues ese "Advanced Mac Cleaner" que en realidad es un programa que te llena el sistema de publicidad. Con sólo aceptar esa instalación estás dando permisos de administración a ese programa, cosa que queda convenientemente camuflada para que los más incautos no se percaten de ello.

El informe también habla de macOS siendo cada vez más el objetivo de nuevos tipos de ataques, como por ejemplo los programas que utilizan la potencia del Mac para minar criptomonedas. A pesar de todo, este tipo de malware es ahora menos activo debido a que las criptomonedas han bajado de valor. A nivel general, las infecciones por malware de todo tipo también van a la baja si juntamos métricas de todas las plataformas.



No te dejes engañar: tu Mac está perfectamente

Malware Mac

Anuncios como estos son cada vez más comunes.

¿Cómo podemos protegernos de este tipo de amenazas? Aquí lo principal es saber bien a qué hacemos click, porque depende enteramente de nosotros. Toda protección que nos podamos instalar en el Mac no sirve de nada si un anuncio consigue engañarnos y le damos permiso para instalarse en el ordenador.

Si de repente te encuentras un aviso en el que se te avisa que tienes el Mac infectado, haz caso omiso de él y cierra la ventana. Averigua de qué página web ha aparecido y no navegues por ella, puntos extra si además avisas a sus responsables. También deberías cerrar todos los anuncios emergentes que te informen que has ganado algún premio sólo por entrar en una web, ya que son todos falsos y pueden incluir malware.

En caso de haber "caído en la trampa" varias veces y no fiarte de ti mismo/a, siempre puedes instalar aplicaciones de seguridad en tu Mac como por ejemplo CleanMyMac y mantenerlos constantemente actualizados para que te avisen en caso que el malware llame a tu puerta.

 
Firefox 74 deja que uses Facebook, pero te anima a "aislarlo" para evitar que la red social monitorice todo lo que haces

Firefox 74 deja que uses Facebook, pero te anima a aislarlo para evitar que la red social monitorice todo lo que haces





La obsesión del navegador web Firefox con la privacidad es de sobra conocida: es uno de sus grandes argumentos para convencer a los usuarios de sus ventajas frente a otras alternativas -sobre todo, Chrome-, y en su última versión ha vuelto a ofrecer nuevas opciones al respecto.

Una de las más destacables es la forma de tratar a Facebook en el nuevo Firefox 74. Puedes usar esa red social desde el navegador, desde luego, pero Firefox te anima a utilizar una extensión llamada Facebook Container que "encierra" esa sesión en una especie de celda de confinamiento. El objetivo no es otro que aislar a Facebook para que no sea capaz de monitorizar todo lo que ocurre en el navegador más allá de lo que haces en el servicio.


Si quieres usar Facebook en Firefox, igual quieres proteger tu privacidad un poco primero

La nueva versión del navegador de Mozilla apareció hace unos días. Si habéis actualizado a Firefox 74 os habréis encontrado con una nueva pestaña informativa que quizás hayáis cerrado sin prestar demasiado atención, pero que mostraba un mensaje singular.

Ff


En él los responsables de Mozilla y de Firefox indicaban que "si más o menos te gusta Facebook pero no confías en ellos, prueba la extensión Facebook Container de Firefox y haz más difícil que puedan monitorizarte en tu navegación web".



La descripción de este complemento o extensión de Firefox es clara también. A través de ella es posible aislar la identidad de Facebook en un contenedor separado para que la red social no pueda seguir tus pasos a través de cookies de terceros.

Fb1



Al instalarla y activarla veremos como al acceder a Facebook por primera vez Firefox nos habrá expulsado de la sesión abierta si la teníamos. Con ello borra las cookies de Facebook y nos obliga a iniciar sesión de nuevo, pero esta vez en el contenedor creado para aislar esa pestaña en concreto.

Los enlaces de "Compartir en Facebook" de otras páginas web también se cargarán en pestañas con Facebook Container, y los comentarios y botones "Me gusta" integrados de Facebook no funcionarán en otras pestañas fuera del contenedor, algo que evita que Facebook asocie información sobre tu actividad en otras páginas web a tu identidad en la red social.

La extensión ahora disponible en su versión 2.1.0 ha ganado enteros y permite añadir una lista personalizada de sitios que se abran en el contenedor para que puedas "logarte con Facebook cuando lo necesites". Así pues si usas tu cuenta de Facebook para identificarte en algún sitio o servicio web, podrás añadirlo a la lista para evitar problemas.



La opción es por tanto una garantía más de protección de la privacidad que se une al resto de mejoras implementadas en este sentido en Firefox 74. La eliminación del soporte para TLS 1.0/1.1 es por ejemplo importante también porque es un protocolo que tiene ya 20 años de antigüedad y dejó de recomendarse hace una década.

 
Los trucos de los cibercriminales para explotar el miedo al coronavirus
Se están llevando diferente campañas de phishing o suplantación de identidad para instalar malware y robar datos confidenciales.


Por Desirée Jaimovich
13 de marzo de 2020

djaimovich@infobae.com








M4OLT3LI6ZDKHLWT2KCEUUSROQ.jpg

Los cibercriminales aprovechan el miedo ante la pandemia para lanzar campañas de engaño con el fin de robar contraseñas y otros datos confidenciales (REUTERS/Steve Marcus/File Photo)

El coronavirus ya afectó a más de más de 134.300 personas en 121 países y territorios, de las cuales 5.043 murieron, según datos de la agencia de noticias AFP. Así como la enfermedad avanza, también crecen los intentos de engaños por parte de cibercriminales que aprovechan esta pandemia para instalar malware y robar contraseñas para acceder a todo tipo de cuentas, según alertaron varias firmas de ciberseguridad.


Los investigadores descubrieron que los atacantes envían correos o mensajes como si proviniera de entidades confiables, como pueden ser la Organización Mundial de la Salud o los Centros para el Control y la Prevención de Enfermedades de EE. UU., entre otros.

Así como algunos correos vienen con material adjunto que hay que descargar otros invitan a los usuarios a ingresar a páginas falsas que simulan ser la de esas entidades. Pero si se mira con atención la URL se verá que el dominio no coincide con los que corresponden a los sitios genuinos.

Check Point, por ejemplo, identificó una nueva campaña de malware que aprovecha el miedo que hay en torno a la pandemia para instalar un troyano de acceso remoto diseñado para tomar el control total de la computadora de la víctima.



“Emotet es un troyano avanzado, autopropagante y modular. Originalmente era un troyano bancario, pero recientemente se ha utilizado como distribuidor de otro malware o campañas maliciosas. Utiliza múltiples métodos para mantener las técnicas de persistencia y evasión para evitar la detección. También puede propagarse a través de correos electrónicos de phishing que contienen archivos adjuntos o enlaces maliciosos”, se destaca en un comunicado publicado por la compañía.

FireEye, por su parte, dijo que ha visto un aumento de casos de phishing proveniente de atacantes alineados con China, Corea del Norte y Rusia para distribuir malware. Algunos atacantes envían mails con archivos adjuntos donde hay información de salud cierta sobre el coronavirus. Pero detrás de eso hay un ataque informático que pasa desapercibido porque cuando el usuario baja el adjunto, se instalan programas maliciosos como como Sogu y Cobalt Strike, según explicó Ben Read, analista de inteligencia de FireEye, en un artículo publicado por MIT Technology Review.


UPWJZXHYX5FXPAGCK6LUDKHJCY.jpg

Ante la preocupación que hay por la pandemia, es probable que el usuario esté más propenso a caer en ciberengaños. Y una vez que se abre el adjunto ya es demasiado tarde: el equipo queda infectado. (Foto: Flickr)

Los analistas de FireEye también identificaron casos de spear phishing, tal como se denominan los ataques de suplantación de identidad que van dirigidos a un blanco en particular, en este caso Corea del Sur. Esos correos, que habrían sido enviados por hackers de Corea del Norte tienen como asunto “Correspondencia sobre coronavirus”.

Ante la preocupación que hay por la pandemia, es probable que el usuario esté más propenso a caer en este tipo de engaños. Y una vez que se abre el adjunto ya es demasiado tarde: el equipo queda infectado.

La empresa de seguridad Recorded Future también identificó ciberataques contra usuarios en EE. UU., Europa e Irán, que están entre las regiones más afectadas por el brote de coronavirus, fuera de China.

Italia, en particular, que es el segundo país más impactado por este brote después de China, está entre las regiones donde más se identificaron campañas de phishing como las mencionadas. Se identificaron casos de instalación de troyanos bancarios como Trickbot, según explican desde Sophos.

“El correo electrónico viene con un documento adjunto que incluye una lista de precauciones para prevenir infecciones. El archivo adjunto es un documento de Word armado, que lleva un script de Visual Basic para Aplicaciones (VBA) que se usa para para entregar una nueva variante de Trickbot”, se menciona en un artículo publicado por esa compañía de ciberseguridad.

Cuando se abre, si las macros están deshabilitadas, el documento de Word muestra un mensaje pidiéndole al destinatario que habilite la edición y el contenido porque “este documento se creó en una versión anterior de Microsoft Office Word”. Y si el usuario acepta hacerlo, se descarga el malware e infecta el equipo.

 
Las mejores webs para verificar la seguridad de una URL (sin hacer clic en el enlace)


Las mejores webs para verificar la seguridad de una URL (sin hacer clic en el enlace)



Pareciera que navegar por Internet fuera cada vez menos seguro: a veces da la sensación de que cada clic que hacemos en una URL desconocida (de alguna aparente campaña de phising por email o, peor, de la enorme gama de acortadores de enlaces disponible hoy en guía) es como dar un paso en un campo de minas.
Ayuda, sin duda, contar con aplicaciones antimalware que protegen el equipo en tiempo real y bloquean la apertura de ciertas URLS. Pero ¿y pudiéramos avanzar sin dar pasos en falso, sabiendo con cierta seguridad que terminaremos en una dirección web fiable? Para eso se inventaron los verificadores de URLs. Te mostramos una selección de los más útiles:


Norton Safe Web

Norton es uno de los grandes nombres en el ámbito de la ciberseguridad, por lo que podemos confiar en su base de datos de amenazas permitirá descartar muchas de los potenciales amenazas que podríamos encontrar en nuestras sesiones de navegación. La ventaja es que el uso de Norton Safe Web es totalmente gratuito.
Tras introducir la URL de nuestro interés, nos indicará si ésta es segura, especificando tres indicadores: amenazas de malware, amenazas de identidad y 'factores de molestia', un término en el que se engloban malas prácticas por parte de los propietarios de la web, como intentar instalar software no deseado (aunque éste no sea malware). En algunos casos encontraremos también puntuaciones y comentarios elaborados por la comunidad de usuarios.


Website Reputation Checker de URLVoid

Urlvoid


Algunas de las 35 listas negras consultadas por el servicio de URLVoid.

El Website Reputation Checker de URLVoid es una herramienta cuyo uso no se diferencia en nada del anterior, aunque sí lo hace la información que ofrece al usuario sobre la URL de nuestro interés.

En primer lugar, nos proporciona información sobre el registro del dominio y la localización del servidor, indicándonos si aparece en alguna de sus 35 'listas negras'. A continuación, se detalla la valoración de cada una de dichas listas, para que (si se diese el caso) pudiéramos saber en cuál aparece; todas ellas están vinculadas a empresas e instituciones de ciberseguridad (como Avira el CERT-GIB).


Google Transparency Report

La tecnología Safe Browsing de Google examina millones de URLs al día buscando sitio potencialmente inseguros, lo que le permite mostrar avisos de advertencia en su buscador y en los navegadores web que usan su tecnología. Pero su Google Transparency Report también nos permite recurrir a dicha tecnología a demanda, indicándonos si el sitio es o no seguro, y cuándo fue la última vez que se verificó dicha URL.



Sucuri Sitecheck

Sucuri no vive de proteger al usuario frente a webmasters desaprensivos, sino que es un servicio dirigido a proteger páginas webs frente a ciberataques (de inyección de código, DDoS, etc), especialmente popular entre los administradores de sitios basados en Wordpress.
Pero, además, de eso, mantienen una herramienta online gratuita, Sucuri SiteCheck, que no sólo permite verificar la seguridad de una URL (verificándola en 9 listas negras diferentes), sino que nos indica a qué otra URL redirige (muy útil cuando nos enfrentamos a acortadores de enlaces) y si esta última cuenta con versión HTTPS.


URLEX

URLEX (URL Expander) es una herramienta extraordinariamente sencilla: nos muestra una caja de texto en la que podremos introducir numerosas URLS acortadas a la vez, para que pueda mostrarnos a qué webs redirigen realmente. Nos proporciona, además, la opción de bajarnos los resultados en forma de fichero .csv.

 
CoronaMadrid abre el debate sobre si es necesario dar nuestros datos y perder privacidad para luchar contra el coronavirus

CoronaMadrid abre el debate sobre si es necesario dar nuestros datos y perder privacidad para luchar contra el coronavirus




La Comunidad de Madrid ya tiene su herramienta oficial para luchar contra el coronavirus. Se trata de CoronaMadrid, una web-app que sirve como autodiagnóstico y pretende descongestionar los teléfonos de emergencias. La iniciativa surge en tiempo récord a raíz de la colaboración de la Administración de Díaz Ayuso junto a varias startups coordinadas por el emprendedor Martin Varsavsky y el apoyo de gigantes tecnológicos como Telefónica y Google.

CoronaMadrid ya está accesible a través de su página web y durante los próximos días llegará en forma de aplicación para iOS y Android. Por el momento se trata de un test de diagnóstico, en línea con los distintos proyectos que ha aprobado el Ministerio de Sanidad.

Pese a ser un test de diagnóstico, la web solicita datos como el DNI y la geolocalización. Una solicitud de información que según la opinión de varios juristas, no queda suficiente justificada en su política de privacidad.


Cómo funciona y qué datos solicita CoronaMadrid

Movil


El funcionamiento de CoronaMadrid es muy sencillo. Al entrar en la web podemos pulsar sobre realizar el test de autodiagnóstico. El primer dato que nos solicita es nuestro número de teléfono. Deberemos introducirlo y aceptar su política de privacidad. En este paso, la web informa explícitamente que "se acepta el tratamiento de datos sensibles, relativos a tu salud, para el correcto funcionamiento del servicio de autoevaluación y otras finalidades relacionadas, por motivos de interés público".

Una vez introducido el número de teléfono nos enviarán un SMS de activación. A través de este paso, cuando volvamos a conectarnos a la aplicación el servicio recordará quienes somos y nos ofrecerá la misma información.

Para proseguir en el test, CoronaMadrid nos solicita activar los permisos necesarios para poder utilizar la aplicación. La web-app, al igual que previsiblemente lo hará la aplicación para móviles, solicita el permiso de GPS para conocer dónde nos encontramos. Aquí, pese a que la aplicación está reservada únicamente a los usuarios de Madrid, también funciona si nuestra localización está fuera. Según describe la web, este permiso es necesario para "saber dónde te encuentras para poder ofrecerte las mejores medidas preventivas y de evaluación".


Localizacion


Seguidamente nos envía a la página donde podremos introducir nuestros datos personales, desde el nombre, apellido, dirección de correo o dirección postal. Así como también la comunidad autónoma donde nos encontramos. Es en este punto donde si marcamos otra comunidad diferente a Madrid es cuando la aplicación avisa que no está disponible.

Como queda reflejado en su política de protección de datos, estos son los datos que solicita la aplicación:
  • Nombre y apellidos
  • Número de teléfono móvil
  • DNI / NIE
  • Fecha de nacimiento
  • Correo electrónico
  • Dirección completa y código postal
  • Género
  • Geolocalización (esto es, la localización vía GPS de tu teléfono móvil).
  • Datos de salud relacionados con los síntomas que estas experimentando

Cómo se obtienen y para qué se utilizan estos datos

Según la política de COVIDAPP (CoronaMadrid), se solicitan estos datos para "ofrecer información sobre el COVID-19, incluyendo el envío de notificaciones", "realizar tu autoevaluación" y "si es necesario, selección de cita para posible prueba".

La aplicación permite realizar una "autoevaluación continua diaria: Monitorización de la temperatura y parámetros básicos, cada 12 horas desde que se inicie la Aplicación, incluyendo un recordatorio en forma de alarma para que lo vayas introduciendo".

Estos datos, serán tratados para las siguientes finalidades no directamente relacionadas con las funcionalidades de la app:
  • Para finalidades estadísticas
  • Para investigación biomédica, científica o histórica
  • Para archivo en interés público
El argumento es que "son estrictamente necesarios por razones de interés público ante la actual situación de emergencia sanitaria decretada por las Autoridades Públicas como consecuencia de la pandemia del COVID-19 y la necesidad de su control y propagación, así como para proteger y salvaguardar un interés esencial para tu vida y/o la de terceros". Esta es la razón esgrimida por los creadores de la web, pero no compartida por algunos expertos.


Quién tiene acceso a estos datos

Además de la Comunidad de Madrid, los datos personales serán accesibles por "nuestros proveedores y colaboradores, así como, en su caso, los profesionales sanitarios y las autoridades con las que colaboramos". Es decir, profesionales sanitarios para que se pongan en contacto con posibles casos de personas infectadas, autoridades y los proveedores que ayudan a prestar los servicios de la aplicación.

A nivel de seguridad, la Viceconsejería de Asistencia Sanitaria de la Comunidad Autónoma de Madrid (CSCM) asegura que se garantizará el máximo nivel de protección.


Qué aspectos no se han cuidado suficiente, según los expertos

Coronamadrid 2

Varios juristas han expresado sus dudas respecto a la política de privacidad de CoronaMadrid. Hemos hablado con algunos de ellos para que nos cuenten qué aspectos consideran que se debería haber llevado más cuidado.

Sergio Carrasco, jurista de Fase Consulting, cree que se deberían haber cuidado los "datos estrictamente necesarios". "Así los señalan en las políticas, pero no es congruente con lo que se pide para la realización de la autoevaluación, para una autoevaluación, la realización del mismo no necesitaría nada".

Según el experto, CoronaMadrid debería haberse configurado con una fase con "datos voluntarios, y en todo caso al final para el resto que puedas poner síntomas etc, luego un registro voluntario, y que facilites datos". Carrasco concluye que CoronaMadrid debería "trabajar con los datos que son realmente necesarios" y aunque entiende los tiempos tan cortos en los que se ha trabajado, expresa que "entiendo lo que quieren hacer, pero no vale todo".

Para David Maeztu, abogado de 451l.Legal, la mayor duda está en las cookies. "No entiendo casi ni que haya cookies, la verdad, como si una web no pudiese funcionar sin ellas. Pero es anecdótico, para mí lo relevante es que se haga lo necesario para solventar esta situación y se establezcan medidas de seguridad para que los datos recopilados no puedan ser usados tras esta situación y una vez sean innecesarios se garantice su destrucción".

Otra recomendación que ofrece Maeztu es sobre el código fuente de CoronaMadrid; "Sería bueno tener el código fuente para que se pueda mejorar por otras administraciones o países y comprobar que ningún dato va donde no tiene que ir".


Jorge Morell, consultor Legaltech, expresa que podrían mejorarase "los terceros con los que se pueden compartir los datos. Se indican algunos pero luego hay un grupo final en plan cajón desastre que sabemos por la nota de prensa a las empresas que implica (Carto, Google y demás), pero luego la política de privacidad nada dice de ellos".

"Por el tipo de datos recogidos (Salud), debería haber más detalle sobre las medidas de seguridad aplicadas. Se indican las pautas básicas, pero ahí también falta detalle. Finalmente en cuanto a la conservación de los datos (se habla de borrado y se da un criterio básico sobre cómo se usarán) pero también se podría detallar mucho más ahí".

Si bien, su conclusión es relativamente positiva. "Supongo que con la aplicación y el paso de los días irán actualizando las condiciones legales y perfilando más el texto. Hay que tener en cuenta que se ha hecho en 5 días y con la que está cayendo, por eso creo que las condiciones en global son correctas aunque definitivamente mejorables".

 
Por qué tu sombra digital es alargada (y resulta mucho más importante y preocupante que tu huella)

1024_2000.jpg



Cada foto que subes a Instagram está generando tu huella digital (y lo sabes). Cada comentario que dejas en una noticia de Xataka también va a tu huella digital. Con cada mail que mandas también estás trazando esta imagen digital de ti y eres consciente. Pero hay otros datos (muchos) que dejan un rastro de quién eres realmente y de los que, probablemente, no estés siendo consciente. Es tu sombra digital.

Porque una cosa es cómo te ves tú y otras cómo te ven los demás. Una imagen que no tiene siempre por qué coincidir. Estas afirmaciones de la psicología también las podemos llevar al mundo digital. Con cada acción que realizamos, estamos trazando un perfil de cómo somos, cuáles son nuestros intereses, nuestros hábitos y rutinas y nuestras preferencias. Cuando somos conscientes (comentario o publicación en redes sociales, cuando usas una aplicación...), se conoce como huella digital.

Pero, además de este rastro que más o menos voluntario (o consciente) dejamos, hay otro del que quizá no seamos tan conocedores: la sombra digital. Ya en 2008 se aseguraba que la cantidad de información que se genera sobre una persona es mayor a la cantidad de información creada por ese mismo individuo.

Y ése es, precisamente, su principal peligro: que tal vez no seamos conscientes de lo que realmente es y del peso tan grande que está cogiendo.

Pero, ¿qué es exactamente la sombra digital? Y, sobre todo ¿supone un riesgo para nuestra seguridad?

Qué es sombra digital

Podemos decir que la sombra digital es la cantidad de información que queda de nosotros en diferentes sistemas (públicos o privados). Dichos datos “pueden servir para que, de forma agregada, seamos identificados y por tanto perfilados en cuanto a nuestras preferencias, gustos o costumbres se refiere”, explica Lorenzo Martínez, experto en seguridad y fundador de Securizame.

Lorenzo

Esta información puede haber sido generada por sistemas digitales que estemos usando (como nuestro teléfono móvil o pulsera de seguimiento de actividad) pero puede que no: la grabación que hace de nosotros una cámara de seguridad en plena calle también es parte de nuestra sombra digital.

Pongamos algunos ejemplos para entenderlo mejor. La conexión Wifi de nuestro móvil intenta conectar el terminal a todas las redes inalámbricas que localiza en su alcance. “Las entidades bancarias y supermercados, por ejemplo, detectan las señales y pueden saber el número de terminales, el sentido de su marcha, si están cerca o entran en el establecimiento. Estas señales se captan y se puede individualizar el rastro de cada una de ellas: desde donde sale hasta dónde va cada dispositivo. E, incluso, se puede establecer un ranking socioeconómico asociado al terminal”, explica el abogado experto en nuevas tecnologías y Director jurídico de Smart HC, Pablo Fernández Burgueño.

Tu sombra te persigue

No hace falta ni salir de casa para estar generando esta sombra. Si tienes una televisión inteligente, esta también está perfilando tu sombra. “Los fabricantes introducen cookies y otros elementos dentro del sistema operativo para saber cuándo usas la tele, qué canal pones, el tiempo de consumo o incluso si introduces un pendrive”, detalla Pablo Fernández Burgueño. Todo un volumen de información que se envía a la central del fabricante de dicha tele… y que supone un trozo de tu sombra digital.

La conexión WiFi de cualquier dispositivo, tu TV/aspiradora/reloj inteligente, una cámara de seguridad... Todo deja un rastro tuyo que conforma tu sombra digital
Lo mismo ocurre con cada una de las bombillas inteligentes que puedas tener. “Con un análisis de estos datos podríamos saber su si una persona está enferma. Si hay dos días seguidos en los que por la noche se enciende la luz del baño y es extraño, podemos interferir que le ocurre algo”, explica este abogado.

El mapa de tu casa que ha realizado tu aspiradora inteligente, la impresora que está en una red WiFi doméstica… Sí, todos los dispositivos electrónicos que tenemos o llevamos encima están generando esa sombra digital nuestra. Pero no son los únicos. Es decir, aunque decidiésemos ser anacoretas, también tendríamos nuestra sombra digital. “No depende de tu dispositivo. Éste contribuye es más a la huella que a la sombra”, defiende Sergio Carrasco, ingeniero experto en seguridad y fundador de Fase Consulting.


Qué condiciones se tienen que dar para que se genere la sombra digital

Entonces, ¿cómo se genera la sombra digital de cada individuo? Si nos ponemos técnicos, podemos aludir al principio de intercambio de Locard, que dice que cuando dos objetos entran en contacto, transfieren parte del material que incorporan al otro objeto. Es decir, que cuando hacemos cualquier acción en Internet desde un sistema digital (PC, móvil, tablet...) como navegar por una web, interactuar en una red social, comprar a través de Internet,... deja una huella en uno o más sitios.

Sergiocarrasco

¿Dónde queda ese registro? “En concreto en el sistema cliente desde el que interactuamos hasta los servidores finales que registran la acción, pero también en múltiples sitios intermedios que hayamos podido utilizar previamente para llegar al destino, como puede ser una búsqueda en Google por ejemplo”, explica Lorenzo Martínez. En el destino, como sujetos de nuestra acción “quedan elementos típicos como la dirección IP, el sistema operativo, la versión de navegador, pero además también puede quedar algo que nos identifica como personas aún más, como nuestra cuenta de correo (que puede o no llevar nuestros datos reales), un nick de usuario, nuestra tarjeta de crédito o incluso nuestra dirección postal (a la que nos tendrá que llegar el pedido, en caso que lo que hayamos hecho sea una compra)”, detalla este experto.


¿Tengo que tener miedo de mi propia sombra?

La pregunta, pues, parece evidente. Si estamos generando una información de nosotros mismos sin ser conscientes de ellos y que puede trazar un perfil nuestro tan preciso, ¿es peligroso? ¿Debemos preocuparnos?

En algunos casos, esta sombra digital se genera por cumplimiento normativo (como cuando las empresas han de guardar los datos de una compra o un comentario en una red social)
“Es peligrosa en el sentido de que generamos información sin ser consciente de ello”, detalla Sergio Carrasco. Pongamos de nuevo un ejemplo para verlo más claro. “Puedo no tener un perfil en Facebook, pero si le doy me gusta en una página web podían saber quién eras y generaban sombra digital”, detalla este experto.

Para Lorenzo Martínez, el grado de peligrosidad dependerá de lo celoso que seas con tu privacidad, aunque reconoce que “llega a ser molesto” que las sugerencias que te hacen los buscadores, determinadas redes o tiendas online, “vayan TAN de acuerdo a tus gustos. Esto se vuelve paranoia cuando lo que se te ofrece "curiosamente" aparece cuando la sugerencia aparece en base a un tema que el sujeto ha hablado o intercambiado a través de una comunicación privada”, explica.

Es decir, que la peligrosidad de esta sombra digital puede venir en base al perfilamiento de usuarios. Según detalla Martínez, en base al procesamiento de los datos de diferentes fuentes, “se puede llegar a identificar a un individuo y conocer datos sensibles que el usuario puede desear mantener privadas, como datos de saludo, tendencia sexual, ideas políticas, vicios, costumbres o manías”.

Pero Pablo Fernández asegura que, a día de hoy, no es peligrosa la sombra digital, porque el big data y IA no son tan potentes como para ser un riesgo. “Pero si no se le pone freno, en un futuro sí podría ser peligroso porque el software y las empresas sin ética tiene toda información sobre nosotros. Algo que puede poner en peligro la vida tuya y la de los demás”.

Entre el perfilado y los derechos sobre tus datos

Para Sergio Carrasco, el que se pueda generar (y se haga) esta sombra digital de todos y cada uno de nosotros no es que sea malo, pero sí que reconoce que genera un riesgo. “Es muy complicado no generar esa sombra digital. Por eso se ponen límites a las herramientas”.

Técnicamente resulta posible que una empresa haga un perfil de nosotros como individuos gracias a los datos obtenidos de esta sombra digital. Pero, si eso se hace, “hay que ser transparente. Si cumplo con todos los preceptos, puede ser un perfilado acorde a ley”, explica este experto en seguridad. De nuevo, el reto es que, en la práctica, se obtiene esa información pero no “se es transparente a la hora de comunicarlo y decirlo”.

Pablo Fernandez

¿Choca pues la recolección de datos con la ley de protección de datos? Pablo Fernández recuerda que esta normativa asegura que la persona puede controlar qué, quién, cómo, cuándo, dónde y para qué se utiliza sus datos personales. Y ése es, por tanto, el límite que deben tener en cuenta las empresas que almacenan tu sombra digital.

Es decir, que si se trata de un dato personal, las empresas tienen que cumplir con los derechos ARCO (Acceso, Rectificación, Cancelación, Oposición). Según esta visión, cualquier organización sujeta a cumplimiento de GDPR tiene que contestar qué datos tienen sobre el usuario. “La pregunta es: si solicito a un gigante como Google todos los datos que tienen sobre mí, ¿me los darán todos?”, se cuestiona Martínez.

Peter Pan perdía su sombra. Tú no puedes hacerlo

Puede que Peter Pan, el personaje que no quería crecer, llegara a perder su sombra. Y puede que tú también quieras despegarla y descoserla, al menos la digital. Pero, lamentablemente, es algo casi imposible de lograr.

No hay manera de no genera esta sobra digital. Ni siquiera no teniendo móvil. Si estoy en un restaurante y otras personas utilizan estas herramientas, ya están generando mi sombra”, explica el abogado experto en nuevas tecnologías.

Pero algo podremos hacer, ¿no? “Las medidas son bastante complicadas, puesto que si queremos interactuar con Internet no queda más remedio que pasar por el aro”, asegura Lorenzo Martínez. Sin embargo, en su opinión “si el objetivo es asociar datos que provengan desde un mismo individuo, una posible medida sería la disociación de los orígenes. Hacer uso de sistemas de virtualización para hacer distintas tareas desde distintos sistemas, como por ejemplo, tener una máquina virtual para compras online, otra para navegación general, otra para uso de redes sociales, etc... Esto, combinado con el uso de red TOR, que las máquinas virtuales tengan distintos sistemas operativos y navegadores, pueden dificultar bastante el perfilamiento o asociación”.

Sin embargo, el peaje a pagar para minimizar la generación de tu sombra digital es una cierta incomodidad a la hora de usar la red y los dispositivos. Pese a todo, puede que merezca la pena si, como Martínez, crees que “los mecanismos de asociación y perfilamiento de las grandes son muy poderosos” y no te acaba de convencer que tengan, incluso, más información de ti que tú mismo.

Led


Por eso, el abogado Pablo Fernández hace una serie de recomendaciones, tanto a nosotros como público como hacia las empresas que puedan recabar esta información. Así, por un lado, “las empresas que lo hagan deben hacerlo de forma clara, sencilla y escueta sobre qué va a pasar”. Mientras, las personas “debemos hacer un esfuerzo por saber qué es la sombra digital y cómo la pueden tratar. Y después tomar la decisión de continuar o no con esa generación de datos”.

La luz que da la sombra

Pero no nos pongamos catastrofistas. Generar esta sombra digital puede ser bueno. Así al menos lo entiende Pablo Fernández. “Google analiza la movilidad para hacer más cómodo el trayecto: cuánto vamos a tardar, qué rutas pueden ser mejor en tiempo real…”. Algo que no sería posible sin la gestión de la sombra digital. Por eso, en su opinión, que usen datos para ese tipo de finalidad es positivo, pero siempre poniendo el acento de que “ese conocimiento de los individuos se va a utilizar con un buen fin”.

Aunque no quieras, es imposible evitar generar esta sombra digital. Incluso aunque no utilizaras ningún dispositivo electrónico

Este experto también expone otro tipo de datos silenciosos y captados que se pueden emplear para un buen propósito, como para evitar enfermedades. “Gracias a las cámaras de temperatura corporal se puede detectar, por ejemplo, en un aeropuerto una enfermedad antes incluso de que se haya manifestado en la persona y ponerla en cuarentena”. Y, avisa, “aquí no hay consentimiento que valga”.

Otro ejemplo de cómo se emplea la sombra digital está en Instagram, que capta el movimiento con los dedos. “Con estos datos se puede vender publicidad”, detalla Pablo Fernández.

Y, por último, no olvidemos que, en algunos casos, esta sombra digital se genera por cumplimiento normativo. “Si determinadas empresas han de guardar los datos que se pueda sobre quién hizo una compra o un comentario en una red social, la información está ahí”, recuerda Martínez. “El cómo se use esa información, si es que se usa, depende de quien trate esos datos”.

 
Las redes sociales frente a los deepfakes: un repaso a las políticas de Facebook, Instagram, Twitter y LinkedIn

1024_2000.jpg


Los deepfakes plantean todo un reto para las plataformas sociales. Este tipo de contenido manipulado, consistente en editar un vídeo, audio o imagen mediante inteligencia artificial para mostrar, por ejemplo, a una persona de relevancia pública diciendo algo que realmente no ha dicho, supone todo un desafío para unas plataformas en los que el contenido viral tiende a expandirse rápidamente y, en según qué contextos, puede llevar a malentendidos.

Así, y tras el reciente anuncio de Facebook sobre los deepfakes, nos hemos preguntado: ¿Qué políticas tienen las principales plataformas sociales con respecto al contenido manipulado con inteligencia artificial? Para salir de dudas, hemos revisado las condiciones de Facebook, Instagram, LinkedIn y Twitter y, además, repasado qué acciones están tomando otros actores del mundo tecnológico para ayudar a combatirlos.


Facebook
Facebook


Empezamos por la red social más popular en Occidente: Facebook. Monika Bickert, vicepresidenta de gestión de políticas globales de Facebook, explicó en el blog corporativo de la compañía que "hay personas que se involucran en la manipulación de los medios para engañar" y que, "si bien estos vídeos aún son raros en Internet", presentan un "significativo desafío para nuestra industria y sociedad a medida que aumenta su uso".

Desde la compañía han explicado que, tras haber consultado a "más de 50 expertos a nivel mundial", han optado por una política sencilla: eliminar el contenido falsificado siempre y cuando se cumplan estos dos requisitos:
  • "Ha sido editado o sintetizado, más allá de los ajustes de claridad y claridad, de una manera que no quede claro para una persona promedio y que probablemente sirvan para engañarle y que piense que el protagonista del vídeo dijo palabras que en realidad no dijo.
  • Si es producto de una inteligencia artificial o aprendizaje automático, fusionando, reemplazando o superponiendo contenido en un vídeo para que parezca que es auténtico."


Ahora bien, hay excepciones. No se borrarán aquellos vídeos manipulados con fines satíricos, paródicos y aquellos que hayan sido editados para omitir palabras o cambiar su orden. Es decir, que, de una forma u otra, sigue siendo posible publicar contenido manipulado. Hay otra salvedad, y es que el contenido publicado por los políticos no será censurado, aunque publiquen deepfakes sobre sus rivales.

Los vídeos parodia, satíricos y los publicados por políticos quedan exentos de la aplicación de los criterios mencionados anteriormente

¿El motivo? El interés periodístico. Según Andrea Vallone, portavoz de Facebook, la plataforma aplica "los mismos estándares que a otros usuarios cuando se trata de medios manipulados" aunque "si el contenido reviste algún interés periodístico, aunque viole la norma, evaluaremos caso por caso si debe permitirse su permanencia en la plataforma". Mashable preguntó a Vallone que ocurriría si un contenido de interés periodístico llegase a calificarse como manipulado (es decir, que cumpliese con los dos criterios expuestos arriba) y no hubo respuesta. El ejemplo más claro de esta excepción es el vídeo de Nancy Pelosi.

Finalmente, desde Facebook aclaran que "de acuerdo con nuestras políticas existentes, el audio, las fotos o los videos, ya sean falsos o no, se eliminarán de Facebook si violan cualquiera de nuestras otras normas de la comunidad, incluidas las que rigen la desnudez, la violencia gráfica, la supresión de votantes y el discurso de odio".


Instagram

Instagram


En su publicación, Monika Bickert se refiere sola y exclusivamente a Facebook. Instagram no se menciona de ninguna de las maneras ya que, de hecho, tienen diferentes normas comunitarias aunque sean de la misma compañía, FACEBOOK, en mayúsculas. La política de Instagram contra los deepfakes es tan sencilla como que no hay política contra los deepfakes, al menos por ahora.

Seguramente recordemos cómo en junio de 2019 apareció en Instagram un deepfake de Mark Zuckerberg y cómo la plataforma optó por dejarlo publicado (aunque la CBS pidió a Facebook que lo retirase porque el vídeo contenía su marca comercial). Por aquellos entonces, un portavoz de la empresa dijo a The Verge que "trataremos este contenido de la misma manera que tratamos toda la información errónea en Instagram" y que "si los verificadores de hechos de terceros lo marcan como falso, lo filtraremos de las superficies de recomendación de Instagram como Explore y páginas hashtag". La misma política que las fake news.



Poco más tarde, Adam Mosseri, CEO de Instagram, dio una entrevista a la CBS y explicó que "no tenemos una política contra los deepfakes actualmente" y que "estamos intentado evaluar si quisiéramos hacer eso y, de ser así, cómo definiríamos los deepfakes". Según Mosseri:
"Necesitamos tener principios definidos y debemos ser transparentes sobre esos principios [...] En este momento, tratamos de equilibrar la seguridad y el diálogo, y ese equilibrio es muy, muy complicado. En este momento, lo más importante en lo que debemos concentrarnos es en llegar al contenido más rápido. Una vez que podamos hacer eso, podremos debatir si eliminarlo cuando lo encontremos".
El pasado mes de diciembre, Instagram explicó cómo combatirá la información falsa en Instagram y, de paso, anunció la expansión global del programa de verificación de datos. La política es similar a Facebook, en tanto en cuanto "si un verificador de información externo ha calificado contenido como falso o parcialmente falso, reduciremos su distribución; para ello, lo eliminaremos de la sección “Explorar” y de las páginas de hashtags. Además, se etiquetará para que las personas puedan decidir por ellas mismas lo que leer y compartir, y en lo que confiar. Si se aplican estas etiquetas, se mostrarán a todas las personas que vean el contenido en todo el mundo, en las noticias, el perfil, las historias y los mensajes directos".


Twitter

Twitter


En la línea de Instagram está Twitter. Por el momento no tiene una política referente a los deepfakes, sino que está pidiendo a los usuarios su opinión para "dar forma a nuestro acercamiento al contenido sintético y manipulado". Esto, según Del Harvey, VP de Seguridad y Confianza de Twitter, responde a que quieren que sus reglas "reflejen la voz de las personas que usan Twitter".

Twitter no tiene una definición exacta para contenido manipulado o sintético, pero la primera aproximación es la siguiente:
"Proponemos definir medios sintéticos y manipulados como cualquier foto, audio o video que haya sido alterado o fabricado significativamente de una manera que pretenda engañar a las personas o cambiar su significado original".
Harvey expone también "un borrador" de lo que harán cuando detecten medios sintéticos y manipulados que "intencionalmente intenten engañar o confundir a las personas". Según Harvey, Twitter puede:
  • "Colocar un aviso al lado de Tweets que compartan medios sintéticos o manipulados.
  • Advertir a las personas antes de compartir o dar me gusta a los Tweets con medios sintéticos o manipulados.
  • Agregar un enlace, por ejemplo, a un artículo de noticias o un Momento de Twitter, para que las personas puedan leer más sobre por qué varias fuentes creen que los medios son sintéticos o manipulados".
Destaca además que "si un Tweet que incluye medios sintéticos o manipulados es engañoso y podría amenazar la seguridad física de alguien o provocar otros daños graves, podemos eliminarlo". Sin embargo, se trata de un borrador y por el momento no hay una política firme. Los usuarios pudieron dar su opinión hasta el 27 de noviembre de 2019 y desde Twitter dijeron que harán "un anuncio al menos 30 días antes de que la política entre en vigencia".


LinkedIn

Linkedin

Llegamos a LinkedIn, que no se ha salvado de los deepfakes. El caso más sonado es el de Katie Jones, un perfil falso que conectó con personas de la esfera política de Washington DC y que salió a la luz después de que Associated Press descubriese algunos fallos en la foto de perfil que indicaban que había sido generada con IA (ya sabemos que esto es más que posible). Hay quien tachó este perfil de "espía" y, según William Evanina, director del Centro Nacional de Contrainteligencia y Seguridad de Estados Unidos, "los espías extranjeros usan habitualmente perfiles de redes sociales falsos para enfocarse en objetivos estadounidense".
LinkedIn no tiene una política contra los deepfakes, aunque sí contra los perfiles falsos, que están terminantemente prohibidos. Cuenta con un sistema de "defensa automático" basado en inteligencia artificial y machine learning que durante la primera mitad de 2019 tumbó el 98% de las cuentas falsas que se crearon. En total, en la primera mitad de 2019 se tomaron acciones contra 21,6 millones de cuentas falsas.


También hay normas de publicación en las que se recuerda "ser profesional y no publicar nada engañoso, fraudulento, obsceno, amenazante, odioso, difamatorio, discriminatorio o ilegal", sin definir exactamente qué es "engañoso" y "fraudulento". Linkedin puede "restringir, suspender o cancelar tu cuenta de LinkedIn y/o deshabilitar tus artículos por cualquier violación del 'Acuerdo del usuario'" y deshabilitar "las cuentas encontradas utilizando contenido infractor", pero no se hace mención explícita a los deepfakes.


Qué están haciendo las plataformas tecnológicas para ayudar a combatirlos

Vistas las políticas con respecto a los deepfakes de las plataformas, procede echar un vistazo al sector tecnológico para ver qué están haciendo empresas como Google, Facebook o Adobe para ayudar en la detección de deepfakes.
Facebook, por ejemplo, afirma ser capaz de detectar un deepfake en su plataforma si previamente ha tenido ocasión de analizar el archivo original, aunque no siempre tiene que darse ese caso. Para desarrollar herramientas de detección, Facebook (en colaboración con Microsoft y otras empresas) ha creado un dataset de deepfakes y el concurso Deepfake Detection Challenge para animar a los desarrolladores. Ambas iniciativas están subvencionadas con 10 millones de dólares.



Algo similar está haciendo Google, que en colaboración con Jigsaw, ha lanzado un enorme conjunto de datos de deepfakes que se ha incorporado a la Universidad Técnica de Múnich y a la Universidad Federico II de Napóles y que se puede descargar desde GitHub. Este conjunto de datos busca ofrecer una suerte de base de entrenamiento para los algoritmos de detección y ya ha sido descargado por más de 150 organizaciones de investigación e industriales.

Por último, cabe destacar el caso de Adobe. La empresa desarrolladora de Photoshop cuenta con una herramienta que, según Adobe, es capaz de detectar cuándo el rostro de una foto ha sido manipulado con su herramienta. Es posible gracias a una red neuronal convolucional que en las primeras pruebas obtuvo un 99% de precisión.

Aún así, siempre que hay una solución se crea un sistema capaz de vulnerarla. Ragavan Thurairatnam, co-fundador de Dessa, lo explicó bastante bien: será "inevitable que los actores malintencionados se muevan mucho más rápido que aquellos que quieren detenerlos".

 
EEUU como China: las fotos que hemos compartido en las redes sociales ahora alimentan a la vigilancia y reconocimiento policial

Ver el archivo adjunto 1297962


Compartir tus fotos en redes sociales igual no te parece tan fantástico después de leer lo siguiente: alguien las está recopilando sin decirte nada y las está metiendo en una gigantesca base de datos en la que quedan guardadas para siempre. ¿Para qué? Para que cualquiera pueda usarlas para buscar tu cara y encontrar detalles sobre dónde, cuándo y con quién estabas en el pasado.
La empresa que lo está haciendo se llama Clearview AI, y son ya varias las agencias de seguridad y departamentos policiales que en Estados Unidos ya la han aprovechado para identificar a sospechosos de diversos delitos. La invasión a la privacidad es una vez más flagrante, pero una delgada línea legal parece permitir este tipo de servicio: tus fotos son públicas, así que que alguien las utilice para reconocimiento facial es una (trágica) consecuencia de esa acción tan cotidiana y, aparentemente, tan inofensiva.

Tus fotos en redes sociales no solo están en esas redes sociales

En The New York Times escriben la historia de Hoan Ton-That, un ciudadano australiano de ascendencia vietnamita que tras varios proyectos fallidos se asoció con Richard Schwartz —que fue asistente de Rudolph W. Giuliani cuando este fue alcalde de Nueva York— para lanzar al mercado un nuevo proyecto: uno que permitía recolectar imágenes públicas de internet para usarlas en un gigantesco sistema de reconocimiento facial.
Clear4

Logo de Clearview AI

Ton-That se ocupó de trabajar con un pequeño equipo de desarrolladores diseñar el algoritmo necesario para esa tarea. Su tecnología convierte las fotos de caras en vectores (basados en la geometría facial) que luego permiten ser comparados con otras fotos de otras caras que también son vectores: estudiando las similitudes entre unos y otros ese sistema es capaz de rastrear esa gigantesca base de datos con 3.000 millones de imágenes (actualmente) para encontrar equivalencias.


El sistema de ClearView AI encuentra resultados el 75% de las veces, y permite que incluso con fotos de caras que no están capturadas de frente o que incluso están cubiertas parcialmente aparezcan resultados válidos. Uno puede rebuscar a partir de una imagen obtenida por una cámara de seguridad y obtener una serie de resultados pertenecientes a la foto de esa persona en una publicación de Facebook o de Venmo, entre las que citan en el NYT.
Eso permite que el reconocimiento facial acabe sirviendo para descubrir a personas que acaban dejando un rastro aunque no quieran hacerlo: no solo aparecen publicaciones de esa persona, sino las de las cuentas de otras personas en las que también aparece esa persona en alguna foto de grupo, por ejemplo: la red neuronal es implacable, y acaba detectando esas fotos con una precisión que ha acabado convirtiendo la herramienta en un potente y distópico desarrollo que varias agencias de seguridad y departamentos de policía están usando en Estados Unidos.

Una 'killer app' policial

En The New York Times citan por ejemplo al Departamento de Policía del Estado de Indiana, que comenzó a experimentar con Clearview en febrero de 2019. En 20 minutos resolvieron un caso abierto que tenían desde hacía tiempo: dos hombres se habían puesto a pelearse en un parque y uno de ellos disparó al otro. Un viandante capturó todo en su móvil, y eso permitió a la policía contar con una foto de la cara del sospechoso.
Clear2

Ese hombre apareció inmediatamente en Clearview en un vídeo que alguien había publicado en redes sociales. Su nombre estaba incluido en la información del vídeo, y gracias a ello pudieron identificarlo: "no tenía carné de conducir y no había sido arrestado como adulto, así que no estaba en las bases de datos del gobierno". Este departamento de policía fue el primero en pagar la cuota anual por el servicio de Clearview.


A partir de ahí la popularidad de Clearview entre departamentos de policía se disparó. La red de contactos de Schwartz permitió a Clearview hablar del servicio a diversos miembros del gobierno republicano para ofrecer este servicio a las fuerzas policiales.
Sus responsables ofrecen pruebas de evaluación de un mes y licencias anuales que parten de los 2.000 dólares, y son varios los que han confirmado que lo han utilizado con éxito para resolver diversos casos en los que las bases de datos existentes no habían logrado ofrecer resultados que permitiesen encontrar a los sospechosos.Entre ellos está el detective Nick Ferrara, de Gainesville, Florida, que normalmente utilizaba las fotos policiales de la base de datos FACES que cuenta con 30 millones de capturas. Con Clearview logró algo que FACES no permitía: utilizar fotos de gente que no estaba mirando directamente a la cámara: "con Clearview puedes usar fotos que no son perfectas. Una persona puede llevar un gorro o gafas, o puede ser una foto de perfil o una vista parcial de su cara", explicaba.

"Estamos todos jodidos"

Las dudas sobre la validez de esta herramienta han sido ahora planteadas por varios expertos y defensores de la privacidad. Clare Garvie, investigador de la Universidad de Georgetown, indicaba que "no tenemos datos que sugieran que la herramienta es precisa. Cuanto más grande es la base de datos, más grande es el riesgo de una identificación errónea por culpa del efecto de doppelgänger o dobles".

Griffin

Larry Griffin II causó el pánico en una estación de metro en Nueva York en agosto de 2019, y fue arrestado tras ser encontrado en la plataforma de Clearview. Los responsables de la empresa muestran este artículo como ejemplo de la cobertura en prensa de su plataforma... aunque el nombre de la empresa no se menciona ni una sola vez. Fuente: New York Post.

Para este investigador esa gigantesca base de datos es un problema, mientras que otros como Al Gidari, un profesor de privacidad en la Stanford Law School, indicaba que "lo que están haciendo es espeluznante, pero habrá más compañías que lo hagan. No existe el monopolio de las matemáticas. En ausencia de una ley de privacidad contundente, estamos todos jodidos".



Para Woodrow Hartzog, profesor de leyes y de informática en la Northeastern University en Boston, explicaba que para él Clearview es la demostración de que el reconocimiento facial debería ser prohibido en Estados Unidos. "No veo un futuro en el que aprovechemos los beneficios de la tecnología de reconocimiento facial sin el abuso paralizante de la vigilancia que conlleva. La única manera de detenerlo es prohibirlo", afirmaba.
Los responsables de Clearview defienden el uso de este servicio apoyándose en las ventajas que proporciona en el ámbito de la seguridad. David Scalzo, fundador de Kirenaga Partners, una de las empresas que ha invertido en Clearview AI, indicaba que "he llegado a la conclusión de dado que la información aumenta constantemente, nunca habrá privacidad. Las leyes tienen que determinar lo que es legal, pero no se puede prohibir la tecnología. Es cierto que eso puede llevar a un futuro distópico o algo parecido, pero no se puede prohibir".

Ton-That, mientras tanto, aifrma que la empresa sólo utiliza imágenes públicas y señala que los usuarios siempre pueden configurar sus cuentas de Facebook por ejemplo para evitar que los motores de búsqueda no puedan enlazar a tu perfil, algo que hará que tus fotos no se incluyan en la base de datos.

Facebook1


En Facebook es necesario ir a Configuración -> Reconocimiento Facial para desactivar la opción que permitiría a empresas como Clearview recolectar en su base de datos las imágenes que compartimos.

Sin embargo si tus fotos están ya en esa base de datos, no podrás hacer mucho por eliminarlas de allí. Ton-That afirma que están trabajando en una herramienta que permita a los usuarios borrar sus imágenes de esa base de datos si también desaparecen de la web original (tendrás que borrarla primero de tus redes sociales), pero de momento no hay demasiada información adicional sobre esa capacidad.


Esa recolección masiva de imágenes es también algo que muchas redes sociales permiten. Facebook lo hace a no ser que el usuario configure su cuenta explícitamenteaquí se explica cómo hacerlo— para que esas imágenes públicas no puedan ser utilizadas de este modo.

Clear

Esta es una de las gráficas que Clearview utiliza para comercializar su servicio.

Esa circunstancia se une al hecho de que uno de los inversores iniciales en Clearview AI ha sido Pether Thiel, conocido emprendedor que está en el consejo de administración de Facebook (también fue uno de sus primeros inversores) y que tras vender PayPal fundó Palantir Technologies, una empresa de análisis de Big Data que también trabaja en el ámbito de la seguridad.


Twitter, por ejemplo tiene normas específicas sobre el uso de sus APIs que impiden que prohíben específicamente que las imágenes publicadas en esta red social puedan ser recolectadas para luego ser utilizadas en motores de reconocimiento facial.

Para Ton-That las implicaciones de Clearview no están claras, pero "nuestra creencia es que este es el mejor uso de la tecnología". Puede que algunos estén de acuerdo, pero ese argumento vuelve a caerse por su propio peso si pensamos un poco en una nueva e inquietante violación de la privacidad que parece mucho más propia de países como China.

En Europa parece que afortunadamente la adopción de este tipo de desarrollos es mucho más complicada a corto plazo: hace unos días se descubrieron los planes de la UE para imponer un veto de cinco años al reconocimiento facial en zonas públicas, y puede que casos como el de Clearview hagan que ese veto se expanda a otro tipo de escenarios.


Estas cosas, cómo que tus fotos en Facebook (al igual que todas tus historias personales), no quedan sólo en tu Face, sino que pueden llegar en manos de Hackers y hasta al más alto nivel del control de la población en la web, Incluso eliminado contenidos, ya hace años que se comenta... Pero, (no sé si por aquello de incredibilidad o porque las cosas hasta que no té toquen...) nadie(o casi nadie) ha hecho nunca caso.
 
Varias supercomputadoras europeas han sido hackeadas con un objetivo singular: minar criptodivisas

Varias supercomputadoras europeas han sido hackeadas con un objetivo singular: minar criptodivisas



Hace 9 horasActualizado 18 Mayo 2020, 07:36
Javier Pastor @javipas

Uf, lo de la minería de criptodivisas sale caro, así que ¿para qué minar criptodivisas tú mismo cuando puedes hackear ordenadores de otros para que lo hagan por ti?
Ese es el principio básico del cryptojacking, un tipo de ciberataque que ahora ha afectado a varias supercomputadoras en Europa y que ha hecho que minen la criptodivisa Monero.


Yo mino, tú minas, la supercomputadora mina

Estas técnicas son viejas conocidas, y varios fueron los ataques que se aprovechaban de sitios web para que al visitarlos el ordenador del usuario minara criptodivisas sin enterarse.

Archer


Ahora se han recibido varios informes de supercomputadoras afectadas por un ataque que tomaba control de estas máquinas e instalaba un software muy especial: uno que mina la criptodivisa Monero aprovechando la enorme potencia de cálculo de estos centros de supercomputación.


Varias han sido las supercomputadoras europeas que han sufrido este ataque. ARCHER en la Universidad de Edimburgo, y diversas supercomputadoras en Alemania han tenido que apagar sus sistemas debido a "incidentes de seguridad".

El investigador de seguridad Felix von Leiner afirmaba que esos ataques también han podido afectar a Marenostrum, la singular supercomputadora situada en Barcelona, pero responsables del Barcelona Supercomputing Center (BSC) nos han confirmado que Marenostrum no se ha visto afectada.

Los atacantes, indican en ZDNet, hicieron uso de credenciales SSH que se habían robado de miembros de varias de esas entidades académicas en las que están instaladas las supercomputadores.

Según Chris Doman, de Cado Security, los indicios apuntan a un solo atacante que tras ganar acceso a esos nodos de supercomputación aprovechó un exploit para la vulnerabilidad CVE-2019-15666 que le permitía tener acceso a privilegios de superusuario. A partir de ahí logró instalar esa aplicación para minar Monero, una criptodivisa que hace muy difícil el rastreo de este tipo de actividad.

Actualización: desde el BSC (Barcelona Supercomputing Center) nos han indicado que su supercomputadora, Marenostrum, no se ha visto afectada por estos ciberataques.
Vía | ZDNet

 
Capturaron a un ciberdelincuente que buscaba vender una base de datos con 773 millones de correos electrónicos
El gobierno de Ucrania anunció que dio con un cibercriminal que iba a comercializar información producto de una mega filtración. Además tenía en su poder datos de tarjetas y billeteras electrónicas

Por Desirée Jaimovich
21 de Mayo de 2020
djaimovich@infobae.com


Ucrania anunció haber capturado a un cibercriminal que se disponía vender una de las bases de datos con millones de datos (Captura del video difundido por el Servicio de Seguridad de Ucrania).

Ucrania anunció haber capturado a un cibercriminal que se disponía vender una de las bases de datos con millones de datos (Captura del video difundido por el Servicio de Seguridad de Ucrania).

El Servicio de Seguridad de Ucrania identificó y detuvo a un hacker conocido como Sanix. En un comunicado, el gobierno indicó como se desarrolló el operativo que terminó con la aprehensión del criminal. "A principios del año pasado, llamó la atención de los expertos mundiales en ciberseguridad la publicación en un foro de la venta de una base de datos con 773 millones de direcciones de correo electrónico y 21 millones de contraseñas únicas”.

En el texto se hace alusión a una mega filtración de 87 GB en datos que se alojaban en la nube. El hallazgo fue difundido en su momento por el especialista en ciberseguridad Troy Hunt, quien denominó a todo ese volumen de información filtrada “Collection #1”. De hecho creó un buscador llamado Have I Been Pwned? donde los usuarios puede buscar si sus datos quedaron expuestos en el marco de esa filtración. El sistema se actualiza con las filtraciones que se van divulgando.


Los expertos identificaron que los datos que puso a la venta Sanix (Sanixer) son solo una pequeña parte de la cantidad total de datos que que tenía en su poder. De acuerdo con la comunicación oficial, esta persona tenía al menos siete bases de datos similares de contraseñas robadas.

También se encontraron otros datos personales y financieros como códigos PIN de tarjetas de crédito, datos de acceso a billeteras electrónicas de criptomonedas, cuentas de PayPal e información sobre computadoras pirateadas para su uso posterior en botnets y para organizar ataques DDoS.

De acuerdo con el comunicado difundido, se confiscaron computadoras con dos terabytes de información robada, así como celulares con evidencia de actividades ilegales. Ahora la justicia deberá investigar y ver si efectivamente esta persona fue el autor de las brechas de seguridad. Por el momento, según lo que se informó, esta persona intentaba vender la información.

El cibercriminal buscaba vender la información filtrada (REUTERS/Steve Marcus/Foto de archivo)

El cibercriminal buscaba vender la información filtrada (REUTERS/Steve Marcus/Foto de archivo)

“Todo indica que lo que poseía era una compilación de información de distintas brechas de seguridad que ya habían sido publicadas, no se puede descartar que esta persona haya realizado una gran compilación de bases de datos filtradas que lamentablemente se encuentran a la venta o libres en sitios de lo que comúnmente se conoce como la dark web y que al llegar a un numero como el que se menciona haya tratado de venderlo como paquete, pero nada indica que él haya sido el artífice de todas las brechas”, analizó Luis Lubeck especialista en ciberseguridad de Eset, en diálogo con Infobae.

Esta noticia deja en evidencia, una vez más, la cantidad de información confidencial que circula por la web. Muchas veces son compilaciones que surgieron a raíz de fugas (antiguas y recientes).

El punto es que hay millones de datos privados que están circulando hace rato o pueden comenzar a circular eventualmente porque ningún sistema es infalible. Esto recuerda la necesidad de estar informados y tomar ciertas precauciones para, cuanto menos, minimizar las chances de ser víctimas de un ciberataque. La primera medida, sin dudas, es cambiar la contraseña con frecuencia, no utilizar la misma en todos los sitios y activar el segundo factor de autenticación.

 
La «otra» cara de los sistemas de cifrado en Facebook: puede proteger a pederastas
Mark Rowley, exasistente comisionado de la Policía Metropolitana de Londres, advierte que el sistema de protección de comunicaciones de la red social puede ser un escudo a delincuentes

iphone1-kMTE--620x349@abc.jpg


J.M. SánchezSEGUIRMADRID Actualizado:31/05/2020 01:09h

Las fuerzas de seguridad de muchos Estados han criticado en los últimos años la escasa colaboración de las plataformas de medios sociales en sus investigaciones. Seguir el rastro de sospechosos en redes sociales y sus comunicaciones digitales puede ser esclarecedor. Las multinacionales, sin embargo, se han cerrado en banda al considerar que protegen a sus usuarios. La privacidad ante todo.

El sistema de cifrado de extremo a extremo introducido en algunos servicios tan populares como Facebook o WhatsApp ha limitado las posibilidades de interceder en una comunicación. Solo el emisor y el receptor pueden conocer el contenido del mensaje. Pero los expertos temen que estas medidas sean contraproducentes con sus investigaciones. Mark Rowley, exasistente de la comisión de la Policía Metropolitana de Londres (Reino Unido), ha señalado en declaraciones a «The Times» que los planes de encriptación de Facebook «pueden facilitar que los delincuentes prosperen en su plataforma».




«Perdí la cuenta de las veces que mis equipos no pudieron detener crímenes en el Reino Unido debido a decisiones tomadas a miles de kilómetros de distancia por los ejecutivos de Silicon Valley», lamentó Rowley, quien cree que uno tipo de delincuente que se verá más beneficiado por estas medidas de seguridad pueden ser los pederastas. En la eterna lucha entre seguridad ciudadana o vigilancia policial, este veterano investigador lamenta la situación: «Sin acceso al contenido, el algoritmo de Facebook podrá detectar solo una pequeña fracción de los crímenes que identifica actualmente».

Por esta razón, considera que es necesario establecer algún mecanismo de acceso. «Consideramos que nuestras casas son privadas, pero si la policía sospecha que se está cometiendo un delito grave en una casa es completamente razonable esperar que obtengan una orden de arresto. Este es el equivalente digital», argumentó. En los últimos años, gobiernos de todos los países, entre ellos, el de Estados Unidos han instado a las empresas tecnológicas a disponer de «puertas traseras» en los servicios digitales. En 2017, la disputa entre Apple y el FBI a raíz de un iPhone de un sospechoso del atentado de San Bernardino levantó un debate sobre la vigilancia colectiva.

Actualmente, Facebook está trabajando para «fusionar" las tecnologías de mensajerías de Messenger, WhatsApp e Instagram. La idea es que los usuarios puedan enviarse mensajes entre cualquier plataforma de la empresa, aunque ya ha levantado las sospechas de posibles prácticas monopolísticas en Europa. Este planteamiento puede hacer que un usuario de WhatsApp pueda chatear con otro en Instagram, extendiendo así el sistema de cifrado en todos sus servicios.

 
Back