Ciberseguridad - Privacidad - Fake News - Ciberdelitos

Facebook y su inteligencia artificial ante la delgada línea entre libertad de expresión y censura

450_1000.jpg


Facebook ha estado en el ojo público en los últimos meses debido a cuestiones de privacidad y mal manejo de la información de sus usuarios, algo que no ha sido sencillo y que ha creado una especie de desconfianza en la labor que hace Mark Zuckerberg dentro de su red social. Aquí sólo basta nombrar las polémicas de los bots rusos yel caso de Cambridge Analytica para darnos una idea de lo que ha pasado.

Pues Zuck quiere limpiar su imagen y la de Facebook, y después del caos reciente, prometió que habría cambios a corto y medio plazo. Es así como hoy la compañía está publicando su primer informe de transparencia, el cual se basa en la efectividad de sus nuevas pautas para eliminar contenido no apropiado y prohibido dentro de la comunidad, con el que buscan ganarse nuevamente esa confianza y de paso demostrar que sí están trabajando en eliminar ese tipo de contenido.

Pero lo más atractivo de todo, es que la mayoría de esta labor se lleva a cabo usando herramientas automatizadas de inteligencia artificial.

1300 millones de cuentas falsas en Facebook eliminadas
El informe recoge interesantes detalles acerca de las acciones que está llevando a cabo Facebook, donde la inteligencia artificial tiene un papel muy importante. Por ejemplo, la compañía asegura que durante el primer trimestre de 2018, su herramienta moderadora basada en inteligencia artificial, detectó y eliminó la mayoría de las publicaciones donde se incluía violencia, por**grafía y terrorismo.

Facebook explica que sus esfuerzos de moderación se basan en seis áreas principales: violencia gráfica, por**grafía, propaganda terrorista, discursos de odio, spam y cuentas falsas. El informe detalla cuánto de ese contenido fue visto por los usuarios, cuánto fue eliminado y cuánto fue eliminado antes de que fuese reportado por algún usuario.

Las cifras nos muestran que durante el primer de este 2018, Facebook eliminó 837 millones de mensajes de spam, 21 millones de publicaciones con desnudos o actividad sexual, 3,5 millones de mensajes que mostraban contenido violento, 2,5 millones de mensajes con discursos de odio y 1,9 millones de contenido terrorista. Además, la compañía dice haber eliminando 583 millones de cuentas falsas, que sumadas a las eliminadas durante el último trimestre de 2017, estamos hablando decasi 1.300 millones de cuentas falsas deshabilitadas.

450_1000.jpeg

En el caso de las cuentas falsas, Facebook menciona que muchas de ellas eran bots cuya finalidad era propagar spam y efectuar actividades ilícitas. Asimismo, la compañía asegura que la mayoría de estas cuentas "fueron inhabilitadas pocos minutos después de haberse creado". Sin embargo, Facebook aceptó que no todas las cuentas falsas son eliminadas, y estima que entre el 3 y el 4% de sus usuarios activos son falsos, pero no representan un riesgo al no efectuar actividades ilícitas.

El difícil papel de la inteligencia artificial como moderadora de contenidos
Facebook asegura que su sistema automatizado basado en inteligencia artificial ha sido determinante en esta tarea, ya que esto les ha permitido actuar antes de que un usuario haga el reporte. Por ejemplo, la compañía dice que su sistema logró detectar casi el 100% del spam y la propaganda terrorista, casi el 99% de las cuentas falsas y cerca del 96% de la por**grafía. En el caso de las publicaciones con mensajes que incitaban a la violencia, Facebook dice que su sistema detectó el 86%.

Pero esta inteligencia artificial moderadora de contenido no es perfecta, ya quecuando se trata de mensajes con discurso de odio es cuando se encuentra con sus mayores problemas. Durante el primer trimestre de 2018, el sistema sólo logró detectar el 38% de los mensajes con estas características, el resto llegó por parte de reportes de los usuarios.

450_1000.jpeg

Facebook explica que la efectividad de su sistema de inteligencia artificial se debe a una mejora en la tecnología y procesos en la detección del contenido de las fotos, que es lo que les ha permitido ser tan eficiente en los casos del terrorismo y la por**grafía. Pero cuando estamos ante mensajes, sobre todo escritos, donde hay señales de discurso de odio, es cuando el sistema no logra determinar y qué es y qué no es, esto debido a que caemos dentro del terreno de la subjetividad.

Imaginemos que una persona expresa su opinión acerca de un tema, y otra persona, o varias, creen que se trata de discurso de odio. La primera podría considerar que está haciendo efectivo su derecho a la libertad de expresión, y si su mensaje es borrado y recibe una advertencia, esta persona podría pensar que se trata de censura.

450_1000.jpg

Es ahí donde Facebook tendría que ser más claro en sus reglas y definir bien qué es lo que considera "discurso de odio", ya que hay señales claras cuando se habla de ciertos temas, pero en los casos donde se mezcla opiniones subjetivas y no se trata de un ataque directo, es cuando están dentro de esa delgada línea. Si esto es complicado para los humanos, imaginemos cómo se las arreglará la inteligencia artificial.

450_1000.jpg

Alex Schultz, vicepresidente de analítica de Facebook, mencionó: "El discurso del odio es realmente difícil. Hay matices, hay contexto. La tecnología simplemente no está lista para realmente entender todo esto, y mucho menos si se trata de una larga, larga lista de idiomas".

Por su parte, Mark Zuckerberg comentó:"Tenemos mucho más trabajo por hacer. La IA todavía necesita mejorar antes de que podamos usarla para eliminar efectivamente los problemas donde hay matices lingüísticos, como el discurso de odio en diferentes idiomas, pero estamos trabajando en ello. Mientras lo hacemos, esperamos compartir nuestro progreso".

El informe de transparecia de Facebook se publicará de forma trimestral y nos servirá para conocer las acciones de la compañía en estos temas tan complejos, lo que obviamente también servirá para demostrar que están haciendo algo al respecto y así tratar de limpiar su imagen.

https://www.xataka.com/robotica-e-i...a-linea-entre-libertad-de-expresion-y-censura
 
Mark Zuckerberg: la inteligencia artificial censurará "los mensajes de odio" antes de que se publiquen

450_1000.jpg

nota publicada 11 Abril 2018 - Actualizado 13 Abril 2018

Mark Zuckerberg compareció ayer ante el Senado de los Estados Unidos, y entre las muchas cuestiones que se abordaron hubo una especialmente clave para el futuro de la plataforma: la gestión de los comentarios y los contenidos que se publican en esta red social.

Para el creador de Facebook la solución está en la inteligencia artificial. O más bien lo estará, porque él mismo reconoció que hoy por hoy los algoritmos no logran diferenciar a la perfección esos 'discursos de odio' que inundan su red social. Lo que no dijo es que la inteligencia artificial ya censura y modera contenidos tanto dentro como fuera de Facebook, y no siempre lo hace con acierto.

La IA censurará y moderará a la perfección en 5 o 10 años
La aplicación de sistemas de inteligencia artificial a la hora de controlar lo que se publica o no en la red social es algo que en Facebook siguen investigando, pero como admitía el propio Zuckerberg, hoy por hoy el problema es demasiado difícil para las máquinas.

450_1000.jpg

En internet, Facebook incluida, hay comentarios y contenidos censurables y otros que no lo son. Los humanos somos buenos distinguiendo qué contenidos pueden herir sensibilidades, pero las máquinas siguen teniendo muchos problemas para diferenciar esos 'discursos de odio'.

Ese es uno de los grandes retos de la inteligencia artificial, y en Facebook lo saben bien. Al ser preguntado por esta cuestión, Zuckerberg indicó que estos sistemas acabarán siendo proactivos y lograrán borrando comentarios y contenidos a posteriori, cuando se detecten y las máquinas entiendan que eran censurables:

Desde el inicio de la compañía en 2004, comencé en mi dormitorio; éramos mi compañero de cuarto y yo. No teníamos inteligencia artificial; básicamente teníamos que aplicar nuestras políticas de manera reactiva. Ahora, cada vez más, estamos creando herramientas de IA que nos ayudarán a trabajar de forma proactiva. Algunos problemas se prestan más fácilmente a las soluciones de IA que otros. Los discursos de odio es uno de los más difíciles.

El problema de detectar ese tipo de contenidos y comentarios no se ha resuelto de forma perfecta por parte de los sistemas de inteligencia artificial de Facebook, peroZuckerberg es optimista con respecto al futuro:

El discurso del odio es uno de los problemas más difíciles de abordar, pero creo que la inteligencia artificial puede llevarnos allí en cinco o diez años.

Zuckerberg insistió durante su comparecencia en el uso de inteligencia artificial para "vigilar" el contenido de Facebook. Gracias a ello se podría diferenciar de forma directa y en tiempo real cuándo esos contenidos o comentarios forman parte de un debate y son aceptables, o cuándo hay agresiones de por medio y deberían moderarse y censurarse.

Los humanos somos buenos distinguiendo qué contenidos pueden herir sensibilidades, pero las máquinas siguen teniendo muchos problemas. Según Zuckerberg, en 5 o 10 años dejarán de tenerlos.
Sin duda un tema complejo, pero uno que tiene a la inteligencia artificial funcionando ya tanto en algunos servicios de Facebook como de su competencia. Esos sistemas de inteligencia artificial están aún lejos de ser perfectos, y hay algunos ejemplos clamorosos de los problemas que tiene ceder las tareas de moderación y censura a máquinas y algoritmos.

Facebook, Instagram y la ayuda de DeepText
Zuckerberg no parecía poder o querer acordarse ayer de DeepText, un "motor de comprensión de texto" que Facebook lanzó en junio de 2016 y que estaba orientado precisamente a ayudar en este tipo de tareas.

450_1000.jpg

Este sistema, afirmaban entonces, "puede entender con precisión cercana a la de los seres humanos el contenido textual de varios miles de posts por segundo en más de 20 idiomas".

DeepText se basa en el uso de redes neurales y deep learning, lo que significa que tras entrenar al sistema con las suficientes muestras es posible entregarle a este sistema un texto para que pueda extraer ciertas conclusiones sobre él. Los propios desarrolladores de DeepText explicaban hasta dónde podía llegar el desarrollo:

DeepText tiene el potencial de mejorar aún más las experiencias de Facebook al comprender mejor los mensajes para extraer la intención, el sentimiento y las entidades (por ejemplo, personas, lugares, eventos), al utilizar señales de contenido mixtas como texto e imágenes y automatizar la eliminación de contenido inaceptable como el spam.

No queda del todo claro si este es el sistema que utilizan en Facebook para tratar demoderar y censurar el contenido inapropiado, pero lo que es seguro es que el sistema se utiliza en Instagram, empresa que Facebook compró en 2012.

El problema de DeepText y otros sistemas similares es es el de los falsos positivos: bloquear comentarios y contenidos que no eran tóxicos.
En Wired precisamente hablaban de cómo Kevin Systrom, el CEO de Instagram, acabó apostando tanto por esta solución que no solo la aplicó para luchar contra el spam, sino también con aquellos comentarios que violaran las normas comunitarias de uso del servicio.

450_1000.jpg

El entrenamiento del sistema fue intensivo: se analizaron cerca de dos millones de comentarios y cada comentario fue analizado al menos dos veces para confirmar el contexto y determinar si es o no apropiado. En ese caso, explicaban, se clasificaría el comentario en categorías especiales como 'comportamiento prohibido', 'racismo', 'acoso sexual' o 'bullying'.

El sistema lleva algo menos de un año funcionando en Instagram, pero incluso el propio Systrom admitía que está lejos de ser perfecto. Entre los principales riesgosestá el de los falsos positivos:

Es el problema clásico. Si quieres precisión, acabas clasificando mal un montón de cosas que eran útiles. Lo que no queremos es estar en una situación en la que bloqueamos algo que no deberíamos bloquear. La realidad es que eso no va a ocurrir, así que la pregunta es: ¿compensa ese margen de error todo lo realmente malo que se bloquea?". Parece claro que aquí Instagram prefiere ser algo más pasivo y conceder, al menos de momento, que el sistema puede no detectar ciertos comentarios aun cuando estos son inapropiados.

Las grandes tratan de atajar el odio con IA
El problema del 'discurso del odio' ha sido tratado por muchos ingenieros en este ámbito. Thomas Davidson, que ha copublicado estudios como este al respecto, ayudó a desarrollar un sistema —el código está en GitHub— para atajarlo en Twitter.

450_1000.jpg

Como en el caso de Facebook, el problema es que una palabra que tiene ciertos significados puede ser entendida de otra forma según el contexto o el paso del tiempo. Aquí los términos utilizados por todo tipo de jergas hacen aún más difícil ese tratamiento y entendimiento, sobre todo cuando palabras ofensivas también pueden ser totalmente inofensivas cuando las usamos por ejemplo como parte de una broma a un conocido. El contexto lo es todo, y a menudo no basta con analizar un comentario o contenido de forma independiente, sino que hay que analizar el contexto en el que fue publicado.

En Google también llevan tiempo trabajando con este problema. La API llamadaPerspective, que forma parte del proyecto Jigsaw —como también lo hace esa llamativa VPN llamada Outline—. Como explicamos entonces, este motor procesa comentarios de forma automática y les otorga una puntuación de 0 a 100 en función de su grado de toxicidad.

Como en el caso anterior, el motor de inteligencia artificial utilizado en Perspective hace uso también de aprendizaje profundo y de un entrenamiento intensivo. Los desarrolladores de Google lo probaron con millones de comentarios publicados en The New York Times y en la Wikipedia y que fueron analizados y etiquetados para entrenar a ese sistema más enfocado a palabras tóxicas que a ideas tóxicas.

450_1000.jpg

Cualquiera puede probar a escribir un comentario (en inglés) en la web del serviciopara ver cómo de tóxico es según este motor, aunque parece claro que el sistema aún tiene mucho camino por recorrer. La frase 'Eres bastante inteligente para ser chica' ('you’re pretty smart for a girl') se considera como 'poco probable que sea percibido como tóxico' (índice 0,28) mientras que la frase 'eres gili***** pero te adoro' ('you're an asshole, but I adore you') se considera como 'probable que se perciba como tóxica' (índice 0,92).

Todas las grandes tratan de atajar el problema del spam con inteligencia artificial, pero por ahora los resultados no son óptimos.

Otra opción, como señalaban en New Scientist, era la de aprender no de palabras tóxicas, sino de la forma en la que hablanlos miembros de comunidades en las que ese tipo de tono tóxico se utiliza con frecuencia.

El estudio de un grupo de investigadores de la Universidad McGill en Montreal precisamente aprovechaba ese concepto y lo aplicaba a un ejemplo curioso: los posts de grupos con frecuentes comentarios tóxicos en Reddit entre 2006 y 2016. El sistema parecía detectar muchos menos falsos positivos y lograba detectar comentarios que aun sin usar palabras tóxicas seguían siendo ataques a otros usuarios. Por ejemplo, con la frase 'No veo ningún problema. Los animales atacan a otros animales constantemente' en la que el término 'animales' estaba siendo usada como un insulto racista.

Luces y sombras de la IA como moderadora y 'curadora' de contenidos
Los algoritmos dominan nuestra vida, y aunque algunos nos la cambian para bien, estamos empezando a darnos cuenta de cómo dejar que una máquina tome decisiones puede no ser muy buena idea.

450_1000.png

Esa realidad es patente en un montón de disciplinas, y desde luego lo es también en el mundo de las redes sociales. Facebook, por ejemplo, censuró una de las fotos más célebres de la historia (en la imagen) tapando a la niña desnuda protagonista de la foto.

Hablamos de este y otros casos en el pasado. Casos preocupantes como el de esos algoritmos que tratan de decidir quién debe ser contratado, cuál de nuestros pequeños tiene más opciones de acabar siendo un criminal o quién de entre una serie de fotografías tiene también más opciones de cometer actos delictivos (el algoritmo resultó ser racista).

Hay dos problemas con esos algoritmos que desarrollan Google, Facebook y otras empresas: no podemos auditarlos, pero sobre todo, están creados por seres humanos y por tanto no son 100% objetivos.

Hay al menos dos problemas con esos algoritmos que tratan de controlar nuestras vidas. El primero, que normalmente no podemos auditarlos: las empresas que los utilizan protegen su propiedad intelectual al máximo, y no liberan ese código o no son transparentes a la hora de usarlo —y pasan cosas como esta—.

El segundo, que quienes programan esos algoritmos son humanos como tú y como yo, con sus propias experiencias y opiniones queen mayor o menor medida pueden acabar afectando a esos sistemas. Eso hace que acabemos teniendo unos algoritmos sesgados, machistas, condicionados, subjetivos y tan injustos como nosotros mismos.

450_1000.jpg

Esos mismos problemas afectan a esa labor de moderación y censura que Facebook o Google tratan de resolver a través de la inteligencia artificial. Que estas empresas acaben convirtiéndose en el 'ministerio de la verdad' para luchar contra el problema que ellas mismas crearon (o más bien, que ayudaron a propagar) no solo es irónico: es inquietante.

El problema es aún más preocupante cuando vemos cómo quienes más utilizan la inteligencia artificial para filtrar, moderar o censurar lo hacen de forma peligrosa:sin aparente control.

El papel del ser humano a la hora de cuidar que esos contenidos no se conviertan en tóxicos es más importante que nunca
Es lo que al menos se detectó con el reciente problema con YouTube Kids, un servicio que ha pasado de tranquilizarnos a aterrorizarnos. Los responsables del servicio parecen estar preparando ya una versión 'curada' únicamente por personal humano, algo que a priori parece lo único capaz de atajar la oleada de vídeos perturbadores que estaban siendo publicados en este servicio.

Esa parece ser la triste conclusión actual del papel de una inteligencia artificial que parece estar lejos de poder filtrar, moderar y censurar de la forma que necesitamos. ¿Puede ayudar a hacerlo? Sin duda, pero el papel del ser humano a la hora de cuidar que esos contenidos no se conviertan en tóxicos —sin poner en riesgo tampoco la necesaria libertad de expresión— es más importante que nunca.

https://www.xataka.com/robotica-e-i...l-como-moderadora-y-censuradora-de-contenidos
 
'Rosetta', el sistema de inteligencia artificial de Facebook que les ayudará a entender e identificar 'memes'

450_1000.jpg


Tras los problemas de privacidad que ha enfrenadoFacebook, lo siguiente es tratar de limpiar su imagen a través de nuevas herramientas con las que, aseguran, tendrán un mayor control de lo que sucede y se comparte en su red social.

En mayo de este año, Facebook presentó su primer informe de transparencia donde adelantaron la llegada de herramientas automatizadas de inteligencia artificial, las cuales ayudarían en las labores de moderación de contenido. Pues la primera de ellas ya está aquí, se llama 'Roseta' y su objetivo es identificar memes y su contenido.

'Reconocimiento de memes' usando machine learning
Según la compañía de Zuckerberg, 'Rosetta' ya está en operación y diariamente extrae texto del mil millones de imágenes y frames de vídeos tanto en Facebook como en Instagram. Esto, afirman, ayuda a las labores de moderación, ya que el equipo de seres humanos es incapaz de ver todas las imágenes que se suban a la plataforma.

'Rosetta' se basa en machine learning para identificar tanto texto como imágenes y vídeos, aunque con algunas limitantes, lo cual posteriormente se transcribe a texto y es enviado al equipo de moderación. El sistema tiene marcadas algunas palabras especificas que sirve para emitir una alerta ante un posible mensaje ofensivo, propaganda o discursos de odio. Ante esto, la imagen es eliminada directamente y un humano es quien decide si se mantiene así o se vuelve a publicar.

450_1000.jpg

Según explica Facebook, la extracción de texto e imágenes se utiliza para "identificar automáticamente el contenido que infringe nuestra política de odio y lenguaje", aunque no aclaran qué está haciendo con todos estos datos o si están asociando este tipo de contenido a los usuarios que lo publican en primer lugar.

Afirman que 'Rosetta' trabaja con varios idiomas, aunque no especifican cuántos, y también se apoya en un sistema de reconocimiento óptico de caracteres (OCR), el cual, mencionan, ha sido usado por la compañía desde 2015, sólo que ahora se analiza mediante redes neuronales convolucionales que intentan reconocer los caracteres y determinar lo que se está comunicando.

Con la entrada en operación de 'Rosetta', Facebook asegura que serán capaces demoderar el contenido dañino de una forma más eficiente y con una respuesta más rápida, pero aún está lejos de cumplir la promesa de Zuckerberg, quien adelantaba que sus herramientas automatizadas de moderación serían capaces de censurar "los mensajes de odio" antes de que se publiquen. Lo interesante aquí será ver cómo actúa Facebook ante esa la delgada línea entre la libertad de expresión y la censura.

https://www.xataka.com/robotica-e-i...ue-les-ayudara-a-entender-e-identificar-memes
 
La Unión Europea aprueba la reforma de la Ley de Copyright: el Internet que conocemos está en peligro

450_1000.jpg


Tal y como venía especulándose y como podíamos temer, la Unión Europea ha aprobado la reforma de la Ley de Copyright en la votación que ha tenido lugar este mediodía en el Parlamento, incluyendo los polémicos artículos 11 y 13. 438 votos a favor, 226 en contra. No obstante, esto no significa que se haya llegado hasta el final.

En enero de 2019 tendrá lugar una segunda votación y será necesaria la adaptación legislativo por parte de los 28 países miembro de la Unión. En todo ese proceso es posible que los tribunales europeos terminasen impugnando esos dos artículos, ampliamente protestados.

Una polémica llegada hasta aquí
La votación consolida lo fraguado desde 2016, cuando empezó a ponerse en marcha esta reforma. En julio ya fue votada en contra su negociación acelerada, dando paso al escenario actual, de debate y votación públicas.

Esta aprobación supone una pésima noticia para la pluralidad y la libertad en la red

Los artículos más polémicos de la propuesta eran los 11 y 13. El primero prohibe el libre enlace hacia otros contenidos o el uso de extractos de los mismos, como pueden hacer los agregadores o las redes sociales. Para ello habrá que pagar un impuesto.

El segundo requiere que las plataformas online detecten y eliminen de inmediato cualquier infracción de copyright mediante el uso de filtros durante el proceso de subida de contenido. Algo que a nivel técnico también está por ver.

En peligro la libertad de difusión y acceso a la información
Esto incluye a los contenidos alternativos generados a partir de contenidos con derechos de autor, como los memes. De no cumplir con este artículo, tanto la plataforma como el usuario final que publicase dicho contenido serían multados. Algo que no era así hasta ahora.

Principalmente por estos dos artículos se considera que la aprobación de estos artículos amenaza a la libertad en la red, a su carácter abierto y a su pluralidad. Mozilla explicó en un comunicado público que los efectos negativos de esta reforma serían enormes para los creadores independientes, los pequeños servicios online (imposible competir contra los grandes), o para los propios usuarios de Internet, entre otros actores.

Un fuerte golpe a libertad de expresión en Internet

Otros ilustres de la web, como Vinton Cerf y Tim Berners-Lee, considerados los padres de Internet y de la World Wide Web respectivamente, también se posicionaron: encabezaron una larga lista de expertos que enviaron una carta a Antonio Tajani, presidente del Parlamento Europeo en la que hablaba de cómo el artículo 13 en particular suponía "un paso sin precedentes hacia la transformación de internet de una plataforma abierta para compartir e innovar a una herramienta para la vigilancia automatizada y el control de sus usuarios".

El artículo 13, en principio, estará exento de cumplimiento para las webs y apps más pequeñas, aunque no se ha especificado por el momento qué parámetros serán medidos para la clasificación en "grandes" o "pequeñas" ni más detalles al respecto. Un debate similar al que plantea la última propuesta de la Comisión para la retirada de contenido extremista de las plataformas online, sin discriminar por tamaño y obligando incluso a las más pequeñas a tener disponibilidad permanente para eliminar estos contenidos.

La votación de hoy también ha supuesto la aprobación de la normativa que "protege" las emisiones de espectáculos deportivos. Esta norme restringe incluso la publicación en redes sociales de selfies en un estadio deportivo durante dicho espectáculo, como un partido de fútbol o una carrera de Formula 1.

Las reacciones
450_1000.jpg
Julia Reda. Imagen: Steffen Haas.
Xnet, plataforma de activistas por los derechos digitales y la democracia en red, nos responde al teléfono a través de su portavoz, Simona Levi, con tono abatido: “Como siempre, la estupidez ha triunfado. Y sobre todo los eurodiputados, que son tan sensibles a las multinacionales y a sus intereses económicos. La reforma es absurda, una parte la justifica la ignorancia de los eurodiputados, como ya vimos con la neutralidad de la red, estuvieron a punto de cargarse Internet. Pero los intereses justifican otra buena parte. Los eurodiputados son muy sensibles a esta presión, ya que está relacionada con su imagen. Hemos perdido una batalla, pero no la guerra”.

Los partidos y eurodiputados de izquierda han valorado negativamente el resultado de la votación, a excepción del PSOE a través de su eurodiputado José Blanco

Julia Reda, eurodiputada por el Partido Pirata alemán y presente en la jornada de hoy, ha comentado la votación en su cuenta de Twitter. Ha hablado de “una catástrofe para los seguidores de los deportes” en referencia al nuevo derecho de los organizodores de espectáculos deportivos. También ha señalado que “el Parlamento Europeo ha fracasado en escuchar a ciudadanos y expertos” en relación a la aprobación del articulo 13. Ella ha ido una de las grandes figuras que han alzado su voz en contra de esta reforma.

Podemos ha calificado esta aprobación como “una vía libre a la censura previa y a la limitación de acceso a la información”, considerando que se trata de “malas noticias para Internet y los derechos de los creadores. Buenas para la industria”. El departamento de comunicación del PSOE, a llamada de Xataka, se limitó a respondernos que es un asunto propio del Parlamento Europeo, desentendiéndose de cualquier valoración. No obstante, José Blanco, miembro del Parlamento Europeo, sí se ha pronunciado: “Hoy se ha votado a favor de dar más protección y una remuneración justa para los creadores, un refuerzo a la creación y la diversidad cultural de Europa y a la libertad de expresión.

450_1000.jpg
José Blanco. Imagen: Wikimedia Commons.
El PP, a través del gabinete de prensa del Congreso, nos prometió unas valoraciones que no nos han llegado en el momento de publicar este artículo, el cual actualizaremos tan pronto nos sean remitidas. Ernest Urtasun, de ICV, cree que esto son “malas noticias” y que “lo que logramos parar hace unos meses ha pasado hoy”.

AMETIC (la Asociación Multisectorial de Empresas Españolas de Electrónica y Comunicaciones), considera que “se ha desaprovechado una gran oportunidad para lograr el equilibrio entre los derechos de autor, los derechos de los ciudadanos y de las empresas innovadoras con la aprobación de la propuesta de Directiva de Copyright en el Parlamento Europeo”.

La EFF, organización sin ánimo de lucro centrada en conservar los derechos de libertad de expresión en la era digital, ha calificado la votación como “el peor resultado posible”, tanto por el nuevo derecho de copyright online más restrictivo como para los nuevos derechos de los organizadores de espectáculos deportivos.

https://www.xataka.com/legislacion-...copyright-internet-que-conocemos-esta-peligro
 
Hay 'hackers' modificando sus coches «normales» para convertirlos en autónomos y de momento, en Estados Unidos, es legal

450_1000.jpg



La conducción autónoma ha llegado para quedarse. El peso que está adquiriendo en la agenda oficial, que no oficiosa, de buena parte de los fabricantes de coches es cada vez mayor. Esta es la prueba que refleja con más claridad la importancia que esta tecnología tiene para las marcas. Y no solo para las premium, como Tesla, Audi, Mercedes o BMW, sino también para las generalistas, como SEAT, KIA o Renault, entre otras.

Pero lo interesante es que para acceder a la conducción autónoma de nivel SAE 2 no es imprescindible que compremos un coche de última generación de estas marcas. Algunos de los vehículos que tenemos en casa, y que carecen de esta tecnología, pueden ser readaptados para dotarlos de un asistente a la conducción equiparable al que nos ofrecen muchos de los modelos que podemos encontrar hoy en los concesionarios. Y, además, asumiendo un gasto moderado.

Actualmente podemos encontrar en el mercado muchos modelos con nivel SAE 2, como el Mercedes-Benz Clase E, el Volvo XC60, los SEAT Ibiza y León, el Volkswagen Golf y el Audi A3, entre muchos otros

Niveles SAE de conducción autónoma
Es importante que tengamos presente que estamos hablando de conducción autónoma de nivel SAE 2, y no de nivel 5, que es el que nos garantiza que nuestro vehículo es capaz de conducir solo en cualquier contexto y de reaccionar ante cualquier circunstancia imprevisible. Actualmente los coches más avanzados tienen nivel 2, aunque existe cierto debate acerca de si la tecnología AutoPilot 2.0 de Tesla pertenece al nivel 3. En cualquier caso, de momento los coches con nivel SAE 4 y 5 están siendo probados por las marcas y parece que aún tardarán bastante en estar disponibles comercialmente.



Teniendo todo esto presente nos viene que ni pintado repasar qué podemos esperar de un coche con conducción autónoma de nivel SAE 2, que es la tecnología de asistencia más avanzada de la que disponemos comercialmente. La Sociedad de Ingenieros de Automoción (SAE), que es el organismo estadounidense que ha definido el estándar más utilizado para describir los niveles de conducción autónoma, establece que un coche de nivel 2 debe tener un piloto automático de carácter temporal para autopistas y un asistente para atascos de tráfico que solo funciona en circunstancias específicas (normalmente por debajo de 60 o 65 Km/h).

Los vehículos que cuentan con tecnología para el aparcamiento asistido también son de nivel 2, pero solo si esta innovación es capaz de actuar sobre la dirección, el acelerador y el freno. Si solo actúa sobre la dirección, y no sobre el acelerador y el freno, el vehículo será de nivel 1, que es, obviamente, menos avanzado. Lo interesante una vez que hemos llegado a este punto es averiguar qué están haciendo algunas personas para equipar toda esta innovación en un coche convencional que carece de asistencia avanzada a la conducción. Ya hay entusiastas llevándolo a cabo, sobre todo en Estados Unidos, y, curiosamente, es un proyecto no demasiado complejo y relativamente asequible.



Así es como están 'hackeando' algunos coches por menos de 1.000 euros
El protagonista absoluto de este artículo en adelante será openpilot, que no es otra cosa que un asistente a la conducción de código abierto. Su creador, un hacker estadounidense llamado Francis George Hotz muy popular por ser el primero que logró piratear un iPhone y también por haber contribuido al craqueo de la consola PlayStation 3, lo concibió inicialmente con la intención de desarrollar una alternativa de código abierto a la tecnología AutoPilot de Tesla.

openpilot es un asistente a la conducción de código abierto capaz de colocar a determinados coches en el nivel SAE 2

No obstante, su plan inicial no era exactamente este. Lo primero que hizo fue poner en marcha una startup llamada comma.ai, con sede en San Francisco, cuyo objetivo era comercializar el hardware y el software necesarios para integrar un asistente a la conducción avanzado en vehículos que habían salido de fábrica sin él. A principios de 2016 Hotz anunció que tenía a punto su kit, al que llamó Comma One, y que por 999 dólares (unos 860 euros) prometía dotar de asistencia avanzada a la conducción a los Honda Civic y a algunos modelos de Acura, que es la marca del segmento premium de Honda.

El problema con el que se encontró Hotz cuando ya tenía su proyecto muy avanzado fue el que podemos intuir sin demasiado esfuerzo: la oposición de las autoridades reguladoras. Él mismo confesó que poco antes de comercializar su kit recibió una carta de Paul A. Hemmersbaugh, el director de la agencia estadounidense equiparable a la Dirección General de Tráfico española, que, por tanto, tiene la responsabilidad de velar por la seguridad en las carreteras.

450_1000.jpg


En esa carta le pedían toda clase de información detallada acerca de su producto, y, lo que es más importante, le apremiaban para que demostrase que lo que proponía era seguro y no representaría un peligro para los viandantes u otros conductores. Así que, ante esta presión, Hotz decidió cancelar el lanzamiento de su asistente para la conducción, y, haciendo honor a sus inicios en el mundo del hacking, liberó tanto los diseños del hardware como el software que había desarrollado para que cualquier persona interesada pudiese acceder a ellos en Internet.

La startup de Hotz aún existe, pero su negocio ha evolucionado hacia un modelo en el que los ingresos no llegan a través de la venta directa del asistente a la conducción Comma One, sino gracias a panda OBD-II Interface, un pequeño dispositivo de 99 dólares (unos 85 euros) diseñado para extraer información acerca del rendimiento del vehículo y sus parámetros de funcionamiento gracias a su capacidad de actuar como interfaz entre los buses de comunicación del coche y un ordenador o un smartphone.

450_1000.jpg
panda OBD-II Interface
Estos datos serán utilizados por el software de asistencia para hacer posible la conducción autónoma en circunstancias muy concretas (no olvidemos que hablamos de conducción autónoma de nivel SAE 2). Hotz también ha confesado que otra fuente de ingresos importante para comma.ai, además de la venta de panda, es mantener la propiedad de la red que da soporte a openpilot. Es evidente que confía en que en el futuro este software será utilizado por muchas personas, más allá de la comunidad de entusiastas que lo apoya actualmente.

En cualquier caso, ¿dónde podemos encontrar openpilot si queremos descargarlo para empezar a «cacharrear» ahora mismo? Sencillamente, en GitHub, una web que hace las veces de repositorio y plataforma de alojamiento diseñada para facilitar el desarrollo de proyectos colaborativos, que es en lo que se ha transformado esta herramienta desde que Hotz liberó su código.

450_1000.jpg
EON Dashcam DevKit
Un apunte importante: las personas que están utilizando openpilot para dotar a su coche de asistencia avanzada a la conducción precisan, además de este software, el hardware apropiado. Curiosamente, la base sobre la que Hotz diseñó su dispositivo Comma One es la placa de un smartphone OnePlus 3 con Android debido a que, según él, era en su momento el único terminal del mercado lo suficientemente poco restrictivo para ejecutar su software de asistencia a la conducción.

Los usuarios que no se dejan intimidar fácilmente pueden optar por integrar openpilot en uno de estos teléfonos por sí mismos y fabricar una carcasa que permita sujetarlo en el interior del coche, junto al espejo retrovisor interior, utilizando una impresora en 3D. Pero quien no quiere complicarse la vida demasiado puede optar por comprar en la web de comma.ai el dispositivo EON Dashcam DevKit, que incorpora el hardware necesario para ejecutar el software de asistencia, la cámara que se responsabiliza de monitorizar la calzada y el entorno, y también el soporte que permite fijarlo al techo del coche. Este producto cuesta 699 dólares (unos 600 euros).

450_1000.jpg
Neodriven
No obstante, el hardware de comma.ai no es la única opción que tienen a su alcance estos hackers del mundo de la automoción. Neodriven, una startup de Los Ángeles, también tiene su propio dispositivo capaz de ejecutar openpilot. Al igual que el hardware de Hotz, el de esta última empresa recurre a la placa de circuito impreso de un smartphone OnePlus 3T convencional e incorpora un conector JAE que facilita la conexión a los buses del coche, así como una carcasa para fijar el dispositivo al techo interior. Eso sí, este producto es más caro que la solución de comma.ai porque cuesta 999 dólares (unos 860 euros).

Un apunte importante: EON Dashcam DevKit y Neodriven no tienen preinstalado el software openpilot. De la instalación debe encargarse el propio usuario. Precisamente esta es la forma en que comma.ai y Neodriven han conseguido sortear las restricciones impuestas por el organismo de control del tráfico en Estados Unidos, cediendo así la responsabilidad final del uso de la plataforma al usuario que la implementa en su vehículo. Actualmente esta práctica es legal en el país norteamericano, aunque el propietario del vehículo debe atenerse a la legislación vigente en cada estado en materia de seguridad vial.

Así es como funciona openpilot
No quisiera complicar el artículo más de lo imprescindible, pero antes de seguir adelante me parece buena idea repasar brevemente cuáles son las capacidades de este software, y también cómo consigue comunicarse con el coche para hacer posible la conducción autónoma. Openpilot es capaz de actuar sobre el acelerador, el freno y la dirección de algunos coches (en el siguiente apartado veremos sobre qué vehículos) durante un tiempo máximo de 6 minutos sin que medie la intervención del conductor. Pasado ese plazo el asistente reclama la intervención del usuario para comprobar que este permanece atento a la conducción.

La mayor parte de los coches modernos incorpora buses CAN para facilitar la comunicación entre los distintos sistemas electrónicos instalados en el vehículo. Estos buses no son muy diferentes a los que podemos encontrar en el interior de un ordenador o un smartphone, por lo que podemos imaginarlos como unas autopistas por las que circulan los mensajes emitidos por cada sistema electrónico del coche para comunicarse con los demás subsistemas.



Para que openpilot pueda actuar sobre los sistemas del vehículo como resultado de las acciones que decide llevar a cabo para adaptarse a las circunstancias de la conducción debe ser capaz de emitir mensajes a través de los buses CAN. Y aquí es donde interviene la interfaz que implementa la conexión entre el hardware sobre el que se ejecuta openpilot y el coche, como, por ejemplo, panda OBD-II Interface o Neodriven.

Pero aún hay un reto más que nos interesa conocer. No todos los coches «hablan» el mismo «idioma». Hay diferencias importantes entre marcas, e, incluso, entre modelos de una misma marca. Esta es la razón por la que la comunidad de desarrolladores que está trabajando en openpilot ha implementado una capa de abstracción dentro de este software que permite a los procesos que se ejecutan sobre ella despreocuparse del «idioma» que entiende cada vehículo.



Pero, como es lógico, para que openpilot funcione correctamente en un nuevo coche es necesario implementar una interfaz que trabaja por debajo de esta capa de abstracción, y que actúa de forma similar a un intérprete que permite que se comuniquen dos personas que hablan dos idiomas diferentes. Esta necesidad explica, en parte, por qué openpilot solo funciona en algunos de los coches que podemos encontrar actualmente en el mercado.

Estos son los coches compatibles con openpilot, pero la lista sigue creciendo
Lo que hemos repasado hasta este momento nos permite intuir sin dificultad qué requisitos debe cumplir un coche para que pueda ser equipado con este asistente avanzado a la conducción. Básicamente debe contar con los subsistemas que permiten actuar electrónicamente sobre el acelerador, el freno y la dirección, y también necesita tener los buses de comunicación necesarios para enviar órdenes a estos sistemas electrónicos a través de una interfaz.

Los modelos «compatibles» con openpilot actualmente pertenecen a las marcas Acura, General Motors, Honda, Hyundai, Lexus y Toyota

Lo demás corre por cuenta de openpilot, que, como hemos visto en el apartado anterior, se responsabiliza de monitorizar las características de la vía y el entorno por el que circula el vehículo, de tomar las decisiones apropiadas y de enviar las órdenes adecuadas en tiempo real a los subsistemas del coche a través de los buses para resolver los retos que se van presentando. Esto es lo que hace posible la conducción autónoma recogida en el nivel SAE 2 con openpilot.

450_1000.jpg

La sección dedicada a esta herramienta en GitHub refleja que actualmente openpilot cuenta con una comunidad en Slack de más de 3.500 personas, que son, junto a comma.ai, las responsables del despliegue y el desarrollo de esta plataforma. Desafortunadamente, y esta es la mayor carencia de openpilot, el abanico de coches en los que podemos instalar este asistente a la conducción es aún reducido.

Las modelos «compatibles» pertenecen a las marcas Acura, General Motors, Honda, Hyundai, Lexus y Toyota. Pero openpilot no funciona en todos los coches de estas marcas (tenéis el listado actualizado en GitHub si queréis consultarlo). Los vehículos más antiguos en los que es posible instalarlo son del año 2015, pero la comunidad de desarrolladores sigue trabajando para dar soporte a nuevos coches, por lo que podemos esperar que en el futuro la lista de modelos compatibles sea más extensa y aglutine también coches de otros fabricantes.

¿Qué dice la legislación acerca de todo esto?
Entramos en un terreno pantanoso. La licencia en la que se ampara el código de openpilot para quedar a disposición de cualquier persona lo describe como un software para proyectos de investigación y entusiastas, por lo que la responsabilidad en última instancia recae en el usuario. Como hemos visto antes, en Estados Unidos estas prácticas son legales, aunque es necesario respetar lo que regula cada estado en materia de conducción autónoma.

Los gobiernos temen sobrerregular este sector y mermar su potencial de crecimiento y adopción

En Europa en general, y España en particular, aún existe una notable indefinición que coloca a esta innovación en «tierra de nadie», sobre todo por el hecho de no estar amparada por ningún fabricante de coches. El reto al que se están enfrentando las autoridades reguladoras, y posiblemente la razón por la que la normativa se está retrasando, consiste en determinar sobre quién recae la responsabilidad si se produce un accidente.

Parece ser que en parte los gobiernos temen sobrerregular este sector y mermar su potencial de crecimiento y adopción, por lo que el desafío consiste en llegar a un estado de equilibrio que permita a la industria de la automoción continuar avanzando, pero fijando unos estándares de seguridad sensatos si depositamos nuestra mirada en los niveles SAE de conducción autónoma 4 y 5, que son los más avanzados.

450_1000.jpg

En España la Dirección General de Tráfico comenzó a preparar en 2016 un reglamento concebido para definir el marco legal en el que llegará el coche autónomo a las carreteras españolas, más allá de los escenarios de prueba e investigación que ya están contemplados por la normativa actual. En el resto de los países europeos la situación es similar. En cualquier caso, es probable que la mayor parte de los países siga los pasos que han dado los estados de California, Nevada y Arizona, en Estados Unidos, que ya cuentan con una ley que permite la circulación de coches autónomos por las calles de sus ciudades.

Si nos ceñimos a la conducción autónoma de nivel SAE 2 todo es mucho más tangible. Y es que, como vimos en los primeros párrafos del artículo, ya hay muchos coches con esta tecnología circulando por nuestras calles tanto de marcas premium como generalistas. Pero, como es lógico, están avalados por los fabricantes de coches y han superado las pruebas de homologación que exige tanto la normativa europea como la nacional.

En España las modificaciones de relevancia de un vehículo están desarrolladas en el Manual de Reformas de Vehículos elaborado por el Ministerio de Industria, Comercio y Turismo

El reglamento comunitario y las políticas nacionales no se preocupan solo de todo lo que tiene que ver con la seguridad vial; también regulan materias como la antigüedad del parque móvil, la respuesta ante situaciones de emergencia, la movilidad urbana o el mercado de vehículos más eficientes y limpios. En este contexto, ¿qué sucede si modificamos por nuestra cuenta y riesgo nuestro coche para dotarlo de asistencia a la conducción de nivel SAE 2 con openpilot o cualquier otra herramienta similar a esta?

Lo más razonable es pensar que este procedimiento encaja en lo que la normativa actual considera la reforma de un vehículo, y lo que la mayor parte de los usuarios conocemos como tuning. En España las modificaciones de relevancia de un vehículo están reguladas por el Real Decreto 866/2010, de 2 de julio, que unifica el criterio de las legislaciones española y europea, y están desarrolladas en el Manual de Reformas de Vehículos elaborado por el Ministerio de Industria, Comercio y Turismo en colaboración con las entidades competentes en materia de la inspección técnica de vehículos (ITV).

450_1000.jpg

El problema es que la última revisión del Manual de Reformas de Vehículos no recoge de forma clara una modificación con la envergadura que conlleva la instalación de openpilot y del hardware necesario para que este software funcione correctamente. Por esta razón, actualmente corremos el riesgo de no obtener la homologación necesaria para poder circular con el coche.

En estas circunstancias el vehículo no conseguiría superar la ITV y nos expondríamos a recibir una sanción por circular con elementos sin homologar que partiría desde los 500 euros. Y si tenemos un accidente nuestro seguro no cubriría los daños derivados de la circulación con un vehículo no homologado. Desde un punto de vista técnico openpilot funciona (podéis comprobarlo en los vídeos de usuarios estadounidenses que ilustran este artículo) y es posible instalarlo en los coches compatibles con este software. Pero la normativa actual, como acabamos de ver, dificulta la aplicación práctica de esta tecnología.

Para salir de dudas hemos hablado con Cristóbal Gázquez, Director estratégico del despacho de abogados BGD Abogados y profundo conocedor de la normativa que regula en España el sector de la automoción. Esto es lo que nos ha explicado Cristóbal: «La conducción autónoma plantea diversos problemas a nivel jurídico y del día a día de cada conductor. Por un lado estaría la nula regulación por parte del ente estatal, el cual se enfrenta a un reto al tener que retocar de manera profunda e invasiva la regulación civil y penal».

Además, apunta que «en busca de soluciones se puede revisar la novísima regulación estadounidense, si bien solo nos sirve de borrador ante un conflicto mucho mayor con el que nos encontramos al no existir regulación o solución unificada a los problemas actuales y que estén por llegar relativos a la conducción autónoma en nuestro país. Ante ello, y dentro de la lista de responsables, deberíamos valorar también aquellos sistemas no implementados en el coche desde fábrica que permiten la conducción autónoma. Dentro de la innovación existe este peligro, donde podamos descargar una aplicación sin control o chequeo para que dirija nuestro vehículo».

Y, por último, Cristóbal pone el dedo en la llaga: «En nuestro país legalizar el uso de dicha aplicación solo sería posible a través del Manual de Reformas de la ITV, actualizado de forma anual, el cual contempla las reformas o modificaciones permitidas en nuestro vehículo. Como ya se habrá podido deducir, si no se encuentra en el manual no será una reforma permitida, y, como se puede esperar, queda aún mucho por plantear antes de que encontremos un apéndice dedicado en exclusiva al coche autónomo y sus reformas o modificaciones».

Eso sí, no podemos ni mucho menos descartar que la situación cambie en el futuro y esta modificación pase a formar parte de una próxima revisión del Manual de Reformas de Vehículos. Sobre todo en el momento en el que se desarrolle más la reglamentación que regula la conducción autónoma, que es algo que, inevitablemente, sucederá. Así que podemos ser moderadamente optimistas.

Descarga | openpilot
Vía | MIT Technology Review | Medium
Más información | comma.ai

https://www.xataka.com/automovil/ha...tirlos-autonomos-momento-estados-unidos-legal
 
Más allá de la ley Sinde: PP, PSOE y Ciudadanos quieren que el cierre de webs no requiera autorización judicial

450_1000.jpg


Partido Popular, PSOE y Ciudadanos han presentado esta semana una enmienda conjunta a la Ley de Propiedad Intelectual para que cerrar webs no requiera de un control judicial. "Ni siquiera el pequeño control que todavía había en la ley Sinde",alerta David Bravo, abogado especializado en derecho informático y propiedad intelectual.

De aprobarse esta modificación de la legislación actual, no sería necesaria la autorización de la Justicia para llevar a cabo el bloqueo de una página web, como sí es necesario en la actualidad. "Estas enmiendas culminan el proceso iniciado con la ley Sinde de apartar a los jueces de la facultad exclusiva de cerrar páginas web", asegura Bravo a Xataka.

No se requerirá autorización judicial, "ni siquiera el pequeño control que todavía había en la ley Sinde", dice el abogado David Bravo
Mantiene que "no es casualidad que este tipo de leyes represivas a nivel nacional y europeo coincidan en el tiempo, sino que se debe a que la industria nunca ha dejado de ejercer su labor de lobby mientras que los internautas hemos relajado -cuando no completamente abandonado- la defensa de nuestros derechos".

La enmienda ha sido publicada en el Boletín Oficial de las Cortes Generales (se puede consultar aquí, es la número 32) y sus firmantes son el Grupo Parlamentario Popular en el Congreso, Grupo Parlamentario Socialista y el Grupo Parlamentario Ciudadanos.

"No requerirá la autorización judicial prevista", especifica la enmienda




Tal y como explica el jurista en el su perfil de Twitter, la ley Sinde que permitía que un órgano del Ministerio de Cultura pudiera cerrar webs sin control judicial si dicho órgano, conocido como comisión Sinde, consideraba que la web en cuestióninfringía la propiedad intelectual.

Este detalle trascendental movilizó a gran parte de los activistas e internautas presionando al PSOE, que terminó asegurando que habría tutela de la Justicia, aunque con matices. "Si el cierre no afectaba a la libertad de expresión el juez tenía que ejecutarlo sin poder discutir el fondo del asunto", explica David Bravo. Si el bloqueo sí afecta a ese derecho, el asunto cambia actualmente.

La enmienda tiene visos de prosperar dado que PP, PSOE y Ciudadanos suman lo suficiente en el Congreso de los Diputados para aprobarla
Sin embargo, si se aprueba esta enmienda y posibilidades tiene, dado que PP, PSOE y Ciudadanos suman lo suficiente en el Congreso de los Diputados, ni siquiera se necesitará ese permiso.

De la situación actual, en la que la ley dice que "la medida de colaboración dirigida al prestador de servicios de intermediación correspondiente exigirá de la previa autorización judicial", pasaríamos a que esta no sea necesaria. Lo siguiente dice la enmienda conjunta de los tres grupos parlamentarios:

"La ejecución de la medida de colaboración dirigida al prestador de servicios, con independencia de cuál sea su naturaleza, no requerirá la autorización judicial prevista en el artículo 122 bis de la Ley 29/1998, de 13 de julio, reguladora de la Jurisdicción Contencioso-administrativa".

"Así culminan definitivamente lo de quitarse a los jueces de encima. Y lo sacarán, tienen los votos", dice Bravo. "Esta misma propuesta de liquidar al completo el control judicial para cerrar webs es la que frenaron en 2011 porque era una píldora demasiado grande para nuestras tragaderas".

El actual Gobierno estrenó hace dos meses las multas a webs de descargas de la Comisión Sinde-Wert con una sanción de 375.000 euros
A partir de ahora, la enmienda a este proyecto de ley por el que se modifica la Ley de Propiedad Intelectual tendrá que ser aprobada en el pleno del Congreso, pasando el texto a la comisión parlamentaria correspondiente y abriéndose un nuevo plazo de enmiendas al articulado. El proceso legislativo continuaría con una ponencia, una deliberación en comisión, una deliberación en el pleno y su envío al Senado para, después, volver al Congreso. En las Cortes Generales recibiría la aprobación definitiva.

Esta aparente vuelta a la guerra contra las descargas se inició con el nuevo Gobierno de Pedro Sánchez, cuando el nuevo ministro de Cultura estrenó las multas a webs de descargas de la Comisión Sinde-Wert con una sanción de 375.000 euros. Ha sidola primera multa impuesta desde la creación de la Comisión de Propiedad Intelectual gracias a una potestad sancionadora impulsada por el PP que ahora el PSOE usa por primera vez.

https://www.xataka.com/legislacion-...cierre-webs-no-requiera-autorizacion-judicial
 
Facebook usa tu número de teléfono, obtenido de la verificación en dos pasos o las agendas de contactos, para mostrarte publicidad

450_1000.jpg


Facebook no solo utiliza la información personal que un usuario facilita voluntariamente a través de su perfil para hacer publicidad. También emplea datos como el número de teléfono que usamos para la autentificación en dos pasos o incluso aquella que nunca le hemos dado nosotros, pero sí aparece en agendas que otras personas han vinculado.

Es un tipo de práctica que diversos estudios llevan años poniendo de manifiesto, que Facebook reconoce en parte y que una nueva investigación ha puesto de manifiestode una forma sencilla. ¿Cómo? Poniéndose en contacto a través de Facebook con personas que nunca habían compartido sus números de teléfono y correos electrónicos.

Facebook estaría dando a los anunciantes acceso a los llamados perfiles en la sombra
El quid de la cuestión es que en este caso va más allá:Facebook estaría dando acceso a los anunciantes a los perfiles en la sombra, también llamada shadow contact information. Datos de contacto que han recopilado y que, en principio, no les han sido facilitados para fines como la publicidad dirigida.

Alan Mislove, profesor de la Universidad Northeastern de Boston y uno de los autores de este nuevo estudio, fue impactado por un anuncio expresamente dirigido a ély difundido por Kashmir Hill, reportera de Gizmodo, que ha informado sobre la investigación en el propio medio.

La intención era clara: probar la teoría de que iba a poder dirigirse a él mediante una técnica que Facebook le aseguró que no funcionaría, dice. Dirigió el anuncio a una cuenta de Facebook conectada al número fijo de la oficina de Alan Mislove, según explica en su reportaje, un número que Mislove nunca ha proporcionado a Facebook.

Y asegura que el docente vio el anuncio en cuestión de horas.

El número de teléfono de la autenticación en dos pasos y las agendas de otros contactos son datos para anunciantes
450_1000.jpg

El profesor Mislove junto Giridhari Venkatadri, Piotr Sapiezynski, los tres de la Universidad Northeastern, y Elena Lucherini, de la Universidad de Princeton,llevaron a cabo diversas pruebas que incluían la entrega de información de contacto a Facebook, mediante diferentes vías, para un grupo de cuentas de ensayo.

A continuación, debían ver si un anunciante podía utilizar esa información para llevar sus anuncios a esos perfiles. Y aseguran que descubrieron algo tremendamente llamativo de lo que seguramente no son conscientes muchos usuarios de la red social.

La solución de Facebook para los usuarios molestos con esta práctica: no usar sus números de teléfono con este método
Cuando un usuario da a Facebook un número de teléfono para poder utilizar laautenticación en dos pasos o para recibir notificaciones sobre nuevos inicios de sesión en la cuenta, cuestiones estrictamente relacionadas con la seguridad, ese número de teléfono se convierte en un dato al que un anunciante puede dirigirse en el plazo de un par de semanas.

Desde Facebook, preguntados por esta cuestión, responden que utilizan la información que la gente les proporciona "para ofrecer una experiencia más personalizada, incluyendo mostrar anuncios más relevantes".

Y dan una solución para los usuarios molestos con esta práctica: no usar sus números de teléfono para este método de seguridad. Ya que, desde hace cuatro meses, ya no es obligatorio facilitar este dato para poder usar autenticación de dos factores en Facebook y pueden usarse aplicaciones de terceros como Google Authenticator y Duo Security tanto en móvil como en escritorio con el fin de identificarse.

Nuestros datos, cuando están contenidos en la agenda de otra persona, técnicamente dejan de ser nuestros
450_1000.jpg

El estudio comandado por el investigador Giridhari Venkatadri también encontró un cruce de datos ciertamente inquietante, también relacionado con los llamados perfiles en la sombra, en el que de nuevo entra en juego la publicidad y plantea un serio problema de privacidad.

Si un usuario A comparte su agenda de contactos con Facebook y entre los datos se incluye un número de teléfono que pertenece a un usuario B, un usuario que nunca ha compartido este número con la red social, un anunciante podrá identificarlo con un anuncio usando ese mismo dato.

¿Por qué? Porque aunque jamás lo hubiese facilitado a la red social, y Facebook a priori no sepa que pertenece al usuario B, sí puede conocer otros datos, como el correo electrónico, que pueden haber sido facilitados por el usuario A junto al número de teléfono y correspondientemente ligados por la red social.

Facebook sobre el experimento: "Es probable que se le mostrara el anuncio porque alguien más cargó su información de contacto a través de un importador de contactos"
A su vez, un anunciante puede dirigirse a clientes concretos que en algún momento les dieron información de contacto subiendo a Facebook los datos que de ellos poseen. De este modo, si un anunciante quiere dirigirse al usuario B y tiene su número de teléfono, un número que Facebook no conocía pero que ha vinculado a un perfil existente gracias a un correo electrónico que sí, el cruce de datos queda concluido.

"Es probable que se le mostrara el anuncio porque alguien más cargó su información de contacto a través de un importador de contactos", confirmó un portavoz de Facebook a la periodista Kashmir Hill.

Para Venkatadri, autor principal de la investigación, este fue el hallazgo más sorprendente. Porque con ello, Facebook es capaz de dirigir anuncios a usuarios a partir de información que no fue proporcionada directamente por ellos. Teniendo en cuanta, además, que los usuarios pueden no saber que la red social tiene tales datos. Porque técnicamente esos datos pertenecen a otra personas y acceder a esa información "en la sombra" violaría la privacidad de la persona que la subió.

Facebook no cuestionó ninguno de los hallazgos de los investigadores

Facebook no cuestionó ninguno de los hallazgos de los investigadores, según Gizmodo, y se limitó a explicar que el uso de los datos se recoge en su política correspondiente y que dan a la comunidad la posibilidad de controlar su experiencia publicitaria, incluida la que atañe a los datos que vinculan los anunciantes, las llamadas audiencias o públicos personalizados. Un tipo de publicidad dirigida que puede desactivarse en Facebook y otras redes, como Twitter, que también la utilizan.

Los investigadores también probaron otros métodos de cruces de datos que no funcionaron, como el que atañía a WhatsApp. Pretendían comprobar si Facebook podía estar usando los números de los usuarios del servicio de mensajería instantánea para dirigirse a ellos publicitariamente y no hallaron ninguna evidencia. Lo que indica que los planes para vincular los datos de usuario de las dos plataformas todavía no se ha llevado a término, al menos para publicidad.

Lo que pone de manifiesto esta investigación es que probablemente Facebook no es lo suficientemente transparente a la hora de explicar cómo se usan los datos que no están disponibles públicamente en los perfiles de los usuarios o que les perteneces y no han sido suministrados por ellos mismos.

Desde Xataka nos hemos puesto en contacto con Facebook para contrastar estas informaciones; actualizaremos este artículo en cuanto obtengamos una contestación.

https://www.xataka.com/privacidad/f...uso-datos-que-nunca-has-compartido-red-social
 
Una brecha de seguridad afecta a casi 50 millones de usuarios de Facebook

450_1000.jpg



Si la salida de altos ejecutivos de Facebook y lasdeclaraciones de otros no era suficiente, esta semana Facebook se ha enfrentado a otro problema. Un hackeo ha puesto en peligro casi 50 millones de cuentas de usuarios. Los desarrolladores de Facebook descubrieron la brecha de seguridad el pasado 25 de septiembre y según cuentan en un comunicado oficial, ya están trabajando para solucionarlo con los usuarios afectados.

Desde Facebook informan que los investigadores de la compañía aún no tienen claro del todo cómo ha sucedido, pero sí que saben dónde se centra el problema. Aprovechando una característica de los perfiles de usuario de Facebook que permiten "ver cómo" para ver cómo se vería el perfil para otros usuarios de la red, los atacantes consiguieron acceder a millones de cuentas. Esta característica utiliza unostokens que permiten al usuario no tener que iniciar sesión en cada ocasión que entra en el servicio, lostokens han sido clave para los atacantes.

450_1000.png

La compañía ha realizado una serie de cambios para ponerle fin a la brecha de seguridad. En primer lugarhan restablecido los tokens de los usuarios que saben que han sido afectados, en segundo lugar han desactivado temporalmente la función de "ver cómo" para todos los usuarios de la red social hasta que sepan exactamente cómo funciona el ataque.

Qué se ha visto comprometido
El CEO de Facebook, Mark Zuckerberg, ha recalcadoque si bien intentaron acceder a información de los usuarios mediante la API, no pueden asegurar que hayan conseguido obtener información privada de los usuarios. Guy Rosen, vicepresidente de Facebook,ha indicado dos puntos interesantes: ni se han conseguido contraseñas, ni se han conseguido cuentas bancarias. En principio, parece ser que los atacantes sólo han podido ver la información de los perfiles como si fuese con la función de "ver cómo". Es decir, han podido ver género, fotos, ciudad de residencia, lugar de estudios... La típica información que aparece en los perfiles de usuario.

Casi 50 millones afectados, otros 40 millones en riesgo
Al parecer, este ataque surge debido a diversos cambios en el código de la plataforma que se han realizado. La brecha de seguridad se consigue con un conjunto de tres partes del código. En julio de 2017 hicieron un cambio en el código de los vídeos que permitió comunicar estas tres partes. Los atacantes utilizaron este cambio para conseguir realizar la brecha. A partir de ahí, accediendo a las cuentas podían acceder a otras cuentas más.

450_1000.jpg

Facebook indica que no solamente han visto cómo casi 50 millones de cuentas han sido vulneradas, sino que hay otras 40 millones que podrían estar en peligro. Como medida preventiva, restablecerán los tokens de todas estas cuentas. Los usuarios afectados tendrán que iniciar sesión de nuevo en todos sus dispositivos y recibirán un mensaje indicándoles cual ha sido el motivo. Aún falta por resolver cómo se ha realizado el ataque exactamente y de dónde proviene, así como la información que ha podido ser vulnerada.

Uno de los desafíos más importantes de Facebook ha sido convencer a sus usuarios de que es lo suficientemente responsable para manejar la increíble cantidad de datos que maneja la empresa. Cambridge Analytica, el uso de la autenticación por doble factor para anuncios, la salida de los cofundadores de Instagram o las duras declaraciones del cofundador de WhatsApp no están ayudando a ello.

https://www.xataka.com/seguridad/brecha-seguridad-afecta-a-casi-50-millones-usuarios-facebook
 
China se infiltró en Apple y Amazon para espiarlas usando un chip diminuto, según Bloomberg

450_1000.jpg


China lleva años espiando a algunas de las empresas más importantes del mundo. Lo ha hecho no a través de vulnerabilidades software, sino con un sistema mucho más delicado: un minúsculo chip que logró integrar en servidores de Supermicro utilizados por todas esas empresas.

Un exclusivo y sorprendente reportaje de investigación de Bloomberg nos revela cómo el Ejército Popular de Liberación (EPL) chino logró infiltrarse en empresas como Apple y Amazon, que ahora niegan haberse visto afectadas. Las evidencias no obstante parecen demostrar que estamos ante uno de los casos de espionaje mediante hacking hardware más importantes de toda la historia.

Amazon como clave para descubrir el pastel
En 2006 tres ingenieros de Oregón se dieron cuenta de que la demanda de vídeo en móviles estaba creciendo de forma increíble. El problema era que los creadores de contenido no tenían forma de ajustar el formato de sus emisiones tradicionales a estos dispositivos que acabarían derivando en nuestros actuales smartphones, y de ahí partió el germen de su empresa, a la que llamaron Elemental Technologies.

450_1000.jpg

Su compañía lograba adaptar esos contenidos de vídeo de forma realmente eficiente y potente gracias al uso de computación GPGPU, y comenzaron a diseñar servidores para vender dichas máquinas a todo tipo de empresas.

El éxito fue arrollador y pronto dieron servicio tanto a empresas de contenidos como a agencias militares o de inteligencia que por ejemplo necesitaban un sistema para poder procesar las grabaciones realizadas por cámaras de videovigilancia o por las cámaras instaladas en drones.

Una división del gobierno de los Estados Unidos acabó siendo clave para que los servidores de Elemental llegaran al Departamento de Defensa, a la NASA, al Congreso o al Departamento de Seguridad Nacional. La empresa tenía tal demanda que llegó a un acuerdo con Super Micro Computer, Inc (conocida popularmente como "Supermicro") —absoluta protagonista en este segmento— para su fabricación.

"Atacar a las placas base de Supermicro es como atacar a Windows. Es como atacar al mundo entero"
Todo parecía normal, pero en 2015 Amazon comenzó a considerar la compra de Elemental. La idea: aprovechar su potencial para el servicio que hoy conocemos como Amazon Prime Video. Como parte de esa idea, en Amazon comenzaron a investigar todo lo relativo a Elemental, incluidos sus servidores.

Una empresa independiente contratada por Amazon se encargó de realizar el análisis de esos servidores, y fue entonces cuando encontraron algo raro. Un chip del tamaño de un grano de arroz había sido integrado en una placa estaba ahí sin motivo aparente.

Como determinaron los investigadores que analizaron el funcionamiento de esa placa, ese chip no formaba parte del diseño original: estaba destinado a crear una puerta trasera y dar acceso remoto a cualquier red a la que se conectara el servidor. ¿Quién lo había puesto ahí?

Apple y Amazon niegan haber estado afectadas por el incidente
La investigación acabó alertando a las agencias de inteligencia estadounidenses, que comenzaron a trazar el camino que había dejado el chip para su inclusión en las placas. Lograron descubrir las cuatro plantas de fabricación de las durante al menos dos años habían salido las placas base de Supermicro que estaban afectadas por dicho problema.

450_1000.jpg

El proceso era relativamente sencillo: los directores de esas plantas se habían entrevistado con personas que decían representar a Supermicro o que ostentaban algún cargo gubernamental. Esas personas, pertenecientes al Ejército de Liberación Popular, sobornaban a esos directivos para integrar esos chips, e incluso amenazaban con cerrar las plantas si sus exigencias no se cumplían.

A partir de ahí se logró determinar también qué clientes habían sido afectados por los servidores hackeados. Se habla de 30 grandes empresas de todo el mundo, pero en la investigación de Bloomberg se menciona a dos específicamente: la propia Amazon, y Apple.

Ambas han negado los argumentos del reportaje de Bloomberg. En Amazon indican que "es falso que AWS tuviera conocimiento sobre la presencia de chips maliciosos en los servidores [...] o de que AWS colaborara con el FBI para investigar o proporcionar datos sobre este hardware malicioso".

Básicamente en esa línea se sitúan las declaraciones oficiales de Apple, cuyos responsables niegan rotundamente que hayan encontrado chips maliciosos, "manipulaciones hardware" o vulnerabilidades integradas de forma intencionada en sus servidores. También niegan "haber tenido contacto con el FBI o cualquier otra agencia acerca de este incidente".

Hasta 17 personas confirmaron la manipulación del hardware de Supermicro y cómo ésta afectó a Amazon y Apple

Y sin embargo las pruebas parecen rotundas según fuentes que Bloomberg ha mantenido en el anonimato para proteger sus identidades. Hasta 17 personas confirmaron la manipulación del hardware de Supermicro, destaca el reportaje, que además contiene otros elementos que apuntan a que efectivamente tanto Amazon como Apple se vieron afectadas.

Apple, por ejemplo, encargó 6.000 servidores a Supermicro en 2014. El objetivo, instalarlos en 17 centros de datos en distintas ciudades del mundo, que se sumaban a otros 4.000 servidores instalados en dos de sus grandes centros de datos en Carolina del Norte y Oregón. Aquella cifra iría a más, y en 2015 se suponía que se iban a encargar 20.000 servidores más para ampliar su infraestructura en este ámbito.

Sin embargo Amazon y Apple acabaron eliminando los servidores afectados de los centros de datos en los que estaban instalados. Amazon vendió sus centros de datos en China a Beijing Sinnet en noviembre de 2016, mientras que Apple comenzó a reemplazar los 7.000 servidores de Supermicro afectados en sus centros de datos en el verano de 2015. Tras hacerlo Apple cortó totalmente su relación comercial con Supermicro. El CEO de esta empresa comentaría semanas después que habían perdido dos clientes importantes, y uno de ellos ha sido identificado como Apple.

Imposible conocer la magnitud del incidente
¿Qué datos han sido robados? Es la gran pregunta que todos se hacen y que parece improbable que se pueda contestar. Uno de los investigadores del gobierno indicó que el objetivo de China era el de tener acceso a largo plazo a secretos corportativos y a redes gubernamentales con información confidencial, pero que se sepa no ha habido robos de datos relacionados con los clientes de las empresas consultadas.

450_1000.jpg

Para otros de estos investigadores tendríamos que pensar en Supermicro "como la Microsoft del mundo hardware. Atacar a las placas base de Supermicro es como atacar a Windows. Es como atacar al mundo entero".

Los microchips integrados en las placas base de esos servidores ni siquiera eran idénticos en todos los casos: los investigadores detectaron distintas versiones en distintas placas base. En Amazon detectaron como uno de los servidores afectado en sus centros de datos en China contenía un chip que era tan delgado que lo habían embebido entre las capas de fibra de vidrio sobre las que se acoplan los distintos componentes.

Este incidente pone una vez más en tela de juicio la dependencia que la industria tecnológica tiene de las plantas de fabricación chinas
Los responsables de la investigación trataron de detectar qué tipo de información se estaba transfiriendo a través de esos chips, que en realidad estaban dedicados a "abrir puertas" a los hackers. Y sin embargo, aunque detectaron breves comunicaciones entre los atacantes y los servidores saboteados no descubrieron intento alguno de eliminar datos. Parecían estar solo "escuchando".

La investigación sigue en curso, pero el debate va más allá del descubrimiento y pone una vez más en tela de juicio la dependencia que la industria tecnológica tiene de las plantas de fabricación chinas. Los miedos planteados por la administración Trump, aquellos que acabaron provocando vetos parciales o temporales a empresas como Huawei o ZTE, seguramente crezcan de forma notable tras un descubrimiento inquietante.

Uno que hace pensar si esta no será tan solo la punta del iceberg.

https://www.xataka.com/privacidad/c...para-espiarlas-usando-chip-diminuto-bloomberg
 
Detectan un malware que no se elimina ni siquiera al reinstalar el sistema operativo o borrar el disco duro

450_1000.jpg


LoJax es un nuevo malware detectado que es único en el mundo. A diferencia de otros códigos maliciosos, de este no te puedes deshacer pasando un antivirus o restaurando el ordenador. El malware resiste y vuelve a infectar una y otra vez el equipo, porque vive en la placa base del ordenador.

Según ha publicado la empresa de seguridad ESET, han descubierto un nuevo y poderoso malware llamado LoJax en el ordenador de una de las víctimas afectadas. Pero no lo han encontrado en el sistema operativo o en un archivo en el disco duro como tal, sino en una parte más privada aún del ordenador, en el UEFI.

450_1000.jpg

El UEFI es muy similar a la BIOS, su sucesor de hecho. Pero si tampoco sabes lo que es la BIOS, digamos que el UEFI es el firmware encargado de iniciar el ordenador y todos sus componentes. Es lo primero que se ejecuta al encender el ordenador, y lo que permite poder instalar un sistema operativo en él por ejemplo, ya que enciende y controla todos los componentes.

Pues bien, según ha indicado la firma de seguridad ESET, el malware LoJax lo que hace es que una vez consigue ejecutarse en el ordenador de la víctima modificar la UEFI del mismo. La UEFI es una parte delicada del ordenador y generalmente no se altera. Por lo tanto, también es uno de los lugares menos sospechosos del equipo donde uno espera encontrarse un malware. Una vez está instalado en el UEFI, sólo tiene que desplegarse una y otra vez por el equipo siempre que se reinstale el sistema operativo o se restaure/cambie el disco duro.

Un método teórico hasta ahora reservado para las conferencias de seguridad
Acceder a la UEFI, modificarla y ejecutar desde ahí un malware siempre ha sido más un método teórico que práctico. Según indica ESET, hasta ahora han visto algunos conceptos y pruebas, pero ninguno real y completamente funcional. Tanto es así que los ataques desde la UEFI están más presentes en charlas de seguridad como métodos posibles a futuro que métodos puestos en práctica.

450_1000.jpg

El malware LoJax es destacable por dos razones. La primera de ellas es que demuestra que efectivamente se puede ejecutar y desplegar malware desde la UEFI, por lo tanto puede no ser el único de su categoría en funcionamiento. La segunda de ellas es por el origen de LoJax: un sistema antirrobo llamado justamente LoJack.

Los investigadores han determinado que LoJax es una modificación del software antirrobo LoJack. Este software, para poder rastrear equipos robados se instala en el firmware de la placa base, de este modo aunque los ladrones restauren el ordenador, seguirán pudiendo rastrearlo. Es más, incluso muchos equipos permiten la instalación fácil de LoJack por determinar que es un software "con buenas intenciones". Ejecutar el malware LoJax parece haber sido sencillo en tal caso.

Deshacerse de un malware (casi) imposible de eliminar
Aunque parezca prácticamente imposible deshacerse de LoJax si un equipo está infectado, lo cierto es que hay formas de hacerlo. La solución más simple y efectiva puede ser tirar el ordenador y destruir a martillzos la placa base. Pero sí no estás dispuesto a eso, ten en cuenta que reinstalar una y otra vez Windows no va a funcionar.

450_1000.jpg

Lo que sí que funciona es instalar un nuevo firmware en la placa base. Modificar el UEFI no es tarea sencilla, pero sí que parece ser el único método real que elimine por completo LoJax. Y por supuesto, añadir un disco duro completamente restaurado previamente.
Vía | ESAT

https://www.xataka.com/seguridad/de...einstalar-sistema-operativo-borrar-disco-duro
 
Google+ ha expuesto los datos de sus usuarios durante tres años, Alphabet cierra definitivamente la red social

450_1000.jpg


Una vulnerabilidad en la abandonada red social de Google ha expuesto los datos personales de "cientos de miles de personas" que utilizaron la plataforma entre 2015 y marzo de 2018. Según ha revelado Wall Street Journal y Google ha hecho oficial. Al parecer, la compañía no reveló el problema porque no quería pasar por un escrutinio regulatorio.

La compañía del buscador no encontró evidencia de un mal uso de los datos. Datos a los que han podido acceder los desarrolladores mediante el uso de las APIs de la plataforma. Como parte de la respuesta al problema, Google va a cerrar de forma permanente la red social.

Project Strobe: la auditoría interna que ha encontrado la brecha de seguridad
450_1000.jpg

Tal y como ha anunciado la compañía justo en el momento de hacerse público el informe de WSJ, han tomado una serie de medidas al respecto. A principios de este año decidieron evaluar desde cero cómo funcionan sus APIs y la estructura y permisos que tienen terceros en ellas. Es decir, una especie de auditoría interna para analizar la seguridad y privacidad de sus productos y servicios.

Es así como descubrieron el error en la API de Google+. Este error permitía a las apps de terceros tener acceso a los campos de perfil que se compartían con el usuario, pero que no estaban marcados como públicos. Estos datos son por ejemplo el nombre, la fecha de cumpleaños, el género, la imagen de perfil... La lista completa es bastante larga, pero no incluye ningún dato relativamente sensible, como podría ser el contenido de mensajes privados, el contenido de GSuite o cuentas bancarias.

450_1000.png

Google cree que este error está presente después del lanzamiento de Google+, como consecuencia de un cambio en el código de la red social y la API. También dicen que no creen que ningún desarrollador tuviese constancia del error ni que los datos de los usuarios se hayan usado con malas intenciones. A pesar de eso, hay que tener en cuenta que también hay 438 aplicaciones que han hecho uso de esta API en alrededor de unas 500.000 cuentas.

Las cuatro medidas de Google para paliar el problema
A pesar de la relativa poca gravedad del asunto según Google, lo primero que van a hacer es cerrar la red social. Debido a la brecha de seguridad y a la poca adopción que ha tenido como red social, han decidido cerrarla en un periodo de diez meses. Durante estos próximos diez meses se ofrecerán herramientas de migración y exportación de datos para que los usuarios puedan salir de la plataforma.

450_1000.png
Los nuevos permisos de Google para apps de terceros ahora son individuales y más granulares para que terceros no tengan acceso a toda la información si sólo necesitan parte de ella.
Como segunda medida de seguridad, van a impulsar el uso de herramientas más granulares para ofrecer permisos a apps de terceros. Es decir, cuando una app de terceros en Android o en la web quiera tener acceso a la cuenta de Google, se le otorgará permisos más específicos y tan solo a determinadas áreas que el usuario escoja. De este modo se trata de conseguir que las apps no tengan acceso a toda la información del usuario cuando realmente sólo necesitan parte de ella.

Siguiendo con los permisos de uso, a partir de ahora el acceso a Gmail estará más restringido a determinadas apps. Es increíble que en pleno 2018 una app de cámara por ejemplo pudiese tener acceso a tus correos, pero efectivamente se ha podido. A partir de ahora Google asegura que tan sólo gestores de correo, gestores de almacenamiento en la nube y similares podrán acceder a los datos de Gmail del usuario.

Por último y en relación a los permisos relacionados con los contactos, Google también limitará qué tipo de apps pueden tener acceso a los contactos, al historial de llamadas o a los SMS por ejemplo. En los próximos meses aseguran que añadirán más controles y limitaciones a los permisos de la cuenta de usuario.

Una brecha no anunciada que se salva del GDPR por la campana
Tal y como ha indicado la compañía, esta brecha de seguridad en el servicio de Google+ fue descubierta en marzo de 2018. No decidieron hacerla pública porque consideraban que no exponía información relevante del usuario. Sin embargo, de haberse descubierto un poco más tarde, lo habrían hecho público en cuestión de horas. ¿Por qué? GDPR.

450_1000.jpg

La ley de protección de datos en Europa entró en vigencia justamente el pasado mes de marzo. Una de las medidas que toma esta ley es obligar a las empresas a hacer público y advertir a sus usuarios si su información privada se ha visto comprometida. De no hacerlo en un plazo de 72 horas tras ser descubierto el problema, deben pagar una multa del 2% de sus ingreso mundiales. Google parece ser que se salvó por cuestión de días antes de que la ley entrase en vigencia.
Más información | Google

https://www.xataka.com/seguridad/go...os-alphabet-cierra-definitivamente-red-social

 
Un hacker está infiltrándose en miles de routers vulnerables y los está parcheando para que nadie más entre
450_1000.jpg


Bajo el nombre de Alexey, un hacker aparentemente de Rusia, tiene como pasatiempo infiltrarse en routers vulnerables de todo el mundo. No para espiar a sus usuarios o infectarlos de malware, sino para parchearlos. Hasta el momento, asegura haber desinfectado y protegido más de 100.000 routers.

Meses atrás apareció una vulnerabilidad en los routers del fabricante MikroTik que permitía el acceso a ordenadores mediante el router. Mediante ello los atacantes podían por ejemplo espiar la información de los ordenadores conectados a esos routers o directamente insertar herramientas de minado de criptomonedas por ejemplo. A pesar de que hay un parche y formas de configurar el router para evitarlo, no todos los afectados lo han hecho. Alexey lo está haciendo por ellos.

450_1000.jpg

"Tu router tenía esta vulnerabilidad, te lo he arreglado para que nadie más entre"
Según informa ZDNet, Alexey se ha jactado de su hazaña en foros rusos. Comenta que tan sólo accede a los routers que no han sido parcheados aún por sus propietarios. El hacker explica que se ha infiltrado en más de 100.000 routers de MikroTik. Entra en ellos, agrega una serie de reglas de firewall para bloquear futuros accesos desde fuera de la red local y deja un mensaje. El mensaje explica la vulnerabilidad que tenía el router y deja un canal de Telegram donde los afectados pueden hacer preguntas al respecto.

Alexey indica que a pesar de haber parcheado más de 100.000 routers, tan sólo unas cincuenta personas le han contactado. No precisamente para darle las gracias, sino enfadados por haberse infiltrado en sus routers. Eso sí, alguno de ellos le ha agradecido el acto.

El hacker básicamente lo que ha hecho es parchear los routers para evitar infiltraciones malintencionadas. Pero es que además ha desinfectado varios de ellos, pues según se indica, ha entrado especialmente en aquellos que ya estaban infectados por algún malware. ¿Por qué? Era más sencillo hacerlo ya que los hackers que previamente habían entrado, no se habían complicado en bloquear la entrada a otros en el futuro. De este modo para él era realmente fácil entrar, limpiarlos y de paso poner una serie de reglas que eviten futuras entradas.

Ilegalidades con buenas intenciones
La pregunta del millón es cómo de ético es esta acción. Alexey, a pesar de que supuestamente no ha infectado los routers ni ha obtenido ninguna información de ellos, técnicamente ha cometido una ilegalidad. Infiltrarse en equipos ajenos sin permiso no es legal, por muy buenas que sean las intenciones. Sin embargo, también es cierto que gracias a esto muchos usuarios tienen su red asegurada.

450_1000.jpg

Depende desde la perspectiva que lo veamos, este "hackeo" a 100.000 routers de todo el mundo puede ser algo bueno o algo malo. Si lo extrapolamos, es como si alguien accede a nuestra casa para arreglar las cerraduras de la puerta porque él ha podido entrar fácilmente. Gracias por arreglarlas, pero has entrado en mi casa sin que te lo pida.
Vía | ZDNet
Imagen | Unsplash

https://www.xataka.com/seguridad/ha...les-routers-vulnerables-esta-parcheando-nadie
 
Back