ROBOTICA - INTELIGENCIA ARTIFICIAL

Registrado
22 Oct 2017
Mensajes
6.043
Calificaciones
12.279
Por qué no hay que tener miedo de la inteligencia artificial
La irrupción de una tecnología requiere nuevas reglas. ¿Cómo lidiamos con los robots?

LORENA JAUME-PALASÍ

17 MAR 2018 - 20:02 ART

1521204443_913487_1521211044_noticia_normal.jpg

Coches y peatones comparten la calzada en Detroit, en los años veinte. LIBRARY OF CONGRESS




La idea de una sociedad automatizada, plagada de robots tanto en el hogar como en el trabajo, fue una de las utopías —y distopías— con las que reaccionó la literatura a la introducción de los sistemas de automatización. A principios del siglo XX, el uso de automóviles y semáforos popularizó la automatización a pie de calle. Desde entonces, el número de máquinas y procesos automáticos en nuestras vidas ha aumentado exponencialmente: las lavadoras, los cajeros automáticos, el enfoque de las lentes de una cámara de fotos, las puertas, el lavado de coches, el termostato… Y el temor inicial que en su día despertaron ha dejado paso a una sensación de rutina. La automatización es tan corriente, que ni siquiera nos percatamos cuando nos topamos con ella.

Sin embargo, la inteligencia artificial (IA) y las máquinas automáticas no son lo mismo. La IA es una forma de automatización avanzada. En los dispositivos convencionales se crean reglas de programación muy exactas con las que una máquina ejecuta tareas determinadas. La eficiencia depende del detalle y la exactitud con el que se haya programado la tarea: por ejemplo, trazar la ruta más corta entre Sevilla y Madrid. Lo que permite la IA es una automatización más abstracta. Eso significaría trazar la ruta más rápida entre Sevilla y Madrid teniendo en cuenta las obras, el número de semáforos, los horarios previsibles de mayor intensidad de tráfico, así como imprevistos como accidentes de tráfico o las condiciones meteorológicas. Es decir, la programación se centra en la creación de reglas con las que medir la eficiencia en ese contexto y en el desarrollo de parámetros de actuación. Siguiendo esas reglas, los sistemas de automatización inteligentes escogen el proceso más eficaz. Ese nivel de abstracción es un hito en la historia de la tecnología.

Estos logros asombran y asustan al mismo tiempo. Por falta de familiaridad, la IA parece magia y nos lleva a reabrir viejos debates. ¿Es esa tecnología inteligente? ¿Tiene sentimientos y voluntad? ¿Es capaz de maldad y alevosía? ¿Quién es responsable si el sistema tiene efectos nocivos no previstos? ¿Va a cambiar la naturaleza del ser humano? ¿Qué riesgos conlleva? ¿Necesitamos nuevas normas?


Estas mismas cuestiones fueron precisamente objeto de debate en los tribunales de diversos países tras la comercialización del automóvil a principios del siglo XX. El hecho de que las mismas incertidumbres y preguntas surgidas con la introducción de un nuevo medio de transporte resurjan un siglo después con la llegada de la IA, requiere de una revisión del debate de antaño. Desde el punto de vista normativo, tres aspectos merecen nuestra atención.

1. La tecnología sólo parece inteligente y humana cuando su uso no es corriente

La comercialización de los coches fue en su día anhelada por todas las capas sociales. El automóvil como medio de transporte prometía un futuro de eficiencia e higiene en ciudades con calles infestadas de heces equinas. En cuestión de pocos años se dio un vuelco de 180 grados y los coches se convirtieron en una nueva plaga urbana. En los años veinte las manifestaciones en protesta por la inseguridad en las calles eran comunes: desfilaban chatarras de accidentes reales, con maniquíes ensangrentados y satanás como conductor. Las ciudades de Washington y Nueva York organizaron manifestaciones con 10.000 niños vestidos de fantasmas, simbolizando el número anual de muertos en accidentes de tráfico.

En pocos años el coche se convirtió en objeto de un debate ético fundamental que llegó hasta los juzgados. La audiencia provincial de Georgia, por ejemplo, mantuvo un intenso debate acerca del carácter moral del automóvil. En su veredicto, la audiencia concluía que si bien dichos vehículos no son malévolos, “deben ser clasificados como animales salvajes peligrosos”. Por ello debían aplicarse las leyes vigentes para la tenencia de animales exóticos.

Obviamente, con el paso del tiempo, el contacto y familiarización con los nuevos vehículos de transporte debilitaron las teorías humanizantes que atribuían a las máquinas motivos e intenciones diabólicas. El debate ético y legal volvió a centrarse en el comportamiento del ser humano delante y detrás del volante.


Ese aspecto de la discusión, de carácter filosófico a primera vista, tuvo una clara consecuencia a nivel jurídico. Se descartó así la existencia de una responsabilidad por parte de la máquina como si esta fuera una entidad inteligente. Retrospectivamente, lo contrario no sólo resultaría ridículo, sino que habría supuesto un reto para la ética y el derecho a la hora de crear normas y sanciones que fuesen viables tanto para seres humanos como para máquinas.

El debate en torno a la inteligencia artificial en este aspecto tiene las mismas implicaciones y requiere plantear las mismas consecuencias jurídicas y éticas. ¿Tiene el robot intenciones que justificarían la creación de una entidad jurídica propia? ¿En qué modo recaería la responsabilidad en la máquina exculpando a todo ser humano? ¿Cómo se podría implementar una sanción a una máquina?

La inteligencia artificial y sus métodos de análisis estadísticos no encierran en sí una voluntad propia. La inteligencia artificial no es inteligente. Por ello es incapaz de tener ambiciones e intereses propios y engañar o mentir. En otras palabras, la inteligencia artificial nos debería dar tanto miedo como la estadística. Eso no significa que sea inocua. La inteligencia artificial y sus algoritmos no son neutrales, sino el reflejo de las intenciones y el sesgo involuntario del equipo de programadores, científicos de datos y entidades envueltas en la implementación de esa tecnología.

Con la IA se pueden establecer protocolos muy transparentes que permitan determinar las modificaciones que han sido efectuadas por personas, independientemente de cuán complejos sean los algoritmos con los que opera esta tecnología. No hay motivo alguno por el que resulte necesario crear una entidad jurídica específica para la inteligencia artificial. La propia tecnología permite atribuir la responsabilidad por fallo o abuso a una persona determinada con más claridad y facilidad que antes.

El conductor que maneja la inteligencia artificial y el peatón expuesto a ese tráfico, pueden ser identificados.

2. La ética y la ley deben ser neutrales frente a la tecnología

Volviendo a los dilemas que generó la llegada de los coches hace un siglo, en aquel momento fue crucial enfocar el debate (ético y legal) en el ser humano para poder formular leyes y normas prácticas y aplicables. No obstante, la creación de un sistema legal y normativo que adjudicara derechos y obligaciones sólo podía ser legítima con una clara idea de los riesgos y de los actores involucrados. Los tribunales y la sociedad en general tardaron un tiempo en entender tanto los aspectos técnicos del coche, como los problemas que planteaba el tráfico.

Los primeros intentos regulatorios nos parecerían hoy en día grotescos. Sobre todo por la imposición de obligaciones a actores incapaces de ejercer un control adecuado sobre la máquina. En Reino Unido, por poner un ejemplo, se requería al conductor que, antes de circular por un municipio, lo notificara al alguacil para que este, armado con dos banderas rojas, pudiera marchar ante el coche y advertir a los peatones.

El sistema legal que trataba de regular el tráfico atribuyó la responsabilidad exclusivamente al conductor. Sin embargo, en aquellos tiempos las calles se caracterizaban por su falta de previsibilidad: las señales de tráfico aún no habían sido inventadas, los niños jugaban en la calzada, los carruajes de caballos se desbocaban al oír los motores, y los peatones eran incapaces de calcular la velocidad a la que se acercaban los coches. Todo esto hacía que la responsabilidad asignada al conductor fuese desproporcionada. Desde el punto de vista fisiológico, era imposible reaccionar ante tanto imprevisto.

El pragmatismo y el sentido de justicia social llevaron al canadiense James Couzens a inventar un sistema de señales y reglas de tráfico para coordinar a peatón y conductor. Couzens dimitió de su puesto como vicepresidente de finanzas en Ford y empezó a trabajar para el Ayuntamiento de Detroit (EE UU), capital mundial automovilística en aquel entonces. Cigarro en mano, Couzens revolucionó las infraestructuras de transporte. En primer lugar, identificó las situaciones en las que la responsabilidad recaía en el peatón, y creó señales y zonas para poder cruzar las calles.

Al principio, la resistencia por parte de la sociedad fue grande. Las normas y obligaciones para los peatones no estuvieron exentas de controversia: el concejal Sherman Littlefield las tachó de denigrantes al “tratar a los ciudadanos de a pie como ganado”. Couzens no se dejó amedrantar e impuso sus normas por decreto. El tiempo le dio la razón, demostrando la efectividad de su propuesta, que acabó convirtiéndose en el modelo internacional. Couzens también se encargó de crear un plan de control y gestión del tráfico que permitiera prescindir de la presencia de la policía en caso de falta de personal. Así fue cómo Detroit se convirtió en cuna del avance tecnológico, con ideas revolucionarias como el semáforo automático en los años veinte.

Es destacable la poca atención que Couzens prestó al automóvil como tecnología en sí a la hora de concebir sus reglas de tráfico: las normas y limitaciones no atañían al aspecto técnico, sino únicamente a su uso en el espacio público. Por ejemplo, las medidas para restringir la velocidad no prohibían el desarrollo de motores con más caballos de fuerza, sino que limitaban el uso del acelerador por parte del conductor. Gracias a ello las leyes y normas establecidas por Couzens no tuvieron que ser modificadas con cada cambio tecnológico, ya que siempre permitían una recontextualización del uso de la tecnología. El hecho de que las normas de tráfico establecidas fuesen tecnológicamente neutrales es el motivo por el que un siglo después siguen vigentes y, en su esencia, no han perdido actualidad.

En el campo de la IA se están estudiando leyes y principios éticos que se puedan aplicar a los códigos de programación. Un ejemplo es el principio de la “minimización de datos personales”, por el cual sólo se debe procesar la cantidad mínima de datos personales necesaria para ofrecer un servicio o ejecutar una tarea. Este es un principio técnico que tiene una importancia vital y afecta al procesamiento de información. Por una parte, el proceso salvaguarda la privacidad de las personas implicadas. Sin embargo, esta regla puede ir, paradójicamente, contra la igualdad de trato porque no tiene en cuenta el contexto. Por ejemplo, hasta hace poco más de una década, los ensayos sobre el uso de beta bloqueadores (fármacos muy utilizados en cardiología) se realizaban a partir de una base de datos integrada mayoritariamente por varones de la etnia europea. Sus conclusiones eran válidas para ese grupo, pero no para mujeres o para etnias con otra variación genética.

La falta de información de determinados grupos sociales acaba generando una base de datos sesgada desde el principio: el perfil y características de una parte de la población estará sobrerrepresentada y distorsionará el cálculo, dando una impresión errónea del conjunto. Asumir que con menos datos el riesgo de discriminación disminuye es un mito. Dependiendo del contexto, se necesitarán más o menos datos personales para no caer en simplificaciones que nos lleven a discriminar a determinados grupos.



Estos ejemplos son una muestra de que tenemos que cambiar de estrategia, porque hasta ahora el debate sobre la inteligencia artificial se ha centrado en la parte técnica. Pero la historia demuestra que es posible elaborar leyes y normas sobre nuevas tecnologías sin regular el código matemático en sí. La ética y el derecho convencionalmente se enfocan en el contexto social: sus principios no se aplican al proceso técnico, sino a la situación social en la que dicho proceso técnico se integra. No se trata de regular la tecnología que permite la inteligencia artificial, sino lo que las personas hacen con ella.

3. La educación de la sociedad para tratar nuevas tecnologías no requiere conocimientos técnicos

Con los coches, Couzens vio necesaria la educación del ciudadano para que las reglas de tráfico permeasen y fuesen adoptadas por la sociedad. Asimismo, era consciente de que había aspectos de gran importancia —como aprender a calcular la distancia y velocidad de un automóvil— que sólo se podían resolver con la integración de dichas tecnologías en la vida cotidiana y la familiarización de uso. Couzens no creyó que fuese necesario entender los mecanismos del automóvil más allá de su funciones operativas, es decir, frenar, acelerar o cambiar una llanta. Tanto en el derecho como en la ética rige la premisa ultra posse nemo obligatur, término jurídico que afirma que nadie está obligado a más de lo que puede hacer. Los conocimientos necesarios para entender los mecanismos de un coche transcienden el sentido común, así que nadie tiene el deber de conocerlos.

En el debate sobre la IA al ciudadano se le pide una mayor competencia a nivel técnico. Pero los dilemas que generó el automóvil a principios del siglo XX prueban que este tipo de discurso no es constructivo. No necesitamos saber cómo funciona un avión para poder subirnos a uno. Tampoco se nos exige saber de bioquímica para comprar un yogur. Más allá de lo que se puede, del sentido común, nadie está obligado a saber.

La IA permite detectar patrones de comportamiento humano e identificar diferencias en la actuación de distintos grupos (mujeres, etnias, clases sociales, entre muchos otros). En base a ello, el equipo de personas que usa dicha tecnología puede decidir discriminar de forma más o menos legítima, ofrecer servicios o informaciones diferentes, manipular la atención y hacer sugerencias distintas. Se debe tener también en cuenta la discriminación involuntaria e implícita, y por ello resulta imprescindible una evaluación constante de la tecnología. Para ello los expertos no sólo deben disponer de una sensibilidad ética general, sino en particular en lo relativo a la discriminación involuntaria que puede resultar a partir de sesgos en el diseño o en las bases de datos con las que opera la IA.

El uso de esta tecnología para amplificar o compensar la discriminación depende del grupo de seres humanos que la utilice. El ciudadano no es quien debe entender el proceso técnico detrás de la IA para poder usarla. Son los ingenieros, los científicos de datos, así como los departamentos de marketing y los Gobiernos que usen o tengan que regular dichas tecnologías, quienes deben comprender la dimensión social y ética de la inteligencia artificial.

Lorena Jaume-Palasí es directora ejecutiva de AlgorithmWatch y miembro del Grupo de Sabios sobre Inteligencia Artificial y Big Data del Gobierno español.
https://elpais.com/tecnologia/2018/03/16/actualidad/1521204443_913487.html
 
1521460126_001469_1521461257_noticia_normal.jpg



Retina Papers
El 36% de los empleos en España está en riesgo de automatización
Por
Rebeca Gimeno

Un estudio de BBVA Research y la Universidad de Valencia concluye que los jefes y los mejor formados son quienes menos riesgo tienen de que su trabajo se automatice

Madrid 21 MAR 2018 - 06:26 CET

Hace más de cuatro siglos, un clérigo llamado William Lee inventó la primera máquina para tejer medias. Cuando se la presentó a la reina Isabel I, esta rechazó su petición de patente. La monarca temía el impacto de la invención en el empleo.

No es nada nuevo que ante cada avance tecnológico surja la pregunta que todos tememos: ¿qué pasará con los trabajos de hoy? La cuarta revolución industrial no es diferente en ese aspecto. Hay muchas cifras sobre su impacto en el empleo, pero también una respuesta que siempre se repite: unas profesiones desaparecerán y otras surgirán.

"La probabilidad de computarización disminuye con el grado de responsabilidad, el nivel educativo, la disposición a participar en acciones formativas y la adopción de nuevas formas de trabajo, como el teletrabajo", según un estudio de R. Doménech, J.R. García, M. Montañez y A. Neut, de BBVA Research y la Universidad de Valencia.
  • Uno de cada tres
Utilizando los datos de la Encuesta de la Población Activa (EPA), los investigadores han analizado cuántos y qué tipo de trabajadores tienen mayor riesgo de ser sustituidos por las máquinas. “El 36% del empleo en España se encontraría en riesgo elevado de digitalización".

No saquen conclusiones precipitadas: no van a desaparecer seis millones de puestos de trabajo en nuestro país. Nuestro estudio no tiene en cuenta las nuevas ocupaciones que se van a crear en otros sectores. Hoy por hoy no tenemos razones para pensar que el efecto total sea negativo. "Estamos ante una oportunidad única para que las sociedades sean más prósperas", aclara Doménech.

Identificar las ocupaciones que más se pueden ver afectadas es un primer paso. Para los investigadores es como tener una primera foto para saber dónde hay que enfocar y cuáles son las tendencias de los trabajos que van perdiendo y los que van ganando.

Cuando uno lee que el riesgo tecnológico afecta a algo más de un tercio de las ocupaciones actuales le entran ganas de ponerse a estudiar informática. Pero la cifra no implica necesariamente que la tecnología sustituirá todos esos trabajos. Dependerá de si es todavía muy cara de implantar (el estudio no hace un análisis coste-beneficio) y dependerá también de la regulación futura. Sabemos que en poco tiempo habrá coches autónomos y drones capaces de repartir paquetes. ¿Dejarán los gobiernos circular libremente a todos estos inventos?

  • ¿Qué determina el riesgo de automatización en España?
Dígame en qué trabaja y sabrá su probabilidad de ser sustituido por una máquina. C.B. Frey y M. Osborne, dos investigadores de la Universidad de Oxford, calcularon estas cifras. Es una lista de 702 ocupaciones, desde el terapeuta recreacional, con la menor probabilidad de digitalización, hasta el reparador de relojes, con la mayor. (Si tiene curiosidad de en qué lugar está la suya vaya a lasúltimas páginas del estudio).

1521460126_001469_1521460304_sumario_normal.jpg


España: Distribución del empleo por ocupación según su probabilidad de automatización (promedio 2011-2016). Fuente: BBVA Research a partir de Frey y Osborne (2016) e INE.

El estudio utiliza estos porcentajes de riesgo de automatización y los aplica a la estructura laboral del mercado español. En el gráfico se puede ver por colores cuáles son los sectores más y menos expuestos a la automatización. Pero el trabajo de investigación también analiza qué otras características personales y laborales influyen en ese riesgo.

  • Los jefes están blindados
Se concluye también que la variable con mayor impacto es la posición jerárquica. "Una persona que toma decisiones, que tiene capacidad analítica y coordina equipos tiene menor probabilidad de ser sustituida por una máquina", explica Montañez. "Un director de empresa tiene 30 puntos menos de riesgo de ser automatizado,ceteris paribus, que la media del conjunto de asalariados", concluye el estudio.

Si no eres jefe no te preocupes, el nivel educativo también es fundamental. Mayor formación nos permite realizar actividades en las que los humanos todavía superamos a las máquinas. "Los trabajadores más formados, sobre todo los titulados universitarios en disciplinas relacionadas con la educación, la salud y servicios sociales, y quienes han participado en acciones formativas no regladas tienen menor riesgo de ser sustituidos por maquinas".

También hay menos peligro si se trabaja para una empresa de mayor tamaño. De acuerdo con García, "estas compañías están posicionadas en segmentos de mayor valor añadido y es más factible la complementariedad entre trabajador y algoritmos. Además, existe una mayor diversidad de ocupaciones que en una pyme".

El análisis concluye que el género, la edad, la antigüedad y el tipo de contrato "juegan un papel secundario para explicar el riesgo de la digitalización".


  • ¿Qué está pasando en el mercado laboral?
Aunque la proporción de empleos en peligro por la automatización (36%) es inferior en España a la de Estados Unidos (47%) o Alemania (59%), no hay motivos para relajarse. El estudio analiza qué puestos de trabajo se han destruido y creado en los últimos años. En la crisis, la caída se centró en ocupaciones con riesgo medio y alto de digitalización, pero el empleo que se ha creado desde entonces "se está generando en los empleos peor posicionados frente al avance tecnológico" (ver color azul claro de la gráfica).


1521460126_001469_1521460707_sumario_normal.jpg

España: Evolución del empleo según su probabilidad de automatización (contribución a la variación anual; pp) Fuente: BBVA Research a partir de INE.

Es posible, admiten los autores, que esta tendencia de creación de empleo no sea estructural sino fruto del patrón de recuperación de la economía. "Cabe la posibilidad de que en balance neto tengamos ahora menos trabajos en riesgo que antes de la crisis", argumenta Doménech. Aun así, el reto por delante es enorme.

"A pesar del optimismo basado en la evidencia de las revoluciones anteriores, que muestran beneficios a largo plazo, lo que tenemos a corto plazo son cambios disruptivos y hay que manejarlos. Supone un reto para las políticas", opina Neut, otro de los autores.

  • ¿Cómo prepararse para la cuarta revolución industrial?
No es una guerra contra los robots, pero imaginemos que sí lo es.Sabemos los trabajos que han sido ya sustituidos por las máquinas y ahora hay que anticipar cuáles serán los siguientes. ¿No supone esto una ventaja?

"Es posible que los mismos cambios que en unos países aumenten la productividad, los salarios y el empleo a nivel agregado, en otros tengan efectos diametralmente opuestos. Que su incidencia sea netamente positiva dependerá básicamente de cómo se gobierne el cambio en tres grandes áreas, como son la educación, las políticas de empleo y el crecimiento inclusivo".

Los investigadores dedican una amplia parte del artículo a enumerar algunas de las medidas necesarias en nuestro país: mejorar la empleabilidad de los trabajadores, reducir barreras a la creación de empleo, diseñar mecanismos eficientes que compensen a los perdedores en esta transición, invertir en formación continua, reducir el abandono escolar... "Un tercio de la población joven en España no está preparada para los retos que supone la transformación digital".

No hay que perder de vista, insisten, en que su estudio solo analiza la parte "potencialmente negativa". Hoy en día hay personas que se ganan la vida como youtubers, influencers o desarrolladores deapps. ¿Cuántos eran capaces de adivinar estas profesiones hace 15 años?

William Lee se llevó su máquina a Francia y su invento inició la revolución en la industria textil. Pero a ver quién le llevaba la contraria a una reina de Inglaterra en 1589.
https://retina.elpais.com/retina/2018/03/19/tendencias/1521460126_001469.html
 
“La tecnología lleva eliminando trabajos desde hace siglos, es una realidad que hay que asumir”
Por Sergio C. Fanjul
1527864610_361883_1527865411_noticia_normal.jpg


La investigadora española Concha Monje habla con EL PAÍS RETINA sobre robótica, inteligencia artificial y la situación de las mujeres en el sector

Teo ahora está descansando, y desnudo: se le ven los cables, los chips, las articulaciones de metal, los motores. Los investigadores, alrededor, escudriñan sus entretelas. Pero cuando TEO se pone en acción es capaz de muchas cosas, y cada vez aprende más: puede realizar tareas demasiado humanas como servir copas, planchar y doblar ropa o, sobre todo, caminar. TEO, robot asistencial, mide y pesa lo que una persona, tiene una cabeza, dos brazos y dos piernas, por eso le podemos llamar humanoide. Es lo que cualquiera se imagina cuando se imagina un robot, algo que se asemeja en su estructura a un ser humano. Su nombre proviene del acrónimo de Task Enviroment Operator y vive en el Robotics Lab de la Universidad Carlos III de Madrid, donde visitamos a una de sus artífices, la muy premiada ingeniera Concha Monje (Badajoz, 1977).

1527864610_361883_1527865036_sumario_normal.jpg

El robot TEO en el Robotics Lab de la Universidad Carlos III de Madrid

Aunque las tareas que TEO lleva a cabo pueden parecer asunto baladí (al menos no son muy complejas para un humano), que un robot las haga tiene su complicación. “No nos debemos quedar en lo superficial”, dice Monje, “TEO es capaz caminar, manipular, reconocer rostros, seguirte, jugar contigo al escondite, etc”. El mero hecho de caminar, tan cotidiano para las personas, ya es toda una proeza tecnológica, que “implica muchas habilidades: usar sensores, cámaras, corregir desequilibrios…”, apunta la ingeniera, “no es un mero autómata que repite una tarea, sino que recoge información del medio y da respuestas a cada situación en tiempo real”.

TEO es una versión más evolucionada de su predecesor, el Robot Humanoide 1 (Rh-1), que se expone todavía en el vestíbulo de este departamento universitario a modo de homenaje por los servicios prestados. Delante de este viejo modelo que disfruta de su jubilación con honores, Monje nos cuenta que acabó haciendo robots casi por casualidad. “A mí lo que me gustaba era la música, tocar el piano y un poco la parte técnica de la imagen y el sonido”. Pero se metió a Ingeniería Electrónica en su Badajoz natal, se doctoró en Ingeniería Industrial y, siendo experta en sistemas de control, acabó consiguiendo una plaza en este laboratorio robótico.

La investigadora está en racha: ha ganado el Premio a la Mejor Científica Contemporánea 2017 de la revista QUO en colaboración con el CSIC, el Premio de Excelencia Investigadora de su universidad y el III Premio Mujer y Tecnología de la Fundación Orange por su labor en favor de la visibilidad de la mujer en la ciencia y en la tecnología. Y por su trabajo con TEO, claro. “Contra lo que se cree, yo pienso que a las mujeres nos pueden interesar las mismas cosas que a los hombres, también las cuestiones técnicas”, dice Monje, “lo que creo que hay es una falta de referentes. Conozco a muchas alumnas y madres de alumnas y están de acuerdo en que hay cierta presión social para que determinadas carreras sean para chicas y otros para chicos. Y eso cala en los jóvenes”. Cuando estudió ingeniería, Monje fue la única mujer de su promoción, “pero eso ya no pasa”: asegura que cada vez hay más mujeres en la disciplina. “Quiero visibilizar que también la ingeniería puede ser para mujeres y que el resto de tus compañeros ni se plantean estas cosas”.

¿Qué imagen tiene la ciudadanía de los robots?

Yo creo que es aún muy futurista. Cuando uno piensa en los robots los dota de una serie de habilidades e inteligencia de la que carecen: ni tienen todavía esa inteligencia ni esa motricidad. Un humanoide no puede ser como un humano, aunque es verdad que nos acercamos cada vez más y vamos dando pasitos, todavía estamos muy lejos. Por ejemplo, la batería de TEO solo dura media hora.

Tampoco parece que esté muy clara la diferencia entre términos como inteligencia artificial (IA) y robótica, que a veces parecen utilizarse un poco al azar en el discurso público.

La robótica atiende un poco más al cuerpo, un cuerpo mecatrónico, articulado, que resuelve una tarea. Hay movimiento mecánico, articulado. Esa es la definición más clásica. Hay quien habla de robots sin referirse un cuerpo físico, como en el caso del programa informático del que se enamora Joaquin Phoenix en la película Her, de Spike Jonze, pero no estoy de acuerdo: eso se llama inteligencia artificial. La robótica, claro, integra la IA para que los cuerpos robóticos se muevan con inteligencia, más allá de una tarea acotada. La robótica es un campo muy interdisciplinar que se nutre constantemente de avances de diferentes fuentes.

1527864610_361883_1527867138_sumario_normal.jpg
Imagen de la película 'Autómata'.

Precisamente Concha Monje ha colaborado a hacer más fiel la imagen que del robot hay en el imaginario colectivo mediante su participación en la películaAutómata, dirigida por Gabe Ibáñez y protagonizada por Antonio Banderas. De hecho, en las paredes de su despacho lucen algunos pósteres de cine tirando a almodovarianos. “Trabajé a nivel de guion, asesorando para que lo que apareciese en la película sobre robótica tuviera cierta correspondencia con la robótica real”, cuenta, “luego hace mucha ilusión cuando ves la película y reconoces tus aportaciones sobre la gran pantalla”.

TEO no es el único robot que desarrollan en Robotics Lab. Tiene compañeros como Maggie, un robot social (estos no tienen porque se humanoides y pueden tener ruedas en vez de piernas), destinado a la interacción con las personas, u otros proyectos de robots emocionales que puedan resultar terapéuticos para personas con Alzheimer o trastornos de autismo. También investigan en materiales blandos que hagan que TEO, por ejemplo, no sea tan metálico. “Probamos con diferentes densidades y formas que ofrecen diferentes ventajas, que dan mayor flexibilidad o permiten absorber mejor los golpes, que permitirían entrar en lugares angostos en situaciones de rescate”, dice la investigadora. Otro de los campos explorados en el Robotics Lab es del de los exoesqueletos diseñados para otorgar movilidad a personas que hayan tenido accidentes cerebrovasculares, como el ictus.

Aunque TEO sea un robot humanoide, Monje reconoce que lo más probable es que los robots que nos ayuden en las tareas domésticas no sean humanoides, no parezcan mayordomos, sino que haya una máquina que nos planche la ropa y otra que nos prepare el sándwich. Pero la investigación en TEO produce otros tipos de conocimiento y, de hecho, es común que de Robotics Lab se haga transferencia de conocimiento a las empresas.

La pregunta del millón: ¿nos quitarán el trabajo los robots y nos iremos todos al paro?

La tecnología lleva eliminando trabajos desde hace siglos. Es una realidad en el pasado, en el presente y en el futuro será cada vez mayor. Hay trabajos rutinarios, tediosos, repetitivos que los puede hacer mejor una máquina y que ya están desapareciendo. Es una realidad que hay que asumir.

¿Qué haremos entonces los humanos?

Hay que valorar que hay otros muchos trabajos que se van a crear y que ya se han creado: el webmaster, el diseñador de robots, el diseñador de apps para smartphones... Puestos de trabajo que son más enriquecedores para el humano. A las personas que pierdan su trabajo habrá que protegerlas y darles formación; para eso las empresas tienen que apostar. Además, imagínate que gracias a los robots se produce más de un producto: también habrá más trabajo en almacenaje, distribución, departamento comercial…

¿Tiene límites la robótica?

Yo creo que es una vía infinita. La prueba está en que este proyecto tiene casi 20 años y ahora es cuando empezamos a pensar que tiene mucho porvenir.

https://retina.elpais.com/retina/2018/06/01/innovacion/1527864610_361883.html
 
La inteligencia artificial nos ayudará a dibujar el mapa del cerebro

Por Zuberoa Marcos | Pedro García Campos | 17-06-2018






600x600-01-5-150x150.jpg

Sebastian Seung
Profesor Neurociencia Computacional Universidad de Princeton


“¡Y pensar que yo, para garantizar la paz del espíritu y huir de toda posible popularidad, escogí deliberadamente la más obscura, recóndita y antipopular de las ciencias!”. La modestia de Santiago Ramón y Cajal era proverbial. También su genialidad. Adolescente díscolo, con talento para el dibujo, mal estudiante, buen deportista y rebelde, Ramón y Cajal fue capaz de ganar un premio Nobel -es uno de los dos científicos españoles que lo han conseguido- en un ambiente poco propicio para la investigación, lejos de los principales focos de conocimiento de su época y sin apenas recursos que le apoyaran. Hombre de una intuición espectacular, muchas de las reflexiones que realizó sobre el sistema nervioso (y que no podía probar con los medios de la época) fueron después confirmadas. Falló únicamente al asegurar que la suya era la más “obscura, recóndita y antipopular de las ciencias”, puesto que el conocimiento de la anatomía del cerebro y su funcionamiento -campo en el que gracias a él se dieron pasos de gigante- es todavía hoy uno de los mayores retos científicos a los que nos enfrentamos.

Por contraste, el ambiente que rodea a Sebastian Seung, uno de los más ilustres continuadores del trabajo del español, es perfecto para la ciencia. El científico de origen coreano se doctoró en Harvard y es actualmente investigador en el departamento de Neurociencia de Princeton y profesor del MIT. Seung quiere lograr una hazaña hasta ahora inimaginable: trazar el mapa completo de conexiones de nuestro cerebro… aunque para ello haya comenzado con el de un roedor. Para hacernos una idea de lo titánico de la empresa, basta con saber que un solo milímetro cúbico del cerebro humano puede contener cien mil neuronas y cada una de ellas establece hasta diez mil conexiones con sus células vecinas. Colorear todas las conexiones de un corte de un milímetro cúbico podría llevar a una persona, según Seung, “unos cien mil años”, por lo que si realmente queremos alcanzar este objetivo vamos a necesitar algo más que tiempo y paciencia. Vamos a necesitar la ayuda de la inteligencia artificial: “Hace 50 años utilizamos nuestros cerebros para crear ordenadores más potentes y eso culminó en la actual inteligencia artificial. Y ahora utilizamos los ordenadores para ayudarnos a entender el cerebro.”

Seung no solo confía en que seremos capaces de conseguir este mapa, sino que asegura que lo haremos antes de que termine el siglo XXI. Sería el primer paso para alcanzar el viejo sueño de copiar un cerebro; primer paso porque una cosa son los circuitos y otra, obviamente, lo que circula por ellos (toda la información y la actividad química y eléctrica). Seung cree que es el conectoma, el mapa neuronal, lo que nos hace únicos como individuos más fuertemente incluso que el genoma. Y que tal vez podamos conservar y copiar ese conectoma en algún momento. ¿Qué ocurrirá entonces? ¿Será algo así como una especie de trascendencia digital? Todavía no lo sabemos, pero con la ayuda de la tecnología (ya sean dibujos como los de Ramón y Cajal o una poderosa inteligencia artificial) no hay fronteras imposible. Así reflexionaba Seung en una conferencia TED: “¿Debemos ridiculizar a los buscadores modernos de la inmortalidad llamándolos locos? ¿O algún día se reirán sobre nuestras tumbas? No lo sé. Yo prefiero poner a prueba sus creencias, científicamente.

Edición: Pedro García Campos | Cristina del Moral
Texto: José L. Álvarez Cedena

https://elfuturoesapasionante.elpai...al-nos-ayudara-a-dibujar-el-mapa-del-cerebro/
 
Una IA logra contar una a una todas las placas solares de EEUU partiendo únicamente de fotos de satélite

450_1000.png


Configurar y gestionar una infraestructura eléctrica a nivel nacional es una empresa extraordinariamente compleja, que muchos grandes países no han sido capaces de resolver aún adecuadamente (por unas razones u otras).

En los Estados Unidos, por ejemplo, los apagones (de amplias zonas del país y a veces durante más de 24h) constituyen un problema endémico. Pero, por si esto no fuera poco, las energías renovables, pese a su innegable utilidad, añaden otro grado de complejidad al problema.

Datos completos y actualizados, un requisito para la gestión inteligente de la red eléctrica
En Alemania, donde las políticas pro-renovables ya se han calificado de "fracaso energético", los operadores de las grandes plantas térmicas se ven obligados a producir electricidad a precio negativo en los días más soleados o ventosos.

Esto se debe a que no pueden reducir fácilmente la generación de energía en respuesta al exceso de suministro en la red. Varios estados de los EE.UU, como Texas y California, ya han sufrido problemas similares.

Este problema puede enfrentarse con garantías cuando se dispone de datos completos sobre el número, tamaño y la localización de dichos paneles, datos que permitan establecer una planificación de las necesidades energéticas y señalen los lugares más adecuados para incentivar la instalación de mayor potencia solar fotovoltaica.

Pero Estados Unidos carece de nada remotamente parecido a un censo de este clase, pese a que "siempre se ha dicho que un dataset de datos a nivel nacional sería realmente valioso", como explica Budhendra Bhaduri, científico del Oak Ridge National Laboratory.

¿Qué es DeepSolar?
Por todo ello, ahora un equipo de ingenieros de la Universidad de Stanford ha desarrollado un método para localizar todas las placas solares instaladas en suelo estadounidense.

En un paper publicado esta semana, estos investigadores desvelan cómo lo han logrado: recurriendo a una inteligencia artificial, a la que se le ha enseñado mediante deep learning a reconocer las placas solares en fotos aéreas, para que rebuscase en una enorme base de datos de imágenes satelitales.

Mapa en la web de DeepSolar, con todos los datos sobre número de paneles solares instalados.
La base de esta red neuronal, llamada DeepSolar, fue un modelo pre-entrenado llamado Inception, destinado a agrupar y clasificar los píxeles de las imágenes.

Gracias a eso, escanea más de mil millones de "mosaicos" de imagen (de 102.400 píxeles cada uno), equivalentes a áreas de los EE. UU. de tamaño mayor que un vecindario pero más pequeñas que un código postal.

Posteriomente, clasifica cada píxel de cada mosaico (una cantidad desmesurada de datos, en resumen) y detecta cuáles entre ellos señalaban la presencia de un panel solar.

Todo este trabajo, realizado en menos de un mes, permitió localizar casi un 50% más de instalaciones solares que cualquier encuesta realizada con anterioridad.

Como explican los investigadores, ahora

"usamos estos conocimientos para construir SolarForest, el primer modelo predictivo de aprendizaje automático de alta precisión que puede estimar la densidad de despliegue solar a nivel de distrito censal, en base a las características ambientales y socioeconómicas de la zona".

https://www.xataka.com/robotica-e-i...ares-eeuu-partiendo-unicamente-fotos-satelite
 
Así es el robot que repta como una serpiente y nada como un calamar
Se desplaza con facilidad en diferentes superficies. Está pensado para hacer exploraciones y ayudar en misiones de rescate

VIDEO:
blob:https%3A//www.infobae.com/4f8ab727-3213-4a13-a6b5-23137884d36c


Repta por la tierra como si fuera una serpiente y se desplaza por el mar como si fuera un calamar. Se trata del robot Velox, desarrollado por la compañía Pliant Energy Systems. Sus diseños están inspirados en el reino animal. De esa manera se aseguran crear dispositivos que se adaptan a diferentes superficies con facilidad.

Velox cuenta con unas aletas que, según describe la compañía en su página, se pueden describir como "objetos de cuatro dimensiones con una geometría hiperbólica" que le permite nadar y moverse por la tierra.

Gracias a su flexibilidad y capacidad de adaptación, el robot puede ser utilizado para realizar misiones debajo del agua como por ejemplo exploración de corales, o ayudar en el rescate de personas.

Robot-Velox-de-Pilant-Energy-Systems-1.jpg

El robot se desplaza por el agua y la tierra.

El robot se propulsa bajo el agua y también se puede maniobrar con facilidad para que vaya al ras del suelo o flotando. A su vez, se puede usar en superficies terrestres de todo tipo (como en hielo o arena) para explorar diferentes animales desde cerca. Como cuenta con comunicación wifi, es posible recibir información en tiempo real.

Lo más interesante de Velox es que se puede adaptar a diferentes entornos y que se lo puede manejar con facilidad. Esto podría ser utilizado para exploraciones o rescates.

Robot-Velox-de-Pilant-Energy-Systems-3.jpg

Velox fue desarrollado por la compañía Pilant Energy Sytems
En el último tiempo, se desarrollaron robots con diferentes diseños para adaptarse al propósito que se le quiera dar. Tal es el caso de los modelos microscópicos pensados para ingresar dentro del cuerpo humano con el fin de administrar medicamentos, despejar arterias obstruidas y hasta para tratar el cáncer.

https://www.infobae.com/america/tec...ta-como-una-serpiente-y-nada-como-un-calamar/
 
La Jenga parece un juego tonto para humanos pero es un reto para la Inteligencia Artificial

Vida digital

La inteligencia artificial puede ser muy lista en juegos de estrategia o ganando a humanos al ajedrez, pero no lo es tanto cuando de valorar el riesgo en un puzle físico que cambia todo el rato

Varios investigadores del MIT han creado un robot que juega a la Jenga y aprende por sí solo a mejorar

En el equipo se encuentran dos españoles: hemos hablado con uno de ellos, que nos explica los fundamentos de la máquina

David Sarabia
07/02/2019 - 21:56h
Jenga-Robot_EDIIMA20190201_0631_19.jpg

El Jenga Robot YOUTUBE

Solo faltaba la Jenga por sucumbir ante los encantos de la Inteligencia Artificial, y ya lo ha hecho. Un equipo de ingenieros del MIT (Massachusetts Institute of Technology) ha desarrollado la primera máquina que aprende por sí misma a quitar y poner los bloques de madera.

Para nosotros los humanos, la Jenga puede parecer un juego simple, pero lo cierto es que nos requiere poner en práctica varias capacidades físicas y cognitivas, como son la percepción y la medida del espacio. También necesitamos usar las manos para saber qué bloques están sueltos, la prueba y el error, e imaginar qué ocurrirá si quitamos uno en vez de otro. Cuando hemos procesado toda la información en nuestro cerebro, entonces, tomamos una decisión.

El equipo del MIT, dirigido por Nima Fazeli y entre el que se encuentran los españoles Alberto Rodríguez y Miquel Oller, ha construido la máquina a partir de un brazo robótico al que han incorporado un sensor de fuerza en la muñeca y dos pequeñas puntas en su extremos. También está conectado a una cámara que observa todo desde una esquina de la mesa en la que se encuentra la torre. Han publicado su investigación en la revista Science Robotics.

"Escogimos la Jenga por tres razones: en primer lugar, para jugar es necesario tanto ver como interactuar con los bloques, se necesita tocar y sentir la resistencia que oponen. Segundo, visualmente todos los bloques se ven igual pero tienen comportamientos muy diferentes: algunos están fijos y cuesta extraerlos, otros se mueven libremente. Y tercero: dada la naturaleza inestable de la torre, es difícil automatizar totalmente el proceso de entrenamiento, ya que si la torre es destruida, es difícil y costoso en tiempo y recursos volver a construirla. Por este hecho, el algoritmo tiene que ser eficiente", explica a eldiario.es Miquel Oller, coautor del estudio.

Aprende como un humano
La Jenga solo es una versión más moderna de otro juego centenario africano, el Takaradi, que guarda pequeñas similitudes con el actual. Lo inventó en 1974 una mujer, Leslie Scott, que en su niñez vivió en Ghana y tomó buena nota de las costumbres lúdicas de su población. Diez años después vendió los derechos del juego, que han ido pasando de empresa en empresa hasta recaer en Hasbro, que ha explotado el nombre de Jenga por todo el mundo. La palabra proviene del idioma suajili y significa "construcción" en castellano.

Una gran diferencia entre la Inteligencia Artificial con la que ha sido entrenada este robot y cualquier otra de la que hayamos hablado antes (como AlphaGo o AlphaStar) es que, mientras que a las de Google se les alimentó con miles de datos, al Jenga Robot solo se le proporcionaron modelos de aprendizaje jerárquico. "Está inspirado en cómo los humanos adquieren experiencia", continúa el investigador del MIT.

Al jugar a la Jenga ponemos en práctica nociones espaciales y físicas, juzgamos qué bloque mover o no e inferimos qué ocurrirá después de hacerlo. Oller explica que las IAs de Google juegan a juegos cognitivos "donde se necesita estrategia y, de hecho, en ella yace la dificultad. Los movimientos son ejecutados por humanos. En cambio, Jenga es un juego que necesita tanto la parte cognitiva como la habilidad física para ejecutar movimientos".

El aprendizaje jerárquico del Jenga Robot se sustenta a través de las representaciones físicas que hace tras jugar unas cuantas veces. No podemos hablar de las horas totales que la máquina estuvo jugando, sino de intentos: "Algunas interacciones son mejores y más rápidas, otras hacen caer la torre, que por tanto debe ser reconstruida, algo que lleva tiempo. El resultado final necesita entre 200 y 400 interacciones, dando un buen resultado con alrededor de 300", aclara Oller.

ve-Jenga-robot_EDIIMA20190201_0628_19.jpg

Así "ve" la Jenga el robot



"Aún es un poco lento"
El robot aprende a base de la prueba y el error. Y sabe si después de un intento lo ha hecho mal, bien o regular. Podría jugar contra un humano, pero "aún es un poco lento y el oponente debe ser paciente", según el investigador. A diferencia de las últimas IAs presentadas, el objetivo no es batir al humano, sino que el robot entienda "la física en la que se sustenta la torre".

El proyecto pretende tener implicaciones más allá del campo de la investigación. Por ejemplo, a la hora de dotar a las máquinas de las capacidades necesarias para manipular objetos del mundo real. "Es importante que tengan la habilidad de adaptarse a situaciones cambiantes", continúa Oller.

El del MIT se refiere a la industria de la electrónica y la telefonía móvil, donde los componentes manipulados por las máquinas "son pequeños y pueden no ser visibles durante el proceso de ensamblaje, requiriendo basarse en el tacto". Aquí es donde el robot viene a aportar soluciones. Y es que aún somos mejores que ellos... al menos jugando a la Jenga.
https://www.eldiario.es/tecnologia/Jenga-parece-humanos-Inteligencia-Artificial_0_863013990.html
 
La tesis de Acemoglu y Restrepo: robots y automatización crean desempleo, desigualdad… y va a ir a más (pero no tendría por qué)

450_1000.jpg


Robots e inteligencia artificial, ¿amenazas o aliados para los trabajadores de las actuales economías postindustriales?

Hay división de opiniones al respecto, pero los economistas Daron Acemoglu (autor del popular libro '¿Por qué fracasan los países?') y Pascual Restrepo lo tienen muy claro: la automatización no sólo provocará un aumento del paro y la desigualdad en los próximos años, sino que lo lleva provocando desde los años 80.


La Cuarta Revolución Industrial no será como las anteriores, no

En una columna publicada hace unos días en varios medios internacionales, ambos autores repasan tendencias históricas sobre el papel de la automatización: según explican, la automatización ha sido motor de la productividad desde que la Revolución Industrial dio sus primeros pasos introduciendo la maquinaria de vapor en la industria textil.

Pero si ya en aquella época eso provocaba que se redujera la necesidad de mano de obra para determinadas tareas, al mismo tiempo el aumento de la productividad llevaba aparejado un aumento de la demanda de mano de obra para nuevas ocupaciones y sectores, con lo que su impacto sobre el empleo y el nivel salarial terminaba arrojando un saldo positivo.

Hoy en día, muchos defensores de la IA sostienen que las mismas dinámicas que prevalecieron durante la Primera Revolución Industrial (y la segunda y la tercera) seguirán vigentes con la cuarta, y que el uso de algoritmos, robots, impresión 3D y otras nuevas tecnologías sólo reducirán el empleo en determinados sectores para aumentarlos en mayor proporción en otros.

Sólo podríamos esperar, por tanto, que los indicadores de prosperidad que en los últimos años han ido aumentando progresivamente en todo el mundo (guerras y crisis puntuales al margen) no sólo mantengan su trayectoria, sino que aumenten en ritmo gracias a la naturaleza disruptiva de dichas tecnologías.


El efecto positivo de la tecnología está empezando a fallar (por nuestras malas decisiones)

Pero Acemoglu y Restrepo no sólo no están de acuerdo con que eso vaya a ser así: discrepan ya en la afirmación de que hasta ahora, el aumento de la automatización haya tenido en todo momento efectos positivos.

Su tesis es que, en las últimas tres décadas, el crecimiento de la automatización ha rebajado, sí, los costes laborales para las empresas... pero que los efectos positivos que lo acompañaban han ido frenándose, estancando el crecimiento de la demanda de empleos y del nivel salarial:

"Resulta inquietante, pero la IA parece estar exacerbando este [nuevo] patrón, desembocando en una desigualdad aún mayor".

Pero lo más significativo es que ambos economistas no consideran que esto se esté dando como resultado inevitable de la naturaleza de la inteligencia artificial, sino por una cuestión de qué paradigma tecnológico y empresarial influye más en cada momento. Y los autores están convencidos de que "se está promoviendo el tipo equivocado de inteligencia artificial".


450_1000.jpg


Los autores apuestan por aplicar la IA a la fabricación de precisión y dejarla en manos humanas. (Imagen de la Agencia Espacial Europea)
De hecho, afirman que la IA "podría estar siendo usada para reestructurar tareas y crear nuevas actividades con las que se pueda volver a generar mano de obra", poniendo como ejemplo su potencial para auxiliar a que médicos y maestros ofrezcan atención individualizada a cada uno de sus pacientes y alumnos, respectivamente.

Por otra parte, los posibles beneficios de la IA para el empleo no se limitan al sector servicios: gracias a los avances en la realidad aumentada y virtual, también se podría utilizar para crear nuevos puestos de trabajo para humanos en la fabricación de alta precisión, actualmente dominada por los robots industriales.

"Es tentador pensar que el mercado va a traducir estas promesas en realidad [...] algunas tecnologías tienen la capacidad de estimular la creación de empleo y reducir la desigualdad, con enormes beneficios sociales que ni los inventores ni los 'early adopters' tienen en cuenta".

El problema es que [...] cuanto más tome la delantera el paradigma de la automatización, más incentivos de mercado favorecerán la inversión en esa área a expensas de otros paradigmas que podrían crear nuevas ocupaciones que hiciera uso intensivo de mano de obra".

Pero, ¿quién determina qué paradigma prevalece o pierde fuelle? ¿Por qué se impone la apuesta por la automatización, pese a que Acemoglu y Restrepo lo califican como "no especialmente productiva"? Ellos lo tienen claro:

"El campo está dominado por un puñado de grandes empresas de tecnología con modelos de negocio estrechamente ligados a la automatización.

Estas empresas representan la mayor parte de las inversiones en investigación en el el campo de la inteligencia artificial, y han creado un entorno empresarial en el que la eliminación de los seres humanos falibles de los procesos de producción es visto como un imperativo tecnológico y empresarial".

https://www.xataka.com/inteligencia...esempleo-desigualdad-va-a-ir-a-no-tendria-que
 
Así es el robot que repta como una serpiente y nada como un calamar
Se desplaza con facilidad en diferentes superficies. Está pensado para hacer exploraciones y ayudar en misiones de rescate

VIDEO:
blob:https%3A//www.infobae.com/4f8ab727-3213-4a13-a6b5-23137884d36c


Repta por la tierra como si fuera una serpiente y se desplaza por el mar como si fuera un calamar. Se trata del robot Velox, desarrollado por la compañía Pliant Energy Systems. Sus diseños están inspirados en el reino animal. De esa manera se aseguran crear dispositivos que se adaptan a diferentes superficies con facilidad.

Velox cuenta con unas aletas que, según describe la compañía en su página, se pueden describir como "objetos de cuatro dimensiones con una geometría hiperbólica" que le permite nadar y moverse por la tierra.
Gracias a su flexibilidad y capacidad de adaptación, el robot puede ser utilizado para realizar misiones debajo del agua como por ejemplo exploración de corales, o ayudar en el rescate de personas.

Robot-Velox-de-Pilant-Energy-Systems-1.jpg

El robot se desplaza por el agua y la tierra.

El robot se propulsa bajo el agua y también se puede maniobrar con facilidad para que vaya al ras del suelo o flotando. A su vez, se puede usar en superficies terrestres de todo tipo (como en hielo o arena) para explorar diferentes animales desde cerca. Como cuenta con comunicación wifi, es posible recibir información en tiempo real.

Lo más interesante de Velox es que se puede adaptar a diferentes entornos y que se lo puede manejar con facilidad. Esto podría ser utilizado para exploraciones o rescates.

Robot-Velox-de-Pilant-Energy-Systems-3.jpg

Velox fue desarrollado por la compañía Pilant Energy Sytems
En el último tiempo, se desarrollaron robots con diferentes diseños para adaptarse al propósito que se le quiera dar. Tal es el caso de los modelos microscópicos pensados para ingresar dentro del cuerpo humano con el fin de administrar medicamentos, despejar arterias obstruidas y hasta para tratar el cáncer.

https://www.infobae.com/america/tec...ta-como-una-serpiente-y-nada-como-un-calamar/
 
Ponen una IA de DeepMind a resolver un examen escolar de matemáticas y suspende: no fue capaz de sumar bien "1+1+1+1+1+1+1"

450_1000.jpg


En los últimos años DeepMind, la filial británica de Google dedicada al sector de la inteligencia artificial, ha logrado desarrollar IAs capaces no sólo de aprender por sí mismas las reglas de juegos de mesa (como el Go) o videojuegos (como Starcraft), sino de ganar a los campeones humanos de los mismos.

Por eso, cuando los investigadores de la compañía decidieron dejar de lado los juegos y pasarse a asuntos más 'de el día a día', como la resolución de problemas escolares de matemáticas (dirigidos de jóvenes británicos de 16 años), podía parecer que no se hallaban ante una labor más compleja que las anteriores.


Te esperamos en la recuperación, DeepMind

Y, sin embargo, cuando la red neuronal que desarrollaron se puso a prueba con ejercicios reales de aritmética, álgebra y probabilidad, el resultado fue un pequeño fiasco: suspenso. Sólo fue capaz de acertar en la respuesta de 14 de las 40 preguntas realizadas.

Sin embargo, el problema no fue tanto su efectividad como lo incomprensible de su comportamiento. Por ejemplo, cuando se le pidió que sumara 1+1+1+1+1+1 fue capaz de contestar correctamente '6'... pero no contestó correctamente cuando se le preguntó por el resultado de "1+1+1+1+1+1+1" (un 'uno' más).


Otra rareza fue responder correctamente a la pregunta "Calcula cuánto es 17 × 4.": '68'. Pero, cuando se borra el punto al final de la frase... la respuesta pasa a ser '69'. ¿Extraño, verdad?

Eso sí, hay que tener claro de qué estamos hablando: obviamente, existen inteligencias artificiales capaces de calcular correctamente esas operaciones (tendríamos un problema en caso contrario): lo que ocurre es que DeepMind pretendía crear una red neuronal capaz de aprender matemáticas desde cero recurriendo al machine learning.

Los investigadores (David Saxton, Edward Grefenstette, Felix Hill y Pushmeet Kohli) explican precisamente eso en su paper "Análisis de destrezas de razonamiento matemático de los modelos neuronales":

"Lo que nos interesa evaluar aquí son los modelos de propósito general, no los que vienen con conocimientos de matemáticas ya incorporados".

Reconocen, sin embargo, que aún no tienen una buena explicación para este comportamiento, puesto que hubo errores como el de "1+1+1+1+1+1+1 = 7" que no se reproducían al abordar cuentas más complejas.

En palabras de David Saxton, "en este momento, sistemas de aprendizaje como las redes neuronales son bastante malos a la hora de poner en práctica el razonamiento algebraico". Para Saxton, que nosotros contemos con "habilidades de razonamiento general" de los que la IA carece afecta a la forma en que ésta 'lee' las operaciones (y las va realizando sobre la marcha).

https://www.xataka.com/inteligencia...uspende-no-fue-capaz-sumar-bien-1-1-1-1-1-1-1
 
Científicos de la UPF desarrollan una IA para capturar el movimiento de los violinistas y ayudarles a evaluar y mejorar su técnica

450_1000.jpg



Los gestos y movimientos de un músico son de suma importancia para el resultado final de su interpretación. Por eso, aquellos profesionales más interesados en mejorar su técnica, a los que no les basta con ser "bastante buenos", recurren en ocasiones a las tecnologías de captura de movimiento, capaces de detectar con precisión sus detalles gestuales.

Pero ahora dos investigadores, David Dalmazzo y Rafael Ramírez, miembros del Music and Machine Learning Lab de la Universidad Pompeu Fabra, han llevado esta técnica un paso más allá gracias a la inteligencia artificial, usándola para llevar a cabo una clasificación automática de las técnicas de arco a partir de los movimientos de un violinista.

En este caso, la captura de movimiento se realizó gracias a un brazalete de control por gestos Myo, para registrar los movimientos del brazo derecho de un violinista profesional.

"Grabamos datos de movimiento y audio correspondientes a siete técnicas de arco representativas (Détaché, Martelé, Spiccato, Ricochet, Sautillé, Staccato y Bariolage) [...]. Obtuvimos información del movimiento inercial desde el antebrazo derecho y lo sincronizamos con grabaciones de audio".


En Xataka
La inteligencia artificial es también todo un reto para los críticos musicales

Un sistema identifica las técnicas de arco en la interpretación de violín con un 94 % de precisión
Los algoritmos de machine learning son los encargados de comparar los movimientos del brazo con el audio correspondiente, permitiendo determinar qué movimiento generan cada sonido, dentro de cada una de las técnicas. "Nuestros hallazgos ya han sido generalizados a otros instrumentos musicales y aplicados en entornos de educación musical", añade Rafael Ramírez, investigador principal del proyecto.

El modelo desarrollado puede identificar las siete técnicas de interpretación citadas con una precisión superior al 94%, lo que permite que los estudiantes de violín pueden beneficiarse en tiempo real del feedback que proporciona este sistema, así como permitirles comparar sus interpretaciones con las de expertos de primer nivel y saber en qué difieren sus propios movimientos de los de ellos.

Este estudio, publicado recientemente en la revista Frontiers in Psychology, se ha llevado a cabo en el marco del proyecto TELMI (Technology Enhanced Learning of Musical Instrument Performance), cuyo propósito es investigar el modo en que la tecnología (sensores, datos multimodales, inteligencia artificial, y sistemas computacionales) pueden mejorar las prácticas de los estudiantes de música, ayudándolos a concentrarse en el desarrollo preciso de los buenos hábitos.

En su 'paper', los investigadores hablan del Internet de las Cosas Musicales (IoMusT) como "un campo emergente" y "extensión de la Internet de las Cosas (IoT)", en el que "los nuevos modelos que utilizan dispositivos portátiles basados en magnetómetros, giroscopios y acelerómetros, conjuntamente con algoritmos de aprendizaje automático se reportan como soluciones eficientes y de bajo coste para el análisis de movimiento del cuerpo y la información gestual".

https://www.xataka.com/inteligencia...nistas-ayudarles-a-evaluar-mejorar-su-tecnica
 
Detengamos a los robots asesinos antes de que existan
Por Aníbal Monasterio Astobiza y Daniel López Castro

12 de abril de 2019

Michihito-Matsuda-robot-politico-2.jpg

Muchas tecnologías emergentes presentan desafíos éticos, legales, sociales y políticos. Nos referimos a los recientes avances en inteligencia artificial (IA), investigación genómica, nanotecnología, robótica, ciencias de la computación y neurociencia aplicada.

Juntas, estas tecnologías pueden manipular los átomos de la materia física, la información digital y biológica (ADN) y las células nerviosas. Esta convergencia "nano-info-bio" y su aplicación en un contexto militar puede transformar la forma en la que los seres humanos entran en guerra.

Una de las mayores preocupaciones éticas es el uso dual de la investigación científica con propósitos militares. Muchos científicos se sienten culpables por haber recibido financiación del ejército para llevar a cabo sus experimentos. Muchos otros rehusaron colaborar:

John Napier (1550-1617), matemático escocés y fundador de la teoría de los logaritmos, bosquejó el diseño de una nueva forma de artillería que luego ocultó.


Norbert Wiener (1894-1964), padre de la cibernética que trabajó durante la Segunda Guerra Mundial en el control y guía de misiles, renegó de su participación. Prometió no volver a publicar nada más sobre el tema.

En la actualidad, Google se retiró de una puja por un contrato multimillonario con el Departamento de Defensa de los EE UU para crear computación en la nube.

Sin embargo, el potencial beneficio de desarrollar tecnologías con usos civiles y comerciales, pero también militares, no escapa a la atención de científicos y empresas. Principalmente porque en un entorno de escasos recursos financieros no se puede cerrar la puerta a los fondos militares. La alternativa es dejar la carrera investigadora.

JAPAN-GIANTROBOT-4.jpg

Mononofu REUTERS/Kim Kyung-Hoon
Máquinas que ayuden a jueces y médicos
La IA tiene como objetivo crear máquinas inteligentes, pero también entender mejor la inteligencia biológica. Los investigadores no tardaron mucho en darse cuenta de que, en lugar de crear computadoras a las que entrenar con grandes cantidades de información, era mejor darles la capacidad de aprender sin un programa explícito.

Así nacieron el "aprendizaje automático" (machine learning) y una técnica dentro de este subcampo llamada "aprendizaje profundo" (deep learning), en la que se desarrollan "redes neuronales". En otras palabras, nodos computacionales interconectados entre sí que imitan la capacidad del cerebro humano de percibir, procesar y trasmitir información.

El aprendizaje automático ha mejorado gracias a la gran cantidad de información (big data) de la que disponemos en la actualidad, gracias sobre todo a internet.

La IA puede ofrecer diagnósticos fiables en medicina sobre la base de los síntomas de los pacientes y tomar decisiones en consecuencia, detectar anomalías en imágenes con mayor fiabilidad que radiólogos o promover una medicina de precisión.

En el derecho, la IA puede procesar miles de sentencias en cuestión de milisegundos y encontrar patrones específicos gracias a sofisticados algoritmos de procesamiento del lenguaje natural (escrito) mucho mejor que abogados o jueces humanos.

La IA aplicada al transporte y la movilidad nos ofrece los vehículos autónomos o coches sin conductor que mejoran la seguridad y el confort de los usuarios reduciendo la siniestralidad.

Un futuro distópico
El progreso reciente en IA, aprendizaje automático y visión computacional también tiene, si no somos precavidos, consecuencias negativas.

Robots kamikazes.

Flotas de vehículos autónomos con el objetivo intencional de colisionar.

Drones comerciales convertidos en misiles.

Vídeos e imágenes fabricados para apoyar bulos.

Estos y otros muchos escenarios distópicos son ya posibles: ciudadanos, organizaciones y estados deben hacer frente a los peligros del mal uso de la IA.

Regulación de las armas autónomas letales
Cada uno de estos campos de aplicación tiene sus preocupaciones éticas, legales y sociales, pero ninguna tan trascendental como su implementación en el campo de batalla, donde se puede arrebatar la vida de un ser humano.

¿Qué implica dar a las máquinas la autoridad para decidir sobre la vida y la muerte? La implementación de la IA para el desarrollo de armas autónomas letales promete reducir daños colaterales y bajas civiles. Al mismo tiempo, se envía al campo de batalla a computadoras en vez de soldados.

Pero, como decíamos más arriba, esto es un arma de doble filo.

A principios del 2018 el Secretario General de Naciones Unidas, Antonio Guterres, llamó la atención sobre los peligros del uso de la IA en contextos militares:

“La militarización de la inteligencia artificial es una preocupación creciente. La perspectiva de armas que puedan seleccionar y atacar a un objetivo por sí solas aumenta las alarmas… La perspectiva de máquinas con la discreción y el poder de quitar vidas humanas es moralmente repugnante”.
Antes de hablar de la regulación de las armas autónomas letales es preciso describir la militarización de la IA. Para valorar esta tecnología debemos saber qué es lo que puede hacer.

En 2013 los académicos Altmann, Asaro, Sharkey y Sparrow fundaron el Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés). Su misión se resume así:

“Dado el rápido avance en el desarrollo de robots militares y los peligros que entrañan para la paz y seguridad internacional y los civiles en la guerra, hacemos un llamamiento a la comunidad internacional para comenzar un debate sobre un régimen de control de armas para reducir la amenaza de estos sistemas”.
Propusieron una serie de temas para definir el debate. Por ejemplo, la prohibición y uso de estos sistemas, porque las máquinas no deben tomar la decisión de matar a la gente, incluso en el espacio exterior.

También en 2013 se lanzó una campaña para "detener a los robots asesinos" y se debatió en el Consejo de Derechos Humanos la prohibición de robots militares.

robots-aut%C3%B3nomos-guerra.jpeg

Aclarando términos
Un robot militar no es lo mismo que un drone, ni un drone es lo mismo que un sistema de armas autónomas letales.

Un robot militar es un robot que puede ser usado como arma en un contexto militar. Un robot es un "mecanismo actuable y programable que se mueve por el entorno para realizar tareas intencionales" (ISO-8373, 2012). Por tanto, un robot militar es un arma semiautónoma que puede seleccionar y atacar objetivos sin supervisión, pero está bajo el control último de un operador humano. En otras palabras, es una máquina de guerra artificialmente inteligente.

Un drone es un "vehículo remotamente pilotado no-tripulado". Son usados de manera frecuente para no poner en riesgo la vida de los pilotos. Portan cámaras de visión muy sofisticadas que permiten ver la mayor parte del espacio aéreo y terrestre por donde pasan. Dos modelos populares usados por las fuerzas armadas de los EE UU son el Predator y el Reaper. En dicho país una de cada tres aeronaves es un drone.

Israel, China, Corea del Sur, Rusia y Reino Unido también cuentan con drones en su fuerza aérea.

A diferencia de un drone o un robot militar, un sistema de armas autónomas letales está compuesto por máquinas de guerra artificialmente inteligentes que pueden tomar decisiones tácticas militares sin intervención humana. Estos todavía no existen.

UN-Robots-3.jpg

Prohibición preventiva
Los sistemas de armas autónomas letales son la continuación lógica de los robots y los drones: máquinas autónomas por completo. La mera posibilidad de desarrollar algo así transformaría las guerras.

Por eso, mucho antes de que existan, la campaña "para detener a los robots asesinos" insta a su prohibición preventiva.

La iniciativa cuenta con el apoyo del Secretario General de Naciones Unidas, 21 premios Nobel, 86 ONG, 26 países, 25.000 expertos en IA y el Parlamento Europeo.

España no apoya abiertamente un tratado que regule el armamento autónomo. Eso, a pesar de que la profesora de Derecho de Roser Martínez y el investigador Joaquín Rodríguez, ambos de la Universidad Autónoma de Barcelona, participaron en un congreso sobre el Convenio sobre Ciertas Armas Convencionales (CCAC) celebrado en Ginebra en agosto del año pasado. En él, dejaron claro que una máquina no tiene en consideración el respeto por la dignidad humana.

La buena noticia es que, tras cinco años de reuniones del CCAC, se obtuvo un consenso general: es necesario mantener un control humano sobre los sistemas de armas autónomas letales, en particular en la selección de los objetivos.

En nuestra opinión, los responsables políticos deben trabajar con los expertos para regular el armamento autónomo. El uso de estos sistemas de armas autónomas letales debe ser prohibido.

Que máquinas artificiales puedan tener la última decisión sobre la vida y muerte de personas supone una grave amenaza para nuestro futuro. Los asuntos humanos no se limitan a los cómos, sino a los porqués. Tenemos la capacidad de resolver problemas diversos con la aplicación del conocimiento, pero seguiremos reflexionando con las herramientas conceptuales de la filosofía si debemos.
count.gif


Aníbal Monasterio Astobiza: Investigador Posdoctoral del Gobierno Vasco, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Daniel López Castro: Investigador predoctoral, Instituto de Filosofía, Grupo de Ética Aplicada, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)


Publicado originalmente en The Conversation.

https://www.infobae.com/america/tec...s-a-los-robots-asesinos-antes-de-que-existan/
 
Back