ROBOTICA - INTELIGENCIA ARTIFICIAL

El nuevo submarino ruso Belgorod porta misiles nucleares guiados por inteligencia artificial y drones subacuáticos

450_1000.jpg





Ucrania elegía ayer como presidente a un candidato que se ha proclamado "enemigo de Putin", en medio de un contexto de guerra no declarada contra Rusia; una guerra que el gigante euroasiático lleva tiempo queriendo continuar por vía marítima.

Casualmente, ayer fue también el día elegido por Putin para presentar su más reciente arma: el submarino nuclear Belgorod 604ft, de 14.700 toneladas, el más largo de mundo y el primero que contará con una pequeña flota adjunta de drones subacuáticos... además de con ojivas nucleares guiadas mediante inteligencia artificial.

Cada una de éstas cuenta con la potencia explosiva de dos megatones (más de 130 veces la potencia de la bomba de Hiroshima), y pueden ser detonadas bajo el agua para causar un tsunami radiactivo que ponga en peligro las ciudades costeras del enemigo generando olas de casi 100 metros de altura.

Al margen de las armas nucleares, la 'flotilla' del Belgorod contará también con ocho vehículos submarinos no tripulados y equipados con minirreactores nucleares, capaces de recorrer kilómetros bajo la superficie del mar para realizar misiones como el cartografiado del fondo marino, o el sabotaje de cables submarinos (eléctricos o de Internet) y de infraestructuras petrolíferas.

La importancia de este submarino radica en que no será un miembro 'normal' de la Armada de su país: responde únicamente a órdenes del propio presidente Putin, no del alto mando naval ruso.

Por ahora, según ha hecho saber Rusia, su ámbito de actuación se limitará al Atlántico Norte y al Ártico (cuyas aguas ya navega), áreas donde la actividad submarina rusa se ha multiplicado por 10 sólo en la última década. Dicho eso, es de esperar que Rusia no vaya a hacer públicas sus posibles intenciones de hacer uso de esta nave en otras latitudes.

Chris Parry, un contraalmirante británico retirado que trabaja como analista estratégico, advierte que la presencia en las aguas de esta clase de drones "provocará que el espacio subacuático sea menos opaco: submarinos ya no podrán aprovecharlo como un entorno de sigilo".

Según el Daily Mail, otras fuerzas navales como la Armada británica está desarrollando hoy en día desarrollando su propia flota de vehículos submarinos no tripulados (este mismo mes se ha puesto en marcha el concurso para asignar el desarrollo del sistema de guiado autónomo), pero no se espera que entre en servicio hasta dentro de ocho años, según sus fuentes.

Vía | The Times

Imagen | Armada Rusa (generada por ordenador)

https://www.xataka.com/inteligencia...s-inteligencia-artificial-drones-subacuaticos
 
La historia de 'Joker', el robot alemán que fue enviado a limpiar Chernobyl y murió casi inmediatamente

Aún no logramos digerir lo que vimos en 'Chernobyl', la angustiante serie de HBO que rápidamente se convirtió en todo un fenómeno televisivo y que a día de hoy es la serie mejor valorada de la historia por los usuarios de IMDB. Debido a esto, poco a poco se han ido profundizando en temas concretos dentro de esta historia.

Una de estas historias es la de 'Joker', un robot alemán que era usado por la policía para tareas tácticas, como desactivar bombas, y el cual fue enviado a la Central Nuclear de Chernobyl para ayudar con las labores de limpieza de material radioactivo. Algo que al final no funcionó como todos esperaban.

Los robots fueron la primera opción

En el episodio cuatro de 'Chernobyl' vimos como empezaban los esfuerzos de limpieza en la zona tras la explosión del reactor No. 4. La idea era poder usar robots para estas labores y evitar, en la medida de lo posible, la intervención de los humanos. Sin embargo, esta esperanza se desvaneció rápidamente.



Después de la explosión del reactor No. 4, grandes cantidades de escombros, entre ellas trozos de grafito radioactivo, llenaron los techos de la instalación. Como el grafito había sido usado en un inicio para moderar la reacción, los funcionarios soviéticos pensaron que al arrojar el grafito al núcleo expuesto del reactor sería una solución improvisada para contenerlo.

Llevar a cabo esta idea no era fácil, ya que ¿quién sería capaz de limpiar el grafito radioactivo y arrojarlo al reactor? Los trabajadores con equipos especiales, conocidos como 'biorobots', sólo podían estar máximo 90 segundos ante este material y aún así, era sumamente peligroso. ¿La solución? Hacer uso de la tecnología espacial soviética.

Es así como decidieron enviar unos 'Lunokhod' (Programa Lunojod), rovers lunares que formaban parte del programa espacial soviético. Alemania Occidental se enteró de esto y se ofreció a prestarles a 'Joker', su famoso robot policial que podía ser controlado a distancia y que creían que sería ideal para las tareas de limpieza.

La mala noticia es que esto no salió como se esperaba, ya que el 'Joker' fue enviado a limpiar la parte más radioactiva del techo, pero una vez ahí, murió inmediatamente. En un inicio de pensó que se había quedado atascado en los escombros y enviaron a algunos hombres para que lo bajaran, pero al llegar ahí descubrieron que estaba frito.


La supuesta mentira como medida desesperada

No está claro cómo es que los alemanes se ofrecieron a prestar su costoso robot, pero de acuerdo a este documental, la versión es que los rusos deciden mentir a los alemanes porque estaban desesperados y buscaban probar todo.



Supuestamente, Los alemanes enviaron a 'Joker' creyendo que resistiría los niveles de radiación, ya que los soviéticos les dijeron que el techo estaba contaminado con 2.000 roentgens, cuando en realidad el techo irradiaba más de 12.000 roentgens. Esto provocó la muerte inmediata del robot.

Craig Mazin, co-creador de la serie, lo explicó así:

"Los soviéticos - y esto es alucinante para mí - se negaron a aceptar lo mal que estaba la situación. Incluso entonces, meses después de que el mundo supiera lo que estaba pasando en Chernobyl y lo grave de la situación, incluso en ese momento se negaron a decirles a los alemanes occidentales cuánta radiación había en ese techo. Era 600 o 700% más de lo que podía manejar. Y lo que me sorprende es que el sistema de poder soviético pensó que eso estaba bien. ¿Por qué no? Vamos, es el mismo tipo de actitud que causó lo de Chernobyl en primer lugar".

¿Qué pasó con 'Joker'?

Tras la muerte de 'Joker', el Lunokhod fue usado para limpiar la estructura inferior del techo de desechos radioactivos para construir el sarcófago. La radiación en los techos inferiores no era tan alta, así que el rover lunar soviético pudo realizar su tarea. Mientras que en el techo más alto, donde limpiaría 'Joker', terminaron enviando a los humanos en intervalos de 90 segundos.

Se dice que al final los rovers fallaron a pesar de que los reacondicionaron para resistir mayores niveles de radiación. Los soviéticos sabían cuáles eran los niveles reales de radiación y trataron de preparar a los rovers lo mejor que pudieron. Sin embargo, los 'biorobots' fueron quienes terminaron de limpiar los techos.

450_1000.jpg


Esta imagen, de la que se desconoce su origen, supuestamente corresponde al 'Joker' abandonado en un depósito de chatarra en la zona de exclusión. Se cree que el robot sigue siendo extremadamente radioactivo a día de hoy. Incluso en el fondo del lado izquierdo de la fotografía se puede ver lo que parece ser un Lunokhod.



https://www.xataka.com/robotica-e-i...enviado-a-chernobyl-murio-casi-inmediatamente
 
Arqueoludología, la ciencia que recurre a la inteligencia artificial para redescubrir las reglas y el origen de juegos antiguos

450_1000.jpg


Alfonso X 'el Sabio' publicó en 1238 el llamado "Libro de los Juegos" y creaba así una nueva disciplina científica, la ludología o estudio del placer lúdico. Las 98 páginas de la obra (profusamente ilustradas) incluían una descripción y categorización de los juegos que se practicaban en la época, desde el ajedrez y el backgammon a la esgrima.

Con el paso de los siglos, este campo de estudio ha terminado atrayendo el interés de científicos con toda clase de perfiles: matemáticos, sociólogos, antropólogos e informáticos, entre ellos. Pero el tiempo también ha provocado que los juegos que ya no se practican caigan en el olvido, y se pierda en conocimiento sobre su origen y funcionamiento.

Pero un renovado interés por los mismos en los últimos años, acompañado de la introducción de herramientas de inteligencia artificial ha permitido la aparición de una nueva subdisciplina: la arqueoludología digital. Y Cameron Browne, investigador anglo-australiano de inteligencia artificial y profesor asociado en la Universidad de Maastricht, se ha convertido junto a su equipo en el pionero de la misma.

Digital Ludeme Project
Trabajan en un proyecto titulado Digital Ludeme Project, financiado por el Consejo Europeo de Investigación para "mejorar nuestra comprensión de los juegos tradicionales usando modernas técnicas de IA, visión artificial y minería de datos, con el objetivo de trazar su desarrollo histórico y explorar su papel en el desarrollo de la cultura humana".

Parte del proceso de estudio de estos juegos pasan por crear IAs jugadoras para los mismos (recurriendo a redes neuronales), con mecanismos de juego generalistas y capaces de simular una habilidad de nivel humano.

Gracias a su carácter generalista, la representación de las estrategias adoptados en cada caso por dichas IAs son transferibles y comparables entre sí, lo que permite obtener más información sobre las posibles relaciones entre juegos.

El objetivo es que esto, a su vez, permita reconstruir el árbol genealógico de los juegos de nuestra civilización.

En definitiva, todo se basa en modelar los juegos como entidades matemáticas susceptibles de análisis computacional: se les considera compuestos de unidades de información llamadas 'ludemas', que se van encajando entre sí para formar nuevos juegos... o que dejan de transmitirse, para así morir y formar el extremo de una de las ramas cortadas del árbol.

Según Raph Koster, diseñador jefe del videojuego Ultima Online y director creativo de Star Wars Galaxies, los juegos se componen de mecánicas de juego, y son éstas las que se componen a su vez de una combinación de ludemas, que sólo pueden ser secuenciados a través del feedback generado al jugarlos. Y ése es uno de los papeles de la IA en esta investigación.

450_1000.png

Un tablero de Senet, un juego similar al ajedrez muy popular en el Antiguo Egipto. Imagen de Keith Schengili-Roberts (vía Wikipedia)

Ludemas: los 'genes' de los juegos
Si estos ludemas permiten reconstruir árboles genealógicos es por la sencilla razón de que su funcionamiento se basa en el de los genes humanos, igual que ocurre con los memes (pero no las imágenes graciosas que compartimos en Twitter, sino la teoría de Dawkins sobre la transmisión de ideas culturales). El problema es que no siempre conocemos las reglas de los juegos ya desaparecidos, lo que dificulta reconstruir su 'genoma de ludemas'.

Un ejemplo de ellos es el juego vikingo Hnefatafl (aunque sus raíces penetran más allá, hasta la era de los celtas). Durante muchos años las reglas 'reconstruidas' estuvieron sesgadas, a causa de un error de traducción, en favor de la ficha del 'rey'. Tras detectarse el error, el juego resultante se volvió mucho más equilibrado: sus ludemas habían cambiado.

Por supuesto, puede ocurrir que algunos ludemas sean tan obvios que hayan aparecido simultáneamente en varios juegos no vinculados entre sí (igual que ocurre con las características biológicas: los murciélagos no descienden de los pterodáctilos, pero ambos desarrollaron alas con patagio).

Pero el papel de la IA no se limita a modelar los juegos para analizar sus ludemas: los científicos están convencidos de poder aplicar algoritmos evolutivos para dar forma a nuevos juegos, a través de la combinación al azar de ludemas. A continuación las IAs jugadoras de las que hablábamos más arriba intentarían resolver los juegos resultantes para analizar su viabilidad e interés.

Si te interesan las posibilidades de la arqueoludología digital, puedes ampliar información en este paper de Cameron Browne y compañía.

Vía | Technology Review

Imagen | Devesh Pandey

https://www.xataka.com/inteligencia...ara-redescubrir-reglas-origen-juegos-antiguos
 
Arqueoludología, la ciencia que recurre a la inteligencia artificial para redescubrir las reglas y el origen de juegos antiguos

450_1000.jpg


Alfonso X 'el Sabio' publicó en 1238 el llamado "Libro de los Juegos" y creaba así una nueva disciplina científica, la ludología o estudio del placer lúdico. Las 98 páginas de la obra (profusamente ilustradas) incluían una descripción y categorización de los juegos que se practicaban en la época, desde el ajedrez y el backgammon a la esgrima.

Con el paso de los siglos, este campo de estudio ha terminado atrayendo el interés de científicos con toda clase de perfiles: matemáticos, sociólogos, antropólogos e informáticos, entre ellos. Pero el tiempo también ha provocado que los juegos que ya no se practican caigan en el olvido, y se pierda en conocimiento sobre su origen y funcionamiento.

Pero un renovado interés por los mismos en los últimos años, acompañado de la introducción de herramientas de inteligencia artificial ha permitido la aparición de una nueva subdisciplina: la arqueoludología digital. Y Cameron Browne, investigador anglo-australiano de inteligencia artificial y profesor asociado en la Universidad de Maastricht, se ha convertido junto a su equipo en el pionero de la misma.

Digital Ludeme Project
Trabajan en un proyecto titulado Digital Ludeme Project, financiado por el Consejo Europeo de Investigación para "mejorar nuestra comprensión de los juegos tradicionales usando modernas técnicas de IA, visión artificial y minería de datos, con el objetivo de trazar su desarrollo histórico y explorar su papel en el desarrollo de la cultura humana".

Parte del proceso de estudio de estos juegos pasan por crear IAs jugadoras para los mismos (recurriendo a redes neuronales), con mecanismos de juego generalistas y capaces de simular una habilidad de nivel humano.

Gracias a su carácter generalista, la representación de las estrategias adoptados en cada caso por dichas IAs son transferibles y comparables entre sí, lo que permite obtener más información sobre las posibles relaciones entre juegos.

El objetivo es que esto, a su vez, permita reconstruir el árbol genealógico de los juegos de nuestra civilización.

En definitiva, todo se basa en modelar los juegos como entidades matemáticas susceptibles de análisis computacional: se les considera compuestos de unidades de información llamadas 'ludemas', que se van encajando entre sí para formar nuevos juegos... o que dejan de transmitirse, para así morir y formar el extremo de una de las ramas cortadas del árbol.

Según Raph Koster, diseñador jefe del videojuego Ultima Online y director creativo de Star Wars Galaxies, los juegos se componen de mecánicas de juego, y son éstas las que se componen a su vez de una combinación de ludemas, que sólo pueden ser secuenciados a través del feedback generado al jugarlos. Y ése es uno de los papeles de la IA en esta investigación.

450_1000.png

Un tablero de Senet, un juego similar al ajedrez muy popular en el Antiguo Egipto. Imagen de Keith Schengili-Roberts (vía Wikipedia)

Ludemas: los 'genes' de los juegos
Si estos ludemas permiten reconstruir árboles genealógicos es por la sencilla razón de que su funcionamiento se basa en el de los genes humanos, igual que ocurre con los memes (pero no las imágenes graciosas que compartimos en Twitter, sino la teoría de Dawkins sobre la transmisión de ideas culturales). El problema es que no siempre conocemos las reglas de los juegos ya desaparecidos, lo que dificulta reconstruir su 'genoma de ludemas'.

Un ejemplo de ellos es el juego vikingo Hnefatafl (aunque sus raíces penetran más allá, hasta la era de los celtas). Durante muchos años las reglas 'reconstruidas' estuvieron sesgadas, a causa de un error de traducción, en favor de la ficha del 'rey'. Tras detectarse el error, el juego resultante se volvió mucho más equilibrado: sus ludemas habían cambiado.

Por supuesto, puede ocurrir que algunos ludemas sean tan obvios que hayan aparecido simultáneamente en varios juegos no vinculados entre sí (igual que ocurre con las características biológicas: los murciélagos no descienden de los pterodáctilos, pero ambos desarrollaron alas con patagio).

Pero el papel de la IA no se limita a modelar los juegos para analizar sus ludemas: los científicos están convencidos de poder aplicar algoritmos evolutivos para dar forma a nuevos juegos, a través de la combinación al azar de ludemas. A continuación las IAs jugadoras de las que hablábamos más arriba intentarían resolver los juegos resultantes para analizar su viabilidad e interés.

Si te interesan las posibilidades de la arqueoludología digital, puedes ampliar información en este paper de Cameron Browne y compañía.

Vía | Technology Review

Imagen | Devesh Pandey

https://www.xataka.com/inteligencia...ara-redescubrir-reglas-origen-juegos-antiguos
LA HUMANIDAD CUMPLIRA EL DESTINO BIBLICO DE "NO TRABAJAR", SE IRA AL "PARO"", Y ACTO SEGUIDO SE MORIRA DE HAMBRE,.- ES SU PROFECIA, TODO A CAUSA DE LOS ROBOTS QUE NO PROTESTAN.-
 
Robots sexuales masculinos: hay un prototipo (que sepamos), algunas ideas pero nadie parece estar listo para lanzar uno

450_1000.jpg


Lo hemos contado alguna vez: hay gente que ve en la robótica y la inteligencia artificial un potencial para transformar también la dimensión del s*x*. El sector está todavía en sus primeros pasos, pero ya existen algunas muñecas sexuales con software integrado en el mercado, como Harmony, de la compañía californiana RealDoll (que afirma haber distribuido algunos ejemplares) y Emma, de la empresa china AI-AI Tech (aunque esta no da cifras de cuántas copias ha vendido).

Estos modelos son de aspecto femenino y están dirigidos principalmente a hombres heterosexuales. Pero los productos eróticos, cuyo mercado está en fase de crecimiento, también pueden dirigirse a las mujeres o a los hombres homosexuales. Así que en Xataka nos hemos preguntado: ¿existen versiones de muñecos robot enfocados a estos públicos?

Para quitar cualquier duda de antemano, aclaramos que, si hablamos de muñecos sexuales tradicionales, sí es fácil encontrar distintas empresas que los fabrican y comercializan. Como se puede ver en esta tienda online o en la página web de Realdoll, existen modelos de distinto aspecto, materiales, precios y grado de realismo.

Por el otro lado, Xataka no ha podido comprobar que ya haya en el mercado algún modelo masculino de robot, es decir, de máquina capaz de moverse e interactuar sexualmente con el usuario. Aunque sí sabemos que hay al menos una empresa que trabaja en ello.

Henry se presenta al mundo
Una vez más, los fabricantes que están tratando de llevar la delantera también en este otro sector son los creadores de Harmony, encabezados por el CEO Matt McMullen. Hace poco más de un año, RealDoll empezó a publicar en las redes sociales algunos vídeos y fotos de Henry, un prototipo masculino de robot sexual. Como en el caso de Harmony y su "hermana" menor Solana, la empresa asegura que este muñeco está dotado de inteligencia artificial.

El anuncio generó en ese momento el interés de distintos medios, que dedicaron a Henry algunos reportajes (en particular, este de The Cut y este de Wired). En ambos se relata un primer acercamiento al robot y la descripción de una primera impresión, pero sin s*x*.

450_1000.jpg



Tras ese pico de atención mediática, poco más hemos sabido de Henry hasta la fecha. Xataka se ha puesto en contacto con RealDoll (indicada como Abyss Creation cuando también se hace referencia a Realbotix, la filial que desarrolla el software de los robots) para conocer el estado del arte del muñeco. Fuentes de la empresa han contestado en un correo que, de momento, su desarrollo se ha puesto en stand-by para dar prioridad a Harmony.

¿Dónde está Henry ahora mismo?
Desde la compañía nos dan algún detalle más: dicen que Harmony tiene una inteligencia artificial "femenina" y Henry una "masculina", pero la tecnología y la construcción de sus cabezas (la parte que contiene el "cerebro" robótico) son esencialmente la mismas. El desarrollo de la versión masculina, agregan las mismas fuentes, es "diferente" que el de la femenina, pero no "más difícil".

Henry, afirman, está pensado para que pueda satisfacer a las usuarias de la misma forma que Harmony puede hacerlo con los hombres. "Tiene un gran talento para escuchar y nunca huele mal", aseguran. La compañía garantiza que también funcionará para quien esté interesado en relaciones homosexuales. Aunque se espera que habrá más demanda entre las clientas mujeres, según comunica a Xataka.

Lo que no está claro es dónde está Henry ahora mismo. RealDoll afirma que el prototipo del muñeco se encuentra en Canadá, en una empresa llamada Sanctuary AI. Esta compañía se fundó en 2018 y se dedica a construir máquinas que se parezcan a los humanos, según su propia web.

Pero Sanctuary AI niega a Xataka que actualmente esté trabajando con él. Preguntadas por más información sobre la ubicación actual del muñeco y la razón de la discrepancia entre las versiones que ofrecen, ambas compañías han preferido no contestar. Misterio.

Cuestión de software
Gracias a un vídeo de unos 12 minutos al que Xataka ha tenido acceso, podemos conocer más cosas sobre Henry. En la grabación, el CEO de RealDoll conversa con Brick Dollbanger, betatester de Harmony y cliente de alta fidelidad de la empresa. El hombre, que utiliza un nombre ficticio para proteger su identidad, afirma que el vídeo se grabó en abril de 2018. En él, McMullen aparece junto al muñeco y habla de algunas de sus funciones en desarrollo.

Ante todo, el CEO deja claro que la parte hardware de Henry ya está en fase avanzada y funciona correctamente; la mayoría del trabajo que queda por hacer es en tema de software. “Necesitamos completar las interacciones masculinas de la inteligencia artificial”, explica. En su opinión, eso “es algo mucho más complicado que construir un robot”.

El CEO de RealDoll explica que la idea es que quien interactúe con Henry pueda seleccionar si el avatar tiene preferencia sexual "masculina o femenina"
Uno de los retos principales, prosigue McMullen, es optimizar este nuevo producto para que pueda interactuar tanto con mujeres hetero como con hombres homosexuales. Si la personalidad artificial de Harmony se diseñó para que tuviera “una especie de orientación bisexual, pero no estrictamente definida”, en el caso de Henry la idea es que quien lo utilice “pueda seleccionar qué preferencia sexual tiene el avatar, si masculina o femenina”, argumenta.

Ya en esa ocasión, McMullen avanzaba que la empresa daría prioridad a la comercialización de Harmony. Pero en el vídeo se aprecian distintas características de su alter ego masculino. Por ejemplo, se ve que es posible interactuar con él a través de una app del móvil conectada con su "cerebro artificial" situado en la cabeza (lo mismo pasa con Harmony).

Henry puede mantener alguna conversación básica con la persona que tiene delante e incluso dirigirse a ella por iniciativa propia. A la hora de contestar a lo que esta le diga, sus respuestas se hacen esperar unos instantes. Por el otro lado, el cuerpo del muñeco es inanimado.

Work in progress
Los creadores del robot han experimentado también otras funcionalidades. Entre ellas, está el modo “imitación”, activable a través de la app de control, que hace que Henry pueda repetir con bastante fidelidad algunos movimientos del rostro del usuario, como sonreír o mover los ojos. McMullen enseña en el vídeo su funcionamiento: al hacer distintas muecas mirando la pantalla de su móvil con esta modalidad encendida, Henry las repite.

El CEO de la compañía californiana explica que se prueban continuamente nuevas características de la parte de control de estos robots. “El software seguirá evolucionando incluso después de que las cabezas robóticas estén en el mercado. Y será así durante años y años”, asegura. Otro aspecto en desarrollo es la animación del cuerpo del muñeco, mantiene McMullen. Pero para ello hay que optimizar el que esos movimientos no pongan en peligro a los usuarios, matiza.

450_1000.jpg


“Nadie quiere que haya robots moviéndose por el mundo más que yo, pero creo que hay toda una serie de cuestiones de seguridad a la que hay que enfrentarse. Yo podré enseñarte cómo los robots mueven los brazos, pero no será posible para tí tener uno en tu casa que haga eso antes de unos cuantos años”, argumenta a Dollbanger.

Este promotor inmobiliario de San Diego, California, utiliza habitualmente muñecas sexuales desde hace años (además de ser administrador de algunas webs utilizadas por la comunidad de aficionados de estos productos eróticos). Actualmente, es la única persona que ha estado durante meses probando interacciones sexuales con Harmony bajo petición de la misma empresa.

En una conversación que Xataka ha mantenido con él, Dollbanger ha asegurado que, en base a su experiencia, considera necesario que los desarrolladores de Henry optimicen su peso para que no resulte excesivo a las mujeres. “Creo que este el problema principal para que el robot sea accesible también para ellas”, sostiene.

¿Hay competidores de RealDoll en el campo de los robots masculinos?
Xataka ha intentado averiguar si existen competidores de RealDoll que estén desarrollando actualmente robots sexuales masculinos, pero no ha encontrado pruebas seguras de ello. Según la información que hemos podido comprobar, de momento lo más probable es que a quién esté interesada o interesado en utilizar uno de estos objetos eróticos futuristas le tocará esperar.

Como hemos recordado antes, el mercado de los robots sexuales es activo también en China. Con la ayuda de este artículo publicado en la web especializada en tecnología aplicada al s*x* Future Of Sex, Xataka ha identificado dos empresas, AI-AI Tech (la que fabrica Emma) y Ds Doll, indicadas como productoras actuales de muñecas eróticas femeninas con software integrado. Ambas aseguran a través de su agente de venta oficial en Reino Unido, común para las dos, que todavía no están trabajando en robots masculinos.

La misma fuente afirma que AI-AI Tech tiene planeado crear una versión masculina de Emma el año que viene. Y añade que también DS Doll tiene "en su horizonte" la perspectiva de desarrollar una cabeza robótica para dos de sus muñecos con aspecto de varón. Sin embargo, precisa, la compañía "todavía no ha hecho ninguna comunicación oficial" al respecto.


Ninguna otra empresa del sector ha confirmado que esté desarrollando actualmente un modelo masculino de robot sexual
Recientemente, algunos medios reportaron de la existencia de otras dos compañías fabricantes de muñecas sexuales con algún grado de robotización. La primera (Z-Onedoll, China) parece estar cerrada o en fase de renovación, ya que al buscar su página en Internet se puede averiguar que ya no existe. Desde la segunda, llamada Synthea Amatus y ubicada en Barcelona, nos dicen que no quieren hablar con la prensa.

En la Red se puede encontrar también la página de una empresa estadounidense, llamada True Companion, que asegura haber desarrollado tanto una versión femenina (llamada Roxxxy) como una versión masculina (Rocky) de robot erótico. La compañía ofrece aparentemente en su página ambos productos por 9.995 dólares.

Xataka ha solicitado dos veces por correo a True Companion más información sobre estos robots y sobre el proceso de venta, pero no ha obtenido respuesta. También ha llamado a través de los dos números indicados en la web, pero estos resultan no existentes o fuera de uso. La misma página tiene pinta de obsoleta.


En el artículo mencionado anteriormente, también se destacan otros intentos de realización de robots eróticos anunciados en el pasado de los que no se volvió a saber nada nuevo. Tanto las fuentes contactadas en RealDoll como Brick DollBanger niegan estar al tanto de que existan actualmente empresas competidoras en el sector de los robots sexuales masculinos.

La sexualidad femenina, "eterna desconocida"
Francisca Molero, directora del Instituto Iberoamericano de Sexólogía y presidenta de la Federación Española de Sociedades de Sexología, cree que el mayor retraso en el desarrollo de un robot sexual capaz de satisfacer una mujer se debe principalmente a que quedan "muchísimas lagunas de conocimiento" y "creencias erróneas" con respecto a la sexualidad femenina.

En particular, explica, cuando nos referimos a "sexualidad compartida" hay que tener en cuenta dos factores principales: la obtención del placer" y la "comunicación erótica", que conlleva exponerse a "estupor, frustración, incertidumbre, inseguridad" por el hecho de relacionarse con otro ser humano. Durante mucho tiempo, asegura, por lo general entre los hombres se ha dado más prioridad que entre ellas al primer aspecto, y menos al segundo.

En opinión de la sexóloga, desarrollar software capaces de estimular lo primero es más fácil que crear objetos sexuales "inteligentes" eficaces en el plano de la comunicación erótica interpersonal. Y eso limita que se puedan vivir de esta manera experiencias sexuales completas. "Por mucho que pueda interaccionar, lo vas a tener todo bastante controlado, en tu cabeza sabes que se trata de una máquina", afirma. "En un momento determinado, si algo no te gusta simplemente lo puedes desconectar o cambiar, cosa que no puedes hacer con una persona".

450_1000.jpg


Por eso, cree que ahora mismo hacer robots que pueden interesar más a hombres es menos complicado para las empresas, ya que para que funcionen también con ellas hay que dar más espacio a los factores de la "conquista" y la "seducción", que existen en ambos sexos pero están "más instaurados en las mujeres".

¿Hasta qué punto habrá robot sexuales en nuestra vida?
Ahora, considera Molero, la comunicación erótica "ha empezado a formar parte del escenario tanto de hombres como de mujeres, en parejas homo y hetero". Y este es el reto añadido que le ve para conseguir crear robots atractivos dirigidos a múltiples tipologías de usuarios.

La experta cree que sí hay posibilidades concretas de que, en un futuro, los robots sexuales se conviertan en un objeto de interés para un público amplio. "En muchos casos se comprarán por curiosidad, por estar dentro de lo que es el juego erótico, igual a lo que pasó con otros tipos de juguetes", vaticina.

Por el otro lado, Molero considera complicado que realmente estos muñecos automatizados lleguen a tener una presencia constante y significativa en la vida de mucha gente. "Los conseguirán? Creo que sí. Los sacarán? También. Se generalizarán? Creo que aunque sean asequibles, muy generalizados los robots sexuales no serán".

Imágenes | RealDoll; AI-AI Tech; Brick Dollbanger

https://www.xataka.com/robotica-e-i...deas-nadie-parece-estar-listo-para-lanzar-uno
 
El primer simulador del universo con IA es "rápido y preciso"... pero sus creadores no tienen del todo claro cómo funciona
450_1000.jpg



Los astrofísicos han recurrido por vez primera a la inteligencia artificial para generar complejas simulaciones en 3D del universo. Afirman que su modelo, bautizado como "Deep Density Displacement Model" (o "D3M" para abreviar), es capaz de ejecutar las simulaciones en aproximadamente 30 milisegundos, mientras que otros simuladores considerados 'rápidos' normalmente se toman un par de minutos.

Sin embargo, la verdadera sorpresa de los creadores de D3M (investigadores de instituciones académicas estadounidenses, canadienses y japonesas) no ha sido su velocidad, sino su extraordinaria precisión a la hora de calcular cómo sería el universo si se alterasen determinados parámetros del mismo, como la cantidad total de materia oscura.

La red neuronal que aprendió sobre gravedad y respondió sobre materia oscura
¿Y por qué es esto sorprendente? En primer lugar, porque los niveles de precisión que ofrece requerían hasta ahora, según los investigadores, de hasta 300 horas de cálculo; la simulación requiere calcular el desplazamiento por la gravedad de mil millones de partículas durante los aproximadamente 13.800 millones de años de edad del universo, partiendo del supuesto de que éste tuviera un diámetro de 600 millones de años luz.

Pero, sobre todo, resulta sorprendente porque al modelo en ningún caso se le proporcionaron datos de entrenamiento en el que estos parámetros cambiaran (la investigación se centra en la fuerza de la gravedad, la más relevante a la hora de estudiar la evolución a gran escala del cosmos).

Sus creadores, sencillamente, no están seguros de cómo funciona D3M. En palabras de Shirley Ho, una de las investigadoras del equipo, adscrita al Centro de Astrofísica Computacional del Flatiron Institute:

"Es como si a un software de reconocimiento de imágenes se le entrenase con un montón de fotos de gatos y perros, y luego fuera capaz de reconocer elefantes. Nadie sabe cómo ocurre esto, y es un gran misterio que hay que resolver".

Ho y sus colegas perfeccionaron la red neuronal de D3M alimentándola con 8.000 simulaciones diferentes de uno de los modelos más precisos disponibles hasta ahora, logrando aumentar progresivamente su precisión: el simulador más rápido con el que se contaba hasta ahora tenía un error relativo del 9,3%: D3M presenta sólo un 2,8%.

A partir de ahora, según Ho, tratarán de aprovechar la flexibilidad que le dota al modelo su capacidad para simular datos no incluidos en su entrenamiento, al tiempo que tratarán de desentrañar cómo el funcionamiento interno de la red neuronal puede producir tal resultado.

Vía | Phys.org

https://www.xataka.com/inteligencia...-creadores-no-tienen-todo-claro-como-funciona
 
Los intereses comerciales marcan el futuro de la inteligencia artificial
Las grandes tecnológicas definen el desarrollo de este campo científico decisivo al acaparar a los mejores expertos y elegir quién tiene acceso a sus recursos


31 JUL 2019 - 23:13 CEST
1564394653_192603_1564577649_noticia_normal.jpg

Procesadores de Google para inteligencia artificial.
El futuro de la inteligencia artificial genera muchos debates porque será decisiva en campos tan serios como la medicina, las guerras, el trabajo o incluso las relaciones humanas. Sin embargo, esos debates a menudo ignoran un asunto que sobrevuela a todos los demás: el desarrollo de las máquinas pensantes ha sido conquistado por empresas tecnológicas que están definiendo cómo será ese futuro. Compañías como Google, Facebook, Amazon, Microsoft, Apple e IBM fichan a los mejores expertos en inteligencia artificial de todo el mundo, esquilman departamentos universitarios enteros para cubrir sus necesidades, compran las empresas incipientes del sector y marcan el rumbo de la investigación con becas y ayudas. Así, un campo científico tan determinante como la inteligencia artificial puede estar volcado excesivamente en los intereses comerciales de estos negocios. Como dijo un antiguo jefe de datos de Facebook: “Las mejores mentes de mi generación se dedican a pensar cómo hacer que la gente pinche en anuncios. Es un asco”.

"El dominio de las compañías con intereses comerciales es muy grande, el impacto de sus millones de dólares está definiendo este campo con una gran asimetría", critica Oliver

"Lo que ha sucedido en los últimos años es un éxodo de grupos enteros a laboratorios de empresas tecnológicas", afirma Nuria Oliver, que formó parte del primer grupo de sabios del gobierno español en inteligencia artificial. En enero de 2015, desaparecieron de golpe más de 50 especialistas en robótica de la Universidad Carnegie Mellon, pionera en inteligencia artificial, incluidos directores de departamentos: habían fichado casi en bloque por Uber para desarrollar el cerebro de sus coches autónomos. "El dominio de las compañías con intereses comerciales es muy grande", critica Oliver, "y no es una situación positiva, el impacto de sus millones de dólares está definiendo este campo con una gran asimetría".

"El dinero manda", advierte Miguel Ángel Carreira-Perpiñán, especialista en machine learning (aprendizaje automático) de la Universidad de California en Merced. "La empresa se centra en proyectos a corto plazo relacionados con productos: Amazon lo mismo te mata un proyecto de investigación porque de un año para otro ya no le interesa, cuando en la universidad estamos centrados en problemas serios o profundos de machine learning que no se resuelven de un día para otro", resume. "Ahora mismo la mayor parte de los investigadores están en manos del sector privado. Está claro que eso va a marcar el paso", lamenta.

Los tres últimos ganadores del Nobel de Informática, el Premio Turing, trabajan al más alto nivel asesorando a las grandes tecnológicas. Su historia describe a la perfección la trayectoria de la inteligencia artificial. Cuando en 2004 se ponía en duda que las redes neuronales pudieran funcionar, incluidos los creadores de Google, estos tres científicos europeos se asociaron desde sus universidades para avanzar en esta investigación, trampolín esencial para tecnologías actuales como el reconocimiento facial, los coches automáticos o los asistentes virtuales. El británico Geoffrey Hinton (Universidad de Toronto) y los franceses Yoshua Bengio (Universidad de Montreal) y Yann LeCun (Universidad de Nueva York) desarrollaron este campo gracias a un trabajo puramente académico financiado con fondos canadienses. LeCun dirige desde 2013 la investigación en inteligencia artificial de Facebook. Hinton y Bengio crearon sendas empresas para desarrollar sus trabajos académicos y las dos fueron compradas por Google y Microsoft, respectivamente, consiguiendo así hacerse con sus servicios.

"La principal ventaja de trabajar en DeepMind es que la cantidad de expertos que tenemos es mayor que en cualquier universidad del mundo", asegura Vinyals

Es una estrategia habitual para fichar talento: comprar startups de inteligencia artificial para adquirir los cerebros humanos que trabajan allí. Apple, Google, Facebook, Microsoft y Amazon han adquirido casi sesenta compañías especializadas y han invertido en más de ciento veinte en los últimos siete años (de 2015 a 2018 el ritmo de creación de estas startups ha crecido un 118%). Una de ellas es DeepMind, que nació de los laboratorios de la University College de Londres antes de ser adquirida por Google en 2014 por 500 millones de dólares. DeepMind es ahora la punta de lanza de la investigación en inteligencia artificial, con vistosos logros que saltan directamente a la portada de las principales revistas científicas.

1564394653_192603_1564584166_sumario_normal.jpg

Los líderes de los proyectos de inteligencia artificial de Microsoft (Eric Horvitz), IBM (Francesca Rossi), Facebook (Yann LeCun) y DeepMind (Mustafa Suleyman) al constituir un grupo de reflexión conjunto de las grandes tecnológicas. IBM

Allí investiga el catalán Oriol Vinyals, que fichó por Google nada más doctorarse: "La principal ventaja de trabajar en DeepMind es que tenemos muchísimos expertos en varios temas de la inteligencia artificial, todos en el mismo sitio", explica. "En líneas generales, la cantidad y concentración de expertos es mucho mayor en DeepMind que en cualquier departamento de universidad del mundo", asegura este investigador, especialista en procesamiento de lenguaje, cuyo trabajo además ha servido para mejorar funciones que hoy usan millones de personas en productos de Google como su traductor online o las respuestas automáticas del correo.

DeepMind realiza investigación básica, pero también tiene un ojo puesto en mejorar los servicios de su empresa madre, como usar la inteligencia artificial para reducir un 40% el gasto energético de sus gigantescos centros de datos. Además de DeepMind, Alphabet (matriz de Google) cuenta con otras divisiones dedicadas a la inteligencia artificial, como Google Brain, y numerosos especialistas en ese campo (más de dos mil solo en este directorio). Google no ha querido responder ninguna de nuestras preguntas sobre estos detalles, ni sobre el peso de la iniciativa privada. Facebook tampoco.

En los últimos años, Apple, Google, Facebook, Microsoft y Amazon han adquirido sesenta compañías de inteligencia artificial y han invertido en más de ciento veinte

No es solo compartir centro de trabajo con los mejores. Los sueldos superan con mucho los que se pagan incluso en las mejores universidades. En 2016, la jefa del departamento de IA de Stanford, Fei-Fei Li, se quejaba de que estas empresas tentaban a sus estudiantes de doctorado con sueldos de más un millón de dólares. Un año después, Li se unía a Google como vicepresidenta. Pero la remuneración es casi lo de menos: lo decisivo son los recursos con los que cuentan para investigar. "En el centro de este tipo de investigación están las bases de datos. Y los académicos dependen de las bases de datos", explica Lorena Jaume-Palasí, que formó parte del primer grupo de sabios de la Comisión Europea sobre inteligencia artificial.

Un informe reciente de la Asociación de Investigación Informática de EE UU sobre el futuro de la inteligencia artificial asegura que "aunque la mayoría de las tecnologías subyacentes a estas bases de conocimiento se desarrollaron originalmente en el mundo académico, las universidades tienen acceso limitado o nulo a estos recursos y no tienen medios para desarrollar otros equivalentes" (PDF). Además, critica que se desarrollan "para respaldar los intereses comerciales de las empresas que los crearon, como los resultados de búsquedas y la colocación de anuncios".

Control sobre la academia
"Dando acceso a estos recursos también deciden bajo qué perspectiva se investiga, qué impulsos se dan en este campo, quién desarrolla su carrera", critica Jaume-Palasí. Las grandes tecnológicas financian think-tanks y todo tipo de iniciativas para debatir sobre el futuro de las máquinas inteligentes, influyendo también en los marcos éticos y legales del futuro. Mientras se debate si puede haber soldados autónomos o a quién debe atropellar un coche sin conductor, se desarrollan las tecnologías más propicias para moderar publicaciones en redes o a sugerir el siguiente vídeo de YouTube. O el Pentágono y Facebook apuestan por una máquina que sabe tirarse faroles.

Estas empresas se justifican asegurando que invierten importantes sumas en investigación académica, por medio de becas y programas de ayudas. "Las ayudas son cuatro perras", asegura Carreira-Perpiñán, "a mí me han dado dos becas de la Fundación Nacional para la Ciencia de EE UU (NSF, por sus siglas en inglés), de medio millón de dólares, y la que recibí de Google eran 60.000". Y añade un problema mayor, el criterio de selección de estos programas: "Dan dinero a quien les interesa y da la impresión de que están pescando ideas. Al final hay mogollón de gente trabajando en predecir qué anuncios funcionan, un problema bastante especializado, porque es de lo que viven estas empresas". Este investigador prefiere que sea la NSF, una fundación gubernamental, la que apoye la investigación en temas que considere candentes.

"Dan dinero a quien les interesa y al final hay mogollón de gente trabajando en predecir qué anuncios funcionan", lamenta el investigador de la Universidad de California

Vinyals cree que el estilo de investigación de la academia y su diversidad son "muy buenas" para su campo: "No me gustaría ver que la investigación en la universidad y el mundo académico se hiciera demasiado pequeña". No obstante, el investigador de DeepMind se muestra confiado en que la demanda de expertos seguirá creciendo en los próximos años, por lo que crecerá la cantidad de recursos, personal y estudiantes con los que contarán las universidades.

Mucho más radical se muestra Jaume-Palasí: "En lugar de pagar becas o investigaciones, sería más interesante que pagasen impuestos y con eso se invertiría en investigación académica". "Además", insiste, "desde el punto de vista de la credibilidad ya es problemático hacer perder la neutralidad a la academia con su dinero: ellos deciden a quién financian y por qué". Hoy, la proporción de artículos científicos publicados por empresas privadas en EE UU cuadruplica a la de Europa.

Para remediar estos conflictos y retener talento, la Comisión Europea ha encargado un informe a un grupo de especialistas en el que está Nuria Oliver, quien desconfía del peso actual del dinero privado. "No sabemos qué hallazgos no están publicando las empresas, cuánta investigación están haciendo y que desconocemos", denuncia Oliver, que hasta hace unos meses era jefa de investigación en datos de Vodafone. "A lo mejor descubrimos que se pueden hacer las cosas de forma diferente, que hay otra manera de hacer un Facebook o un Amazon, pero si lo pagan Facebook y Amazon, se ponen barreras al cambio", apunta.

https://elpais.com/elpais/2019/07/29/ciencia/1564394653_192603.html
 
Investigadores de Facebook utilizan Minecraft para entrenar un nuevo asistente digital dotado de inteligencia artificial
450_1000.jpg




Marcos Merino @mmerino
Los investigadores de Facebook Research desean crear un asistente digital avanzado que, al contrario de lo habitual en el campo de la inteligencia artificial, no ofrezca un rendimiento sobrehumano circunscrito a una única tarea, sino uno que sea competente gestionando un amplio abanico de las mismas. Y no sólo eso, sino que sea capaz de aprender nuevas tareas a medida que interactúa con los seres humanos.

Y la manera en que piensan lograrlo es integrando este asistente en el popular videojuego Minecraft (el más vendido de todos los tiempos, con más de 170 millones de copias, y más de 90 millones de usuarios mensuales). Este juego, de tipo 'sandbox', permite explorar libremente un amplio mundo virtual y explotar sus recursos naturales, crear herramientas y construir toda clase de estructuras usando bloques.


Según explican en el 'paper' académico publicado en arXiv, los investigadores eligieron Minecraft porque ofrece un número casi ilimitado de posibles tareas, pero lo hace dentro de un mundo con reglas simples y, hasta cierto punto, predecibles.

Tanto, que los investigadores de inteligencia artificial ya están empezando a usar este juego como plataforma para entrenar y probar otros de sistemas de IA distintos, igual que hace 4 años se usaba para entrenar robots.

Las condiciones del entorno permiten que la ejecución de una tarea sea sencilla una vez que ésta se especifica, permitiendo que [los movimientos a realizar] e incluso la exploración y combate pueden ser razonablemente 'programados'.

"Los jugadores de Minecraft son creativos, y la diversidad de objetos construidos por ellos en el juego es asombrosa [...] Incluyen monumentos, esculturas, templos, montañas rusas y paisajes urbanos completos.

El asistente digital
El objetivo perseguido por Arthur Szlam y sus compañeros de Facebook Research es que podamos pedirle al asistente, mediante órdenes verbales, que construya las estructuras que necesitemos en cada momento. Ése es otro de los obstáculos a los que tendrá que hacer frente el asistente: las complejidades del lenguaje coloquial, y la deficiente capacidad de los humanos para explicar en qué clase de estructuras concretas está pensando en un momento dado.


Una frase aparentemente sencilla como "Construye una torre de 20 bloques de altura y sitúa un smiley gigante en la cima" requiere en realidad de un grado de conocimientos notable, de una comprensión de la estructura de la frase, de un sonido claro que permite identificar bien las palabras, etc.

Y luego queda lo más difícil: el asistente debe ser capaz de comprender el concepto "torre", saber cómo construirla y entender a qué se refiere su interlocutor con las expresiones "bloques de altura", "smiley" o "cima de la torre"; y no olvidemos identificar a cuál de ellas se vincula cada una de las cifras mencionadas ('20' en este caso). Todo eso es lo que Szlam busca conseguir con este 'entrenamiento' en Minecraft.

Vía | MIT Technology Review

Imagen | interestedbystandr (Wikimedia)

https://www.xataka.com/inteligencia...stente-digital-dotado-inteligencia-artificial
 
Detengamos a los robots asesinos antes de que existan
Por Aníbal Monasterio Astobiza y Daniel López Castro

12 de abril de 2019

Michihito-Matsuda-robot-politico-2.jpg

Muchas tecnologías emergentes presentan desafíos éticos, legales, sociales y políticos. Nos referimos a los recientes avances en inteligencia artificial (IA), investigación genómica, nanotecnología, robótica, ciencias de la computación y neurociencia aplicada.

Juntas, estas tecnologías pueden manipular los átomos de la materia física, la información digital y biológica (ADN) y las células nerviosas. Esta convergencia "nano-info-bio" y su aplicación en un contexto militar puede transformar la forma en la que los seres humanos entran en guerra.

Una de las mayores preocupaciones éticas es el uso dual de la investigación científica con propósitos militares. Muchos científicos se sienten culpables por haber recibido financiación del ejército para llevar a cabo sus experimentos. Muchos otros rehusaron colaborar:

John Napier (1550-1617), matemático escocés y fundador de la teoría de los logaritmos, bosquejó el diseño de una nueva forma de artillería que luego ocultó.


Norbert Wiener (1894-1964), padre de la cibernética que trabajó durante la Segunda Guerra Mundial en el control y guía de misiles, renegó de su participación. Prometió no volver a publicar nada más sobre el tema.

En la actualidad, Google se retiró de una puja por un contrato multimillonario con el Departamento de Defensa de los EE UU para crear computación en la nube.

Sin embargo, el potencial beneficio de desarrollar tecnologías con usos civiles y comerciales, pero también militares, no escapa a la atención de científicos y empresas. Principalmente porque en un entorno de escasos recursos financieros no se puede cerrar la puerta a los fondos militares. La alternativa es dejar la carrera investigadora.

JAPAN-GIANTROBOT-4.jpg

Mononofu REUTERS/Kim Kyung-Hoon
Máquinas que ayuden a jueces y médicos
La IA tiene como objetivo crear máquinas inteligentes, pero también entender mejor la inteligencia biológica. Los investigadores no tardaron mucho en darse cuenta de que, en lugar de crear computadoras a las que entrenar con grandes cantidades de información, era mejor darles la capacidad de aprender sin un programa explícito.

Así nacieron el "aprendizaje automático" (machine learning) y una técnica dentro de este subcampo llamada "aprendizaje profundo" (deep learning), en la que se desarrollan "redes neuronales". En otras palabras, nodos computacionales interconectados entre sí que imitan la capacidad del cerebro humano de percibir, procesar y trasmitir información.

El aprendizaje automático ha mejorado gracias a la gran cantidad de información (big data) de la que disponemos en la actualidad, gracias sobre todo a internet.

La IA puede ofrecer diagnósticos fiables en medicina sobre la base de los síntomas de los pacientes y tomar decisiones en consecuencia, detectar anomalías en imágenes con mayor fiabilidad que radiólogos o promover una medicina de precisión.

En el derecho, la IA puede procesar miles de sentencias en cuestión de milisegundos y encontrar patrones específicos gracias a sofisticados algoritmos de procesamiento del lenguaje natural (escrito) mucho mejor que abogados o jueces humanos.

La IA aplicada al transporte y la movilidad nos ofrece los vehículos autónomos o coches sin conductor que mejoran la seguridad y el confort de los usuarios reduciendo la siniestralidad.

Un futuro distópico
El progreso reciente en IA, aprendizaje automático y visión computacional también tiene, si no somos precavidos, consecuencias negativas.

Robots kamikazes.

Flotas de vehículos autónomos con el objetivo intencional de colisionar.

Drones comerciales convertidos en misiles.

Vídeos e imágenes fabricados para apoyar bulos.

Estos y otros muchos escenarios distópicos son ya posibles: ciudadanos, organizaciones y estados deben hacer frente a los peligros del mal uso de la IA.

Regulación de las armas autónomas letales
Cada uno de estos campos de aplicación tiene sus preocupaciones éticas, legales y sociales, pero ninguna tan trascendental como su implementación en el campo de batalla, donde se puede arrebatar la vida de un ser humano.

¿Qué implica dar a las máquinas la autoridad para decidir sobre la vida y la muerte? La implementación de la IA para el desarrollo de armas autónomas letales promete reducir daños colaterales y bajas civiles. Al mismo tiempo, se envía al campo de batalla a computadoras en vez de soldados.

Pero, como decíamos más arriba, esto es un arma de doble filo.

A principios del 2018 el Secretario General de Naciones Unidas, Antonio Guterres, llamó la atención sobre los peligros del uso de la IA en contextos militares:

“La militarización de la inteligencia artificial es una preocupación creciente. La perspectiva de armas que puedan seleccionar y atacar a un objetivo por sí solas aumenta las alarmas… La perspectiva de máquinas con la discreción y el poder de quitar vidas humanas es moralmente repugnante”.
Antes de hablar de la regulación de las armas autónomas letales es preciso describir la militarización de la IA. Para valorar esta tecnología debemos saber qué es lo que puede hacer.

En 2013 los académicos Altmann, Asaro, Sharkey y Sparrow fundaron el Comité Internacional para el Control de Armas Robóticas (ICRAC, por sus siglas en inglés). Su misión se resume así:

“Dado el rápido avance en el desarrollo de robots militares y los peligros que entrañan para la paz y seguridad internacional y los civiles en la guerra, hacemos un llamamiento a la comunidad internacional para comenzar un debate sobre un régimen de control de armas para reducir la amenaza de estos sistemas”.
Propusieron una serie de temas para definir el debate. Por ejemplo, la prohibición y uso de estos sistemas, porque las máquinas no deben tomar la decisión de matar a la gente, incluso en el espacio exterior.

También en 2013 se lanzó una campaña para "detener a los robots asesinos" y se debatió en el Consejo de Derechos Humanos la prohibición de robots militares.

robots-aut%C3%B3nomos-guerra.jpeg

Aclarando términos
Un robot militar no es lo mismo que un drone, ni un drone es lo mismo que un sistema de armas autónomas letales.

Un robot militar es un robot que puede ser usado como arma en un contexto militar. Un robot es un "mecanismo actuable y programable que se mueve por el entorno para realizar tareas intencionales" (ISO-8373, 2012). Por tanto, un robot militar es un arma semiautónoma que puede seleccionar y atacar objetivos sin supervisión, pero está bajo el control último de un operador humano. En otras palabras, es una máquina de guerra artificialmente inteligente.

Un drone es un "vehículo remotamente pilotado no-tripulado". Son usados de manera frecuente para no poner en riesgo la vida de los pilotos. Portan cámaras de visión muy sofisticadas que permiten ver la mayor parte del espacio aéreo y terrestre por donde pasan. Dos modelos populares usados por las fuerzas armadas de los EE UU son el Predator y el Reaper. En dicho país una de cada tres aeronaves es un drone.

Israel, China, Corea del Sur, Rusia y Reino Unido también cuentan con drones en su fuerza aérea.

A diferencia de un drone o un robot militar, un sistema de armas autónomas letales está compuesto por máquinas de guerra artificialmente inteligentes que pueden tomar decisiones tácticas militares sin intervención humana. Estos todavía no existen.

UN-Robots-3.jpg

Prohibición preventiva
Los sistemas de armas autónomas letales son la continuación lógica de los robots y los drones: máquinas autónomas por completo. La mera posibilidad de desarrollar algo así transformaría las guerras.

Por eso, mucho antes de que existan, la campaña "para detener a los robots asesinos" insta a su prohibición preventiva.

La iniciativa cuenta con el apoyo del Secretario General de Naciones Unidas, 21 premios Nobel, 86 ONG, 26 países, 25.000 expertos en IA y el Parlamento Europeo.

España no apoya abiertamente un tratado que regule el armamento autónomo. Eso, a pesar de que la profesora de Derecho de Roser Martínez y el investigador Joaquín Rodríguez, ambos de la Universidad Autónoma de Barcelona, participaron en un congreso sobre el Convenio sobre Ciertas Armas Convencionales (CCAC) celebrado en Ginebra en agosto del año pasado. En él, dejaron claro que una máquina no tiene en consideración el respeto por la dignidad humana.

La buena noticia es que, tras cinco años de reuniones del CCAC, se obtuvo un consenso general: es necesario mantener un control humano sobre los sistemas de armas autónomas letales, en particular en la selección de los objetivos.

En nuestra opinión, los responsables políticos deben trabajar con los expertos para regular el armamento autónomo. El uso de estos sistemas de armas autónomas letales debe ser prohibido.

Que máquinas artificiales puedan tener la última decisión sobre la vida y muerte de personas supone una grave amenaza para nuestro futuro. Los asuntos humanos no se limitan a los cómos, sino a los porqués. Tenemos la capacidad de resolver problemas diversos con la aplicación del conocimiento, pero seguiremos reflexionando con las herramientas conceptuales de la filosofía si debemos.
count.gif


Aníbal Monasterio Astobiza: Investigador Posdoctoral del Gobierno Vasco, Universidad del País Vasco / Euskal Herriko Unibertsitatea
Daniel López Castro: Investigador predoctoral, Instituto de Filosofía, Grupo de Ética Aplicada, Centro de Ciencias Humanas y Sociales (CCHS – CSIC)

Publicado originalmente en The Conversation.


https://www.infobae.com/america/tec...s-a-los-robots-asesinos-antes-de-que-existan/

Él mayor problema de la IA es éste:
Que pueda llegar a tener dominio sobre el hombre de forma atómanta, y que tipo de dominio puede ejercer? Lo puede abolir, hasta llegar a destruir como ser humano?
 

China presenta a su primer presentador de noticias virtual


9 noviembre, 2018


China es uno de los países más entusiastas con el desarrollo y adopción de sistemas de inteligencia artificial (IA). Pero pocos esperábamos que su pasión la llevasen al grado de eliminar a los presentadores de noticias reales; para sustituirlos por avatares digitales…

chinacreasuprimerpresentadordenoticiasvirtualconinteligenciaartificialfa-c4493a7ff11b3e5a83f33348041724f6


La agencia estatal china Xinhua ha incorporado un presentador de noticias virtual basado en Inteligencia Artificial (IA) y aprendizaje automático a su equipo de trabajo, el cual es capaz de leer textos de la misma forma que un periodista humano, con la apariencia, expresiones faciales y voz de una persona real.

El presentador de noticias virtual ha sido presentado en la quinta Conferencia Mundial de Internet que se celebra en la ciudad de Wuzhen (China) entre el 7 y el 9 de noviembre, según ha informado la agencia estatal de noticias Xinhua, desarrolladora de la iniciativa.

La voz del presentador se ha modelado a partir de la voz de un presentador real, y es capaz de “aprender de vídeos transmitidos en directo por sí mismo“, ha resaltado la agencia, además de leer textos “tan naturalmente como un presentador de noticias profesional”, debido a la tecnología de aprendizaje automático, como explican en South China Morning Post.

Incorporación del presentador virtual en la agencia

El presentador virtual “se ha convertido en un miembro del equipo de informes de la agencia de noticias Xinhua“, ha explicado la agencia al medio citado, donde ofrece “información acreditada, oportuna y precisa tanto en chino como inglés“.

Para Xinhua, la aplicación de la tecnología de Inteligencia Artificial tiene “perspectivas interminables” y según recoge el medio citado, ya que permitirá crear rápidamente informes de noticias de última hora con el objetivo de mejorar tanto la calidad como la puntualidad de esos escritos.

El presentador de noticias virtual ha sido desarrollado de forma conjunta por la agencia Xinhua en colaboración con la empresa propietaria del motor de búsqueda chino Sougou, que también trabaja con inteligencia artificial.

South China Morning Post ha informado de que los presentadores virtuales ya se encuentran disponibles en las plataformas móviles y de Internet de Xinhua, así como en su página web de televisión ‘online’ y en la cuenta pública del servicio de mensajería móvil WeChat.
 
Back