INFORMATICA - HACKATON - PROGRAMACION - HACKERS

¿Cuánto cobra un programador en la Argentina en 2018?

A fin de que pueda establecerse la comparación con las escalas salariales de otros países, se publican a continueción las cotizaciones del dólar y el euro según Banco de la Nación Argentina:

23/3/2018

Compra Venta
Dolar U.S.A 19,9500 20,4500
Euro 25,2000 26,2000




2544576h688.jpg


Los sueldos promedio arrancan desde los 22 mil pesos en los perfiles de programadores sin experiencia, de acuerdo al informe elaborado por la Cámara de la Industria Argentina del Software Fuente: Archivo

22 de marzo de 2018 • 10:46
ESSI, la Cámara de la Industria Argentina del Software, actualizó su informe acerca de cuánto cobran los programadores en la Argentina.

El estudio fue desarrollado por el Observatorio Permanente de la Industria de Software y Servicios Informáticos de la Argentina (OPSSI) de CESSI. Se tomaron como referencia los salarios brutos mensuales de 150 empresas que empleaban una totalidad de 13.607 empleados.

Los datos obtenidos arrojan un salario bruto mensual promedio de 22.158 pesos argentinos para la categoría de programadores sin experiencia previa (Junior); $ 32.745 con alguna experiencia (Semisenior); y $ 43.005 para los programadores con experiencia (Senior).

La muestra anterior, fechada en septiembre de 2017, marcó que los salarios promedio eran de AR$19.500 para los programadores Junior, de $ 28.750 para los Semisenior y de $ 38.900 para los Senior.

En abril del año pasado, la muestra arrojó que el salario bruto mensual promedio era de $ 16.600 para la categoría Junior, de $ 24.500 en el caso de los Semisenior y de $ 33.000 para los Senior.

"Desde la Cámara difundimos periódicamente la evolución de los salarios con el objetivo de brindar información actualizada,

verídica y confiable, que sirva de guía para todos aquellos que tengan interés en desarrollarse o invertir en la industria", remarcó Mauro Busso, director general de CESSI.

https://www.lanacion.com.ar/2119215-cuanto-cobra-un-programador-en-la-argentina
 
La compu cumple hoy 25 años

Ariel Torres
LA NACION
20
23 de marzo de 2018 • 12:30
Cuesta creerlo, si me lo preguntan. No sólo porque, es cierto, el tiempo vuela, sino también (y sobre todo) porque un cuarto de siglo en tecnologías digitales es una eternidad. Pero es así. El 23 de marzo de 1993 -fue martes- LA NACION publicó por primera vez esta columna que hoy es, hasta donde sé, la pieza periodística más longeva sobre nuevas tecnologías en el país, y quizás incluso más allá.

Apareció por primera vez en el suplemento Ciencia y, como se verá enseguida, fue una apuesta osada por parte del diario. Hoy la tecnología cruza transversalmente todos los productos periodísticos. Hasta tenemos periodismo de datos, una de las formas más revolucionarias y formidables de este oficio que nace como resultado de la imprenta de Gutenberg, 400 años atrás. Y, desde luego, está presente en casi todos los aspectos de nuestras vidas desde el primer instante del día hasta el último.

Pero en 1993 había sólo 140.000 celulares en el país. O sea, no había celulares; hoy tenemos 60 millones de líneas móviles. Existía Internet, pero ningún particular podía contratar una conexión con la Red en el país; faltaban dos años para que eso ocurriera en la Argentina, y era una novedad en Estados Unidos, donde Internet se había originado.

No sólo no existían ni Google (1998), ni Facebook (2004, el mismo año en que Google empieza a cotizar en la Bolsa), ni Twitter (2006; cumplió 12 años anteayer), sino que ni siquiera había nacido Yahoo!, que hoy ya casi no existe, habiendo sido absorbida por Verizon, que en 1993, técnicamente, tampoco existía.

No era, en rigor, la primera vez que LA NACION apostaba por darle un espacio en el diario a las nuevas tecnologías, como el trabajo impecable de, entre otros, el pionero Roberto Solans. Pero aun así publicar una columna semanal de computación en 1993 era poco más o menos como tener una sobre cómo conducir naves espaciales.

Es cierto que la PC ya había hecho pie en la Argentina, pero también es cierto que en la mayoría de las oficinas (y es incluye muchas editoriales) todavía se oía el repiquetear de las máquinas de escribir. Sólo de máquinas de escribir. Por supuesto, no teníamos correo electrónico, ni redes sociales, ni Wi-Fi, ni, claro está, esta maravilla de cómputo que llevamos en el bolsillo, con receptor GPS y cámaras de fotos que en 1993 no podíamos siquiera soñar. Diré más. Hace 10 años, en 2008, las cámaras digitales eran aparatosos dispositivos con la mitad de resolución que las de nuestros actuales smartphones. Así que 25 años atrás todavía llevábamos los rollos a revelar y debíamos esperar una semana para ver cómo habían salido las fotos. En ese plazo, hoy, publicamos 700 millones de fotos en Instagram.

Otro mundo
Pero hay algo más por lo que aquella apuesta, que hoy sabemos que fue certera, resultaba tan osada. Casi loca. Esa razón es que el mundo era otro. El mundo era completamente diferente. La revolución estaba a punto de ponerse en marcha, y cambiaría todo lo que hacemos. No existe actividad humana que no haya sido alterada por el cómputo accesible y una red global, ubicua, neutral y abierta. Por eso, La compu nació no sólo el siglo pasado. No sólo nació hace un cuarto de siglo. Nació en otro milenio, como me señaló con agudeza hoy Ricardo Sametband.

Nació en un mundo de TV convencional, películas en VHS, telefonía fija y discos compactos. Era un mundo en el que nadie podía publicar un tweet o subir su propio sitio. No había Spotify, ni apps, ni Netflix, ni MercadoLibre. Era más o menos el mismo mundo de 1960, cuando nací. Era tan diferente del de hoy que aquello que entonces era normal hoy nos suena por completo extravagante.

Dos años después llegaría Internet ( LA NACION también fue pionera en ese espacio, en 1995) y hacia finales del siglo pasado -es decir, 20 años atrás- lo que sonaba a cosa de hackers, de nerds, de tribus herméticas, empezaba a volverse necesario para conseguir empleo o para ser competitivo. Las computadoras e Internet, como había ocurrido en su momento con el libro impreso, no sólo se habían vuelto indispensables, sino que (y esto es lo realmente loco) se habían vuelto algo normal. Un cuarto de siglo después de mi primera columna en este diario, lo anormal es que alguien no lleve una computadora muy poderosa en el bolsillo. Un cuarto de siglo después leemos con más dolor que asombro que un coche robótico atropelló y mató a una persona en Arizona, Estados Unidos. Veinticinco años atrás esa noticia habría sido calificada como ciencia ficción.

Es un hecho, esta revolución -que he ido reflejando durante aproximadamente 1300 semanas y, grosso modo, 10 millones de caracteres- nos condujo a vivir en un mundo de ciencia ficción. Por eso, durante este largo tiempo, hice tanto hincapié en los efectos de las nuevas tecnologías sobre los derechos civiles, la inclusión, las formas de relacionarnos y el empleo, entre muchos otros aspectos que, en general, no parecen tener conexión con la cosa geek. Pero la tienen, hoy lo sabemos, y por lo tanto era (y es) menester reflexionar primero sobre lo humano. Porque sacar conclusiones apresuradas en tiempos tan disruptivos puede ser pasaporte al desastre. A la distopía. No queremos una distopía, y tengo fe en que eso no va a ocurrir. Hemos hecho grandes cosas con herramientas mucho mas toscas que las computadoras e Internet. Confío en el ser humano. Pero no hay que dejar de reflexionar sobre el impacto que semejante disrupción tiene sobre lo que importa, las personas.

Evitaré extenderme mucho más. No voy a negar que me llena de orgullo este aniversario, pero, como he dicho en otras ocasiones, La compu ha sido para mí, sobre todo, una forma de la felicidad. Y, cerrando un círculo que es por sí una metáfora impecable, fueron las computadoras e Internet las que me permitieron estar muy cerca de mis lectores, que son quienes completan (siempre completaron) nuestro trabajo. Con muchos nos hicimos amigos. No pocos me han cruzado en conferencias o eventos para decirme: "Yo estudié Sistemas por leerte a vos en LA NACION". Cuando te dicen algo así, en serio, se te mueve todo. Todo absolutamente.

He respondido alrededor de 25.000 mails de mis lectores en estos años. No podría haberlo hecho con el correo postal, y puede parecer un exceso de celo y responsabilidad. No lo es. Se trata, simplemente, de gratitud. Si La compu está hoy alcanzando este hito que en sus orígenes sonaba por completo inalcanzable, es porque ustedes me confiaron su atención y su tiempo cada semana. Porque comentaron. Porque estuvieron del otro lado. Ese otro lado, que hace 25 años se encontraba tras un vidrio opaco, hoy es perfectamente visible. Estar cerca de mis lectores ha sido también, desde el primer mail que recibí, una forma de la felicidad.

Feliz cumpleaños para todos entonces ;)

Por: Ariel Torres
https://www.lanacion.com.ar/2119601-la-compu-cumple-hoy-25-anos
 
ia-k18D--620x349@abc.jpg

Disrupción tecnológica: la mayor revolución jamás conocida
La Inteligencia Artifical superará al hombre en 2060. El vuelco tecnológico abre un incierto debate sobre la economía, la intimidad, las relaciones personales y el propio futuro del ser humano
resizer.php
Luis Ventoso
Madrid Actualizado:25/03/2018 03:39h

«Muévete rápido y rompe cosas. A menos que estés rompiendo cosas no te estás moviendo lo suficientemente rápido» (Mark Zuckenberg, dueño de Facebook, febrero de 2012)

En 2013, dos científicos de la Universidad de Cambridge descubrieron que basándose en los «me gusta» de Facebook podían deducir el género del usuario con un 93% de acierto y su orientación sexual con un 80%. Dos años después, con solo 70 «me gusta» predecían la personalidad del navegante mejor que sus amigos y con 300 «likes», mejor que su propia pareja. El juguetón «me gusta» de Zuckerberg se había convertido en el perfecto abrelatas de la intimidad ajena.

Los dos científicos se apellidaban Kosinsky y Stillwell y eran colegas de Aleksandr Kogan, profesor ruso afincado en EE.UU., el hombre que ayudó a pasar a la firma londinense Cambridge Analytica los datos de 50 millones de usuarios de Facebook, un escándalo planetario destapado hace siete días por dos periódicos tradicionales, «The New York Times» y «The Observer». Los perfiles privados fueron utilizados subrepticiamente por la campaña electoral de Donald Trump. Antes, en 2012, Obama también se sirvió de las bases de datos de Facebook. Ejecutivos de Cambridge Analytica se han jactado en una grabación obtenida por la cadena británica Channel 4 de haber viciado así 200 procesos electorales, entre ellos el Brexit. Facebook, con una comunidad de 2.130 millones de seguidores, se ha desplomado en bolsa. Su fundador, Mark Zuckerberg, el quinto hombre más rico del mundo con solo 33 años, tendrá que comparecer en el Congreso de EE.UU. para explicar la filtración.

Jonathan Taplin tiene 70 años y es un viejo guerrero. En su juventud organizó conciertos para Dylan y George Harrison y hasta produjo una cinta de Scorsese. Hoy es profesor de Comunicación en la Universidad del Sur de California. El año pasado cobró eco tras publicar un durísimo alegato contra tres colosos de internet, Google, Amazon y Facebook, a los que acusó de minar la democracia y dañar a la cultura. El título del ensayo parodiaba la cita más conocida de Zuckenberg, «Muévete rápido y rompe cosas». Aunque su tesis adolece de cierto tono conspirológico, merece ser escuchada: «Originariamente internet fue concebida como un medio descentralizado. Pero en los noventa, Jeff Bezos de Amazon; Larry Page de Google, y Peter Thiel, inversor en Facebook, llevaron al mundo su punto de vista libertario. Entendieron muy pronto que internet podía ser un ganador empresarial absoluto y se propusieron plasmarlo. Solo habría necesidad para un gran portal de comercio electrónico, Amazon; un gigante social, Facebook, y un único motor de búsqueda, Google. Pero eso ha sido muy malo para la cultura, los músicos, los artistas y la democracia». Taplin podría haber añadido a la prensa, la intimidad y la propia televisión generalista, mermada ya por Netflix y servicios online similares.

Beneficios asombrosos, impuestos pírricos
Hoy las cinco mayores empresas del mundo son gigantes digitales estadounidenses: el líder planetario es Apple (693.000 millones de euros de valor bursátil), seguido por Alphabet, la matriz de Google (552.000 millones) y Microsoft (470.000). Tras ellas, la tienda virtual Amazon y la red social Facebook. Son multinacionales de faz amable, que con sus ingeniosos servicios han mejorado la vida cotidiana de la humanidad y la han hecho más fácil y amena. Pero se han convertido de facto en monopolios y tal vez también en el caballo de Troya de una nueva forma de totalitarismo light. En el último foro de Davos, el viejo zorro George Soros recordó que Google y Facebook copan el 60% del mercado publicitario estadounidense, lo que deja exangüe a la prensa clásica, con los consiguientes daños para el pluralismo democrático y la calidad de la información.

Fiscalmente, esos titanes se sirven de alambicadas tapaderas que les permiten evitar de manera legal el pago de tributos a las haciendas nacionales. No es ningún secreto: «Las empresas deben pagar sus impuestos allí donde obtienen sus beneficios, aunque se llamen Amazon», se quejó Rajoy en el último Foro ABC. Este viernes, los primeros ministros de la UE estudiaron legislar al respecto. Dimas Gimeno, el presidente de El Corte Inglés, acaba de exigir también «reglas homogéneas» para «poder competir en igualdad de condiciones» con las multinacionales de comercio electrónico. «Lo que no puede ser es que nosotros paguemos impuestos cuando ellos no los pagan». Es una acusación cierta. En 2016, Google, Amazon, Facebook y Apple solo abonaron 20,3 millones en España por impuestos, y eso pese a haber aumentado su aportación respecto a ejercicios previos. Sin embargo no hay firma española de la parte alta del Ibex que baje de cifras de tres dígitos en tributos.

Jonathan Taplin concuerda: «Amazon ni siquiera paga impuestos por vender libros y eso ha expulsado a muchas librerías independientes y otras empresas. YouTube no respeta el copyright, toman obras ajenas sin pagar. Google dispone del 90% del mercado de búsquedas. Amazon, del 70% de las ventas de libros. Facebook y sus firmas Instagram y WhatsApp suponen el 75% del negocio de las redes sociales». Taplin ve como salida leyes antimonopolísticas, que restituyan la competencia, y también «una regulación con límites morales». Facebook es el mayor editor mundial de contenidos, pero Zuckerberg no se siente concernido por las leyes en defensa del honor que obligan al director de cualquier periódico de pueblo. Por las redes sociales de esas multinacionales campan todavía impunes contenidos de apología del terrorismo, violentos, o perniciosos y abusivos para la infancia, amén de las omnipresentes «fake news».

Historias de robots y tableros
Las compañías más ricas del mundo no solo esquivan a las haciendas nacionales, sino también la normativa laboral. Se calcula que en España hay cien mil falsos autónomos trabajando para esas multinacionales, empleados a los que no se les reconoce relación laboral estable, que operan bajo contratos de cero horas. A diferencia de cualquier pyme, las líderes del podio planetario están exentas de pagar la seguridad social de sus asalariados. Los emolumentos son muy bajos y las condiciones, de enorme exigencia. Amazon, en cuyos almacenes se controla hasta cuánto tardan los trabajadores en ir al baño, ha sufrido esta semana una huelga en Madrid por tales abusos.

Precarización laboral, evasión fiscal y también transformación de la faz clásica de las ciudades, donde sucumbe el comercio al uso, incapaz de competir con el electrónico. Muchas grandes compañías tradicionales, que se han lanzado al e-commerce bajo el siempre erróneo mantra de «tenemos que estar ahí» sufren con la venta por correo, donde simplemente no les salen las cuentas.

El agresivo cerebro ruso Garry Kasparov, de 54 años, y el menudo y suave surcoreano Lee Sedol tienen algo en común. Han sido los mejores del mundo en lo suyo, el ajedrez y el go, el milenario juego del que se dice que ofrece más combinaciones que átomos tiene el universo. Les une algo más: ambos han sido vapuleados por una máquina de Inteligencia Artificial. Kasparov se midió con Deep Blue de IBM en 1997. El humano empezó ganando, pero al final no pudo más. Él era más creativo, pero carecía de la constancia inmutable y la capacidad instantánea de cálculo de su oponente. Kasparov acaba de publicar un libro sobre aquella pelea desigual, «Deep Thinking». Curiosamente, el Ogro de Bakú, el mayor ajedrecista de la historia, parece haber hecho la paz con la IA. «La tecnología puede hacernos más humanos, al darnos más libertad para ser más creativos».

A Lee Sedol, catorce veces campeón mundial de go, lo barrió Go Deep Mind, un proyecto de IA de una filial de Alphabet. Las grandes tecnológicas auspician la investigación de vanguardia en Inteligencia Artificial. Google es pionera en el desarrollo del coche sin conductor, que es ya una realidad. ¿Inocua para la economía? Existe una vertiente positiva, porque la mayoría de los accidentes se deben a fallos humanos, pero otra inquietante: muchísimas familias viven del volante. Conducir es el primer medio de empleo en 29 de los 58 estados de EE.UU., un país con cinco millones de camioneros. Y habrá más sectores afectados: «Cualquier cosa que requiera menos de diez segundos de pensamiento podrá ser hecha por una IA», se escuchó en Davos. Los apocalípticos auguran una destrucción masiva de empleos tradicionales, hasta un 57% en las naciones de la OCDE según los más pesimistas. Los más castigados serán los trabajadores de bajos salarios y escasa formación, que podrían formar legiones de «refugiados digitales», personas arrojadas a las cunetas de un progreso que enriquece de manera desproporcionada al 1% de plutócratas que ocupan la cima. Un título universitario y la alfabetización digital ayudarán a contar con un empleo. Los optimistas difieren. Creen que la revolución tecnológica generá nuevas profesiones y que acabará habiendo más trabajo, como ocurrió en saltos anteriores. Por su parte, los humanistas advierten que hay que ir pensando en instaurar una «renta básica universal» a costa de los increíbles beneficios de las tecnológicas para asistir socialmente a sus víctimas.

Prepárense para lo nunca visto
Noticias recientes. Famosas de Hollywood que clonan a sus mascotas. La Universidad de Berkeley crea la primera cerveza genéticamente modificada. Un taxi sin conductor de Uber atropella y mata a una mujer en Arizona. Nace el primer bebé con la nueva técnica de tres padres genéticos... Perdidos en debates añejos del siglo XX (el nacionalismo, el caudillismo populista), a veces pasamos por alto que estamos ya inmersos en la mayor revolución tecnológica de la historia, una gran disrupción que cambiará la faz de la humanidad. El historiador israelí Yuval Noah Harari ha vendido millones de libros donde el argumento más provocador es que el Homo sapiens está a punto de dotarse de atributos que creíamos reservados a Dios. «La Biblia dice que Él creó animales y plantas según sus deseos, y nosotros estamos a punto de hacerlo también». Lo que más inquieta a Harari es que «la ingeniería genética y cibernética a disposición de una élite le permitirá crear seres súper humanos, con unas capacidades mejoradas que las clases más bajas no tendrán». Sería el fin de la lotería genética, que desde que existe el hombre permite que a veces un pobre pueda nacer mejor dotado física e intelectualmente que un rico.

La velocidad a la que se expanden los nuevos inventos aumenta de manera exponencial, cada vez más rápido. Un excelente informe de la Fundación Telefónica, que ha circulado por algunos de los más importantes despachos del mundo, recuerda que al teléfono fijo le costó 65 años llegar a cien millones de hogares, mientras que Facebook alcanzó esa cifra en solo cinco y Pokemon Go lo hizo ya en 25 días. Hoy existen en el mundo el doble de dispositivos móviles que habitantes. Aunque todavía 3.900 millones de personas carecen de acceso a internet, siete de cada diez entre el 20% de los más pobres del planeta poseen un teléfono móvil, a veces antes que agua potable.

El maravilloso cerebro humano es un almacén reducido, cuya capacidad sería equivalente a 40 vídeos de alta resolución por segundo, limitado además por un interfaz de habla que equivale a un ordenador de los años ochenta. Las máquinas nos están alcanzando. En 2015, por primera vez una logró superar el Test de Turing, haciéndose pasar con éxito por una persona. El año pasado, Facebook apagó un sistema de negociación creado con inteligencia artificial porque había ideado su propio idioma. La máquina se había soltado la melena, al estilo del ordenador HAL en el «2001» de Kubrick y Arthur C. Clarke, una profecía rodada en 1968. En el arranque de este año, Alibaba, el Amazon chino, y Microsoft han desarrollando formas de IA que han ido más allá que los humanos en comprensión lectora. A mitad de siglo se vaticina que un ordenador podrá escribir un best-seller (lo sentimos por Ildefonso Falcones y Dan Brown) y correrán también a cargo de todas las intervenciones quirúrgicas (lo siento por mi hermano el cirujano). Pero la gran fecha será 2060, momento en que se estima que la IA superará por vez primera a las personas y alcanzará «la singularidad». «Las máquinas estarían entonces en disposición de autoeditarse y evolucionar de manera exponencial», advierte el informe.

El móvil y las redes sociales forman ya parte de nuestra cotidianidad, como si siempre hubiesen acompañado al animal desvalido que hace 30.000 millones de años todavía sobrevivía como cazador recolector y que luego, gracias a su capacidad de anticipación, se convirtió en el rey de la creación y en un depredador en serie de otras especies. Las novedades se agolpan estos días: realidad aumentada y virtual, impresión en 3D, coches autónomos, drones, internet de las cosas, 5 G, asistentes virtuales, robótica, IA, biotecnología, computación cuántica... «La inteligencia artificial puede suponer el fin de la raza humana», venía advirtiendo la voz también cibernética de Hawking en sus últimos días. Elon Musk, el gurú de Tesla, no le va a la zaga: «Con la IA estamos invocando al diablo. Puede ser peor de las armas nucleares», una paradójica admonición viniendo de quien es pionero en su uso con sus automóviles autónomos. Desde la filosofía también llegan suspiros: «Los datos y las máquinas deben de estar al servicio de las personas, y no al revés. Una sierra mal utilizada también sirve para cortar cabezas», razona el penúltimo gurú de moda, Byung-Chul Han, el filósofo surcoreano afincado en Alemania, que preconiza un retorno -tal vez imposible- a lo auténtico: «Hoy estamos en red, pero no estamos unidos. La comunicación actual se basa en no escucharse».

Apocalípticos e integrados: ¿nos eliminarán las máquinas?
Pero quedarse solo con lo negativo es una mirada tuerta. La revolución tecnológica alargará la vida humana de manera sorprendente y eliminará enfermedades que hoy nos estremecen. Un programa de Harvard mostró que una IA detecta las células cancerígenas con un 92% de acierto, frente a un 96% de los patólogos. Pero cuando los oncólogos y la IA trabajan juntos, el éxito es del 99,5%. Hasta el propio Hariri se desmarca de las profecías apocalípticas a lo «Terminator»: «En cincuenta años ha habido un desarrollo extraordinario en la inteligencia de los ordenadores, pero un desarrollo cero en su conciencia. No hay ningún indicio de que se vayan a desarrollar en ese sentido».

En «2001, una odisea del espacio», «cuando el ordenador HAL se volvió engreído [el astronauta] Dave lo desenchufó con un destornillador y lo dejó cantando patéticamente la canción ‘‘Una bici para dos’’, recuerda irónico el psicólogo canadiense Steven Pinker en su ensayo «Ilustración Ahora», alabado por Bill Gates como «el mejor libro que he leído en mi vida». Pinker se ha convertido en el profeta del optimismo, el sabio que prueba con datos que «en contra de lo que se cree, el mundo va cada vez mejor». A su juicio sobra histeria cuando se habla de la amenaza de la tecnología y las IA, un alarmismo que él denomina con sarcasmo el «Robotapocalipsis». «La falacia radica en que se confunde inteligencia con motivación». Explica que «incluso si inventásemos unos robots súper inteligentes, ¿por qué iban a querer esclavizar a los humanos y conquistar el mundo? La inteligencia es la habilidad de desarrollar nuevas maneras de lograr una meta. Pero eso no es lo mismo que querer algo». Para Pinker, el hecho de que las máquinas ya nos ganen al go, el ajedrez y los juegos online «no refleja una mejor comprensión de cómo funciona la inteligencia, sino solo la fuerza bruta de chips, algoritmos y data que permite que unos programas sean entrenados con millones de ejemplos y puedan generar unos nuevos similares».

Pinker, de todas formas, no está a su nivel cuando despeja el balón diciendo que «si quieres evitar una IA peligrosa, simplemente no la construyas». Su liviana frase soslaya el gran problema que late al fondo, tal vez el medular: la revolución tecnológica requiere un rearme moral, unas líneas rojas. La tecnología puede cambiar el mundo para bien. Pero si su lema es «todo vale»...

(PD: nada de todo lo que se acaba de relatar ocupa un solo minuto de debate de los partidos políticos españoles).

http://www.abc.es/tecnologia/abci-d...cion-jamas-conocida-201803250339_noticia.html
 
filosofo-kS0E--620x349@abc.jpg

Byung Chul-Han - INÉS BAUCELLS

«Estamos inmersos en una masa de datos que nos controla totalmente»
El pensador Byung Chul-Han sostiene que el ser humano se ha convertido en el resultado de una operación algorítmica
DAVID MORÁN
Actualizado:25/03/2018 03:39h

Antes de que Facebook se convirtiese en el centro de todas las miradas y de que algunos usuarios empezasen a plantearse seriamente la conveniencia de eliminar sus cuentas, el pensador surcoreano Byung Chul-Han (Seúl, 1959), gurú del pensamiento contemporáneo y azote del llamado capitalismo digital, ya había advertido de que, en realidad, somos poco más que un puñado de datos fluyendo sin control por el ciberespacio. Somos, asegura, el producto final que se trocea, se comparte y, finalmente, se vende al mejor postor. «Se supone que un e-book, por ejemplo, está para que yo lo lea, pero luego resulta que el e-book me lee a mí e interpreta mis hábitos a través de algoritmos», señala el filósofo para sintetizar lo que él mismo denonima «dataísmo». O, dicho de otro modo, la sumisión del «sujeto soberano» a la avalancha de macrodatos que nos envuelve.

«La ilustración empezó con Kant y lo que él denominó giro copernicano y fijó cosas como la libertad. Lo que yo llamo cambio dataísta implica que el hombre deja de ser un sujeto soberano para convertirse en un flujo de datos y en una unidad controlada. Evidentemente, deja de ser soberano para transformarse en el resultado de una operación algorítmica», explicó el autor de «La expulsión de lo distinto» el pasado mes de febrero, cuando viajó al Centro de Cultura Contemporánea de Barcelona para pronunciar una conferencia.

Para Han, especialmente crítico con las nuevas formas de comunicación (o, como él mismo sostiene, de incomunicación y aislamiento) que promueven las nuevas tecnologías y las cada vez más tupidas redes sociales, existen ejemplos alarmantes de cómo los datos que se generan a través de esas redes están desembocando en prácticas poco menos que sospechosas. «En China, por ejemplo, se ha introducido el social scoring, que escanea las inclinaciones y relaciones de un ciudadano y, en función de los datos recogidos por el Estado, se concede o no un visado», ilustra.

El «reconocimiento facial», añade, desemboca «en el control total de las personas» y coloca a los ciudadanos en una realidad aún más peliaguda que la descrita en la más célebre de las distopías. «En “1984”, la novela de George Orwell, la sociedad era consciente de que estaba siendo dominada. Hoy en día, en cambio, ni siquiera tenemos esa conciencia de dominación. Estamos inmersos en una masa de datos que nos controla totalmente», explica. Y aún hay más: «En Estados Unidos los resultados electorales están influidos por cosas como Facebook», anticipa antes de reclamar la necesidad de consensuar una «carta digital» que sirva para «recuperar la dignidad humana». «Se trata de ajustar el sistema para que el hombre esté en el centro», subraya.

Autor de ensayos que, como «La sociedad del cansancio», «Psicopolítica» o «Topología de la violencia», se han acabado convirtiendo en inesperados superventas, el filósofo instalado en Berlín cree que ha llegado el momento de revertir la situación y que internet y el flujo continuo de datos recuperen su condición de herramientas al servicio del ser humano. «Internet, los datos, las máquinas… Han de estar al servicio de las personas, no al revés, que es lo que está pasando ahora. Lo que tenemos que hacer es ajustar todo este sistema, no abolirlo», señala Han. Y es que, mal utilizada, añade, la tecnología sirve para homogeneizar, aislar y, en última instancia, convertir la comunicación en un mero intercambio de información. «Los medios sociales representan un grado nulo de lo social», dice.

http://www.abc.es/tecnologia/abci-e...controla-totalmente-201803250339_noticia.html
 
Microsoft anuncia el lanzamiento de Windows Server 2019 durante la segunda mitad de este año

La compañía tecnológica Microsoft ha anunciado el lanzamiento de Windows Server 2019 para la segunda mitad del presente año. Este sistema operativo presentará novedades como un servicio de 'cloud' híbrido o la herramienta Project Honolulu, que facilitará la conexión de despliegues de Windows Server con los servicios de Azure.

Microsoft ha anunciado este jueves la disponibilidad de Windows Server 2019 en la segunda mitad del presente año. En un comunicado, la empresa estadounidense ha avanzado que ya es posible acceder a la versión 'preview' de este sistema operativo a través del programa de pruebas Windows Insider.
La compañía ha explicado que Windows Server 2019 será el próximo lanzamiento en su canal Long-Term Servicing Channel (LTSC), que habilita periodos de entre dos y tres años entre las grandes actualizaciones del 'software'. Microsoft ha asegurado que la versión LTSC de Windows Server es la "recomendada" para "la mayoría de las infraestructuras", incluyendo cargas de trabajo como Microsoft SQL Server, Microsoft SharePoint y soluciones definidas de 'software' para Windows Server.

NOVEDADES INSPIRADAS EN DESAFÍOS FUTUROS
Windows Server 2019 está construido sobre la base de Windows Server 2016, que de acuerdo con los datos telemétricos de Microsoft, ha sido la versión de este sistema operativo "con mayor adopción de la historia". Además, la compañía ha introducido nuevas características inspiradas en los "desafíos futuros" de la industria TI.
En ese sentido, Microsoft ha defendido que su próximo sistema operativo para servidores debe dar cabida a escenarios de nube híbrida, ya que el 'cloud' es "esencial" para tecnologías como la Inteligencia Artificial o el Internet de las Cosas. La empresa norteamericana ha explicado que los clientes están realizando acciones como ampliar Active Directory, sincronizar servidores de archivo y realizar copias de seguridad en la nube para extender sus centros de datos a la nube pública.
Windows Server 2019 integrará la herramienta Project Honolulu, que busca facilitar la conexión de despliegues ya existentes de Windows Server con los servicios de Azure. Con el nuevo sistema operativo, los clientes serán capaces de integrar "sin complicaciones" servicios como Azure Backup, Azure File Sync o recuperación ante desastres, entre otros, sin que afecte a sus aplicaciones e infraestructura.
El nuevo Windows Server implementará nuevas medidas de seguridad como un Shielded VMs mejorado para que soporte Linux VMs, con el fin de proteger las aplicaciones de Linux contra el 'malware', o Encrypted Networks, que permitirá a las administraciones cifrar segmentos de redes con un interruptor. Además, incorporará el servicio Windows Defender Advanced Threat Protection (ATP), que ofrecerá protección preventiva, detecta ataques y 'exploits' 'zero-day' y una gestión centralizada de su ciclo de vida de seguridad 'end-to-end'.
Microsoft también permitirá a los usuarios de Linux traer sus 'scripts' a Windows, a través del subsistema Windows para Linux (WSL). Con el Semi-Annual Channel, la compañía ya había incorporado nuevas funciones como contenedores Linux en Windows para ayudar a los desarrolladores a ejecutar en una única infraestructura ambos tipos de contenedores.
La compañía también se ha asociado con proveedores de 'hardware' para proporcionar una solución de infraestructura híperconvergente (HCI) "económica y robusta". Sobre esta plataforma, Microsoft está incluyendo "escalabilidad, rendimiento y fiabilidad", y agregará la opción de gestionar la implantación HCI en Project Honolulu.
https://www.cuatro.com/noticias/tec...-lanzamiento-Windows-Server_0_2535225328.html
 
Microsoft comparte su apuesta de IA para el entorno empresarial

Microsoft ha compartido este martes su apuesta de inteligencia artificial (IA) para el entorno empresarial, enfocada a la transformación de los procesos de negocio en escenarios concretos donde la IA y el aprendizaje automático ayudan a las empresas a abordar retos y oportunidades comunes en diferentes sectores.

Estamos en un "momento clave" de la inteligencia artificial, como ha señalado el director de Estrategia de Inteligencia Artificial para Soluciones Empresariales de Microsoft Corp., Jaime Pereña. Existe una oportunidad de negocio de 1,2 billones de dólares, y se estima que en 2020 el 85% de las empresas usarán la IA, según datos de PwC.
En el caso concreto de España, las previsiones de PwC señalan que el 45% de las ganancias económicas proyectadas para 2030 vendrán derivadas de la aplicación comercial de soluciones de IA, y para un 80% de los directivos, la IA supondrá cambios "altamente disruptivos.
"Cada proceso de negocio en todas las industrias se verá transformada por la inteligencia artificial", ha explicado Pereña. El uso de la IA, "permitirá a las empresas ir más deprisa y hacer más cosas", lo que, como entiende, "será crítico para su evolución".
La adopción empresarial de las soluciones de IA se ha visto favorecida por los avances conseguidos en 'deep learning' (aprendizaje profundo) y las redes neuronales que nutren esos sistemas. También ha influido la potencia de cálculo disponible en la nube así como el inmenso volumen de datos existente que continúa creciendo y permitiendo entrenar a los modelos y algoritmos de IA.
UBS, uno de los mayores bancos de Europa, es una de las empresas que ha desplegado soluciones basadas en tecnologías cognitivas, en su caso, para potenciar el razonamiento, lo que implica extraer conocimiento a partir de los datos. La tecnología de IA y de 'machine learning' (aprendizaje automático) de Microsoft aplicadas a 'credit scoring' han reducido el proceso de gestión de riesgo de 15 días a 22 minutos.
En el caso de Uber, la compañía ha buscado potenciar el entendimiento, para interpretar el significado de los datos, incluyendo voz e imagen. A través de Azure Cognitive Services, se compara la fotografía del conductor con la información almacenada en la base de datos de conductores de Uber y se comprueba si la persona que conduce el coche es el conductor autorizado.
El último caso citado por el directivo es el de UPS, que ha potenciado la integración, con la transformación de la forma en que utiliza los ordenadores y la introducción de soluciones basadas en 'bots' inteligentes para su servicio de atención al cliente. En los ocho primeros meses de funcionamiento, el 'bot' ha gestionado más de 200.000 conversaciones liberando tiempo de los operadores del 'call center'.
https://www.cuatro.com/noticias/tec...arte-apuesta-IA-empresarial_0_2533650959.html
 
En dos décadas será más barato operar robots en fábricas en EEUU que contratar trabajadores en África
450_1000.jpg

Actualizado 26 Marzo 2018, 13:08

Que los robots y los sistemas de inteligencia artificial acabarán desplazando a millones de personas de sus empleos es algo que nadie duda ya. El impacto de esa automatización es incierto, pero un nuevo estudio revela un nuevo y potencial efecto colateral.

Se trata de las consecuencias que tendrá esa automatización entre los países que cuentan con mano de obra barata. Los expertos sugieren que en África deberían comenzar a prepararse para ese futuro "aumentando el acceso a internet, invirtiendo en conocimientos técnicos y promoviendo la innovación tecnológica".

La automatización afectará al empleo en todo el mundo
El estudio del Overseas Development Institute (ODI) contradice lo que argumentaban algunos estudios precios en los que se indicaba que los países más pobres estarían menos afectados por la automatización: para estos analistas, los países del continente africano deberían prepararse para el cambio que también supondrá en esas economías.

450_1000.jpg


Investigadores de la consultora McKinsey Global Institute revelaban que una tercera parte de los trabajos en países ricos como Alemania o Estados Unidos podrían verse afectados por esa automatización. En cambio países como India solo vería que un 9% de sus trabajadores serían reemplazados por este tipo de soluciones automatizadas.

¿La razón? Según McKinsey los países más pobres no tienen recursos económicos para invertir en la automatización. Para el ODI esa estimación es demasiado optimista, y explicaban que aunque por ejemplo los robots que se usan para la fabricación de muebles aún son más caros que la mano de obra humana, "pero eso dejará de ser así en 15 años".

Los robots saldrán muy baratos, y cada vez más
En ese estudio de hecho estiman que el coste de los robots y las impresoras 3D que se encarguen de fabricar muebles en los Estados Unidos serán más baratos que los salarios de la mano de obra en Kenia en 2034. En Eiopía la automatización acabará siendo más barata que la mano de obra humana entre 2038 y 2042.

450_1000.jpg


Para prepararse para ese cambio África tendrá que abrazar los cambios que se avecinan. El continente africano tiene dos décadas para fomentar cambios laborales en industrias menos afectadas por la automatización "como comidas y bebidas, prendas de vestir o metales".

Karishma Banga, una de las responsables del estudio, indicaba que "si se hace bien, la automatización puede ofrecer importantes oportunidades a los países africanos al mejorar la productividad laboral en el sector manufacturero". La inversión en una educación más técnica (los célebres estudios STEM) puede ser según la ODI una de las claves que aliviará el impacto de esos cambios.
https://www.xataka.com/empresas-y-e...-en-eeuu-que-contratar-trabajadores-en-africa
 
La historia de las hojas de cálculo digitales: de idea descartada a herramienta imprescindible
Yúbal FM @Yubal_FM

450_1000.jpg


Las hojas de cálculo son una de las herramientas más socorridas a la hora de organizar ideas, crear listas o incluso realizar cálculos matemáticos. Las utilizamos prácticamente para cualquier cosa, y hoy en día ya nos es concebir un mundo sin ellas. Hoy os vamos a hablar de su historia, pues es un tipo de aplicación más antigua de lo que algunos creen.

La idea de digitalizar las hojas de cálculo nació e principio de los sesenta, aunque fue abandonada hasta la llegada del PC doméstico en los 80. Te vamos a contar también cuales han sido las aplicaciones clave en su implantación, desde VisiCalc a Excel, pasando por Lotus 1-2-3, mencionando las principales características de cada una.

Una primera idea que quedó en el olvido

450_1000.png

Richard Mattessich, el primero en introducir el concepto de la hoja de cálculos computerizada.

Las hojas o plantillas de cálculo han sido utilizadas durante siglos por los contables. Es un método en el que por lo general se organizan las cuentas con columnas para categorías de gastos en la parte superior, facturas listadas en el margen izquierdo y la cantidad de cada pago en las celdas donde las filas y las columnas se cruzan.

La historia de su versión electrónica empieza en 1961, cuando Richard Mattessich, economista y profesor en la Universidad de Columbia Británica, introdujo su concepto en un artículo llamado 'Budgeting Models and System Simulation'. Más tarde desarrolló ese concepto con otros dos libos posteriores titulados 'Contabilidad y modelos analíticos' y 'Simulación de la empresa a través de un programa de computador de presupuesto'.

Este segundo libro contenía entradas y salidas detalladas de un programa informático, ilustrando el principio y final de una hoja de balances y una serie de presupuestos, con pérdidas, ganancias y un balance general proyectado en formato de hoja de cálculo. El programa fue escrito utilizando FORTRAN IV por dos de sus asistentes de investigación, Tom Schneider y Paul Zitlau.

La obra de Mattessich fue discutida en en el mundo económico e informático, pero en general los expertos en computación no le hicieron ni caso. Por lo tanto, la idea se quedó en un cajón, y las hojas de cálculo electrónicas sólo llegaron a ser conocidas de forma amplia durante la década de los 80, después de la irrupción de los ordenadores personales o PCs.

De hecho, la primera gran aplicación en popularizar las hojas de cálculo en los ordenadores fue desarrollada en 1979 por Daniel Bricklin y su colaborador y programado Bob Frankston. Decidieron llamarla VisiCalc como abreviación de Visible Calculator, y fue desarrollada para el Apple II

La aplicación nació cuando Dan Bricklin observó cómo su profesor de la Harvard Business School tenía que estar borrando y recalculando una gran cantidad de datos en la pizarra durante las explicaciones de modelos con tablas. Se le ocurrió que sería bueno poder crear un concepto de pizarra y tiza electrónica, y de ahí nació la primera killer-app de hojas de cálculo.

De VisiCalc a Excel, pasando por Lotus

450_1000.png

Interfaz de VisiCalc en el Apple II.

VisiCalc fue el primer programa al que se empezó a denominar hoja de cálculos electrónica, precisamente por su parecido con las hojas de cálculo en papel. Imitó la organización de los datos en celdas con filas y columnas, y permitía cambiar los valores de las celdas, recalculaba automáticamente basándose en fórmulas almacenadas en celdas que hacen referencia a otras, y permitía hacer scroll hacia los lados.

Su interfaz de hecho sentó las bases de todo lo que vino después. Esa configuración en celdas con filas y columnas seguimos teniéndola hoy en día en Excel, aunque evidentemente las interfaces de usuario de hoy en día no tienen nada que ver con las de aquella época. VisiCalc consiguió un éxito arrollador, pero no le duró muchos años.

Varios problemas legales en 1983 distrajeron a los desarrolladores de VisiCalc, lo que unido a su lentitud para adaptarse a los nuevos IBM PC fue aprovechado por Mitch Kapor, un amigo de Bricklin y Frankston. Kapor creó una empresa llamada Lotus Development Corporation, con la que desarrolló su propia hoja de cálculos específica para los IBM PC. Se llamó Lotus 1-2-3.

450_1000.png

Interfaz de Lotus 1-2-3

Lotus 1-2-3 facilitó el uso de hojas de cálculo agregando gráficos integrados, así como la capacidad de realizar operaciones rudimentarias o elementales de base de datos a partir de su función de búsqueda de tablas. Fue el primer programa de este tipo en introducir celdas de nombres, rangos de celdas y macros de pulsación de teclas leídas de una hoja de cálculo

En definitiva, este programa consiguió dar sentido a que las empresas comenzaran a introducir equipos informáticos en el mundo laboral. De hecho fue tan exitoso que casi desde su lanzamiento consiguió destronar inmediatamente a VisiCalc, convirtiéndose rápidamente en la aplicación de hojas de cálculo de referencia.

Sin embargo, como pasó con su predecesor, Lotus inició su declive al no saber adaptarse a otra revolución informática, la que supuso la irrupción del sistema operativo Windows. En un principio trataron de mantener el programa fiel a MSDOS, y para cuando quisieron reaccionar ya era demasiado tarde. Había llegado la hora de Excel.

450_1000.gif

La primera versión de Excel fue desarrollada para Macintosh

La primera versión de Excel fue lanzada para Macintosh en septiembre del 85, y fue portada posteriormente a Windows, donde se lanzó en el 87. A principio de los 90 compitió duramente con un Lotus que fue manteniéndose con versiones para Windows, pero en 1995 finalmente Excel se impuso y se convirtió en el nuevo rey de las hojas de cálculo.

Excel ofrecía una interfaz de usuario que mantenía la esencia y las premisas que este tipo de programas incorporaban desde VisiCalc, con celdas organizadas en filas y columnas, cada una pudiendo tener datos, fórmulas, referencias relativas, absolutas o mixtas a otras celdas. Uno de sus grandes logros fue la primera en permitir definir su apariencia cambiando fuentes, atributos y celdas.

También fue la primera en introducir la recomputación inteligente de celdas. Esto quiere decir que cuando las celdas dependientes de otras celdas que han sido modificadas se actualizan automáticamente recalculando sus valores.

Con el tiempo Excel consiguió prestarle su nombre al software de hojas de cálculo en general, asentando su reinado. La gente no dice "mándame una hoja de cálculo", suele decir "mándame un Excel". Desde su primera versión ha seguido evolucionando, y aunque han aparecido innumerables alternativas sigue siendo una de las más utilizadas.

450_1000.jpg

Una versión actual de Excel frente a LibreOffice Calc, su alternativa de software libre.

Actualmente, el mundo de las hojas de cálculo digitales sigue evolucionando, e impulsadas por nuevas alternativas como Google Sheets ya permiten guardar los datos en la nube y trabajar en una de manera colaborativa. Microsoft se ha seguido adaptando a estas tendencias con sus nuevas versiones de Office, consiguiendo mantener su relevancia como no lo consiguieron sus predecesores.

También tenemos unas alternativas libres cada vez más potentes como LibreOffice Calc, que adapta muchas de las características de Excel y las ofrece de forma libre y gratuita para que cualquieras las pueda usar. En definitiva, las hojas de cálculo siguen gozando hoy de una buena salud, y no parece que vayan a desaparecer a corto plazo.
 
Cómo operaban los hackers acusados de hacer que los cajeros automáticos escupieran dinero

_100583369_gettyimages-623328600.jpg

El supuesto líder de la banda fue arrestado producto de una investigación que se realizó en España, Rumania, Bielorrusia y Taiwán.

El presunto cerebro de una banda de ciberladrones sospechosa de robar un monto equivalente a más de US$1.200 millones a más de un centenar de bancos fue arrestado en España.

Según la Oficina de la Policía Europea (Europol), el grupo estuvo operando desde 2013, infiltrando los sistemas informáticos de las entidades bancarias.

Se acusa a la organización de perpetrar los robos mediantes el uso de programas maliciosos conocidos como Carbanak y Cobalt.

Diferentes modalidades
Estos hackers accedían a las redes internas de los bancos enviando correos electrónicos fraudulentos (phishing emails) a empleados que ocupaban puestos clave en esas entidades.

Una vez que las computadoras de esos empleados eran infectadas, la banda accedía de manera remota y robaba dinero de diferentes maneras.

Una de las modalidades era la activación remota de cajeros automáticos para que expidieran dinero a una hora específica. Esos billetes eran recogidos por miembros del grupo.

_100569158_044267574-1.jpg

El dinero era lavado a través de criptomonedas y tarjetas de crédito que eran utilizadas para comprar bienes de lujo, entre ellos autos y casas.


También realizaban transferencias a cuentas pertenecientes a integrantes de la banda y alteraban bases de datos para acrecentar los balances de determinadas cuentas y el dinero era retirado mediante operaciones regulares en cajero automáticos.

El botín luego era lavado a través de criptomonedas y tarjetas de crédito que eran utilizadas para comprar bienes de lujo, entre ellos autos y casas.

La investigación fue realizada en forma conjunta por Europol, el FBI y firmas especializadas en ciberseguridad en España, Rumania, Bielorrusia y Taiwán.
http://www.bbc.com/mundo/noticias-43555666

 
Gran desempeño de alumnos de ORT en la competencia internacional Robotraffic 2018


25.03.2018 16:45 |




Ver más imágenes»

Itongadol.- Mateo Bartellini Huapalla, Damián Melamed y Franco Zelener, alumnos de 6to. año de la orientación Electrónica de ORT, se lucieron en la competencia internacional Robotraffic 2018, que se desarrolló en el Technion -Instituto Tecnológico de Israel-, y con un desempeño impecable obtuvieron resultados destacados.

1er. puesto en la categoría Careful
2do. puesto en la categoría Advanced Careful Driving.
1er. premio y 2do. premio en la categoría Racing.

“Robotraffic significó mucho esfuerzo para nosotros. Durante casi dos meses nos abocamos de lleno a trabajar en los dos robots con los que competimos. Esta experiencia es muy gratificante, estamos felices por los logros conseguidos y esperamos regresar a ORT para compartir los premios con Teo y Mariano, el director de la orientación”, contaron los alumnos muy entusiasmados.

La delegación viajó acompañada por el docente Federico Miguel Freccero quien, junto a Teo Gentile, asesoró y asistió a los estudiantes en su preparación para el certamen.

En esta oportunidad, la competencia estuvo centrada en problemas de seguridad vinculados con la implementación de bicicletas eléctricas y planteó dos importantes retos. El primero consistió en pensar distintas maneras para proteger a los ciclistas, mientras que el segundo se basó en proponer el diseño de rutas inteligentes para mejorar la circulación y seguridad de quienes transitan por la vía pública.

Como desafío, cada equipo debió construir y programar un vehículo robot autónomo capaz de operar adaptándose a distintas situaciones de tránsito. Además, los chicos tuvieron que poner en juego conocimientos sobre robótica y programación e intentar comprender distintas problemáticas asociadas al desarrollo de dispositivos inteligentes que funcionan de manera segura en situaciones complejas, como las que genera el tráfico en una ciudad.

Una de las categorías del certamen planteó la particularidad de que todos los grupos trabajen en base a un mismo hardware, enviado por la organización algunos meses antes del evento. Esto permitió que los equipos puedieran destacarse por sus estrategias e ingenio, obteniendo resultados sumamente originales.

Es importante resaltar que los estudiantes compitieron con chicos de otros países del mundo, entre los que se encuentran Rusia, Ucrania, Estados Unidos, México e Israel.

¡Felicitaciones por su gran desempeño en Robotraffic 2018 y por haber representado de manera excelente a ORT Argentina!
http://itongadol.com/noticias/val/1...mpetencia-internacional-robotraffic-2018.html
 
robots-109963_561x316.jpg


La realidad sobre la inteligencia artificial cómo afectará los puestos de trabajo
Publicado por Jon Oleaga el Mar 28, 2018

No, tu trabajo no va a desaparecer sustituido por inteligencia artificial y robótica. Aunque a los medios nos encante promover el pánico, y hacer sonar la alarma, hay que saber diferenciar el click bait, de la información real. Los informes y la estadística, aunque suelen ser objetivos después es una mente humana la que los interpreta, y nos dejamos llevar por las cifras más impactantes que puedan llamar la atención del lector.

Es cierto que la inteligencia artificial ya ha llegado, y que algunos trabajos desaparecerán paulatinamente. También lo es que muchas tareas rutinarias a las que estamos acostumbrados, las realizará una maquina en un futuro cercano. Hablar de IA, no es como exclamar “que viene el lobo”, es una realidad que nos rodea. Los coches autónomos, el supermercados sin empleados de Amazon o las recomendaciones de Netflix, son claros ejemplos de ello en productos de consumo, pero en la industria, la incorporación de esta tecnología está ocurriendo de forma más rápida.

TUe-RoboEarth3-hig_2790701k-644x402.jpg


Hoy el decano de la universidad de relaciones internacionales del IE ha publicado una entrevista en Linkedin con Matthew Thomas de McKinsey, responsable del informe sobre el efecto de la inteligencia artificial en el trabajo de la conocida consultora. Y sí, el 50% de las actividades remuneradas de las personas pueden ser sustituidas actualmente por inteligencia artificial. Se trata de la cifra más alarmante. Pero, si seguimos leyendo, en realidad sólo el 5% de los trabajos son reemplazables al 100% por IA. En realidad, lo que va a ocurrir, es que el 60% de los trabajos se verán afectados por la IA, pero sólo en el 30% de sus tareas. Lo que va a suponer que para el 2030, o lo que es lo mismo, en 12 años, el 14% de los trabajadores tendrán que cambiar de ocupación.

Se avecinan cambios, pero no es tan malo como lo pintan los medios de comunicación. No va a pasar nada que no haya ocurrido ya con anterioridad con otros cambios tecnológicos y culturales.
http://abcblogs.abc.es/jon-oleaga/2...ificial-como-afectara-los-puestos-de-trabajo/
 
Doy clases de ética en inteligencia artificial y esto es lo que enseño a futuros ingenieros
450_1000.jpg

Esther Paniagua


El MIT Media Lab no es solo el laboratorio de innovación del Instituto Tecnológico de Massachusetts (MIT). Es la ventana del mundo a un futuro mejor. Un lugar donde se conciben, diseñan y crean tecnologías que faciliten a las personas la construcción de un porvenir esperanzador. Fundado hace más de tres décadas, este laboratorio se propone inventar -y reinventar- cómo los humanos experimentamos la tecnología y cómo esta puede auxiliarnos.

En el MIT Media Lab hay grupos dedicados a la computación afectiva, a las dinámicas humanas, a la cooperación escalable, a las ciencias de la ciudad, al aprendizaje colectivo, a las máquinas sociales, al diseño ficción o al futuro de la música, por citar algunos. Recientemente se ha creado uno nuevo, dedicado a la ética. Entre sus iniciativas está la 'Máquina de la moral' o Moral Machine, un juego creado para desarrollar un sistema ético para los vehículos autónomos del que ya hemos hablado en Xataka y cuyos resultados esperan compartir antes de que acabe este 2018.

La máquina de la moral es uno de los experimentos más conocidos del grupo de Ética del Media Lab pero no es un proyecto aislado. El laboratorio participa -junto con otras instituciones- en una iniciativa más amplia cuyo propósito es avanzar en la investigación de la inteligencia artificial (IA) para el bien público. Para ello cuenta con unos fondos de 27 millones de dólares (unos 22 millones de euros).

De este programa nace el curso ' Ética y gobernanza de la inteligencia artificial', puesto en marcha recientemente. Su impulsor es Joichi (Joi) Ito, director del MIT Media Lab y también de este curso, que imparte junto con Jonathan Zittrain, profesor y cofundador del Centro Berkman Klein para Internet y la Sociedad de la Universidad de Harvard.

450_1000.jpg

Joi Ito ©MIT Media Lab

Hemos tenido la oportunidad de conversar con Ito (por correo electrónico) sobre el por qué de este curso, qué enseñan exactamente, qué aprenden sus estudiantes, cuál es la postura del MIT Media Lab en lo que concierne a la ética y la regulación de la IA y cómo afrontan este reto los investigadores del laboratorio.

Pregunta: ¿Cuál es su motivación personal para lanzar este curso?

Respuesta: Estoy preocupado por la inteligencia artificial y el uso de datos y algoritmos en la sociedad. Sus aplicaciones van desde evaluaciones de riesgos que se utilizan en el sistema de justicia penal -para tomar decisiones sobre la puesta en libertad bajo fianza o en libertad condicional, o incluso en sentencias- hasta determinar puntajes de crédito, las tasas de los seguros o las decisiones que tomarán los coches autónomos.

Toda esta nueva tecnología ha comenzado a extenderse al uso común sin suficiente aportación de las ciencias sociales y la sociedad en general. Muchos de estos sistemas tienen sesgos o se han construido sobre estructuras que no son suficientemente explicables o transparentes. Las personas están empezando a apreciar algunos de los problemas que esto acarrea, pero todavía no contamos con una base suficiente de ingenieros que entiendan las ciencias sociales ni de científicos sociales, abogados y reguladores que entiendan la tecnología.

Este curso trata de crear un entorno multidisciplinario para que los estudiantes del MIT, de la Facultad de Derecho y de la Escuela Kennedy de Harvard y de otros departamentos se reúnan para conocer y debatir estos temas.

P: ¿Qué comprende exactamente el curso? ¿Qué temáticas se tratan en específico?

R: Abordamos una amplia variedad de cuestiones, incluida la compleja interacción entre las organizaciones de gobernanza y los Estados soberanos; la proliferación de decisiones algorítmicas; los sistemas autónomos; el aprendizaje automático y cómo explicar su funcionamiento; la búsqueda del equilibrio entre regulación e innovación, y los efectos de la IA en la difusión de información. Todo esto junto con preguntas relacionadas con los derechos individuales, la discriminación y arquitecturas de control.

Las clases se dividen en varios temas. El primer día tratamos la autonomía, el diseño del sistema y la responsabilidad. El segundo día lo dedicamos íntegro a los sesgos de los algoritmos. El tercero, a cuestiones de propiedad, control y acceso. El cuarto día tratamos el tema de la gobernabilidad, la explicabilidad y la responsabilidad de la IA. El quinto tratamos sobre el la automatización del trabajo y el papel en ello de la regulación. La sexta y última clase es para las conclusiones en torno a la ética y la moral y sus fronteras.

450_1000.jpg

Joi Ito durante una de las clases del curso, frente a algunos de los alumnos y alumnas ©MIT Media Lab

[Para más información, Ito comparte el enlace de acceso al plan docente].

P: Una de las sesiones del curso se centra en buscar la clave de un buen balance entre innovación y regulación. ¿Cuál es su postura al respecto?

R: Trabajamos en sistemas complejos autoadaptables que evolucionan y cambian. Es importante ser iterativo. Es importante entender la dinámica y la estructura de la ley, la tecnología, las normas culturales y sociales y las fuerzas del mercado. Cuando sea posible, deberíamos tratar de pensar para qué [con qué fin] estamos intentando optimizar; de observar el sistema general y los efectos de cualquier regulación en todas las estructuras y a todas las escalas para asegurarnos de estar al tanto y de monitorizar las consecuencias involuntarias.

La innovación es importante pero no puede ser solo una vía para ganar dinero. Los programadores deben considerar el posible uso indebido de sus creaciones. Los reguladores, por su parte, deben desarrollar protecciones contra el daño social o la creación de prácticas desfavorables como los monopolios, sistemas que aumentan el sesgo o la disparidad de ingresos u otras formas de daño.

P: También se discute en una de las sesiones cuáles son los efectos de la IA en la difusión de información

R: Todavía estamos aprendiendo cómo estos algoritmos afectan la información que recibimos. Incluso podrían ayudar a dar forma a nuestras reacciones ante ella. Los ecosistemas de información son complejos, y más aún con la introducción de la IA. Nuestro abordaje consiste en afrontar estas cuestiones desde una perspectiva más inclusiva. No tenemos respuestas fáciles.

P: ¿Cómo lidian en su día a día los desarrolladores e investigadores del MIT Media Lab con las cuestiones éticas ? ¿Cuál es su principal reto?

R: En el laboratorio usamos el término "inteligencia extendida", que reconoce que es importante comprender el aprendizaje automático y la ética en la sociedad, ya que se relacionan con sistemas adaptativos complejos. Esa es la razón de contar con investigadores de talla mundial en casi todas las áreas a la hora de trabajar con sistemas de inteligencia artificial: perfiles técnicos, sociales, filosóficos, psicológicos, legales y artísticos.

La mayoría del trabajo de nuestros investigadores abarca muchas de estas disciplinas tradicionales. Hay muchos desafíos dentro de cada una de estas áreas, pero el principal reto se encuentra en los propios sistemas computacionales, en cómo traducir conceptos entre estos campos tradicionales. Por ejemplo, las definiciones de imparcialidad y parcialidad en el aprendizaje automático no son las mismas en sociología o incluso en derecho o economía. Dedicamos mucho tiempo a imbuir a nuestros estudiantes (que son técnicamente algunos de los mejores del mundo) la capacidad de asimilar, comprender y relacionarse con el lenguaje utilizado en las humanidades, las leyes, las artes y la medicina.

P: ¿Cree que debería ser obligatorio que los estudiantes de informática reciban formación en aspectos éticos?

R: Sí.

[En un artículo reciente en Nautilus los investigadores del MIT Media Lab Iyad Rahwan y el español Manuel Cebrián van más allá y plantean la necesidad de crear una nueva disciplina académica para el 'comportamiento máquina', como la hay para el comportamiento humano. Su premisa: el estudio de la 'conducta' de la IA debe realizarse desde distintas disciplinas y no restringirse a aquellos que la desarrollan, al igual que en el caso de los humanos este no se reduce a la aproximación de los fisiólogos].

P: Circulan desde hace unos meses algunos manifiestos como la Declaración de Barcelona para el adecuado desarrollo y uso de la inteligencia artificial en Europa o la carta abierta en la que Elon Musk y otros líderes piden a la ONU que nos proteja de los peligros de las armas autónomas. El asunto ha tenido también un espacio en el Foro de Davos del Foro Económico Mundial este 2018. ¿Cree que son importantes iniciativas como estas para alcanzar acuerdos a nivel global? ¿Participa el MIT en alguna?

Es absolutamente vital contar con acuerdos internacionales en torno a la IA. Estamos trabajando con expertos de todo el mundo para desarrollar nuevos estándares en esta área.
https://www.xataka.com/entrevistas/...-y-esto-es-lo-que-enseno-a-futuros-ingenieros
 
Back