¿Qué opináis sobre la Inteligencia Artificial?

Prohibirla. Cero tolerancia. No sabremos usarla, somos imbéciles, así que vetarla.
Lo que dices es excesivamente tajante, casi dictador, y es cero probable que suceda.

Yo sí sé usarla y ya la he incorporado a mi día a día en el trabajo, y como yo, millones de personas en todo el mundo.

Como bien ha dicho @Irenita, se debe legislar, jamás prohibir.

Sorry prima, pero lo que dices me parece típico de alguien que habla desde el más completo desconocimiento del tema, en este caso la IA.
 
Lo que dices es excesivamente tajante, casi dictador, y es cero probable que suceda.

Yo sí sé usarla y ya la he incorporado a mi día a día en el trabajo, y como yo, millones de personas en todo el mundo.

Como bien ha dicho @Irenita, se debe legislar, jamás prohibir.

Sorry prima, pero lo que dices me parece típico de alguien que habla desde el más completo desconocimiento del tema, en este caso la IA.
O que sabe demasiado.
 
La solución de Elon Musk (temporal)


Las búsquedas de Taylor Swift en X, anteriormente conocido como Twitter, mostraban el sábado mensaje de error, después de que la semana pasada circularan en las redes sociales imágenes pornográficas de la cantante generadas por inteligencia artificial.

La función de búsqueda de X solo muestra resultados para Swift en las pestañas "Medios" y "Lista". Sin embargo, todavía se pueden realizar búsquedas en Swift utilizando varios operadores booleanos. Al ingresar "Taylor Swift" entre comillas, así como "Taylor AND Swift", se obtienen resultados de búsqueda normales en todas las pestañas de funciones de búsqueda de X.

El mensaje de error de la función de búsqueda no aparece ni en Instagram ni en Reddit.

Las imágenes falsas de Swift, que muestran a la cantante en posiciones sexualmente sugerentes y explícitas, circulaban predominantemente en X y fueron vistas decenas de millones de veces antes de ser eliminadas de las plataformas sociales.

Como la mayoría de las principales plataformas de redes sociales, las políticas de X prohíben compartir "medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a las personas y provocar daños".

"Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema", dijo la compañía a CNN en un comunicado el sábado.

Las imágenes pornográficas de celebridades manipuladas digitalmente no son nada nuevo en Internet y han estado circulando en línea desde la llegada de software como Photoshop. Pero el auge del software de inteligencia artificial convencional ha aumentado las preocupaciones debido a su capacidad para crear imágenes convincentemente reales y dañinas.

El incidente se produce cuando Estados Unidos se acerca a un año de elecciones presidenciales, lo que genera temores de que imágenes y videos engañosos generados por IA puedan usarse en esfuerzos de desinformación.

Y no son sólo las figuras públicas con presencia masiva en línea las que son víctimas de este tipo de acoso.

En noviembre, una estudiante de secundaria de 14 años de Nueva Jersey pidió a los funcionarios escolares y gubernamentales que tomaran medidas después de que fotos de ella y de más de 30 compañeras de clase fueron manipuladas y posiblemente compartidas públicamente.


En ese momento, la escuela proporcionó a CNN una declaración del superintendente Dr. Raymond González, quien dijo: “Todos los distritos escolares están lidiando con los desafíos y el impacto de la inteligencia artificial y otras tecnologías disponibles para los estudiantes en cualquier momento y en cualquier lugar”.

Actualmente, nueve estados de EE. UU. tienen leyes contra la creación o el intercambio de este tipo de fotografías deepfake no consensuadas, que son imágenes sintéticas creadas para imitar la propia imagen.
 

Fortune

Los deepfakes de Taylor Swift ponen de manifiesto el mayor defecto de la inteligencia artificial​

El contenido indebido y no consentido se esparció por redes sociales y alertó a las empresas y autoridades que supervisan el desarrollo de la IA​

Por Jeremy Kahn
03 Feb, 2024 12:27 p.m. EST


Las imágenes pornográficas deepfake de Taylor Swift se hicieron virales en la red social X y en varios canales de Telegram la semana pasada, subrayando el enorme problema estos contenidos no consentidos supone no sólo para esta estrella de la música, sino para las mujeres de todo el mundo.
Algunos confían en que Swift utilice su considerable influencia cultural para crear una corriente de apoyo a una regulación que realmente pueda hacer algo para detener la marea de este tipo de deepfakes, que a menudo se utilizan para acosar a personas que no son famosas.

Y, de hecho, varios representantes del Congreso de EEUU presentaron proyectos de ley destinados a combatir la por**grafía deepfake en respuesta a los generados contra Swift, y la portavoz de la Casa Blanca, Karine Jean-Pierre, dijo que podría ser necesaria una legislación sobre el mal uso de las redes sociales.
La cuestión es exactamente qué forma deberían adoptar esas leyes. En el Reino Unido, la nueva Ley de Seguridad en Línea responsabiliza a las personas que crean las imágenes y las cuelgan en la red, tipificando como delito el intercambio de por**grafía no consentida.

Pero no está claro hasta qué punto será fácil aplicar la ley o cuánta atención dedicarán la policía y los fiscales a perseguir estos casos. Los creadores de estas imágenes suelen tomar medidas para ocultar su identidad, lo que dificulta técnicamente las investigaciones. La ley tampoco llega a responsabilizar penalmente a las empresas de redes sociales que permiten que este tipo de falsificaciones se hagan virales.

Sin embargo, sí les exige que demuestren que disponen de sistemas para tratar de impedir la difusión de por** no consentido y para eliminar rápidamente los contenidos que se cuelen en sus filtros.
Este es el tipo de regulación que incluso algunos CEO de grandes tecnológicas han defendido en respuesta al problema de los deepfakes y la desinformación de todo tipo. Detenerla en el punto de distribución, no en el momento de la creación.

Eso es lo que dijo Satya Nadella, CEO de Microsoft, en recientes comentarios en la Chatham House de Londres y en Davos. Parafraseando el argumento de Nadella: Perseguir a los creadores de modelos de inteligencia artificial (IA) porque son capaces de hacer por** deepfake es como demandar a Smith Corona porque un atracador de bancos utilizó una de sus máquinas de escribir para escribir una nota de atraco.

Por otra parte, él (Microsoft) diría eso. Microsoft no tiene una gran red social que vigilar. Pero sí fabrica y vende software de inteligencia artificial. Y resulta que hay pruebas fehacientes de que fue el software Designer de la compañía, que incluye la capacidad de utilizar indicaciones de lenguaje natural para crear imágenes, el que se utilizó para crear las deepfakes de Swift.
Después de que la publicación tecnológica 404 Media mostrara lo fácil que era sortear las barreras de seguridad de Microsoft para crear deepfakes de Swift, la compañía reforzó algunas de esas restricciones.

Lo que se necesita es un enfoque múltiple que aborde los tres niveles del problema: leyes que tipifiquen como delito la creación y distribución de por**grafía no consentida y deepfakes; leyes que exijan a los creadores de modelos de inteligencia artificial unas barreras de protección mucho más sólidas que las actuales; y, lo que es más importante, leyes que exijan a las empresas de redes sociales filtrar mejor este tipo de imágenes y evitar que se conviertan en virales.

La facilidad con la que se pueden superar las barreras de seguridad de los diseñadores y el problema que tienen los gigantes de las redes sociales para filtrar los contenidos pornográficos se derivan de la misma cuestión fundamental: a pesar de su aparente sofisticación y su capacidad para aprobar el examen de acceso a la abogacía o los exámenes para obtener la licencia médica en Estados Unidos, los sistemas de IA siguen careciendo de un nivel de comprensión similar al humano.

Es sabido que la por**grafía es difícil de definir, incluso para los humanos. Como dijo el juez del Tribunal Supremo Potter Stewart, no podía definirla, “pero la reconozco cuando la veo”.

En teoría, este es exactamente el tipo de problema en el que la IA moderna, basada en redes neuronales, debería destacar. Una de las razones por las que el aprendizaje profundo basado en redes neuronales se puso de moda en primer lugar es que este tipo de software podía clasificar imágenes, como distinguir fotos de gatos de las de perros, no basándose en reglas y definiciones elaboradas, sino desarrollando un sentido casi intuitivo, imposible de explicar, de cuándo una imagen representaba un gato o un perro.

Pero resulta que la por**grafía es un concepto mucho más complejo de entender para la IA que la identificación de un gato o un perro. Algunos desnudos son inocentes. Otros no. Y a nuestros clasificadores de aprendizaje profundo les ha costado entender lo suficiente la composición semántica -las partes de una imagen que le dan un significado concreto- y el contexto como para hacer esas llamadas con éxito.

Por eso, muchas plataformas de redes sociales acaban bloqueando la distribución de inocentes instantáneas de bebés o fotos de esculturas clásicas que muestran figuras desnudas: el software de inteligencia artificial de sus filtros no puede distinguir entre estas imágenes inocentes y el por**.

Leyes como la Ley de Seguridad en Línea del Reino Unido acaban incentivando a las empresas a errar en el bloqueo de imágenes inocentes, ya que les evita multas y la ira de los legisladores. Pero también hace que estas plataformas sean menos útiles.

Lo mismo ocurre con nuestra IA de generación de imágenes, que también se basa en el aprendizaje profundo. No puedes simplemente crear barandillas para estos sistemas diciéndoles entre bastidores: “No crees por**”.

En lugar de eso, tienes que prohibir indicaciones de usuario como “Taylor Swift desnuda”. Pero resulta que el mismo sistema seguirá creando esencialmente la misma imagen cuando se le pida “Taylor ‘cantante’ Swift” y entonces, como informó 404 Media, “en lugar de describir actos sexuales explícitamente, describe objetos, colores y composiciones que parecen claramente actos sexuales y produce imágenes sexuales sin utilizar términos sexuales”.

De nuevo, esto se debe a que el generador de imágenes no entiende lo que es el por**. Y a medida que las empresas intentan reforzar estos guardarraíles, hacen que sus propios productos sean menos útiles para casos de uso legítimo.

Este es uno de esos problemas de la IA que puede requerir una arquitectura de IA completamente nueva para resolverse. Yann LeCun, científico jefe de IA de Meta, ha estado abogando por un nuevo método de aprendizaje profundo para clasificadores de imágenes llamado Joint Embedding Predictive Architecture (o JEPA) que intenta crear modelos de IA con una comprensión conceptual y compositiva mucho más sólida de una escena.

Es posible que un clasificador de imágenes basado en JEPA pueda ser un mejor detector de por** deepfake de Taylor Swift que nuestros modelos actuales.

Tendremos que esperar a que Yann nos diga si esto funciona para los deepfakes de Taylor Swift. Mientras tanto, esperemos que el por** deepfake siga siendo rechazado en las redes sociales.


 
No me gusta, solo hay que ver que hablas con alguna amiga sobre algo que te quieres comprar y luego en el foro todos los anuncios que te salen son relacionados.
Y eso que yo tengo el micro apagado.😵
 
Disculpa prima, ¿esto te parecen imágenes del chino? Porque a mí me parecen auténticas virguerías, y están hechas con Midjourney 5.

Ver el archivo adjunto 3300859
Ver el archivo adjunto 3300861Ver el archivo adjunto 3300872
"VIRGUERIAS"

Están hechas ROBANDO imágenes creadas por PERSONAS que han necesitado mucho tiempo y trabajo para realizar algo con alma, cosa que no tiene la IA de mierda.

Y ahora viene lo polémico: La movida con la ia en ilustraciones es que el público en general no tiene ni idea de cómo identificar una imagen de calidad porque por lo general no tienen educación ni cultura visual. El primero de los ejemplos del post, en concreto, es TERRORIFICO. Paso de ponerme a enumerar las razones porque estoy agotada ya con este tema. Si os gusta, maravilloso, seguid consumiendo esta basura. Algún día os pesará cuando sea todo igual, cuando no haya ilustradorxs haciendo cosas que te hagan pensar y que tengan un trabajo humano detrás. Cuando todo sea estéril y vacío, no lloréis. Lo habéis causado vosotrxs consumiendo esta basura y dejando de lado a quienes intentaban hacer de algo que es único y especial y que alimenta el alma un modo de vida para aportar a la sociedad con creatividad. Si nos quitan eso ya no merecemos nada como especie, sinceramente. Si lo único que hace especial al ser humano, que son las artes, las sustituimos por mierda generada con un algoritmo a partir de otras cosas ya hechas (ROBADAS), por mi ya que nos extingan.

¿Es que no veis la increíble cantidad de escoria que hay en la música, en el cine, en absolutamente todos los ámbitos creativos? De verdad queréis eso? Porque me parece trístísimo.
 
"VIRGUERIAS"

Están hechas ROBANDO imágenes creadas por PERSONAS que han necesitado mucho tiempo y trabajo para realizar algo con alma, cosa que no tiene la IA de mierda.
Decir que están robadas es mucho decir.

Yo también empleo muchas horas, junto con mucho esfuerzo y talento, en crear imágenes con alma (ilustraciones), y de momento no me he sentido estafada por la IA.

La IA copia estilos, y hace un copy/paste que a los profesionales de, voy a decir, las comunicaciones, porque tampoco quiero desvelar aquí mi profesión, nos enriquece muchísimo, además de mejorar nuestra productividad. Y lo mismo con el ChatGPT, que ya es también una extensión de mi cuerpo.

Cuando no existía la fotografía y la única manera de captar la realidad era mediante la pintura, su incursión supuso miedo y rechazo (igual que está pasando con la IA). Porque de repente, aparecía una nueva tecnología que "hacía el trabajo de los pintores". ¿Significó eso el fin del arte? No.

Insisto nuevamente en que hay que legislar.
 
Y ahora viene lo polémico: La movida con la ia en ilustraciones es que el público en general no tiene ni idea de cómo identificar una imagen de calidad porque por lo general no tienen educación ni cultura visual. El primero de los ejemplos del post, en concreto, es TERRORIFICO. Paso de ponerme a enumerar las razones porque estoy agotada ya con este tema. Si os gusta, maravilloso, seguid consumiendo esta basura. Algún día os pesará cuando sea todo igual, cuando no haya ilustradorxs haciendo cosas que te hagan pensar y que tengan un trabajo humano detrás. Cuando todo sea estéril y vacío, no lloréis. Lo habéis causado vosotrxs consumiendo esta basura y dejando de lado a quienes intentaban hacer de algo que es único y especial y que alimenta el alma un modo de vida para aportar a la sociedad con creatividad. Si nos quitan eso ya no merecemos nada como especie, sinceramente. Si lo único que hace especial al ser humano, que son las artes, las sustituimos por mierda generada con un algoritmo a partir de otras cosas ya hechas (ROBADAS), por mi ya que nos extingan.

¿Es que no veis la increíble cantidad de escoria que hay en la música, en el cine, en absolutamente todos los ámbitos creativos? De verdad queréis eso? Porque me parece trístísimo.
Ah, y por cierto, otra cosa más que se me olvidó mencionar.

Para hacer imágenes con un mínimo de calidad con IA, hace falta saber. Tienes que saber escribir un buen prompt, que no me canso de decir que promptear es como programar (y programar no lo sabe hacer todo el mundo), y sobre todo, hace falta MUCHA CULTURA VISUAL. Yo le puedo pedir a mi prima que haga una imagen con IA, pero lo que le saldrá va a ser un churro.
 
Sí, mogollón. Equiparable a quienes dedican su vida a saber dibujar, lo mismo. Úsala si quieres, pero deja de darle cualidades que no tiene.
Es que estoy intentando explicar justamente lo contrario: las cualidades de la IA se las damos las personas. Ella por sí sola no tiene.

Y con tema del dibujo perdona, pero sé de sobra cómo va porque llevo toda mi vida dibujando, e insisto en que sin una persona detrás que sabe lo que hace y cómo lo hace, la IA no es nada.
 
Es que estoy intentando explicar justamente lo contrario: las cualidades de la IA se las damos las personas. Ella por sí sola no tiene.

Y con tema del dibujo perdona, pero sé de sobra cómo va porque llevo toda mi vida dibujando, e insisto en que sin una persona detrás que sabe lo que hace y cómo lo hace, la IA no es nada.
Si llevas toda la vida dibujando y crees que los ejemplos que has puesto son una virguería… me ahorro la opinión profesional.

La ia se alimenta del trabajo de personas ROBANDO. Genera imagenes a partir del curro de gente que ha luchado mucho por vivir de algo ya muy poco valorado y que requiere muchos sacrificios.

En mi opinion, quienes la defienden son o ignorantes o personas que no han alcanzado suficiente nivel o que saben que no lo alcanzarán nunca, por vagancia o por falta de skills. Y de ahí no me bajo. Están todos los mediocres que tiran fuegos artificiales porque de pronto pueden hacer lo que les gustaría y no han sabido llegar a ello nunca. Pero es que no han llegado porque no tienen nivel ni para detectar que lo que hace la ia es una basura igualmente. Así que seguirán siendo lo que siempre han sido: MEDIOCRES.

Esto es una mierda:
1707209619804.png

Esto es otra mierda (y una horterada de "mucha + mab graves" que cualquiera con ojo profesional detecta y vomita):
1707209684074.png


Y este que da el pego un poco más no está terminado, es una guarrería desefocada en sitios random y con una cara estándar y tonos pastel.
1707209721709.png


¿Queréis usarla? Dadle duro.
Ya llegará el momento en el que os afecte y vendrán los arrepentimientos.

Éticamente yo tengo clarísimo que debería ser prohibida tajantemente ya solamente por cómo está creada y cómo se sigue alimentando. Se han filtrado conversaciones de trabajadores hablando de cómo alimentar con x ilustrador, y listas completas que manejan de PERSONAS que han sido parte fundamental para entrenar la ia. Pero nada, seguid defendiendola.
 

Temas Similares

2
Respuestas
21
Visitas
2K
Back