TN

Temas de hoy:

  • Javier Milei
  • Legislativas bonaerenses
  • Acuerdo PRO-LLA
  • Dólar hoy
  • Miguel Ángel Russo
  • Juicio por la muerte de Maradona
  • River Plate
  • Temporal en Santa Fe
  • Murió “La Bruja” Verón
  • Tecno
  • Ingresar
    EN VIVO
    tnTecnoNovedades

    Los artistas contraatacan: el data poisoning, la técnica para “envenenar” las IA generativas

    Artistas de todo el mundo aseguran que empresas como OpenAI, Google o Meta, entre otras, usan información con derechos de autor para entrenar a sus modelos. Así es como nace esta técnica.

    Axel Marazzi
    Por 

    Axel Marazzi

    31 de diciembre 2023, 05:43hs
    "Envenenar" el contenido para marear al algoritmo, la defensa de los artistas (Imagen generada por IA)
    "Envenenar" el contenido para marear al algoritmo, la defensa de los artistas (Imagen generada por IA)

    Las inteligencia artificial generativa tanto de texto como de imágenes que millones de personas utilizan todos los días como ChatGPT, DALL-E o Midjourney están entrenadas con millones de datos que sus desarrolladores les dieron para que consumieran y analizaran. ¿Qué significa esto? Que estos algoritmos recibieron información de millones de sitios como Wikipedia, redes sociales, medios de comunicación, libros y una lista prácticamente interminable de contenidos que fueron creados por humanos. Hay un detalle: muchos de esos contenidos tienen derechos de autor y ahí es donde empieza el problema. Hay personas que consideran que esto se trata de una práctica ilegal.

    Leé también: Inteligencia artificial generativa: ¿Por qué especialistas piensan que puede terminar con la raza humana?

    Los problemas legales de las IA generativas

    Escritores, como Mona Awad y Paul Tremblay, llevaron a juicio a la compañía fundada por Sam Altman por, según ellos, violar la ley de copyright. No son los únicos. Getty Images, una de las más grandes agencias de fotografía del mundo, denunció a Stability AI, creadores del modelo generativo de imágenes Stable Diffusion, por copiar más de 12 millones de fotografías protegidas con derechos de autor.

    Esto fue lo que dijeron desde la empresa: “Aprovechándose de la propiedad intelectual de Getty Images, Stability AI creó el modelo de generación de imágenes Stable Diffusion, que usa IA para entregar imágenes sintetizadas por computadora. Ahora compite directamente con Getty Images al comercializar” el servicio. Y agregaron que la “infracción del contenido de Getty Images a gran escala fue fundamental para su éxito”.

    "Envenenar" el contendo para marear al algoritmo, la defensa de los artistas (Universidad de Chicago, The Glaze Project)
    "Envenenar" el contendo para marear al algoritmo, la defensa de los artistas (Universidad de Chicago, The Glaze Project)

    Por este motivo es que hay cada vez más artistas que están en contra de que sus obras sean utilizadas para entrenar a estos algoritmos. Así es como un grupo de desarrolladores, ingenieros y científicos están trabajando duro para ayudar a que los artistas puedan pelear contra lo que consideran que es una violación a las obras que crean.

    El nacimiento de Nightshade

    Para ayudarlos, crearon un software que usa una técnica llamada data poisoning que tiene la intención de “envenenar” la información que los algoritmos consumen para “aprender”. La finalidad es que, manipulando los datos de entrenamiento de los modelos generativos de imágenes, logren que las respuestas que devuelvan sean incorrectas. El software se llama Nightshade.

    ¿Cómo funciona? El data poisoning le hace cambios minúsculos e imperceptibles al ojo humano a las obras de los artistas para que los algoritmos interpreten algo diferente a lo que en realidad son. El modelo de lenguaje, de esta manera, podría “pensar” que la imagen de una casa es una vaca o que la de un perro es un gato, por ejemplo. Así es como Nightshade, a gran escala, puede corromper los datos con los que son entrenados estos modelos.

    Algunos ejemplos de cómo funciona el "veneno" ( Universidad de Chicago, The Glaze Project)
    Algunos ejemplos de cómo funciona el "veneno" ( Universidad de Chicago, The Glaze Project)

    Los investigadores, liderados por Ben Zhao, profesor de la Universidad de Chicago, testearon en su laboratorio la técnica con la última versión del modelo de Stable Diffusion en un entorno reducido. Con 50 imágenes contaminadas de perros notaron que el algoritmo empezaba a devolver imágenes extrañas. Con 300 ya habían logrado que, ante el pedido de un perro, la tecnología devolviera un gato. Esto es algo crítico para estas empresas porque deshacer los efectos del envenenamiento requiere de la eliminación manual de cada imagen “envenenada”.

    “Demostramos que una cantidad moderada de ataques de Nightshade puede desestabilizar las características generales en un modelo generativo de imágenes”, explicaron los investigadores en su paper.

    Zhao explica que lo que hará su software es intentar sacarle el monopolio del poder a las empresas de inteligencia artificial y volver a dárselo a los dueños de las obras: los artistas. Hay que ver si lo logra.

    Las más leídas de Tecno

    1

    La CIA creó un falso sitio web de “Star Wars” para comunicarse con espías: nuevos detalles revelados

    2

    El próximo teléfono de Google quedó al desnudo durante la grabación de un comercial

    3

    Un joven argentino reveló el truco para encontrar trabajo con ayuda de la IA, fácil y rápido

    4

    Estos robots se agarraron a las piñas: así fue el torneo de kickboxing protagonizado por máquinas

    5

    Cambios en WhatsApp Web: cuáles son las nuevas funciones que revolucionarán este 2025

    Suscribite a los newsletters de TN

    Recibí las últimas noticias de TN en tu correo.

    Temas de la nota

    Inteligencia artificialArte

    Más sobre Tecno

    Qué es la guerra de los bots y por qué puede arruinar a los streamings argentinos. (Foto: AdobeStock)

    Qué es la guerra de los bots y por qué puede arruinar a los streamings argentinos

    Por 

    Rodrigo Álvarez

    El disco infectado se comercializó con el título “Meet the Beat Alls”. (Foto: Creada con xAI Grok)

    El curioso ataque informático de “Las chicas superpoderosas”: un DVD infectado que causó estragos

    Novedad en WhatsApp Web: Meta prueba los nombres de usuario. (Foto: Creada con Microsoft Copilot)

    WhatsApp: ¿para qué servirán los nombres de usuario en la versión web?

    Los comentarios publicados en TN.com.ar podrán ser reproducidos parcial o totalmente en la pantalla de Todo Noticias, como así también las imágenes de los autores.

    © 1996 - 2025, Artear

    Seguinos en las redes

    Descargate la app de TN

    google-playapp-store

    Últimas noticias

    • “Será mejor que reces”: la durísima frase del entrenador del Manchester United para Alejandro Garnacho
    • La pista de TikTok y una denuncia de vecinos: así detuvieron al acusado de matar a Sergio Avalos en Fiorito
    • Con la jueza Makintach apartada, el tribunal definirá el jueves el futuro del juicio por la muerte de Maradona
    • Javier Milei, EN VIVO: las últimas noticias noticias del Gobierno

    Secciones

    • Últimas noticias
    • Elecciones 2025
    • Deportivo
    • Show
    • Economía
    • Internacional
    • Opinión
    • Policiales
    • Política
    • Sociedad

    Sitios amigos

    • Grupo Clarín
    • Artear
    • eltrece
    • Ciudad Magazine
    • El Doce
    • Cucinare
    • Canal (á)
    • Clarín
    • Olé
    • Mitre
    • La 100
    • Cienradios
    • TyC Sports
    • La Voz
    • Vía País

    Descargate la app de TN

    google-playapp-store

    Seguinos en las redes

    © 1996 - 2025, Artear

    Mapa del sitio
    Términos y Condiciones
    Políticas de privacidad
    Media Kit