mayo 7, 2024

Telecentro di Bologna e dell'Emilia-Romagna

Manténgase al tanto de las últimas novedades de España sobre el terreno

Una nueva herramienta permite a los artistas «envenenar» sus obras de arte para disuadir a las empresas de inteligencia artificial

Una nueva herramienta permite a los artistas «envenenar» sus obras de arte para disuadir a las empresas de inteligencia artificial

Un robot y una joven frente a frente.

imaginar | E+ | imágenes falsas

Los artistas que quieren compartir sus obras de arte a menudo se enfrentan a una decisión difícil: mantenerlas fuera de línea o publicarlas en las redes sociales y correr el riesgo de que se utilicen para entrenar generadores de imágenes de IA ávidos de datos.

Pero pronto una nueva herramienta podría ayudar a los artistas a disuadir a las empresas de inteligencia artificial de utilizar sus obras de arte sin permiso.

Se llama «Nightshade» y fue desarrollado por un equipo de investigadores de la Universidad de Chicago. Funciona “envenenando” la creatividad del artista cambiando sutilmente los píxeles de la imagen para que los modelos de IA no puedan determinar con precisión lo que representa la imagen, según Verge. Revisión de tecnología del MIT.

Aunque el ojo humano no puede detectar estos pequeños cambios, su objetivo es hacer que el modelo de aprendizaje automático etiquete incorrectamente la imagen como algo distinto de lo que es. Dado que estos modelos de IA se basan en datos precisos, este proceso de «envenenamiento» hará que la imagen sea inútil para fines de entrenamiento.

Si se extraen de la web suficientes imágenes «envenenadas» y se utilizan para entrenar un generador de imágenes de IA, es posible que el modelo de IA en sí no pueda producir imágenes precisas.

Por ejemplo, los investigadores alimentaron Stable Diffusion, un generador de imágenes de IA, a un modelo de IA que generaba 50 imágenes «tóxicas» de perros, y luego le pidieron que generara nuevas imágenes de perros. Las imágenes creadas mostraban animales con demasiadas extremidades o rostros caricaturescos que se parecían un poco a perros, según MIT Technology Review.

READ  L'hack di Amazon Twitch mostra che i migliori giocatori appartengono a sei numeri

Después de que los investigadores alimentaron a Stable Diffusion 300 con imágenes “tóxicas” de perros, finalmente comenzó a producir imágenes de gatos. Stable Diffusion no respondió a la solicitud de comentarios de CNBC Make It.

En la superficie, los generadores de arte con IA parecen crear imágenes de la nada basándose en cualquier indicación que alguien les dé.

Pero no es magia ayudar a estos modelos generativos de IA a crear imágenes realistas de una jirafa rosa o un castillo submarino, son datos de entrenamiento y muchos más.

Las empresas de inteligencia artificial entrenan sus modelos con enormes conjuntos de datos, lo que ayuda a los modelos a identificar qué imágenes están asociadas con palabras. Para que un modelo de IA produzca correctamente una imagen de una jirafa rosa, debe estar entrenado para reconocer correctamente imágenes de jirafas y el color rosa.

Gran parte de los datos utilizados para entrenar muchos sistemas de IA generativa se extraen de la web. Aunque en los Estados Unidos es legal que las empresas recopilen datos de sitios web de acceso público y los utilicen para diversos fines, se vuelve complicado cuando se trata de obras de arte, ya que los artistas generalmente poseen los derechos de autor de sus obras de arte y, en algunas ocasiones, no quieren su obra de arte para ser publicada. Se utiliza para entrenar un modelo de inteligencia artificial.

Si bien los artistas pueden inscribirse en “listas de exclusión voluntaria” o en “directivas de no raspado”, a menudo resulta difícil obligar a las empresas a adherirse a estas directivas. Glasear en UChicagodijo el equipo de investigadores que creó Nightshade en un hilo del 24 de octubre en X, anteriormente conocido como Twitter.

READ  El controlador de batería oficial Hori Taiko no Tatsujin para Nintendo Switch ha bajado a su precio más bajo

«Ninguno de estos mecanismos es ejecutable, ni siquiera verificable», dijeron en un hilo del 24 de octubre. «Las empresas han demostrado que pueden ignorar ciegamente las opciones de exclusión voluntaria». «Pero incluso si estuvieran de acuerdo y actuaran de manera diferente, nadie puede verificarlo o probarlo (al menos no hoy). Estas herramientas son desdentadas», añadió.

En última instancia, los investigadores esperan que Nightshade ayude a los artistas a proteger su arte.

Los investigadores aún no han lanzado su herramienta Nightshade al público, pero han enviado su trabajo para revisión por pares y esperan que esté disponible pronto, dijo Glaze de UChicago a X.

No te pierdas: ¿Quieres ser más inteligente y tener más éxito en tu dinero, tu trabajo y tu vida? ¡Suscríbete a nuestro nuevo boletín!

Obtiene Guía gratuita de Warren Buffett para invertir en CNBCque resume los mejores consejos del multimillonario para los inversores cotidianos, lo que se debe y no se debe hacer y tres principios de inversión clave en una guía clara y sencilla.

pagando: La inteligencia artificial es la última palabra de moda en tecnología, pero antes de invertir, conozca estos cuatro términos