Una herramienta llamada Nightshade envenena una imagen a nivel de pixel, y suficientes pueden potencialmente inutilizar todo el modelo de IA.
¿Cómo pueden los artistas luchar contra los caprichos de las empresas tecnológicas que desean utilizar su trabajo para entrenar la IA? Un grupo de investigadores tiene una idea novedosa: deslizar un veneno sutil en el arte mismo para matar el generador de arte IA desde dentro hacia afuera.
Ben Zhao, profesor de ciencias de la computación en la Universidad de Chicago y crítico abierto de las prácticas de extracción de datos de la IA, dijo Revisión de tecnología del MIT La nueva herramienta de él y su equipo, denominada “Nightshade”, hace lo que dice en la lata: envenenar cualquier modelo que use imágenes para entrenar IA. Hasta ahora, la única opción de los artistas para combatir a las compañías de IA era demandarlas o esperar que los desarrolladores cumplir con las solicitudes de exclusión voluntaria de los propios artistas.
La herramienta manipula una imagen a nivel de píxel, corrompiéndola de una manera que el ojo desnudo no puede detectar. Una vez suficiente estas imágenes distorsionadas se utilizan para entrenar IA como la Estabilidad Difusión estable XL, todo el modelo comienza a descomponerse. Después de que el equipo introdujera muestras de datos en una versión de SDXL, el modelo comenzaría a interprete una pregunta para “automóvil” como “vaca”. Un perro fue interpretado como un gato, mientras un sombrero se convirtió en un pastel. De manera similar, diferentes estilos resultaron raros. Las solicitudes de una “caricatura” ofrecieron arte que recuerda a los impresionistas del siglo XIX.
También funcionó para defender a artistas individuales. Si le pides a SDXL que cree una pintura al estilo de un renombrado artista de ciencia ficción y fantasía Michael Whelan, el modelo envenenado, crea algo mucho menos parecido a su trabajo.
Dependiendo del tamaño del modelo de IA, necesitarías cientos o más probablemente miles de imágenes envenenadas para crear estas extrañas alucinaciones. Aún así, podría obligar a todos aquellos que desarrollan nuevos generadores de arte de IA a pensar dos veces antes de utilizar datos de entrenamiento extraídos de Internet.
¿Qué herramientas tienen los artistas para luchar contra el entrenamiento con IA?
Zhao también fue el líder del equipo que ayudó a hacer Vidriar, una herramienta que puede crear una especie de “capa de estilo” para Imágenes de artistas de máscaras. De manera similar, perturba los píxeles de una imagen para que engaña Generadores de arte con IA que intentan imitar a un artista y su trabajo. Zhao le dijo al MIT Technology Review que Nightshade se integrará como otra herramienta en Glaze, pero también se está lanzando en el mercado de código abierto para que otros desarrolladores creen herramientas similares.
Otros investigadores han encontró algunas formas de inmunizar imágenes de la manipulación directa por parte de la IA, pero esas técnicas no detuvieron las técnicas de extracción de datos utilizadas para entrenar a los generadores de arte en la primera Nightshade es uno de los pocos y potencialmente más combativos intentos hasta ahora de ofrecer a los artistas la oportunidad de proteger su trabajo.
También existe un esfuerzo creciente para intentar diferenciar las imágenes reales de las creadas por IA. Propiedad de Google DeepMind afirma haber desarrollado una identificación de marca de agua que puede identificar si una imagen fue creada por IA, sin importar cómo pueda ser manipulada. Estos tipos de marcas de agua están haciendo Lo mismo que es Nightshade, manipulando píxeles de tal manera que es imperceptible a la vista na cara . Algunas de las mayores compañías de IA tienen prometido a marcar de agua el contenido generado en el futuro, pero esfuerzos actuales como Etiquetas de metadatos IA de Adobe realmente no ofrecen ningún nivel de transparencia real.
Nightshade es potencialmente devastador para las empresas que utilizan activamente el trabajo de los artistas para entrenar su IA. como deviantart. La comunidad de DeviantArt ya ha tenido una bonita reacción negativa al generador de arte de IA incorporado en el sitio, y si suficientes usuarios envenenan sus imágenes, podría obligar a los desarrolladores a encontrar cada instancia de imágenes envenenadas a mano o restablecer el entrenamiento en todo el modelo.
Aún así, el programa no podrá cambiar ningún modelo existente como SDXL o el recientemente lanzado DALL-3. Esos modelos ya están capacitados en trabajos anteriores de los artistas. Empresas como Stability AI, Midjourney y DeviantArt tienen ya sido demandado por artistas por usar su trabajo protegido por derechos de autor para entrenar IA. Hay muchas otras demandas que atacan a desarrolladores de IA como Google, Meta, y AbiertoAI por usar trabajo protegido por copyright sin permiso. Las empresas y los defensores de la IA han argumentado que dado que la IA generativa crea nuevo contenido basado en esos datos de entrenamiento, Todos esos libros, artículos, imágenes y arte incluidos en los datos de capacitación se consideran uso legítimo.
Los desarrolladores de OpenAI anotaron en su trabajo de investigación que su último generador de arte puede crear imágenes mucho más realistas porque está entrenado en subtítulos detallados generados por las herramientas personalizadas propias de la empresa . La empresa no reveló cuántos datos se utilizaron realmente para entrenar su nuevo modelo de IA (la mayoría de las empresas de IA se han vuelto reacias a decir algo sobre sus datos de entrenamiento de IA ), pero los esfuerzos para combatir la IA pueden intensificarse a medida que pasa el tiempo. A medida que crecen estas herramientas de IA más avanzados, requieren aún más datos para potenciarlos, y los artistas podrían estar dispuestos a tomar medidas aún mayores para combatirlos.