Investigadores de la Universidad de Chicago han desarrollado un software open-source llamado 'Nightshade' que tiene la capacidad de "envenenar" imágenes de manera imperceptible para el ojo humano, impidiendo que sean utilizadas en el entrenamiento de modelos de lenguaje de inteligencia artificial (IA). Este software se integra en la herramienta Glaze, que ya evitaba que las imágenes se usaran en el entrenamiento de IA al modificar detalles mínimos en las imágenes.
La novedad de Nightshade es que confunde a la IA al hacer que los algoritmos de aprendizaje automático aprendan nombres incorrectos para elementos y escenarios en las imágenes.
Si se aplica Nightshade a una imagen de un perro, la IA pensará que está viendo un gato. Tras unas 50 imágenes modificadas, la IA comenzará a generar imágenes de perros con deformidades extrañas y apariencias inquietantes .
Los modelos previamente entrenados con imágenes "envenenadas" podrían necesitar ser reentrenados para evitar problemas.
Soy El Frases y esto ha sido una ianoticia.