Nel conflitto tra gli artisti e i fanatici dell’Intelligenza Artificiale arrivano passi importanti e le prime soluzioni sono all’orizzonte.
Sviluppate, distribuite e usate senza nessuna regolamentazione, le AI generative di immagini hanno causato in breve tempo danni incalcolabili agli artisti, sia a livello economico sia di identità e di bullismo da parte dei sostenitori delle AI.
Ciò che sta accadendo agli artisti è solo la punta dell’iceberg, perché il problema con le AI riguarda anche la privacy di chiunque e in particolare dei minori, il furto d’identità, la creazione di fake news e prove false sempre più realistiche.
Già a settembre 2022 Ars Technica segnalava quanto sia facile rovinare la vita di chiunque grazie alle AI, senza contare l’impatto sul controllo delle masse.
Quelle che all’inizio erano additate come ipotesi catastrofiste di artisti terrorizzati, si stanno dimostrando conseguenze concrete sotto gli occhi di tutti.
Nel precedente Speciale sulle Intelligenze Artificiali spiego con semplicità il funzionamento interno delle AI che generano immagini.
Alle iniziative e interrogazioni governative in corso si sono affiancate in questi giorni 3 voci importanti.
Nasce EGAIR, European Guild for AI Regulation
Rappresentata per l’Italia dagli artisti Francesco Arcidiacono e Lorenzo “LRNZ” Ceccotti, la EGAIR raccoglie sotto di sé associazioni, editori e più di mille artisti internazionali il cui numero cresce in tempo reale.
Il network di EGAIR ha lo scopo di promuovere la regolamentazione delle AI nelle sedi politiche europee, in parallelo a ciò che la Concept Art Association sta facendo negli Stati Uniti.
Intanto, già a marzo 2022, il governo cinese ha prontamente emanato la sua regolamentazione per limitare l’uso selvaggio delle AI e concentrarle sugli obiettivi nazionali.
GLAZE, il filtro che inganna le AI
Sviluppato dall’Università di Chicago in collaborazione con alcuni artisti della Concept Art Association, GLAZE è uno strumento che altera una immagine in modo impercettibile all’occhio umano, e allo stesso tempo la rende incomprensibile al motore delle AI.
In pratica, quando una AI cerca di “imparare” da una immagine filtrata con GLAZE, diventa dislessica e “vede” tutt’altro, non riuscendo più a catturare e riprodurre lo stile del disegno originale.
I ricercatori ammettono che si tratta di una soluzione temporanea, ma efficace.
GLAZE sarà gratuito e disponibile per il download nelle prossime settimane.
Watermark Anti-AI fatto in casa
Grazie a Ilenia Gennari che ha condiviso una semplice soluzione di Magnifico Art Heritage.
Creando da soli un watermark con determinate caratteristiche, è possibile impedire alle AI di rimuoverlo dall’immagine originale, rendendola di fatto inutilizzabile per generarne di nuove.
- Sfoca il watermark per ridurre il contrasto
- Crea ripetizioni non regolari per impedire all’AI di indovinare un motivo regolare
- Uniforma il watermark con una sfumatura di colori
La class action USA contro i colossi delle AI
A metà gennaio 2023 le tre artiste Sarah Andersen (Sarah’s Scribbles), Kelly McKernan e Karla Ortiz hanno avviato una class action contro Stability AI, DeviantArt e Midjourney.
Il caso verte sull’appropriazione, da parte di aziende private, dei contenuti di miliardi di persone in tutto il mondo, che sono diventati fornitori involontari i quali non hanno dato né il consenso a tale uso né hanno ricevuto un compenso a riguardo.
Rispondendo a David Holz, fondatore di Midjourney, l’avvocato Matthew Butterick ha dichiarato:
Non vediamo l’ora di aiutare il signor Holz a scoprire le numerose leggi statali e federali che proteggono gli artisti e il loro lavoro.
Per restare aggiornato sull’andamento della class action, puoi iscriverti alla newsletter QUI.