Moment Of Truth | 03:33 Minuti
Il tuo touchpoint sullo spazio digitale: uno strumento pratico dove troverai idee, riflessioni, conoscenze e framework in grado di guidarti nell’esecuzione della tua innovazione digitale. Testala, è gratis ↓
Buondì, e buon lunedì.
C’è chi sta rinunciando razionalmente all’AI?
Spoiler: si, ed è la storia di un artista che si chiama Greg Rutkowski, il cui stile è ampiamente imitato dalla community di Stable Diffusion, nonostante abbia scelto di non utilizzare i suoi training data, e penso possa servirti da monito mentre il mondo si avvia verso l'era dell'IA generativa.
Oggi te la racconto, insieme ad una mia personale analisi sul tema in questa nuova edizione“short data driven edition” del Remarks.
L’arte è importante.
GO↓
🔵 The Open-Source Threat.
Tra storia e contesto.
Il fatto che un artista, che ha chiesto che la sua opera venga rimossa dai training set continui, veda il suo stile perpetuato su una piattaforma senza il suo consenso, ha implicazioni piuttosto serie per un brand con asset consistenti.
Il problema sembra essere il fatto che un sistema come Stable Diffusion è Open source, il che significa che Stability AI è limitata in ciò che può fare per controllare i contenuti se la comunità decide di non farlo.
Nell'era delle "meme stocks" la sicurezza del brand per mano di una community ostile di utenti diventa una minaccia significativa.
Il sito di notizie tecnologiche Decrypt riporta la notizia ↓
Referral Program
Se pensi che questo Remarks possa interessare a qualcuno, puoi condividerlo.
Rukowski è noto per il suo lavoro su Dungeons & Dragons e Magic: The Gathering. Grazie al suo ampio catalogo, è diventato incredibilmente popolare tra gli utenti della piattaforma di generazione di immagini AI Stable Diffusion.
Così popolare, infatti, che il suo nome è diventato la parola chiave più usata su Stable Diffusion, utilizzata oltre 400.000 volte. Tuttavia, Rukowski, come altri artisti, non era d'accordo con la possibilità per gli utenti di Stable Diffusion di invocare i nomi degli artisti durante la creazione di opere.
La comunità ha creato un LoRa, ovvero un piccolo modello in grado di emulare stili o colori, basato sullo stile dell'artista e ora disponibile gratuitamente.
Gli utenti sono profondamente divisi sulla questione: alcuni affermano che il genio è già uscito dalla bottiglia; altri, invece, sostengono che esiste un'importante distinzione tra ciò che è legalmente e tecnicamente possibile e ciò che è etico.
Ok, ma questo cosa comporta?
Te la faccio breve:
È improbabile che i brand suscitino la stessa simpatia di un artista indipendente, la cui imitazione è una forma di adulazione sincera, anche se economicamente minacciosa.
Come ha dimostrato l'attivazione altamente controllata di Coca-Cola, "Create Real Magic", la creatività degli utenti con l'aiuto dell'intelligenza artificiale può dare vita a una campagna divertente e molto coinvolgente.
Ma l'elemento del controllo è fondamentale: Coca-Cola ha progettato il sistema e i suoi parametri. La possibilità di LoRas (o di mini-insiemi di dati per l'addestramento) erode questo controllo.
Decidere di "inseguire l'attenzione nella cultura", non è sempre la mossa giusta. Solo perché qualcosa riceve molta attenzione, non significa che sia fantastico.
La grande cosa che ho imparato dall'esperienza è che la trappola è quando pensi che un ottimo lavoro sia ciò che attira l'attenzione della gente. Che ne pensi? ↓
Questo è Remarks. Il Touchpoint digitale di Catobi. Se ti fa piacere continuare a parlare di questi temi, basta scrivermi → In questo canale offriamo spazio, attraverso varianti pubblicitarie, al racconto dell’innovazione dei nostri Partner, e veicolando il contenuto su tutte le nostre piattaforme, comprese LinkedIn, Instagram e Telegram. Qui tutte le informazioni su come sponsorizzare gli episodi della newsletter→