X
Entra
Accedi
Ho dimenticato la password
X
Se il tuo indirizzo è presente nel nostro database riceverai una mail con le istruzioni per recuperare la tua password

Chiudi
Reset password
Inserisci il tuo indirizzo email nella casella sottostante e ti invieremo la procedura per resettare la password
Invia
X
Grazie per esserti registrato!

Accedi ora
Registrati
Registrati
Ho dimenticato la password
Fotografia.it
COVER-3-Dennis-- copia

© Dennis Ziliotto

Intelligenza Artificiale e fotografia #3: aspetti pratici

Un’esplorazione a puntate per approfondire e riuscire ad orientarsi nella rapida evoluzione delle nuove possibilità offerte dall’AI. – Parte #3

Enzo Dal Verme | 16 Gennaio 2023

Negli articoli precedenti abbiamo contestualizzato la relazione tra Intelligenza Artificiale e fotografia, parlato di copyright, aspetti etici e possibili scenari futuri. In questo articolo incontriamo alcuni protagonisti e parliamo del lato più pratico della creazione di immagini con l’AI.

Qualche settimana fa, su FB, mi sono imbattuto in una foto molto ricca di particolari che mi era sembrata una campagna. L’ho guardata e ho pensato “Accidenti, ci sono ancora clienti che spendono tanto! Guarda che lavoraccio di trovarobato, scenografia, costumi…solo il casting deve essere costato una fortuna. E l’illuminazione è davvero accurata. Ma chissà perché così tanto Photoshop? Sembra quasi un’illustrazione…”. Solo dopo avere osservato altre immagini (e avere trovato una mano con 6 dita) ho capito che non si trattava di una fotografia. L’autore aveva utilizzato una descrizione testuale (o “prompt”) che l’intelligenza Artificiale aveva trasformato in immagine. Poi ho guardato altri suoi lavori, questi sembravano proprio foto. E invece… no, neanche quelli!

Sto parlando di Dennis Ziliotto, fotografo di Monselice specializzato nella tecnica del Collodio Umido. Mi ha incuriosito il fatto che avesse creato diverse serie di immagini – soprattutto di botteghe artigianali – e ho deciso di fargli qualche domanda.

Alcune immagini generate con AI da Dennis Ziliotto tratte da serie diverse.

Come mai ti è venuto in mente di creare con AI le immagini delle botteghe?

“Più di creare immagini singole fine a sé stesse ho cercato di costruire qualcosa che avesse un filo conduttore, le botteghe perché mi affascinano i luoghi di ritrovo artigianali di un tempo.”

Sei specializzato in una tecnica fotografica antica ed ora anche nella forma più moderna di creazione di immagini. Come convivono i due approcci in te?

“Uso questa nuova tecnologia esclusivamente a scopo ludico, è mentalmente molto stimolante e divertente, il mio interesse per l’AI è prettamente personale, ciò che lavorativamente faccio è il completo opposto ma proprio questa diversità me li fa andar d’accordo.”

Che sviluppi vedi per questa tua capacità?

“Sviluppi per questa mio nuovo interesse “artistico” non ne vedo, continuerò ad essere un committente e dire cosa fare all’AI fino a quando continuerò a divertirmi.”

Quali sono le cose pratiche che ti hanno permesso di migliorare la qualità?

“Un prompt corposo aiuta ad avere un risultato finale più completo e complesso possibile, più informazioni si inseriscono più dettaglio avrà l’immagine creata.”

La serie del pugilato generata con AI da Dennis Ziliotto.

La capacità di scrivere bene le descrizioni sembra essere una delle ricchezze principali per potere generare immagini di buona qualità. E, dal momento che anni di esperienza come fotografo non si possono comperare ma una descrizione sì, naturalmente è già apparso un mercato dove per un paio di dollari si possono acquistare (o vendere) i “prompt” utilizzati per generare una certa foto: Prompt Base

Per i più esigenti, c’è anche la possibilità di assumere un “Prompt Engineer” e per i più esperti, l’opportunità di vendere le proprie consulenze. La piattaforma trattiene il 20%.

Una tecnologia nuova 

“Per il momento questa tecnologia è molto nuova e siamo un po’ nel Far West: non ci sono ancora regole precise e lo dimostra la confusione che si sta creando in tema di copyright. Le grosse major sono spiazzate e ci vorrà ancora un po’ prima che questo caos prenda una forma più strutturata”. A parlare è Lorenzo Colloreta, istruttore certificato Adobe che si occupa di formazione tecnica per fotografi, grafici e lavora molto anche nelle aziende. Ultimamente, riceve parecchie richieste da parte dei suoi clienti che vogliono rimanere aggiornati e capire a cosa può servire l’Intelligenza Artificiale e come possono utilizzarla insieme ad altri strumenti e programmi. Quando l’ho contattato, lui ha messo subito le mani avanti: “Le risposte che posso dare oggi potrebbero diventare vecchie ed obsolete molto in fretta.  Tutto sta cambiando così velocemente che le cose che adesso sembrano difficili potrebbero essere date per scontate fra due settimane.”

Facci un esempio

“Gli algoritmi principali sono già tutti evoluti quindi la qualità è cambiata, basta guardare quello che trovi in rete che è molto migliore rispetto ad un mese fa. Gli utenti hanno imparato a dialogare meglio, ma anche il sistema si è evoluto.”

Cosa spieghi ai tuoi clienti per aiutarli ad inquadrare la situazione?

“Che alcune funzioni di programmi che ogni fotografo utilizza (Photoshop, Lightroom, Camera Raw…) si avvalgono già di AI. Per utilizzare le soluzioni generative di cui tutti stanno parlando ultimamente abbiamo tre principali possibilità:

  • Midjourney, per accedere occorre fare un profilo su Discord (la piattaforma di una chat) e si generano le immagini all’interno della chat, è possibile imparare osservando gli altri e anche chiedere consigli. Per avere più privacy occorre pagare.
  • Stable Diffusion, che è un’open source e si può usare con tanti vari servizi online (per esempio Dreamstudio a pagamento) oppure compilare e installare in locale sul proprio computer (ma al momento è difficile da installare, occupa parecchio spazio e bisogna essere un po’ smanettoni). Versioni di Stable Diffusion compaiono continuamente, ne esistono anche su iOS (Draw Things, gratis) e probabilmente a breve saranno facilmente installabili su qualsiasi PC e anche Mac.
  • DALL-E 2, creato da OpenAI, in beta open, basta iscriversi e si ricevono alcuni crediti gratuitamente per sperimentare. Finiti quelli, se ne possono acquistare altri.

È anche in arrivo Imagen, sviluppata da Google, che ha delle grosse potenzialità e stiamo aspettando l’apertura della fase beta. In ogni caso, si stanno moltiplicando i siti che offrono la creazione delle immagini appoggiandosi a una delle opzioni disponibili, basta cercare “text to image AI bot”. Anche Canva ha appena lanciato la possibilità di creare immagini da testi. Draw Things: Ai Generation è un’applicazione da scaricare sul telefono (un po’ pesante). La cosa interessante è che si possono scegliere diversi modelli di AI che sono stati “educati” in modo diverso. Il che significa che sono specializzati a creare immagini con determinate caratteristiche.”

Alcune immagini generate con AI da Lorenzo Colloreta tratte da serie diverse.

Per rimanere aggiornati cosa suggerisci?

“Twitter è uno dei modi migliori per scoprire cosa sta succedendo, per esempio cercando l’hashtag #stablediffusion”

Quali sono i tuoi consigli per ottenere qualità migliore nella generazione di immagini?

“Essere precisi e pignoli nella descrizione ed aspettarsi che tutto ciò che non è specificato possa essere molto diverso da ciò che ci si aspetta. Per esempio, se scrivo capelli biondi non dico corti o lunghi e neanche ricci o lisci. Come sarà il risultato? Bisogna tenere presente che ogni singolo motore ragiona in maniera diversa a seconda di come è stato educato. Invece di scrivere dei prompt troppo lunghi, è più utile imparare a capire bene come dialogare con quell’interlocutore. Naturalmente, lo stesso prompt su due motori diversi darà risultati diversi e copiarli dagli altri ha senso fino ad un certo punto.”

Consigli di rielaborare le immagini ottenute?

“Sicuramente è una buona idea aumentare la risoluzione con un programma come Topazlab GigaPixel AI, poi è possibile fare delle modifiche con Photoshop”

Come mai, secondo te, molte delle immagini generate dall’Intelligenza Artificiale hanno quell’aspetto un po’ di plastica? Sono quasi realiste, ma non proprio. 

“Per generare una nuova immagine, l’Intelligenza Artificiale comincia con una bozza più grossolana che poi rifinisce sempre di più. Il tempo a disposizione non è molto, dunque possono mancare i dettagli più realisti. Probabilmente, fra non molto le immagini riusciranno ad essere più simili ad una fotografia.”

Per ottenere un effetto più realista adesso?

“Nelle versioni a pagamento di Midjourney o in alcune delle implementazioni di Stable Diffusion è possibile assegnare più tempo (pagando di più). Su Midjourney puoi selezionare una zona e chiedere di aggiungere elaborazioni. Rigenerando un dettaglio, però, non è detto che si riesca a mantenere il resto dell’immagine uguale. Per adesso sono tutte cose ancora difficili da gestire. Una funzione che molti vorrebbero è proprio la possibilità di salvare un personaggio creato e fargli interpretare uno storyboard. Al momento è un po’ complesso da realizzare (cercando su Youtube ‘consistent AI character’ ci sono dei tutorial), ma probabilmente diventerà più facile.”

Come mai, secondo te, non sono riuscito a fare creare a nessun motore un ritratto di Nancy Cunard come se lo avesse disegnato Leonardo Da Vinci a sanguigna?

“Probabilmente perché i disegni di Leonardo a sanguigna sono troppo pochi perché l’Intelligenza Artificiale li possa considerare uno stile rilevante da salvare. È più facile riconoscere uno stile di cui c’è abbondanza in rete”. 

A questo punto sento l’urgenza di fare una cosa. Saluto Lorenzo e provo subito a generare un ritratto di Nancy Cunard con lo stile dei disegni Manga su tutti i motori a cui ho accesso. In effetti, il risultato è un po’ più fedele, ma non sempre. E tiro un sospiro di sollievo: forse Leonardo si salverà dall’oblio?

Lo scopriremo (forse) nella prossima puntata incontrando altri importanti protagonisti di questo cambiamento epocale.


Hai appena letto l’articolo #3 di una serie di 4 articoli. 
L’articolo #1 : Intelligenza Artificiale e fotografia: un po’ di chiarezza
L’articolo #2 : Copyright e sviluppi futuri
L’articolo #4 verrà pubblicato Mercoledì 18 Gennaio.


Enzo Dal Verme
Workshop Ritratto

Enzo Dal Verme
Enzo Dal Verme è un fotografo conosciuto per avere ritratto celebrità come Donatella Versace, Laetitia Casta, Marina Abramovic, Bianca Jagger, Wim Wenders. Le sue immagini sono state pubblicate da Vanity Fair, l'Uomo Vogue, The Times, Marie Claire, GQ e tante altre riviste. I reportage scattati da lui sono spesso legati ad iniziative sociali, come la serie di ritratti di Eroi Urbani realizzati in Asia, Europa, America, Africa e Medio Oriente. Prima di dedicarsi a tempo pieno alla fotografia ha diretto la sua agenzia di comunicazione. Ha poi insegnato comunicazione all’Istituto Marangoni di Milano e Londra, allo IED di Milano, all’Ateneo Impresa di Roma e al Sole 24 Business School di Milano. Dal 2011 insegna i suoi fortunati workshop di ritratto nel corso dei quali gli studenti allenano la propria sensibilità ed esplorano il rapporto tra fotografo e soggetto. Collabora con la società olandese Science Of The Times per le ricerche sulle evoluzioni delle mentalità finalizzate all’innovazione nella comunicazione. Alla sua attività di fotografo commerciale, affianca una programmazione di mostre con i suoi lavori più personali. Enzo ha esposto in diverse gallerie in Italia e all’estero e in alcuni festival tra cui Alrles. Ha pubblicato negli Stati Uniti il libro Storytelling For Photojournalists e in Italia Marketing Per Fotografi. Pubblica regolarmente su Tutti Fotografi degli articoli di approfondimento sulla professione del fotografo. Ama il tofu ?
  • Cerca

  •  

  • Ultime News