Di fondo la pratica dello stacking di immagini esiste da tempo. Dapprima sono state sviluppate tecniche solo software che a partire da una serie di immagini "apparentemente" identiche della stessa scena, sono in grado di individuare la matrice di informazioni a livello di singolo pixel e di qui avviare una elaborazione che si basa sulla pretesa che a livello micrometrico nessuna immagine è mai uguale alla stessa immagine ripresa nello stesso modo.
Questo gioco di parole per dire che un programma molto raffinato è in grado di sovrapporre più riprese della stessa scena a livello di singolo pixel identificando scostamenti minimi per sfruttare questi scostamenti per effettuare elaborazioni.
Elaborazioni utili ad aumentare la risoluzione complessiva dell'immagine ripresa oppure a ridurre il disturbo registrato (rumore digitale), migliorando la resa della foto.
Ma la tecnologia avanza e la disponibilità di stabilizzatori sul sensore sempre più raffinati ha portato i produttori di fotocamere ad implementare procedure automatiche per produrre serie di scatti effettuati spostando fisicamente il sensore di un pixel o di mezzo pixel, nelle quattro direzioni.
Questo crea di fatto quella serie di immagini necessarie alla successiva elaborazione software con la "quasi" certezza che questo scostamento di pixel effettivamente ci sia e non sia una mera supposizione statistica.
Insomma, ecco il pixel shift o ripresa con decentramento di pixel come la chiama Nikon che arriva, credo, buona ultima come suo solito in questo campo.
E lo fa non con la ammiraglia o con la sua sostituta (Z9 e Z8) ma con la nuovissima e insospettabile Zf che molti scambieranno per il solito esercizio di stile del tempo che fu.
la voce del sistema automatico di Ripresa con decentramento pixel presente nel MENU' DI RIPRESA FOTO.
che dà accesso ad una serie di opzioni utili per ottenere una buona serie di scatti per la successiva elaborazione via software.
Si, perché come la ripresa con cambio di messa a fuoco (ovvero focus shift per il resto del mondo), la procedura automatica della fotocamera si presta solamente a produrre gli scatti.
Scatti che andranno poi elaborati via software per ottenere il risultato finale.
Riassumendo :
- la fotocamera produce solamente gli scatti necessari per una successiva elaborazione
- questi scatti vanno poi elaborati in un software dedicato (per Nikon è NX Studio versione 1.5, attualmente in stadio di beta version) per produrre l'immagine impilata
- questa è leggibile ed ulteriormente elaborabile/esportabile solo ed esclusivamente nel software dedicato e non negli usuali ambienti di sviluppo (Adobe o Phase One o altri che vi vengano in mente non leggono che i singoli NEF ma non gli NEFX generati da NX Studio 1.5).
naturalmente la ripresa andrà fatta su treppiedi e ad un soggetto fermo.
Perché ogni anche minimo movimento o vibrazione andrà ad annullare l'effetto del microspostamento che la fotocamera attua a livello di stabilizzatore di immagine.
Nella sostanza, una volta scelte le opzioni, si avvia la procedura premendo il pulsante di scatto. La fotocamera avvisa a display (vedi immagine sopra) che siamo pronti per la ripresa, ricordando quanti scatti sono previsti.
Dopo di che passa automaticamente in silenzioso e si oscura. L'azione viene evidenziata solo dalla spia a led che avvisa che gli scatti vengono memorizzati sulla scheda di memoria.
A seconda delle scelte fatte, la procedura può durare anche minuti (con 32 scatti, ad esempio, un secondo di tempo di scatto e un secondo di intervallo tra uno scatto e un altro e 10 secondi di attesa prima di attivare la sequenza in modo che la fotocamera stessa si stabilizzi, ci vorranno almeno 74 secondi se non di più).
Alla fine ci troviamo con la serie di scatti NEF, necessariamente fatti in luce controllata, esposizione manuale, diaframma adeguato (per esempio f/8) da sottoporre al software di sviluppo.
NX Studio 1.5 ha la buona educazione di segnalarci le sequenza disponibili e ci permette con uno o due click di elaborare la serie.
Con un i9 non di ultimissima generazione si impiega qualche manciata di secondi ad ottenere il file di uscita. E' possibile eseguire più elaborazioni di seguito in una passata sola.
I file risultanti sono chiamati NOME_FILE.combined.NEFX e possono occupare da oltre 100 megabyte a quasi 500 megabyte l'uno (un NEF di partenza non ne occupa che una decina abbondante).
Questi NEFX, come già anticipato, possono essere visualizzati e sviluppati solo dentro a NX Studio ma poi possono essere esportati in formato TIF a 16 o 8 bit, oppure in JPG o HEIF.
Tutto chiaro ?
Speriamo di si, in fondo è una procedura banale. Gli unici accorgimenti sono di illuminare correttamente e in modo diffuso il soggetto e di mettere il tutto in modo che sia stabilissimo ed esente da vibrazioni.
Poi si fanno gli scatti e si porta la schedina al computer per far digerire i file ad NX Studio.
Bene, fino a qui è la parte facile.
E' a monte e a valle del processo che le cose si fanno più complesse e richiedono un intervento giudizioso del fotografo.
Perché non tutti i soggetti sono adatti al processo e in fase di sviluppo si dovrà intervenire per valorizzare il risultato.
Anche due parole di teoria.
Nikon mette a disposizione sequenze di 4 e 8 scatti, fatte con uno spostamento di un pixel sui quattro assi.
Questo metodo dovrebbe consentire di produrre una immagine composta che elimina gli artefatti da demosaicizzazione della matrice di Bayer.
In pratica ad aggirare l'interpolazione dei colori che facciamo ogni volta che estraiamo una immagine a colori dal nostro sensore che per natura è invece monocromatico.
Matrice di Bayer. In pratica una matrice di microfiltri ottici colorati nei colori BLU-ROSSO-VERDE che viene incollata sopra al sensore (i fotodiodi sono indicati in grigio, sotto alla matrice, per ricordare che sono monocromatici, non sono sensibili al colore ma solo al livello della luce che li colpisce). Courtesy Wikipedia
In pratica i livelli di segnale luminoso che arrivano al sensore vengono filtrati per colore, in modo da poter determinare per quel colore il livello di luminosità effettivo.
Per arrivare al colore reale, il valore del colore misurato viene mediato con i valori dei colori adiacenti, per ipotizzare quale sia la terna di valori RGB che compongano il vero colore di quel punto.
Questo valore viene memorizzato ed inviato al motore di elaborazione che produce l'immagine per punti che noi vediamo a monitor o stampiamo.
E' un procedimento aritmetico, non descrive esattamente la realtà, la simula. Per avere l'esatta misura di ogni pixel, dovremmo avere fotodiodi sensibili a tutti i colori, un qualche cosa che viene elaborato - pur con tante limitazioni - solo dai sensori Foveon di Sigma.
Essendo una simulazione fatta per approssimazione, non è detto che i colori siano perfettamente aderenti, non è detto che non si formino artefatti (di falsi colori o di interferenze come il Moireé). E comunque nel procedimento si perde una parte della definizione di immagine del sensore.
Come se mettessimo un leggerissimo filtro di sfuocatura davanti al sensore, effetto che viene acuito nei sensori che sono dotati di filtro passa-basso.
Bene, lo spostamento di un pixel nelle quattro direzioni, dovrebbe consentire di ottenere un file ripulito da questi problemi.
Per chiarire il procedimento, prendiamo a prestito uno schema pubblicato da Fujifilm nella documentazione del suo sistema applicato alla GFX 100.
i quattro (che per Nikon possono essere anche 8) scatti consentono di avere in uscita una informazione colore precisa per ogni singolo pixel.
Fin qui uno shift di un pixel Se lo spostamento avviene per mezzo pixel, invece, siamo alla ricerca anche di informazioni che possono sfuggire al sensore in uno scatto singolo.
Nikon mette a disposizione sequenze di 16 e 32 scatti, fatte con uno spostamento di mezzo pixel sui quattro assi.
Questo metodo dovrebbe consentire di produrre una immagine composta che elimina gli artefatti da demosaicizzazione della matrice di Bayer e al contempo di risoluzione lineare doppia per i due lati del fotogramma.
Quindi non solo superare lo scoglio dei "falsi colori" ma ricavare ulteriori informazioni tra i pixel che permettano di fare una interpolazione di immagine ingrandita.
ancora un diagramma esemplificativo pubblicato da Fujifilm per il pixel-shift della GFX 100 che in questo caso da in uscita un'immagine da 400 megapixel, partendo dai 100 iniziali.
Ok, se non avete ancora il mal di testa, andiamo al dunque.
Fatti gli scatti, guardiamoli insieme a monitor.
Qui abbiamo scelto un oggetto tridimensionale, colorato e con molte scritte. E lo abbiamo fotografato con Zf e Nikkor Z 105/2.8 VR su treppiedi Leofoto con testa Marsace.
il primo è lo scatto al naturale
il secondo è il combinato di 8 scatti, per aumentare la definizione, a risoluzione inalterata
Sono screenshot da NX Studio in formato 4K, bisogna ingrandire per vedere bene.
Quindi la sequenza a 32 scatti, con risoluzione finale di 96 megapixel dai 24 nativi.
gli effetti, pur non eclatanti a noi sembrano visibili anche ad occhio nudo. L'immagine da 12.096 pixel di lato lungo è materialmente stampabile per il doppio di lunghezza.
Andiamo a soggetti più bidimensionali. E' ovvio che la messa a fuoco, oltre che il mosso, incidano sulla sensazione di nitidezza finale.
Un tessuto damascato.
scatto singolo
4 scatti
scatto singolo
32 scatti e risoluzione lineare doppia
stesso soggetto ma su un'altra luminosità
scatto singolo
32 scatti per 96 megapixel
ancora un oggetto tridimensionale, lavorando solo sulla definizione e non sulla risoluzione
1 scatto
8 scatti
e quindi il più classico dei classici, l'illegale fotografia di una banconota da 20 euro di corso corrente.
1 scatto
8 scatti
1 scatto
32 scatti
esplorabile più in dettaglio :
e accorgendoci così che la parte in basso a sinistra non rientrava nel campo di messa a fuoco in perfetto piano.
Non siamo invece riusciti a produrre immagini accettabili di soggetti in esterni per l'insorgere di bande colorate che presumiamo dipendano dallo stadio preliminare del software.
***
Ecco, non vorremmo indugiare oltre perché la materia è complessa e ancora più complessa da mettere a punto.
Un procedimento in cui la scelta del soggetto non è secondaria e in cui è il fotografo a dover controllare bene il processo.
Anche perché non sappiamo se e che tipo di sharpening e di maschera di contrasto vengano applicato in automatico (i NEF hanno sempre un certo livello di sharpening di base, altrimenti sarebbero tutti "molli") alle immagini combinate.
E tenendo bene a mente che sia la fotocamera che il software sono in stadio preliminare.
Nonostante tutto ci sembra promettente e una volta consolidato, ci piacerebbe mettere a confronto questi risultati con quelli ottenuti dal software che, per l'ingrandimento, con l'applicazione di processi a base di IA, oramai ottengono risultati formidabili con poca o nessuna fatica.
Recommended Comments
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.