ntx ha scritto:Diamo a Cesare quel che è di Cesare: la riduzione del rumore tramite sovrapposizione di scatti mediati si fa in astrofotografia digitale praticamente da quando è nata l'astrofotografia digitale.
Siccome mi dispiacerebbe che qualcuno che si trovasse a leggere questo 3D non dall'inizio possa pensare che io abbia millantato di aver inventato questa tecnica, sottolineo che io avevo dato il suo a Cesare già nel primo post in cui raccontavo la tecnica in questione e poi l'ho ribadito ancora una volta in una risposta a L_Eretico. Mi autocito:
Gerardo ha scritto:Per le immagini di oggetti lontani ripresi con teleobiettivi potenti già sapevo che avrei ottenuto buoni risultati con questa tecnica perché avevo fatto prove in passato e perché è una tecnica comunemente usata da molti anni per le immagini astronomiche: riduce il rumore e gli effetti della turbolenza atmosferica, mi sono quindi chiesto come avrebbe funzionato a distanze ridotte.
Gerardo ha scritto:[...] Questa tecnica (che ovviamente non ho inventato io) è usata da sempre per le immagini astronomiche (soprattutto) in alta risoluzione per le quali si mediano migliaia di fotogrammi, per congelare il seeing e per ridurre il rumore, in modo da poter poi applicare tecniche di contrasto belle "forti" per tirar fuori i dettagli.[....]
Giusto per evitare figuracce.
emmefanatico ha scritto:Avevo capito che uno dei modi per ottenere maggiore informazione è il movimento da un frame all'altro, per cui un dettaglio capita una volta su un pixel, una volta un po' a cavallo di due, una volta su un altro... e l'allineamento si occupa di centrare tutto... tanto quello di PS non è su due dimensioni sole, no? deforma anche.
Esatto, l'idea di base è quella che hai detto: scatti un numero statisticamente rilevante di foto a mano libera, i dettagli della foto cadono di volta in volta su un pixel diverso, allinei, fai la media e voilà! Però come al solito il diavoletto ci mette la coda e nella realtà operativa ho notato che:
1. a mano libera ad una distanza di 100/200 metri il sistema funziona benino, ma ad una distanza di 5/10 metri funziona assai meno bene
2. bisogna stare attenti che il tempo di sicurezza sia MOLTO di sicurezza perché il micromosso danneggia parecchio la nitidezza del risultato
3. altro che +/- 1 pixel, a mano libera lo spostamento è di qualche decina di pixel, quindi anche il crop aumenta
4. nelle mie prove a mano libera,migliora solo il rumore mentre nelle prove con il cavalletto migliora anche la nitidezza (la mia ipotesi di spiegazione più avanti)
5. ovviamente, come pure il PS, funziona solo con soggetti ASSOLUTAMENTE fermi
ntx ha scritto:Insomma, secondo me, se si è sempre privilegiata la strada di migliorare il sensore non è per inchiappettare il cliente (come piace pensare ad alcuni) ma perchè è l'unica strada che offre una soluzione flessibile e comoda.
Io preferisco avere 25600 ISO con bassissimo rumore di fondo anzichè averceli pessimi ma che posso migliorare facendo 32 scatti da allineare e sovrapporre in post.
Non c'è dubbio che questo tipo di tecniche non sotituiscono un sensore migliore (non mi pare che io o qualcun altro lo abbia sostenuto) e che il loro campo di applicazione è limitato e non servono per fotografare corse di moto nè esibizioni di danza né i cornutoni di Unoqualsiasi, ma
in alcuni casi possono aiutare a migliorare moltissimo il risultato.
ntx ha scritto:Da quando Hoya introdusse la ripresa intervallata con "metodo di fusione" media sulla... K-5? Si, mi pare sulla K-5... e faceva proprio questo. Su PentaxForums c'è un breve tutorial a riguardo dove viene mostrato come e quanto viene ridotto il rumore... e se non ricordo male c'è un tutorial simile anche qui.
Sì, ce l'ha pure la prima quaglietta! Ma ribadisco che il risultato finale mi pare migliore con photoshop che "in camera".
ntx ha scritto:unoqualsiasi ha scritto:Dovete spiegarmi come fa la fotocamera a risolvere qualcosa che è più piccolo del suo singolo elemento di immagine.
E' vero, in realtà non ce la fa... ma quello che ottieni in questo caso è ridurre l'effetto "sfocato" dato dalla matrice Bayer caratterizzando maggiormente le componenti cromatiche che vengono inventate dalla demosaicizzazione.
E con "caratterizzando maggiormente" intendo dire che non si sta aumentando la risolvenza ma che di fanno scelte sostanzialmente casuali sui vari pixel che hanno come effetto finale il far sembrare l'immagine più nitida.
Ciao
Jenner
Non posso che confermare che avete ragione entrambi: in realtà la "superresolution" non può esistere nel senso stretto che dice Unoqualsiasi (infatti il titolo è "Popolonic Superresolution")
Non ci sono santi: se due punti distinti sono così vicini che le loro immagini ricadono su un solo pixel o su pixels adiacenti non saranno mai "risolti" (nel senso di "visti come punti separati").
Ma a mio parere il giochetto funziona perché la realtà è più complicata di così.
Suppongo che ciò che ntx descrive con l'espressione "caratterizzare maggiormente" possa essere esplicitato come segue.
Come tutti sapete, un punto non viene proiettato sul sensore della macchina fotografica come un punto, ma come un disco "sfocato" (detto di Airy, fatevi una googlata per approfondire) il cui diametro è funzione del diaframma e che per di più è circondato da anelli di diffrazione.
Ad esempio una K3 ha pixel da 3,9 micron, ma un obiettivo ideale ("diffraction limited") produce un disco di Airy con di 5,33 micron di diametro già ad f/4, quindi un ideale punto geometrico occuperà una superficie quasi pari a 2x2 pixel; nel caso in cui scattiamo a f/8 il disco di Airy avrà un diametro di 10,65 micron e occuperà una superficie di oltre 3x3 pixel.
Ora immaginiamo una linea colorata fotografata a f/8: essa sarà rappresentata da griglia di questi dischi sfocati da 3x3 pixel. Se si fa una serie di foto con una delle nostre reflex dotate di specchietto e otturatore a lamelle anche con la macchina su cavalletto, a causa delle vibrazioni indotte dalle masse mobili, le immagini saranno tutte leggermente spostate tra loro, quindi il picco del disco di Airy sarà di volta in volta leggermente spostato sia rispetto alla griglia dei pixel sia rispetto alla matrice di Bayer*. Facendo poi l'allineamento e la media si otterrà come risultato un'integrazione delle informazioni contenute nella serie di immagini che migliora sia le componenti cromatiche sia l'effetto della diffrazione e produrrà una linea sottile dall'aspetto più uniforme e una miglior qualità del colore, ma questo può accadere solo perché in realtà i recettori sono sovrabbondanti rispetto all'informazione trasferita, altrimenti ciccia!
*Tanto è vero che le macchine che hanno il PS usano l'otturatore elettronico per farlo e non l'otturatore a lamelle proprio per evitare gli spostamenti che essi provocano.