Una buona notizia

Informazioni, novità , annunci, comunicati ufficiali.

Moderatori: maxofrome, Enrico, Mauro, old_kappa, Buster

Re: Una buona notizia

Messaggioda bel-ami » ven nov 08, 2019 3:10 pm

Mica ho detto che dovete usarli, ho solo spiegato cosa è il live composite della Olympus. :cincin:
Cazzone Ghettizzato matr. 1570
Visita il mio blog!: https://www.unoscattodistratto.com/
Scatterò una bella foto domani... or later
Avatar utente
bel-ami
Cazzone ghettizzato
 
Messaggi: 18652
Iscritto il: gio apr 23, 2009 5:43 pm
Località: Carovigno (BR)
Skype: bel-ami77
 

Re: Una buona notizia

Messaggioda Mauro » ven nov 08, 2019 3:18 pm

Io che sono totalmente incapace di fare panorami , mi son ridotto per avere foto ricordo che guardo volentieri dei luoghi che vedi in giro per il mondo a farle solo con la funzione panorama dello smartphone....quale sia la ragione per cui si metta il filtro ski e non la funzione panorama in una macchina ad obiettivi intercambiabili non lo so.....
Ma poi, è proprio obbligatorio essere qualcuno?(Raffaello Mascetti)
c’entra come il culo e le quarant’ore
Siamo alle porte co' sassi.
Avatar utente
Mauro
   
 
Messaggi: 28069
Iscritto il: mer feb 13, 2008 10:58 pm
 

Re: Una buona notizia

Messaggioda bel-ami » ven nov 08, 2019 3:21 pm

ntx ha scritto:In linea di massima ho la netta impressione che le idee sulle AI siano parecchio confuse... diciamo ad un livello sufficente che si potrebbe anche aspettare a definirle "idee".
Penso che la vostra precedente fotocamera e il vostro precedente software di fotoritocco siano li ad evidenziare che ciò che scegliete va esattamente in senso opposto a ciò che affermate di voler scegliere. Fa sorridere sta cosa.

Ciao
Jenner

Credo che di certo non si fermi alle mere funzioni "fighe" delle quali si è parlato finora, quanto alla capacità di superare mediante software limiti attualmente presenti attribuiti all'hardware.
Cazzone Ghettizzato matr. 1570
Visita il mio blog!: https://www.unoscattodistratto.com/
Scatterò una bella foto domani... or later
Avatar utente
bel-ami
Cazzone ghettizzato
 
Messaggi: 18652
Iscritto il: gio apr 23, 2009 5:43 pm
Località: Carovigno (BR)
Skype: bel-ami77
 

Re: Una buona notizia

Messaggioda hulk79 » ven nov 08, 2019 3:27 pm

Per poter scegliere la durata della posa B serve l'intelligenza artificiale?? :facciac:
Avatar utente
hulk79
Dito seduto
 
Messaggi: 2326
Iscritto il: gio gen 07, 2010 1:41 pm
Località: Reggio Calabria
 

Re: Una buona notizia

Messaggioda fanagot » ven nov 08, 2019 3:37 pm

bel-ami ha scritto:Mica ho detto che dovete usarli, ho solo spiegato cosa è il live composite della Olympus. :cincin:


intendevo dire che, uno legge le specifiche della concorrenza, e dice "che figata", poi pero' non legge quelle della macchina che usa.
e se non sa che ci sono, forse, e' perche' non gli interessava quella funzione :facciac:
io so che c'e' solo grazie al contest :mrgreen:
Mancano molte foto di obiettivi che TU magari hai. Controlla nell'archivio e provvedi! Immagine
Avatar utente
fanagot
Non ho ancora svaccato abbastanza?
 
Messaggi: 30093
Iscritto il: ven feb 15, 2008 10:14 am
Località: Paperopoli
 

Re: Una buona notizia

Messaggioda unoqualsiasi » ven nov 08, 2019 4:22 pm

hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale?? :facciac:


No, serve saper interpretare la scena e sapere cosa si vuole ottenere.
Un robo artificiale ed intelligente (anche più intelligente di me, cosa per nulla difficile) al massimo potrà scegliere cosa LUI vuole ottenere, mica cosa voglio ottenere io. Ma allora se lui fotografa a modo suo vada pure, io tiro fuori la K2 e continuo a fotografare come voglio io. Per intelligente che lui sia, non avrà mai la mia PERSONALITA'.
Detto questo ognuno può pensarla come vuole sulle (presunte) intelligenze artificiali. Oppure può lasciar pensare dette intelligenze in sua vece.
Avatar utente
unoqualsiasi
   
 
Messaggi: 30781
Iscritto il: mar feb 07, 2012 6:34 pm
 

Re: Una buona notizia

Messaggioda hulk79 » ven nov 08, 2019 4:26 pm

unoqualsiasi ha scritto:
hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale?? :facciac:


No, serve saper interpretare la scena e sapere cosa si vuole ottenere.
Un robo artificiale ed intelligente (anche più intelligente di me, cosa per nulla difficile) al massimo potrà scegliere cosa LUI vuole ottenere, mica cosa voglio ottenere io. Ma allora se lui fotografa a modo suo vada pure, io tiro fuori la K2 e continuo a fotografare come voglio io. Per intelligente che lui sia, non avrà mai la mia PERSONALITA'.
Detto questo ognuno può pensarla come vuole sulle (presunte) intelligenze artificiali. Oppure può lasciar pensare dette intelligenze in sua vece.


Anche se non hai risposto alla mia domanda sono felice di averti dato lo spunto per dire cose sulle quali sono completamente daccordo
:cincin:
Avatar utente
hulk79
Dito seduto
 
Messaggi: 2326
Iscritto il: gio gen 07, 2010 1:41 pm
Località: Reggio Calabria
 

Re: Una buona notizia

Messaggioda unoqualsiasi » ven nov 08, 2019 4:29 pm

Si che ho risposto, la risposta è "No" e poi segue un inutile pistolotto nei confronti di SkyNet e di quando prenderà coscienza di se.
Avatar utente
unoqualsiasi
   
 
Messaggi: 30781
Iscritto il: mar feb 07, 2012 6:34 pm
 

Re: Una buona notizia

Messaggioda ntx » sab nov 09, 2019 12:37 pm

bel-ami ha scritto:Credo che di certo non si fermi alle mere funzioni "fighe" delle quali si è parlato finora, quanto alla capacità di superare mediante software limiti attualmente presenti attribuiti all'hardware.


Adobe sta implementando funzionalità già esistenti in una versione basata su intelligenza artificiale. Non so se conosci il progetto Sensei...
Sono funzionalità fatte per le stesse persone che hanno speso soldi per farsi una formazione avanzata nell'uso di Photoshop, ad esempio... e queste persone vedranno effettuare quasi in tempo reale operazioni che loro impiegano ore ad effettuare. E saranno in tempo reale anche per il tizio che Photoshop sa solo aprirlo: da quel momento in un paio di click avrà ottenuto il risultato che prima un esperto otteneva con molto lavoro.

Quando si parla di strumenti basati sulle AI si tende a pensare a strumenti umanizzati, con il proprio gusto, senzienti, in contrasto con le nostre esigenze. Questo approccio è buono per un film, nella realtà le cose sono parecchio diverse.
Un strumento che si basa su una AI è uno strumento flessibile, che sa adattarsi al contesto... se è fornito di un meccanismo di retroazione può adattarsi alle novità a patto che l'utilizzatore sappia lui stesso come adeguarsi alle novità.
Prendiamo la maschera di contrasto. La maschera di contrasto la si usa, bene o male, in due modi: con un raggio stretto una buona intensità per enfatizzare il dettaglio, con un raggio estremamente ampio e una intensità bassissima per bilanciare la dinamica della scena (come fosse un tone-mapper).
Di norma, per fare un buon lavoro, si modula l'uso della maschera di contrasto a diversi raggi/intensità su diverse parti dell'immagine a seconda di cosa è presente in quelle parti. Si ottengono diversi livelli, che si applicano con diverse maschere (e a volte anche con diverse modalità di fusione). Ok.
Perchè si fa tutto quel lavoro con maschere e livelli? Sostanzialmente perchè il filtro in se (la maschera di contrasto) è un filtro "stupido", non si adatta al contesto... quindi l'adattamento è in carico all'operatore.
Una maschera di contrasto basata su una AI è un filtro che si adatta al contesto e quindi, ad esempio, modulerà raggio e intensità per evitare aloni dove bilancia la dinamica, per evitare bordini dove è sono presenti dettagli fini... il tutto con una accuratezza che ad un essere umano richiederebbe settimane di lavoro. Ma una maschera di contrasto basata su una AI non è che funziona per conto suo: i parametri che verranno richiesti all'utente posso essere - ad esempio - quanto tentare di bilanciare la dinamica, quanto cercare di enfatizzare il dettaglio e, perchè no, anche quanto adattarsi al contesto. Vuoi usare un preset? Usi un preset: è così anche ora.
I tone-mapper HDR dove fallivano? In linea di massima si dividevano in due categorie: quelli che simulavano il funzionamento dell'occhio umano e quelli che bilanciavano i toni in base ad un certo raggio d'azione... nessuno di questi rilevava il contesto e si adattava di conseguenza. Nel caso del Fattal i risultati hanno avuto un iniziale successo ma poi hanno sostanzialmente stancato (le immagini erano tutte uguali).
Un tone-mapper, però, è già un filtro che è molto più avanzato e intelligente di una maschera di contrasto: intanto lavora su contesti ristretti, il che lo rende più flessibile nell'applicazione... ma per farlo adattare serve ancora l'operatore che vada a produrre più risultati su dimensioni del contesto differente e poi unirli per ottenere l'immagine finale.
Un tone-mapper basato su una AI è in grado di adattarsi al contesto e regolare i parametri sottostanti di conseguenza.

Chi mi dice che vuole scegliere, onestamente, mi fa ridere.
La situazione attuale presenta un'offerta di software che ti fanno scegliere e una di software che non ti fanno scegliere. Banalmente: GIMP è un software che espone moltissimi parametri delle elaborazioni, quindi è un software che ti fa scegliere; Photoshop è un software che espone pochissimi parametri delle elaborazioni gestendo lui quelli sottostanti, quindi è un software che non ti fa scegliere. Dove battono le scelte degli utenti smaliziati che devono avere loro il controllo?
Photivo e Lightroom: il primo espone molti parametri (quindi ti fa scegliere), il secondo ne espone pochi (quindi non ti fa scegliere). Cosa scelgono quelli che devono avere loro il controllo?
Hugin e ICE/Photoshop/Lightroom: il primo espone molti parametri, i secondi ne espongono pochi o anche nessuno. Cosa scelgono quelli che devono avere loro il controllo?

E allora io mi domando solo una cosa: ad esempio, quando scatti una foto ad un tramonto o comunque in una situazione di contrasti elevati, sarebbe preferibile che le nostre interazioni sul software fossero legate a descrivere la resa della scena che desideriamo per concetti umani o legate a controllare numericamente, con strumenti grossolani, fra l'altro, i dati contenuti nell'immagine.
Le IA ci danno la possibilità di interagire per concetti umani ("riduzione caligine" anzichè "sovrappongo un livello con questo tono, lo inverto, modalità di fusione overlay, intensità 25%, poi maschera di livello gradiente e una passatina di aerografo nero in questa zona").

hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale?? :facciac:


Ma nel frattempo s'è dovuto aspettare anni e anni per poter avere una posa B dove impostare il tempo di posa (in un sistema che sugli EXIF ti scrive il tempo di posa in posa B e che calcola il tempo di posa del darkframe da sottrarre), anzi, prima è arrivato l'intervallometro e poi - solo in alcuni corpi - la posa B impostabile. Solo nell'ultimo anno e qualcosa abbiamo visto sbarcare sulle fotocamere (e non tutte) la magica possibilità di caricare la batteria mentre il corpo è connesso via USB.

Ciao
Jenner
ntx
Tetratricoctomo
 
Messaggi: 14378
Iscritto il: gio mag 07, 2009 7:55 am
Località: Bassa romagnola
 

Re: Una buona notizia

Messaggioda emmefanatico » sab nov 09, 2019 1:00 pm

Non capisco cosa ci sia che non faccia scegliere in CameraRAW
Esposizione è un controllo facile da capire, contrasto idem, luci-ombre-bianchi-neri sono praticamente un sostituto comodo delle curve, ma fanno la stessa cosa.
Quelli più "particolari" sono nitidezza (che modifica il microcontrasto), e riduzione foschia, che se ho capito bene non è altro che un aumento di contrasto nelle zone meno contrastate.
Vividezza è la stessa cosa, solo per la saturazione: un aumento di saturazione solo nelle zone meno sature. Come effetto collaterale ti concedo che protegga i toni della pelle, cosa di cui avrei fatto volentieri a meno, tanto non lo uso mai per quello, se mi serve fare qualcosa di particolare vado nel pannello HSL.

Il vantaggio abnorme di CameraRAW rispetto a tutti gli altri software di sviluppo - e ancora non ne ho trovato mezzo che faccia la stessa, cretinissima, stupidissima ma comodissima cosa, è che lavora su anteprime a bassa risoluzione (cioè quella necessaria), e di conseguenza tutti i movimenti degli slider si ripercuotono istantaneamente sull'immagine.
Se esiste un settaggio in Rawtherapee o Darktable che fa la stessa cosa, me lo son perso.
"...a parità di tutti gli altri fattori"

Mattoncino-panda e Bat-camera
Avatar utente
emmefanatico
Azionista del forum
 
Messaggi: 4565
Iscritto il: ven gen 16, 2015 11:48 am
 

Re: Una buona notizia

Messaggioda bel-ami » sab nov 09, 2019 2:57 pm

ntx ha scritto:
bel-ami ha scritto:Credo che di certo non si fermi alle mere funzioni "fighe" delle quali si è parlato finora, quanto alla capacità di superare mediante software limiti attualmente presenti attribuiti all'hardware.


Adobe sta implementando funzionalità già esistenti in una versione basata su intelligenza artificiale. Non so se conosci il progetto Sensei...
Sono funzionalità fatte per le stesse persone che hanno speso soldi per farsi una formazione avanzata nell'uso di Photoshop, ad esempio... e queste persone vedranno effettuare quasi in tempo reale operazioni che loro impiegano ore ad effettuare. E saranno in tempo reale anche per il tizio che Photoshop sa solo aprirlo: da quel momento in un paio di click avrà ottenuto il risultato che prima un esperto otteneva con molto lavoro.

Quando si parla di strumenti basati sulle AI si tende a pensare a strumenti umanizzati, con il proprio gusto, senzienti, in contrasto con le nostre esigenze. Questo approccio è buono per un film, nella realtà le cose sono parecchio diverse.
Un strumento che si basa su una AI è uno strumento flessibile, che sa adattarsi al contesto... se è fornito di un meccanismo di retroazione può adattarsi alle novità a patto che l'utilizzatore sappia lui stesso come adeguarsi alle novità.
Prendiamo la maschera di contrasto. La maschera di contrasto la si usa, bene o male, in due modi: con un raggio stretto una buona intensità per enfatizzare il dettaglio, con un raggio estremamente ampio e una intensità bassissima per bilanciare la dinamica della scena (come fosse un tone-mapper).
Di norma, per fare un buon lavoro, si modula l'uso della maschera di contrasto a diversi raggi/intensità su diverse parti dell'immagine a seconda di cosa è presente in quelle parti. Si ottengono diversi livelli, che si applicano con diverse maschere (e a volte anche con diverse modalità di fusione). Ok.
Perchè si fa tutto quel lavoro con maschere e livelli? Sostanzialmente perchè il filtro in se (la maschera di contrasto) è un filtro "stupido", non si adatta al contesto... quindi l'adattamento è in carico all'operatore.
Una maschera di contrasto basata su una AI è un filtro che si adatta al contesto e quindi, ad esempio, modulerà raggio e intensità per evitare aloni dove bilancia la dinamica, per evitare bordini dove è sono presenti dettagli fini... il tutto con una accuratezza che ad un essere umano richiederebbe settimane di lavoro. Ma una maschera di contrasto basata su una AI non è che funziona per conto suo: i parametri che verranno richiesti all'utente posso essere - ad esempio - quanto tentare di bilanciare la dinamica, quanto cercare di enfatizzare il dettaglio e, perchè no, anche quanto adattarsi al contesto. Vuoi usare un preset? Usi un preset: è così anche ora.
I tone-mapper HDR dove fallivano? In linea di massima si dividevano in due categorie: quelli che simulavano il funzionamento dell'occhio umano e quelli che bilanciavano i toni in base ad un certo raggio d'azione... nessuno di questi rilevava il contesto e si adattava di conseguenza. Nel caso del Fattal i risultati hanno avuto un iniziale successo ma poi hanno sostanzialmente stancato (le immagini erano tutte uguali).
Un tone-mapper, però, è già un filtro che è molto più avanzato e intelligente di una maschera di contrasto: intanto lavora su contesti ristretti, il che lo rende più flessibile nell'applicazione... ma per farlo adattare serve ancora l'operatore che vada a produrre più risultati su dimensioni del contesto differente e poi unirli per ottenere l'immagine finale.
Un tone-mapper basato su una AI è in grado di adattarsi al contesto e regolare i parametri sottostanti di conseguenza.

Chi mi dice che vuole scegliere, onestamente, mi fa ridere.
La situazione attuale presenta un'offerta di software che ti fanno scegliere e una di software che non ti fanno scegliere. Banalmente: GIMP è un software che espone moltissimi parametri delle elaborazioni, quindi è un software che ti fa scegliere; Photoshop è un software che espone pochissimi parametri delle elaborazioni gestendo lui quelli sottostanti, quindi è un software che non ti fa scegliere. Dove battono le scelte degli utenti smaliziati che devono avere loro il controllo?
Photivo e Lightroom: il primo espone molti parametri (quindi ti fa scegliere), il secondo ne espone pochi (quindi non ti fa scegliere). Cosa scelgono quelli che devono avere loro il controllo?
Hugin e ICE/Photoshop/Lightroom: il primo espone molti parametri, i secondi ne espongono pochi o anche nessuno. Cosa scelgono quelli che devono avere loro il controllo?

E allora io mi domando solo una cosa: ad esempio, quando scatti una foto ad un tramonto o comunque in una situazione di contrasti elevati, sarebbe preferibile che le nostre interazioni sul software fossero legate a descrivere la resa della scena che desideriamo per concetti umani o legate a controllare numericamente, con strumenti grossolani, fra l'altro, i dati contenuti nell'immagine.
Le IA ci danno la possibilità di interagire per concetti umani ("riduzione caligine" anzichè "sovrappongo un livello con questo tono, lo inverto, modalità di fusione overlay, intensità 25%, poi maschera di livello gradiente e una passatina di aerografo nero in questa zona").

hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale?? :facciac:


Ma nel frattempo s'è dovuto aspettare anni e anni per poter avere una posa B dove impostare il tempo di posa (in un sistema che sugli EXIF ti scrive il tempo di posa in posa B e che calcola il tempo di posa del darkframe da sottrarre), anzi, prima è arrivato l'intervallometro e poi - solo in alcuni corpi - la posa B impostabile. Solo nell'ultimo anno e qualcosa abbiamo visto sbarcare sulle fotocamere (e non tutte) la magica possibilità di caricare la batteria mentre il corpo è connesso via USB.

Ciao
Jenner

Chiarissimo come sempre :cincin:
Cazzone Ghettizzato matr. 1570
Visita il mio blog!: https://www.unoscattodistratto.com/
Scatterò una bella foto domani... or later
Avatar utente
bel-ami
Cazzone ghettizzato
 
Messaggi: 18652
Iscritto il: gio apr 23, 2009 5:43 pm
Località: Carovigno (BR)
Skype: bel-ami77
 

Re: Una buona notizia

Messaggioda twistdh » sab nov 09, 2019 3:35 pm

emmefanatico ha scritto:... e riduzione foschia, che se ho capito bene non è altro che un aumento di contrasto nelle zone meno contrastate....


non so bene quello di LR/PS come funzioni, ma la riduzione della foschia (almeno quella che funziona meglio) è qualcosa di molto più complesso che un "banale" aumento di contrasto.

gli algoritmi più efficaci sono adattivi e vanno a creare una mappa delle distanze di ogni pixel dell'immagine dal sensore, per poi applicare filtri di vario genere...ci sono algoritmi molto sofisticati (ed ancora da migliorare notevolmente) e con l'aiuto dell'AI possono fare grandi cose.

per il resto ha scritto tutto molto bene ntx ;)

l'AI non serve solo a poter fare selfie aggiungendo le orecchie e deformando le facce...è uno strumento potentissimo che permette cose impossibili altrimenti (o comunque permette di fare le stesse cose in una frazione del tempo)
twistdh
Postofilo forsennato
 
Messaggi: 899
Iscritto il: sab nov 13, 2010 5:59 pm
Località: Pianezza (TO)
 

Re: Una buona notizia

Messaggioda emmefanatico » sab nov 09, 2019 3:48 pm

twistdh ha scritto:
emmefanatico ha scritto:... e riduzione foschia, che se ho capito bene non è altro che un aumento di contrasto nelle zone meno contrastate....


non so bene quello di LR/PS come funzioni, ma la riduzione della foschia (almeno quella che funziona meglio) è qualcosa di molto più complesso che un "banale" aumento di contrasto.

gli algoritmi più efficaci sono adattivi e vanno a creare una mappa delle distanze di ogni pixel dell'immagine dal sensore, per poi applicare filtri di vario genere...ci sono algoritmi molto sofisticati (ed ancora da migliorare notevolmente) e con l'aiuto dell'AI possono fare grandi cose.

per il resto ha scritto tutto molto bene ntx ;)

l'AI non serve solo a poter fare selfie aggiungendo le orecchie e deformando le facce...è uno strumento potentissimo che permette cose impossibili altrimenti (o comunque permette di fare le stesse cose in una frazione del tempo)


1. è una funzione su una marea, e neanche la più rilevante... la stragrande maggioranza sono cose replicabili tramite le curve, solo in modo più complicato... anche per il fatto che qualche genio ha pensato che dei puntini da spostare col mouse in un riquadrino dimensione francobollo fossero una buona idea. A nessuno è venuto in mente di usare un controllo curve a pieno schermo, sovrapposto all'immagine... alla fine son due righe, manco danno noia.

2. e sono quelli che piallano i capelli e gli zigomi (per ora, ma non credo le cose cambieranno troppo in futuro), e a me personalmente non interessano.
"...a parità di tutti gli altri fattori"

Mattoncino-panda e Bat-camera
Avatar utente
emmefanatico
Azionista del forum
 
Messaggi: 4565
Iscritto il: ven gen 16, 2015 11:48 am
 

Re: Una buona notizia

Messaggioda ntx » sab nov 09, 2019 4:41 pm

emmefanatico ha scritto:1. è una funzione su una marea, e neanche la più rilevante... la stragrande maggioranza sono cose replicabili tramite le curve, solo in modo più complicato...


E perchè non usi le curve (e tutti i livelli sovrapposti a seguire) per fare quell'operazione? Avresti il controllo sull'operazione! Perchè affidarsi ad uno strumento che ti limita, che fa quello che il suo produttore ha deciso come deve comportarsi?
Mai usato luci e ombre? Ecco: perchè utilizzare quello strumento anzichè fare tutto tramite una pila di livelli, le relative maschere di livello e l'impostazione di tutte le modalità di fusione e le percentuali d'applicazione del livello? In quest'ultimo modo hai controllo completo e con il giusto impegno anche estremamente più fine rispetto a luci/ombre... anzi, luci/ombre non riesce a coprire le possibilità della tecnica manuale che nasconde dietro di se: il produttore del software ha deciso che tu potevi fare solo certe cose.
Mai regolato il WB tramite i moltiplicatori delle componenti? Su DCRaw si può fare! Invece sui comuni sviluppatori RAW hanno deciso che i moltiplicatori delle componenti li decidono loro con i preset... applicano addirittura lo stesso moltiplicatore per entrambe le componenti G quando, disaccoppiandole, si possono ottenere comportamenti ben precisi in fase di demosaicizzazione.

emmefanatico ha scritto:anche per il fatto che qualche genio ha pensato che dei puntini da spostare col mouse in un riquadrino dimensione francobollo fossero una buona idea. A nessuno è venuto in mente di usare un controllo curve a pieno schermo, sovrapposto all'immagine... alla fine son due righe, manco danno noia.


No, tu sei un profotografer e ti meriti quello... sei una elite! Ti paracadutiamo sul software e hai solo un machete con cui dimostrare il tuo valore di vero profotografer. Un controllo curve grande e facile da regolare è roba per quelli che usano Snapseed sullo smartphone: roba per plebei.

emmefanatico ha scritto:2. e sono quelli che piallano i capelli e gli zigomi (per ora, ma non credo le cose cambieranno troppo in futuro), e a me personalmente non interessano.


Si si... certo... ti do mezzora per scontornare meglio di come fa il Pixel 4 in tempo reale. :D

Ciao
Jenner
ntx
Tetratricoctomo
 
Messaggi: 14378
Iscritto il: gio mag 07, 2009 7:55 am
Località: Bassa romagnola
 

Re: Una buona notizia

Messaggioda twistdh » sab nov 09, 2019 5:05 pm

emmefanatico ha scritto:...
2. e sono quelli che piallano i capelli e gli zigomi (per ora, ma non credo le cose cambieranno troppo in futuro), e a me personalmente non interessano.


come ho detto, non serve solo a quello...poi vabbè sono d'accordo che l'effetto bokeh non riescono (attualmente) a farlo decentemente, ma contando che è tutto fatto in real time (e che siamo solo all'inizio) non è così malvagio.

io più che altro penso ad iphone (giusto per dirne uno) che nel tempo della pressione del bottone di scatto fa qualcosa come 9 foto (non ricordo il numero esatto), le analizza pixel a pixel e cerca di ottenere il massimo...questo offre più dettaglio, più gamma cromatica, meno rumore, ecc... poi certo è sempre un sensorino ridicolo, ma pensa solo cose del cenere su una aps-c cosa potrebbero combinare.

poi vabbè queste cose si vedranno (almeno così spinte) solo sugli smartphone, ma le possibilità sono inimmaginabili (specie se si hanno più lunghezze focali assieme e disponibili contemporaneamente). tra le altre cose si potrebbe predisporre la messa a fuoco su un volatile prima ancora che entri nell'inquadratura (grazie alle altre camere, cosa che più o meno viene già fatta nei video di iphone...ma a me i video non interessano molto)...
twistdh
Postofilo forsennato
 
Messaggi: 899
Iscritto il: sab nov 13, 2010 5:59 pm
Località: Pianezza (TO)
 

PrecedenteProssimo

Torna a Novità tecniche e commerciali

Chi c’è in linea

Visitano il forum: twistdh e 2 ospiti