ven nov 08, 2019 3:10 pm
ven nov 08, 2019 3:18 pm
ven nov 08, 2019 3:21 pm
ntx ha scritto:In linea di massima ho la netta impressione che le idee sulle AI siano parecchio confuse... diciamo ad un livello sufficente che si potrebbe anche aspettare a definirle "idee".
Penso che la vostra precedente fotocamera e il vostro precedente software di fotoritocco siano li ad evidenziare che ciò che scegliete va esattamente in senso opposto a ciò che affermate di voler scegliere. Fa sorridere sta cosa.
Ciao
Jenner
ven nov 08, 2019 3:27 pm
ven nov 08, 2019 3:37 pm
bel-ami ha scritto:Mica ho detto che dovete usarli, ho solo spiegato cosa è il live composite della Olympus.
ven nov 08, 2019 4:22 pm
hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale??
ven nov 08, 2019 4:26 pm
unoqualsiasi ha scritto:hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale??
No, serve saper interpretare la scena e sapere cosa si vuole ottenere.
Un robo artificiale ed intelligente (anche più intelligente di me, cosa per nulla difficile) al massimo potrà scegliere cosa LUI vuole ottenere, mica cosa voglio ottenere io. Ma allora se lui fotografa a modo suo vada pure, io tiro fuori la K2 e continuo a fotografare come voglio io. Per intelligente che lui sia, non avrà mai la mia PERSONALITA'.
Detto questo ognuno può pensarla come vuole sulle (presunte) intelligenze artificiali. Oppure può lasciar pensare dette intelligenze in sua vece.
ven nov 08, 2019 4:29 pm
sab nov 09, 2019 12:37 pm
bel-ami ha scritto:Credo che di certo non si fermi alle mere funzioni "fighe" delle quali si è parlato finora, quanto alla capacità di superare mediante software limiti attualmente presenti attribuiti all'hardware.
hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale??
sab nov 09, 2019 1:00 pm
sab nov 09, 2019 2:57 pm
ntx ha scritto:bel-ami ha scritto:Credo che di certo non si fermi alle mere funzioni "fighe" delle quali si è parlato finora, quanto alla capacità di superare mediante software limiti attualmente presenti attribuiti all'hardware.
Adobe sta implementando funzionalità già esistenti in una versione basata su intelligenza artificiale. Non so se conosci il progetto Sensei...
Sono funzionalità fatte per le stesse persone che hanno speso soldi per farsi una formazione avanzata nell'uso di Photoshop, ad esempio... e queste persone vedranno effettuare quasi in tempo reale operazioni che loro impiegano ore ad effettuare. E saranno in tempo reale anche per il tizio che Photoshop sa solo aprirlo: da quel momento in un paio di click avrà ottenuto il risultato che prima un esperto otteneva con molto lavoro.
Quando si parla di strumenti basati sulle AI si tende a pensare a strumenti umanizzati, con il proprio gusto, senzienti, in contrasto con le nostre esigenze. Questo approccio è buono per un film, nella realtà le cose sono parecchio diverse.
Un strumento che si basa su una AI è uno strumento flessibile, che sa adattarsi al contesto... se è fornito di un meccanismo di retroazione può adattarsi alle novità a patto che l'utilizzatore sappia lui stesso come adeguarsi alle novità.
Prendiamo la maschera di contrasto. La maschera di contrasto la si usa, bene o male, in due modi: con un raggio stretto una buona intensità per enfatizzare il dettaglio, con un raggio estremamente ampio e una intensità bassissima per bilanciare la dinamica della scena (come fosse un tone-mapper).
Di norma, per fare un buon lavoro, si modula l'uso della maschera di contrasto a diversi raggi/intensità su diverse parti dell'immagine a seconda di cosa è presente in quelle parti. Si ottengono diversi livelli, che si applicano con diverse maschere (e a volte anche con diverse modalità di fusione). Ok.
Perchè si fa tutto quel lavoro con maschere e livelli? Sostanzialmente perchè il filtro in se (la maschera di contrasto) è un filtro "stupido", non si adatta al contesto... quindi l'adattamento è in carico all'operatore.
Una maschera di contrasto basata su una AI è un filtro che si adatta al contesto e quindi, ad esempio, modulerà raggio e intensità per evitare aloni dove bilancia la dinamica, per evitare bordini dove è sono presenti dettagli fini... il tutto con una accuratezza che ad un essere umano richiederebbe settimane di lavoro. Ma una maschera di contrasto basata su una AI non è che funziona per conto suo: i parametri che verranno richiesti all'utente posso essere - ad esempio - quanto tentare di bilanciare la dinamica, quanto cercare di enfatizzare il dettaglio e, perchè no, anche quanto adattarsi al contesto. Vuoi usare un preset? Usi un preset: è così anche ora.
I tone-mapper HDR dove fallivano? In linea di massima si dividevano in due categorie: quelli che simulavano il funzionamento dell'occhio umano e quelli che bilanciavano i toni in base ad un certo raggio d'azione... nessuno di questi rilevava il contesto e si adattava di conseguenza. Nel caso del Fattal i risultati hanno avuto un iniziale successo ma poi hanno sostanzialmente stancato (le immagini erano tutte uguali).
Un tone-mapper, però, è già un filtro che è molto più avanzato e intelligente di una maschera di contrasto: intanto lavora su contesti ristretti, il che lo rende più flessibile nell'applicazione... ma per farlo adattare serve ancora l'operatore che vada a produrre più risultati su dimensioni del contesto differente e poi unirli per ottenere l'immagine finale.
Un tone-mapper basato su una AI è in grado di adattarsi al contesto e regolare i parametri sottostanti di conseguenza.
Chi mi dice che vuole scegliere, onestamente, mi fa ridere.
La situazione attuale presenta un'offerta di software che ti fanno scegliere e una di software che non ti fanno scegliere. Banalmente: GIMP è un software che espone moltissimi parametri delle elaborazioni, quindi è un software che ti fa scegliere; Photoshop è un software che espone pochissimi parametri delle elaborazioni gestendo lui quelli sottostanti, quindi è un software che non ti fa scegliere. Dove battono le scelte degli utenti smaliziati che devono avere loro il controllo?
Photivo e Lightroom: il primo espone molti parametri (quindi ti fa scegliere), il secondo ne espone pochi (quindi non ti fa scegliere). Cosa scelgono quelli che devono avere loro il controllo?
Hugin e ICE/Photoshop/Lightroom: il primo espone molti parametri, i secondi ne espongono pochi o anche nessuno. Cosa scelgono quelli che devono avere loro il controllo?
E allora io mi domando solo una cosa: ad esempio, quando scatti una foto ad un tramonto o comunque in una situazione di contrasti elevati, sarebbe preferibile che le nostre interazioni sul software fossero legate a descrivere la resa della scena che desideriamo per concetti umani o legate a controllare numericamente, con strumenti grossolani, fra l'altro, i dati contenuti nell'immagine.
Le IA ci danno la possibilità di interagire per concetti umani ("riduzione caligine" anzichè "sovrappongo un livello con questo tono, lo inverto, modalità di fusione overlay, intensità 25%, poi maschera di livello gradiente e una passatina di aerografo nero in questa zona").hulk79 ha scritto:Per poter scegliere la durata della posa B serve l'intelligenza artificiale??
Ma nel frattempo s'è dovuto aspettare anni e anni per poter avere una posa B dove impostare il tempo di posa (in un sistema che sugli EXIF ti scrive il tempo di posa in posa B e che calcola il tempo di posa del darkframe da sottrarre), anzi, prima è arrivato l'intervallometro e poi - solo in alcuni corpi - la posa B impostabile. Solo nell'ultimo anno e qualcosa abbiamo visto sbarcare sulle fotocamere (e non tutte) la magica possibilità di caricare la batteria mentre il corpo è connesso via USB.
Ciao
Jenner
sab nov 09, 2019 3:35 pm
emmefanatico ha scritto:... e riduzione foschia, che se ho capito bene non è altro che un aumento di contrasto nelle zone meno contrastate....
sab nov 09, 2019 3:48 pm
twistdh ha scritto:emmefanatico ha scritto:... e riduzione foschia, che se ho capito bene non è altro che un aumento di contrasto nelle zone meno contrastate....
non so bene quello di LR/PS come funzioni, ma la riduzione della foschia (almeno quella che funziona meglio) è qualcosa di molto più complesso che un "banale" aumento di contrasto.
gli algoritmi più efficaci sono adattivi e vanno a creare una mappa delle distanze di ogni pixel dell'immagine dal sensore, per poi applicare filtri di vario genere...ci sono algoritmi molto sofisticati (ed ancora da migliorare notevolmente) e con l'aiuto dell'AI possono fare grandi cose.
per il resto ha scritto tutto molto bene ntx
l'AI non serve solo a poter fare selfie aggiungendo le orecchie e deformando le facce...è uno strumento potentissimo che permette cose impossibili altrimenti (o comunque permette di fare le stesse cose in una frazione del tempo)
sab nov 09, 2019 4:41 pm
emmefanatico ha scritto:1. è una funzione su una marea, e neanche la più rilevante... la stragrande maggioranza sono cose replicabili tramite le curve, solo in modo più complicato...
emmefanatico ha scritto:anche per il fatto che qualche genio ha pensato che dei puntini da spostare col mouse in un riquadrino dimensione francobollo fossero una buona idea. A nessuno è venuto in mente di usare un controllo curve a pieno schermo, sovrapposto all'immagine... alla fine son due righe, manco danno noia.
emmefanatico ha scritto:2. e sono quelli che piallano i capelli e gli zigomi (per ora, ma non credo le cose cambieranno troppo in futuro), e a me personalmente non interessano.
sab nov 09, 2019 5:05 pm
emmefanatico ha scritto:...
2. e sono quelli che piallano i capelli e gli zigomi (per ora, ma non credo le cose cambieranno troppo in futuro), e a me personalmente non interessano.
Site Copyright © 2008 -
Pentaxiani.it
Tutti i contenuti qui presenti, siano grafici o testuali, sono sotto copyright e responsabilità esclusiva dei loro creatori. Pentax è un marchio registrato della Ricoh Imaging Company ltd.
Pentaxiani.it non è in nessun modo associato con Pentax, Ricoh Company, Fowa S.p.A. o loro affiliati nazionali o internazionali.