Siccome mi avete intrigato con questa faccenda CCD vs CMOS, e siccome ho accesso a riviste di ricerca scientifica (IEEE, quella di riferimento per ingegneri), e siccome avrei da finire delle cose qui in universita' ma
non ne ho voglia, mi sono messo a fare una piccola ricerca.
Sono giunto alle seguenti conclusioni:
- storicamente,
i CCD costavano di piu' dei CMOS ma avevano una IQ nettamente migliore (piu' densita' in particolare).
- Questi chiari trade-off costo-prestazioni si e' annebbiato incredibilmente negli ultimi anni, poiche' da ambedue
i lati hanno cercato di porre rimedio ai rispettivi difetti.
In pratica,
i produttori di sensori CMOS hanno usato il loro vantaggio di costo per migliorare la IQ. Ora usano processi tecnologici particolari che si differenziano dai trattamenti classici del silicio per chip. Questo innalza
i costi, ma ha permesso di migliorare incredibilmente la densita'. L'innalzamento dei costi e' reale e
non marginale, siccome ogniqualvolta si va a modificare il processo CMOS standard, e' un casino (se volete dettagli piu' scientifici e meno spannometrici, piu' tardi posso provare a riassumere il problema industriale della produzione di chip su silicio).
A loro volta,
i produttori di CCD hanno cercato di avvicinarsi come costo ai CMOS usando processi tecnologici standard e provando a inserire parte della circuiteria necessaria on chip (es. 1.5D chips, ma
non so se sono usati anche nel segmento di sensori per macchine fotografiche APSC e FF).
Quello che ora fa veramente la differenza e' il tempo di elaborazione.
I CMOS sono estremamenti piu' veloci, e in un mercato in cui tutte le company spingono su video in HD e magari a maggiori fps,
i CMOS sono chiaramente avvantaggiati. Per raggiungere le stesse prestazioni con
i CCD il costo delle circuiterie esterne diventa estremo, poiche' l'elaborazione e' sequenziale e
non parallela.
Spero di essere stato chiaro e spero di aver capito bene io
un saluto
edit
errore grammaticale clamoroso. scusate, ma ormai scrivo e parlo italiano raramente