Dannatissima curiosità. Con tutto quello che ho da fare... :-)))
Ho trovato questo post interessante (che ho letto solo
superficialmente, però) che forse interessa a qualcuno qui dentro
(casomai qualcuno volessi costruirsi un monitor o altro dispositivo di
visualizzazione in casa).
=======
Dati aggiornati al 1998 dicono questo (fonte: E.R. Kandel, Principi di
Neuroscienze):
La risoluzione temporale dei coni della fovea (la cosiddetta "regione
della visione distinta,") è 55 Hz, quella dei bastoncelli 12 Hz.
La variabilità individuale è innegabile, ma tieni conto che questi
valori sono conseguenza della cinetica enzimatica della cosiddetta
ropsina, una proteina contenuta nei recettori ottici, e
dell'isomerizazione del retinale da 11-cis a tutto-trans (no, non nel
senso di travestito
Loading Image...
)... Va bene la
variabilità, ma non vi concedo più di uno o due Hertz di deviazione
http://forum.ngi.it/smile.gif
Per quanto riguarda il tipo di "periferica," è innegabile che l'occhio
sia un'incredibile telecamera... Digitale... Sì, perché la codifica del
segnale non è modulata sulla base dell'intensità dell'impulso che il
singolo recettore manda, ma sulla sua frequenza di scarica. In
sostanza, il neurone altro non è che un elegante e complesso transistor
che può o può non trasmettere segnali unitari (potenziali d'azione).
Nel complesso il messaggio viene codificato sulla base di due codici e
altre sfumature, che in poche parole sono:
- Frequenza di scarica, e durata dell'attivazione. Il singolo
potenziale d'azione non varia "analogicamente" con la luce che colpisce
il recettore, quindi, ma si comporta all'incirca come una fotocellula
elettronica.
- Codice di popolazione e gruppi -on -off... Qui le cose si fanno
complicate, ma in sostanza vuol dire che il cervello percepisce
coscientemente le diverse immagini in base a chi le trasmette... Se
scambi i fili, escono fischi per fiaschi... Inoltre, somma
algebricamente l'intensità dei segnali provenienti da ogni canale, e ne
ottiene ulteriori informazioni (in un certo senso, aumenta la
risoluzione...)...
Applicando queste nozioni al problema, la risposta è presto detta... In
un videogioco è importante soprattutto, ma non solo, la fovea, perché
se dobbiamo mirare l'unico modo per farlo con precisione è puntare
l'occhio sul bersaglio... Le zone esterne alla fovea (ovvero le zone
rivestite di bastoncelli) hanno risoluzione molto bassa, nell'ordine
dei millimetri, che per armi a largo raggio d'azione vanno comunque
bene...
Poiché la risoluzione temporale massima, comunque, è 55 Hz, più di
questo è difficile percepire, anche se il problema non è così semplice:
Pensate a questo: nella retina abbiamo milioni di recettori... Quanti
di questi verranno attivati esattamente nello stesso istante? Ben
pochi... Dopo un millisecondo da che apriamo gli occhi i recettori si
saranno desincronizzati tra loro, per cui la nostra risoluzione
temporale si abbrevierà... Ma per un'immagine che "duri" meno di 1/55
secondi, solo pochi recettori saranno disponibili... E che succede se
un'immagine è percepita da pochi recettori? Si abbassa la risoluzione,
onde il blur (ovvero, una specie di fusione tra un'immagine e la
precedente).
Ricapitolando, nell'occhio, a una risoluzione spaziale ottimale (un
micron se non erro) corrisponde una risoluzione temporale di 55 Hz (55
FPS).
Questo non vuol dire, però, che non possiamo percepire un'immagine che
duri meno di 1/55... Entro un certo limite (magari anche 1/120 di sec
come dice Nereid), a causa della desincronizzazione inevitabile tra
recettori attivati più o meno a lungo in precedenza, avremo dei coni (e
dei bastoncelli) disponibili per un'attivazione quando altri ancora non
lo saranno... Di qui, si deduce il beneficio di avere più di 55
immagini al secondo, per essere sicuri di aggiornare sempre TUTTI i
recettori ogni volta che questi possono essere aggiornati...
La dimostrazione di questo è che il testi di Nereid col monitor va
benissimo per dimostrare che si può discernere un flickerio anche a 75
Hz, perché il monitor stimola solo una (grossa) parte dei recettori..
Se per il test usate una particolare apparecchiatura, ad esempio una
lampadina molto potente e a fascio concentrato, Andando oltre i 55
impulsi al secondo la vedrete fissa.. .Questo perché stavolta avrete
reclutato davvero tutti i recettori disponibili, e li avrete stimolati
al massimo della loro semsibilità...
Concludendo, 55 Hz/FPS sono più che sufficienti, ma per un videogioco
più ce n'è meglio è http://forum.ngi.it/smile.gif
P.S.: Ah, dimenticavo, ma che è sta storia che il "mondo" ha immagini
blurrate e il computer no? NESSUNO DEI DUE le ha blurrate, il blur è un
artefatto causato proprio dalla "scarsa" risoluzione temporale della
retina. Come ha detto Nereid, i furboni che inventarono il cinema
sfruttarono proprio quest'effetto inevitabile per far credere alla
retina (prima ancora che al cervello) che le immagini scorressero in
maniera continua!
Ma, d'altra parte, non è vero che sono solo i bastoncelli ad essere
attivati al cinema? La prova? I bastoncelli non percepiscono le
variazioni di lunghezza d'onde della luce visible (er colore, 'nzomma),
quindi magari per vedere Casablanca vanno pure bene, ma per il resto
sarebbero un po' limitanti http://forum.ngi.it/smile.gif
------------------
[WLF]STURO
***@mail.com
icq# 21697411
=====
ed ecco da dove uscivano i 12 Hz che mi ricordavo io.
ciao,
c.
--
Ma questa è un'altra storia...