Forum

Forum (https://www.coolstreaming.us/forum/)
-   Forum Generale (https://www.coolstreaming.us/forum/a/)
-   -   Perchè collegando il pc alla tv le partite si vedono meglio? (https://www.coolstreaming.us/forum/a/4785-a.html)

Fenice 12-05-2005 06:03 PM

Perchè collegando il pc alla tv le partite si vedono meglio?
 
Come da titolo... ho provato a fare ciò con Fiorentina Juve, ottendendo una qualità superiore alla visualizzazione sull'lcd del pc...

Ermenegildo 12-05-2005 06:06 PM

perchè da lontano non vedi alcuni quadrettoni che normalmente vedi da vicino sul tuo monitor.

ginolo 12-05-2005 06:07 PM

Quote:
Originally Posted by Ermenegildo
perchè da lontano non vedi alcuni quadrettoni che normalmente vedi da vicino sul tuo monitor.

Sbagliato!!
Xche' la risoluzione del tv e' minore e "toglie" i difetti.

Ermenegildo 12-05-2005 06:10 PM

Quote:
Originally Posted by ginolo
Sbagliato!!
Xche' la risoluzione del tv e' minore e "toglie" i difetti.



Anche si...

L'occhio umano da lontano tende a perdere alcuni dettagli delle immagini...
Prova a vedere un partita vicinissimo al televisore e vedrai più o meno come sul monitor del pc ...

epho 12-05-2005 06:34 PM

io credo entrambe ;P

cmq l'importante è liberare lo schermo :D, troppo utile per chi ha cià sempre da spippolà ;D

JackTheRipper 12-05-2005 06:46 PM

Quote:
Originally Posted by Ermenegildo
Anche si...

L'occhio umano da lontano tende a perdere alcuni dettagli delle immagini...
Prova a vedere un partita vicinissimo al televisore e vedrai più o meno come sul monitor del pc ...

Indubbiamente...però il motivo è per la risoluzione minore che elimina i difetti, il discorso della lontananza può essere vero però non incide notevolmente come il discorso della risoluzione...

Ermenegildo 12-05-2005 06:48 PM

allora provate a mettere la risoluzione 800 x 600 o 640 x 480 sul monitor del pc e ditemi se sive come sulla tv ...

slave92 12-05-2005 09:33 PM

raga io ho un uscita VGA però non ho la TV AL PLASMA , al PC non ho un uscita S-VIDEO e alla tv non ho l'uscita VGA MA SOLO LA SCART.....come posso fare?

slave92 12-05-2005 09:39 PM

e se poi lo collegassi a un plasma come si vede?SEMPRE MEGLIO OPPURE UGUALE ALL'LCD?

ginolo 12-05-2005 09:43 PM

Quote:
Originally Posted by Ermenegildo
allora provate a mettere la risoluzione 800 x 600 o 640 x 480 sul monitor del pc e ditemi se sive come sulla tv ...

La risoluzione da settare e' quella relativa all'uscita video, non a desktop ( a meno che non utilizzate l'uscita come clone del desktop ).
Il problema cmq e' della tv che ha risoluzione massima a 720 a 480 ( o qulcsa di molto simile ) e i pixel del tv sono molto piu' grossi di quelli del monitor.
Cius

Fenice 12-06-2005 06:58 PM

ho capito, grazie ragazzi :)

czw660 12-07-2005 02:41 AM

Il discorso potrebbe essere un po' più complesso, comunque praticamente avete ragione tutti :p

Innanzi tutto bisogna considerare il tipo di compressione del flusso multimediale: in genere si usano algoritmi "lossy", cioè con perdite, e all'aumentare della compressione diminuisce la qualità del risultato, insieme alle dimensioni del file compresso (o del flusso, in questo caso), ma possono esserci perdite anche con basse compressioni, dipende dall'algoritmo. Poi bisogna considerare la risoluzione originale di ciò che viene trasmesso, o meglio la risoluzione del risultato: più si ingrandisce la porzione di schermo su cui viene visto (se questo ha una risoluzione maggiore) e più si notano i difetti (se non ce ne fossero, qualcuno spunterebbe), perchè viene fatta una interpolazione (è un po' come ingrandire molto una immagine, spuntano dei quadretti, e se l'immagine è compressa, ad esempio in jpeg, le "macchie" di colore appaiono anche sfuocate).

A questo punto interviene la risoluzione del televisore, che essendo più bassa di quella a cui normalmente si tiene un monitor fa sì che i difetti siano meno visibili (non ci sono i difetti creati dall'interpolazione, ma possono restare quelli dovuti alla compressione, poi incide anche la qualità della conversione da digitale ad analogico). E incide anche la distanza: l'occhio umano a una certa distanza tende a perdere dettagli, e in generale al di sotto di un certo angolo perdiamo la percezione delle distanze tra due "entità", ovvero perdiamo cognizione delle discontinuità (tant'è che qualsiasi oggetto è fatto di atomi e molecole più o meno distanti tra di loro ma a noi sembra continuo, ma anche la superficie di un piatto ci sembra liscia quando in realtà non può mai essere perfettamente liscia). Ora, all'aumentare della distanza da un oggetto, per effetto prospettico aumenta la quantità di "roba" che percepiamo come ammassata all'interno di un certo cono, all'interno del cono ottico (quindi, all'interno di un certo angolo di visuale), per cui tendiamo a vedere meno le imperfezioni. Quindi il discorso sulla distanza è corretto: penso che tutti abbiamo notato che guardando molto da vicino un televisore, anche con il normale segnale analogico fatto apposta per una certa risoluzione, si vedono dei quadretti allineati in righe e colonne, che allontanandosi non si notano più (si può anche notare che i quadretti sono raggruppati a tre a tre e anche se fanno parte di un'area colorata in un certo modo si possono notare le diverse tonalita dei componenti: una tonalità di verde, una di rosso e una di blu che insieme formano il colore che percepiamo); però è anche vero che diminuendo la risouluzione del monitor si ha un effetto simile, e allontanandosi più o meno è come guardare una televisione. Ovviamente questo si può dire dei monitor CRT (a tubo catodico, come i televisori "normali" ).

Diverso è il discorso per gli LCD, ma anche per i Plasma. Questi schermi hanno un grosso difetto: nascono e "muoiono" con una certa risoluzione nativa. Mi spiego meglio: un CRT buono (ma da un bel po' di tempo in pratica li fanno tutti così) i fosfori non sono proprio distribuiti in unità discrete (i pixel), ma in pratica sono "spalmati" sul monitor in colonne verticali affiancate, a formare una griglia (che divide orizzontalmente lo schermo in tre parti, e a volte si notano, su sfondo chiaro, due linee sottili e scure che dividono lo schermo, è un compromesso per avere immagini complessivamente di qualità superiore), e questo produce un'immagine più "continua", con una maggiore facilità nel cambiare (diciamo) la forma del pixel e variare la risoluzione: si tratta del trinitron, poi diventato (per chi non poteva usare il nome, per questioni di marchi) flatron o diamondtron (forse c'è qualche altra variante, non ne ricordo il nome); un LCD, invece (e praticamente anche un plasma), ha gli "elementi visivi" organizzati in celle discrete (discontinue) gestite in maniera tale che per variare risoluzione rispetto a quella nativa, cioè quella consigliata (o quella massima), bisogna per forza interpolare, e i risultati a volte sono pessimi. Il risultato può variare (poco o molto) a seconda della qualità del monitor, ma resta comunque un limite tecnologico. Poi, gli LCD possono anche avere un effetto scia se hanno un elevato response time in millisecondi, ovvero se è alto il tempo che la cella impiega per passare dal bianco al nero (cioè per accendersi e spegnersi, anche se non si può proprio dire che si spenga: provate a visualizzare uno sfondo nero, spegnete le luci e fate in modo che non entri luce nella stanz, potreste notare un po' di luminosità; fate una foto con una 400 iso: vedrete che emette luce - in una certa misura succede con altre tecnologie, durante un black out potreste aver notato che per qualche istante il televisore appena spento appare poco luminoso, ma la transizione di un CRT è molto più rapida di quella di un LCD, a meno che non si prenda in considerazione un monitor lcd da pc da 6-7000€, con quelli si può anche fare grafica professionale, ma per certi usi un CRT ad oggi fa ancora la sua porca figura - sostanzialmente questo effetto si verifica perchè gli lcd sono retroilluminati da una "lampada").

Ciao a tutti ;)

Fenice 12-07-2005 10:25 AM

Quote:
Originally Posted by czw660
Il discorso potrebbe essere un po' più complesso, comunque praticamente avete ragione tutti :p

Innanzi tutto bisogna considerare il tipo di compressione del flusso multimediale: in genere si usano algoritmi "lossy", cioè con perdite, e all'aumentare della compressione diminuisce la qualità del risultato, insieme alle dimensioni del file compresso (o del flusso, in questo caso), ma possono esserci perdite anche con basse compressioni, dipende dall'algoritmo. Poi bisogna considerare la risoluzione originale di ciò che viene trasmesso, o meglio la risoluzione del risultato: più si ingrandisce la porzione di schermo su cui viene visto (se questo ha una risoluzione maggiore) e più si notano i difetti (se non ce ne fossero, qualcuno spunterebbe), perchè viene fatta una interpolazione (è un po' come ingrandire molto una immagine, spuntano dei quadretti, e se l'immagine è compressa, ad esempio in jpeg, le "macchie" di colore appaiono anche sfuocate).

A questo punto interviene la risoluzione del televisore, che essendo più bassa di quella a cui normalmente si tiene un monitor fa sì che i difetti siano meno visibili (non ci sono i difetti creati dall'interpolazione, ma possono restare quelli dovuti alla compressione, poi incide anche la qualità della conversione da digitale ad analogico). E incide anche la distanza: l'occhio umano a una certa distanza tende a perdere dettagli, e in generale al di sotto di un certo angolo perdiamo la percezione delle distanze tra due "entità", ovvero perdiamo cognizione delle discontinuità (tant'è che qualsiasi oggetto è fatto di atomi e molecole più o meno distanti tra di loro ma a noi sembra continuo, ma anche la superficie di un piatto ci sembra liscia quando in realtà non può mai essere perfettamente liscia). Ora, all'aumentare della distanza da un oggetto, per effetto prospettico aumenta la quantità di "roba" che percepiamo come ammassata all'interno di un certo cono, all'interno del cono ottico (quindi, all'interno di un certo angolo di visuale), per cui tendiamo a vedere meno le imperfezioni. Quindi il discorso sulla distanza è corretto: penso che tutti abbiamo notato che guardando molto da vicino un televisore, anche con il normale segnale analogico fatto apposta per una certa risoluzione, si vedono dei quadretti allineati in righe e colonne, che allontanandosi non si notano più (si può anche notare che i quadretti sono raggruppati a tre a tre e anche se fanno parte di un'area colorata in un certo modo si possono notare le diverse tonalita dei componenti: una tonalità di verde, una di rosso e una di blu che insieme formano il colore che percepiamo); però è anche vero che diminuendo la risouluzione del monitor si ha un effetto simile, e allontanandosi più o meno è come guardare una televisione. Ovviamente questo si può dire dei monitor CRT (a tubo catodico, come i televisori "normali" ).

Diverso è il discorso per gli LCD, ma anche per i Plasma. Questi schermi hanno un grosso difetto: nascono e "muoiono" con una certa risoluzione nativa. Mi spiego meglio: un CRT buono (ma da un bel po' di tempo in pratica li fanno tutti così) i fosfori non sono proprio distribuiti in unità discrete (i pixel), ma in pratica sono "spalmati" sul monitor in colonne verticali affiancate, a formare una griglia (che divide orizzontalmente lo schermo in tre parti, e a volte si notano, su sfondo chiaro, due linee sottili e scure che dividono lo schermo, è un compromesso per avere immagini complessivamente di qualità superiore), e questo produce un'immagine più "continua", con una maggiore facilità nel cambiare (diciamo) la forma del pixel e variare la risoluzione: si tratta del trinitron, poi diventato (per chi non poteva usare il nome, per questioni di marchi) flatron o diamondtron (forse c'è qualche altra variante, non ne ricordo il nome); un LCD, invece (e praticamente anche un plasma), ha gli "elementi visivi" organizzati in celle discrete (discontinue) gestite in maniera tale che per variare risoluzione rispetto a quella nativa, cioè quella consigliata (o quella massima), bisogna per forza interpolare, e i risultati a volte sono pessimi. Il risultato può variare (poco o molto) a seconda della qualità del monitor, ma resta comunque un limite tecnologico. Poi, gli LCD possono anche avere un effetto scia se hanno un elevato response time in millisecondi, ovvero se è alto il tempo che la cella impiega per passare dal bianco al nero (cioè per accendersi e spegnersi, anche se non si può proprio dire che si spenga: provate a visualizzare uno sfondo nero, spegnete le luci e fate in modo che non entri luce nella stanz, potreste notare un po' di luminosità; fate una foto con una 400 iso: vedrete che emette luce - in una certa misura succede con altre tecnologie, durante un black out potreste aver notato che per qualche istante il televisore appena spento appare poco luminoso, ma la transizione di un CRT è molto più rapida di quella di un LCD, a meno che non si prenda in considerazione un monitor lcd da pc da 6-7000€, con quelli si può anche fare grafica professionale, ma per certi usi un CRT ad oggi fa ancora la sua porca figura - sostanzialmente questo effetto si verifica perchè gli lcd sono retroilluminati da una "lampada").

Ciao a tutti ;)



mi inchino e ti faccio i miei più sentiti complimenti per questa spiegazione :)

Fenice 12-07-2005 10:28 AM

Quindi se abbasso la risoluzione del monitor del pc da 1280*1024 a 800*600 (stessa risoluzione che uso per la TV) la qualità dovrebbe essere la stessa?

tronco 12-07-2005 10:49 AM

wow wow wow che spiegazioni ultratecniche, sembrava che non aspettavi altro !!! :D :D :D Ma sei un ingegnere?? :cool:


All times are GMT +2. The time now is 10:16 AM.

Powered by: vBulletin Version 3.0.7
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Search Engine Friendly URLs by vBSEO 3.1.0 ©2007, Crawlability, Inc.