nya HD-TV-standarden

Det har varit snack till och ifrån dom nya HDTV-standarderna.

Och ärligt sagt, hur många av oss har sett videosnuttar i sann 1920x1080 upplösning eller ens möjlighet att prova detta om man nu skall titta på ny dyr flatskärm.

Hur eller hur så sprang jag på detta

formatting link

där man har digitalt animerat en 10 minutersfilm baserat enbart på open source-mjukvaror.

man kan väl tycka vad man vill om handlingen, animeringen, röst och ljud (trots allt ganska imponerande för att vara gjord av frivilliga amatörer) - den är ju mest gjord för att visa kapabiliteten för animeringsprogrammen ifråga.

Det som är intressant är att man ha gjort en avi-film i sann HD-upplösning dvs. 1920x1080 fritt hämtbar (800 meg, likaså programmen och projektet för att skapa sagda film) - och sådana snuttar kan man knappast säga dräller av ens i piratfilm-scenen då alla i princip är bundna av TV och DVD-standardens 720x576-upplösning (som bäst) eller grovrastret 640x480 som jänkarna använder. Det börja iof. komma lite högre upplösningar iom satellit och digital-TV (1024x576), men inte så högt som 1920x1080 vad jag sett än så länge.

Hur eller hur så är det bara att konstatera att 21" dataskärmen (med grafikkortet satt på 1920x1080) är alldeles för litet och med fel aspect ratio för att gör uppspelningen rättvis - det är så grymt detaljerat och det är först nu man kan börja fundera på riktig bio-kvalitet hemma!!! - om man hittar en digitalprojektor/TV-flatskärm som kan hantera upplösningen...

Dom flesta dyrare flat-TV har ofta VGA-uttag - så nu är det dags att göra TV-handlarna lessna med en laptop (och grafikkortet inställd på

1920x1080 - kolla detta innan utflykten) och ovanstående film-snutt och se om skärmen ifråga verkligen kan hantera ovanstående upplösning och hur detta ser ut.

Den sk. HDTV-kompabiliteten som anges brukar nämligen vara begränsad på de flesta flat-TV till lägre klasser (som 1024x768 etc.) som anses som HDTV i USA och få skärmar har vare sig interminne eller antal pixlar på bredden och höjden för full 1920x1080-upplösning, utan tvingas interpolera med medföljande kvalietsförsämring. Det är sådant som skall granskas noga om man är intresserad av svindyra 42 kkr-skärmen ifråga. (här har CRT-skärmar en klar fördel där datapixel inte precis behöver träffa skärmpixel och ändå se bra ut, om den kan gå så högt i linjefrekvens.)

Reply to
torbjorn.ekstrom
Loading thread data ...

"torbjorn.ekstrom" skrev i meddelandet news:zSDig.4424$ snipped-for-privacy@newsb.telia.net...

Hej Torbjörn

Fick se en HD TV upplöst Videosnutt i en Tv affär och nog var det en upplevelse alltid. Nästan litet för mycket detaljer. Man förstår att skådisarna blir oroliga för sina skrynkliga nyllen. :-) Den jag såg var då bara på 1024x768 Har testat att ladda hem filmsnuttar till datorn men min laptop låser sig fullständigt vid försöket så det får nog anstå till jag skaffat kraftigare grejor.

Här kan du ladda många olika snuttar

formatting link

mvh/Håkan

Reply to
Håkan Olsson

Dataskärmar försöker iaf inte onödigtvis stretcha ut bilden.

VGA kontakten är analog och missanpassad impedansmässigt. Så kanske inte den ultimata ingången ;)

Har sett att en del Acer laptops har DVI utgång. Då lär man få full kvalitet. Och man kan inte skylla på datorns A/D omvandlare heller ;)

Kanske dags för hdtv "hack" dvs öppna och fixa till tv'n. Dom flesta här räds väl inte lödkolven ;)

Reply to
pbdelete

men gammafaktorn är helt fel och tyvärr fins väldigt få videodackar i grafikkort med 14 bitar upplösning (för att emulera en olinjär överföringsfunktion (gamma) av dom 8 inkommande bitarna) för att ens komma i närheten av intensitetsomfånget som en vanlig TV har...

alternativ får man stoppa in en logaritmisk analog förstärkare (på varje färg) så att man styr ut VGA-monitorn ordentligt

Där kan jag inte annat än hålla med - men standard är standard och hade det varit _väldigt_ fel så hade det varit skuggor och annat skit på våra dataskärmar så fort man kör lite högre upplösning...

problemen tidigare på billigare grafikkort var att själva DAC-en inte var 75-ohms anpassad och reflekterade studsen som kom tillbaka från VGA-kontakterna och monitorns missanpassningar och gav skuggor.

ser man till att effekten äts upp ordentligt i resp. ända så tål man lite sämre anpassning på vägen - som just VGA-kontakter.

Hmm - där skrynklar man ju över digitalinformation direkt till displayens grafikminne... - men datatakten är inte så hög och jag vet inte hur många Mb/s man måste köra över för full HDTV...

tyvärr så fins avdelningen 'otillräckligt grafikminne' och 'firmware', så man måste nog odla mer mjukvaru-hackkompetens än skicklighet med lödpennan...

>
Reply to
torbjorn.ekstrom

Trodde inte pc-grafikkort vart så dåliga. Kanske ett framtida byggprojekt :) Fast med DVI lär man slippa det problemet iofs.

Hur gör "dom" för att äta upp alla dessa reflektioner?

1920*1080 *25fps *16bit/pixel = 829.44 Mbps

Mao högsta upplösnignen med värsta pixeldatat verkar inte fungera. Tillgänglig kapacitet 160 * 6ch = 960 Mbps

formatting link
Bits Output Format ---- ------------- 24 RGB 4:4:4 24 YCbCr 4:4:4 16 YCbCr 4:2:2 20 YCbCr 4:2:2 24 YCbCr 4:2:2

Desto enklare. Ytmonterat och gärna med BGA är inte trivialt. Fast iofs man kan koppla en fpga direkt till lcd utan kontrollerkort för att plocka ut max upplösning & skärpa.

Reply to
pbdelete

HDTV-formatet ska komma nu till h=F6sten. /Janne torbjorn.ekstrom skrev:

080

p=E5

en

jud

men

=E4r

te

=E5

spect

jerat och

ma!!! -

=E5

och

p=E5

p=E5

om skall

ga.

=F6ver

i
Reply to
janne

det är svårt att knyckla in ca 60-70 dB omfång på 8 bitar (48 dB) om man inte tillämpar olinjär skala i något led.

modernare videocapture-kort kör numera med 10 och kanske 12 bitars ADC just för att 8 bitar per färg inte räcker till för att täcka in skuggorna och högdagrarna på en vanlig simpel TV-signal... man måste göra som i telefonin med mu/a-law omräknat eller med olinjär AD-omvandlare för att täcka in hela omfånget som ett vanligt samtal har.

se till att resp ändan är frisk (rätt terminerad) och verkligen absorbera inkommande effekt - fins det ingen effekt som reflekteras - så finns det heller ingen effekt som kan studsa fram och tillbaka och ge skuggor.. man kan nog göra en viss matchning för att kompensera VGA-kontaktens egenskaper om matchningen/avslutningen/utgången verkligen ligger direkt inpå kontakten, medans det är svårare att gör något åt en VGA-skarv mitt på kabeln. Till detta handlar det om vika frekvenser man vill kompensera för.

detta över 8 ledare så ger det över 100 Mbps per tråd.

alla har väl i färskt minne över hur eländigt IDE-bussen fungerar för högre överföringshastigheter än 166 MB/s på bara 30-40 cm och 16 dataledare parallellt med special tättrådad bandkabel - nu skall man göra något motsvarande här per tråd men kanske på metrar av kabel...

16 bit per pixel ger bara 5.3 bit per grundfärg, vga ger i alla fall 8 bit per färg (och egentligen borde vara >12 bit per färg), så minimum borde vara 24 bitar per pixel om man envisas med RGB-färgrymd.

den är typen av kompression kan man bara göra i YUV-färgrymd och nyttjar att färginformationen är i betydligt lägre upplösning än luminansen

- en slags analog kompression som man redan införde i färg-TV:s barndom och här utrycks i färre bitar än om man skulle göra motsvarande i RGB för samma kvalitet.

Så fort det handlar om mjukvara så blir jag kallsvettig - då det ofta är enklare att bygga om tex. omslagspolariteten/läget på ett relä genom att byta en NPN trissa till en PNP-trissa på relädrivern ute hos kund och

200 platser över hela Sverige än att försöka få en programerare att ändra den där jäkla bitten i programvaran, trots flashprommar, fjärruppgradering etc. borde göra precis tvärt om!! Programerarna börja himla med ögonen och prata verifiering, release etc. massa tidsfördröjande byrokrati (och förtäckt säger att jag inte tar ansvar för detta eller stå för min dåliga design som inte tänkte på detta) bara för att programerarna inte med säkerhet kan säga om den där jäkla bitten i variabeln verkligen är unik för utgångsbeteende eller har beroenden någon annanstanns i programvaran...

ibland är den 'flexibla' programeringen lika flexibel som ett stort kassaskåp med bortslängd nyckel

...luttrad....

/TE

Reply to
torbjorn.ekstrom

Jo men vilken HDTV-standard? , 1024x720 eller 1280x720 som jänkarna tycker är grym HD, är inte särskilt stor kvotmässig förbättring med vårat PAL 768x576 (medans för jänkarnas stenålders 640x480 NTSC är en stor förbättring) - vi behöver vårat 1920x1080 för att få samma upplevelsmässiga förbättring!

/TE

Reply to
torbjorn.ekstrom

Just det. Vertikala upplösningen 720 ger endast 25% förbättring för oss i Europa och är något som knappt lär märkas. För jänkarna ger 720 i vertikal uplösning 50% förbättring mot nuvarande och det är en hyfsad förbättring för dem. Upplösningen 1080 ger oss i Europa 87,5% förbättring mot nuvarande och borde vara det vi satsar på när vi ändå byter system.

720 kan knappast kallas för HDTV i Europa.
Reply to
Ken

torbjorn.ekstrom skrev:

080

p=E5

en

jud

men

=E4r

te

=E5

Nedis s=E4ljer en 32" LCD-TV. Den =E4r HD klar HDMI och har uppl=F6sningen

1366x768. Kanske en fingervisning om vilken uppl=F6sning vi f=E5r i sverige? /Janne

spect

jerat och

ma!!! -

=E5

och

p=E5

p=E5

om skall

ga.

=F6ver

i
Reply to
janne

Den upplösningen verkar väldigt vanlig. Man får väl fixa pc-lösning om man ska ha ut hdtv. För boxarna verkar ju inte fixa det än ;)

Det finns något som kallas EDTV.. (hos svt) kanske blir det.. vem vet. /P

Reply to
pbdelete

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.