HD-TV som monitor

Hej!

De flesta HD-TV har ingångar som skall göra dom användbara som dator-monitor.

Detta avser jag att pröva i ett projekt. Jag har dock några funderingar:

TV:arna kan ha både VGA och DVI (samt SCART). Får jag bättre bild med DVI än med SCART?

HD-TV brukar ha en upplösning på 768*1366, (Y*X) dock verkar det som mitt grafikkort har 768*1280. Denna upplösning har jag sett på ett antal andra grafikkort också. Jag avser att köra TV:n som sekundär monitor, och har ett grafikkort som kan driva två skärmar i olika upplösning samtidigt.

Hur reagerar TV:n när jag driver den från datorn och upplösningarna i X-led är olika( mellan grafikkort och TV)? Kommer TV:n att töja ut bilden i X-led, eller "förstår" den att visa svarta kanter på sidorna? Är detta (eventuell ""töjning") samma för VGA och DVI?

/Johan S

Reply to
Johan Stäck
Loading thread data ...

Johan Stäck skrev:

Vanligast är kanske att det finns Hdmi, som kan ansluta dvi via adapter, och scart men däremot inte alltid stöd för vga.

ja.

HD-tv ska ha minst 1280x768 gissar jag. Vilka dvi-upplösningar som stöds i din tv kan nog variera. Läs manualen!

Troligen får du svart kant, såvida du inte kan ställa in din tv på att töja. För datorbruk är dock troligen töjning av bilden inte att rekommendera, eftersom det lär leda till oskärpa och mindre läslig text.

Mårtne

Reply to
Mårten

HDTV sänds med 1280x720 alternativt 1920x1080. Det är de två varianterna som används idag.

768 i höjd är ett datorformat, inte TV-format.
Reply to
Ken

Ja, så kanske det är. Jag gjorde en koll på Netonnet och Dustin. Alla LCD HD-TV jag tittade på uppges ha en skärmupplösning på 768*1366

Jag vet inte hur dessa pixlar egentligen används vid mottagning av TV-signaler (både HD och gammal "ång-TV"). Jag är dock primärt intresserad av att visa signaler fråan datorn på TV:n. Jag vill ha rejält stor bild, men inte så mycket pixlar, så 678*1366 passa ganska bra (egentligen lite för brett, kanske)

/Johan

Reply to
Johan Stäck

Ken skrev:

Jo, fast många skärmar är 1366x768 vilket tydligen kallas WXGA.

Mårten

Reply to
Mårten

"ång-TV" och datamonitorer baserade på CRT har steglös upplösning till en viss frekvens (bandbredd) i upplösning horisontellt, där är det elektronstrålens diameter och färgpunkternas storlek och täthet som bestämmer den faktiska upplösningen på skärmen.

I TFT-lösningar har man inget val annat än att sampla signalen från analog källa och det får passa som det passar och i DVI/HDMI välja på att placera pixlarna 1 och 1 i resp. pixelrutan med svarta ränder i kanterna om inte källan har samma upplösning som skärmen (1366 resp

1280), alternativt interpolera med suddigare intryck.

moderna grafikkort kan förmodligen skapa 768x1366 matris rent hårdvarumässigt utan problem - det handlar om att drivrutinerna/inställning vill visa dessa alternativ - kolla efter uppdateringar av drivrutiner, då detta kan inte vara ett unikt problem...

I Linux och X så kunde man sätta nästan vilken formfaktor och fart som helst genom att pilla på resp. grafikchips register - det redan 1994 försökte man skräma skiten ur dåtiden monitorer i jakten på så hög upplösning _och_ uppdateringshastighet som möjligt.

en annan rolig application som jag har sett är att skapa en komplett DVB-T frame som testsignal till boxer-mottagare genom att nyttja 5' eller 7' övertonen från VGA-utgången - där har jag för mig att den horisontala linjen var på många tusen pixlar i bredd och ett antal linjer för att skapa datapaket för en bild i mottagaren med all kodning som behövs - så det är inte videokortets hårdvara som begränsar i dom flesta fallen - utan slöa programerare som inte nyttjar hårdvaran maximalt och erbjuder kontroller för alla register som finns i hårdvaran inne i drivrutinerna...

/TE

Reply to
torbjorn.ekstrom

Men det är inget som är anpassat för TV-upplösning. Risken är att man får onödigt dålig bild med sådan om man kör TV på en sådan skärm.

Reply to
Ken

Ken skrev:

Någon som vet hur tv-apparater med 1366x768 hanterar 720p-signaler? Någon som vet hur det kommer sig att upplösningen 1366x768 är så extremt vanlig bland tv-apparater av lcd-typ?

Mårten

Reply to
Mårten

torbjorn.ekstrom skrev:

Frågan är då hur "moderna" lcd-tv med HD Ready hanterar signaler som är

720p - interpoleras de eller lämnas svarta kanter?
Åtminstone i manualen för en Philips lcd som jag tittat i anges enbart några få dvi-upplösningar såsom stödda. Den högsta är då 1024x768, trots atta panelen är 1366x768!

Mårten

Reply to
Mårten

Det här måste vi komma till botten med! Själv har jag försökt att forska i ämnet via internet men blir inte särskilt mycket klokare. Vi har ju olika upplösningar världen över och därmen kan det komma sig att sådana apparater säljs även här. Dessutom verkar vissa nya TV i grunden vara datorskärmar. Egentligen verkar det fel att köpa just nu när vi ligger alldeles i början av utvecklingen för HDTV, men har gamla TV:n just gått sönder blir det lite jobbigt.

Reply to
Ken

Ken skrev:

Det ÄR så.

Jo, att de kallas WXGA tyder väl på det. Kanske sattes produktionslinjerna för dagens lcd-paneler upp innan hd-standarden var färdigdefinierad? Men om signalen in är 1080i eller 1080p kan troligen tv-apparaten skala ned signalen till vad som kan visas.

Jo.

Mårten

Reply to
Mårten

Det är just skalningen som gör att det inte blir så bra bild. Punkterna (signal-skärm) måste matcha varandra exakt för att få bästa bild. Om man skalar ner exakt till hälften blir det dock bra. Eftersom man sitter rätt långt från skärmen kanske det här inte har så stor betydelse för en vanlig svensson (som t.o.m. tycker VHS ger bra bild).

Reply to
Ken

Det finns en fråga i sammanhanget som jag själv känner starkt för (men inte riktigt förstår).

Det rör detta med interlace. Jag förstår *inte* vad interlace kan tillföra idag. Efter vad jag förstår så *kan* inte en LCD-TV tillgodogöra sig interlace, utan det sitter kretsar i TV:n som "deinterlace:ar". Förmodligen samma kretsar som interpolerar m.m.

Interlace var bra på den tiden då TV:ar faktiskt "ritade" linjer på ett bildrör.

Nu dör ju CRT-tekniken snabbt undan, och inga moderna TV kan visa interlace som det var tänkt.

Det förs på några håll på nätet en "animerad" debatt kring detta med interlace och HD-TV. Jag kan dock inte ta till mig argumentationen annat än sporadiskt...

Det jag speciellt *inte* förstår är varför tillverkare av HDV-kameror som t.ex. Sony envisas med att köra interlace på alla konsument-modeller.

Inga konsumenter har ju någon användning av en interlace-signal, eftersom deras uppspelningsapparater kommer att utföra deinterlace utan att fråga först! (

-Windows media player gör deinterlace som default

-Alla HD-TV gör detsamma ) En deinterlace:ad HDV-signal är mycket snygg, det medges, men *ännu* snyggare är faktiskt en progressiv signal.

-----------------------------

Jag har f.ö. beställt en HD-TV som kommer om några dagar, och då skall jag testa och se hur verklighet och teori stämmer överens i mitt fall...

/J

Reply to
Johan Stäck

Johan Stäck skrev:

Det tillför högre upplösning med bibehållen hyfsat låg överföringshastighet i utsändningen.

Säkert.

1080p lär inte initialt finnas tillgänglig annat än på Blu-Ray/HD-DVD och möjligen via satellit.

Det innebär väl kanske ett mer anspråkslöst krav på datakommunikationshastighet och lagringsbehov?

Ja. Men något annars kanske inte är möjligt...

Och tv-apparater med stöd för 1080p kommer väl, de också? Och där verkar ju panelerna också ha rätt upplösning... ;-)

Återkom gärna med reflektioner.

Mårten

Reply to
Mårten

Det behövs inte med dagens moderna skärmar. De jobbar inte på det viset.

För en skärm (CRT) där man ritar bilden med linjer behövs interlace för att den inte skall bli flimmrig. Annars hade man fått ha dubbla bildhastigheten och det kräver extra kapacitet i överföringen förstås. Moderna skärmar ritar inte bilden i linjer med en enda punkt. HDTV-upplösningen 1080i är interlaced och det gör tydligen att man inte behöver lika mycket i överföringskapacitet som med Progressive.

Jag vill gärna ta del av dina erfarenheter här. Det är en hel del att lära sig om detta. När jag själv köper en ny TV vill jag ha något riktigt bra och då gäller det att veta hur sakerna fungerar. Jag har tittat på många platt-TV i butiker och upptäckt att rörlighetsförmågan i bilderna skiljer sig. Somliga har inte en mjuk rörelse, de rycker fram det som rör sig i bilden. Effekten är liten och svår att upptäcka, men syns om det står två apparater bredvid varandra och så man lätt kan jämföra.

Reply to
Ken

Nej det är en vanlig missuppfattning att upplösningen ökar med interlace. Med interlace ritar man varannan linje åt gången. Därmed minskar flimmret. Upplösningen ökar inte.

Reply to
Ken

Nej det är en vanlig missuppfattning att upplösningen ökar med interlace. Med interlace ritar man varannan linje åt gången. Upplösningen ökar ju inte om man bara sänder ut varannan linje och efter det de andra linjerna däremellan. Antalet linjer i höjdled är densamma i båda varianterna, därmed samma upplösning. Däremot minskar flimmret utan att man behöver sända ut så många bilder per sekund. Man lurar ögat helt enkelt på ett smart sätt för att det skall se bättre ut. Med låg överföringskapacitet är interlaced en användbar teknik, men inte anpassad direkt för moderna skärmar. Dessutom finns det vissa nackdelar med interlaced när man skall köra det på moderna skärmar.

Ja det kommer knappast att sändas ut via marknätet.

1080p tar så väldigt stor plats i etern.

Sant.

Absolut.

Reply to
Ken

Jag använder en line doubler innan signalerna går till min Barco CRT-projektor. Då de-interlacas alla signaler som kommer från VHS, DVD, didital-tv osv.

Då har jag äkta progressiv bild 1024 X 768 på min 80-tums duk.

Är mycket nöjd.

En sådan kan kopplas in före vilken tv som helst.

Ralph

Reply to
Ralph

Nja, alltså "line-doubling" är *en av många* metoder för de-interlace. (och f.ö. den enklaste/snabbaste, jag gör det själv i mjukvara i flera av mina system)

Vid *all* deinterlace tvingas man till någon form av kompromiss, och resultatet blir alltid sämre än att spela in progressivt från början. Men visst, line-doubling gör att man slipper interlace-defekter i bilden och det är ibland mycket värt.

Huruvida en de-intarlace:ad bild skall/får kallas progressiv är väl mycket en smaksak.

Själv tycker jag att det är lika fel som att kalla smörkräm för vispgrädde.

Processen grädde->smör är irreversibel likväl som att en interlace:ad bild är oåterkalleligen defekt. Tycker

/Johan

PS, läs gärna

formatting link

Reply to
Johan Stäck

"Mårten" skrev i meddelandet news:%RYGg.14128$ snipped-for-privacy@newsb.telia.net...

Är du nöjd med den?

Ifall du har hunnit testa den t.ex. med vanlig analog tv, kontra med signal från någon box typ boxer/satelit eller liknande? Om du hunnit testa som datorskärm? HDMI anslutning? Själv är jag mest rädd för att ytor som vatten och snö blir väldigt pixelerade, men denna TV skulle ju ha "bildförbättring" som kanske minimerar den typen av problem.

Skulle vara intressant att läsa dina intryck!

Förefaller finnas en del kul, reltivt billiga medisaspelare som accessar en dator och spelar upp alla möjliga format via HDMI. T ex D-Lnik DSM520. En sådan skulle vara intressant att få se mot en hyfsad HD-ready LCD TV.

Martin

Reply to
Martin

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.