O przestrzeniach barw (zamiast wątku poniże

Witam,

problem implementacji przestrzeni barw, o którym wspomniał Pszemol poniżej zastanawia mnie od dłuższego czasu. Zakładam nowy wątek, bo tamten został zdewastowany przez nowonarodzonego super-experta. Ale do rzeczy:

Mamy absolutną przestrzeń barw XYZ. Wiemy, że każda barwa się w niej zawiera, problem tylko w tym, jak ją zrealizować.

Przyznam, że nie bardzo rozumiem ideę barw XYZ - zawsze myślałem, że są to rzeczywiste barwy, tylko dość "daleko" od światła widzialnego, np. w podczerwieni czy ultrafiolecie, tak że ich kombinacja liniowa jest w stanie pokryć całą przestrzeń widzialną. Tylko wtedy wystarczyłoby zbudować kineskop emitujący barwy XYZ i tadam! mamy super barwy na ekranie telewizora. Ale chyba tak się nie da - chyba barwy XYZ są jakieś wirtualne i nie odpowiadają rzeczywistym długościom promieniowania EM.

Współczesna przestrzeń barw praktycznie została narzucona przez telewizję w latach 50. i przykrojona nie ze względu na możliwości luminoforu, co ze względu na szerokość pasma chrominancji w kanale telewizyjnym. Stąd przestrzeń barw NTSC to tak naprawdę wąski trójkącik, w stosunku do tej "podkowy" XYZ. Dzisiaj jest tylko trochę lepiej, bo telewizory z podświetleniem diodowym chwalą się pokryciem np. 190% przestrzeni NTSC (czyli trójkącik jest prawie 2x większy), stąd zdefiniowano tzw. rozszerzony gamut xvYCC. Oczywiście, żeby to się dało wykorzystać, trzeba by mieć właściwy sygnał i na razie takowy jest chyba tylko na płycie Blu-Ray (stacje TV w ogóle chyba tak nie nadają).

Z drugiej strony, niektóre barwne klisze fotograficzne mają na sobie bodajże 5 albo 7 barwników i takim 5,7-kątem pokrywają prawie całą podkowę XYZ. Jakiś model lustrzanki cyfrowej nawet miał przetwornik RGBE (Emerald).

Może jakieś gremium ekspertów doszłoby do wniosku, że mamy już techniczne możliwości ku temu, żeby realizować telewizję opartą np. na 6 barwach podstawowych, w celu pokrycia jak największej powierzchni tej podkowy XYZ. Bo pojedyncze inicjatywy takie jak Sharpa z kolorem żółtym prawdopodobnie rozbiją się o to, że telewizja i tak jest głównie nadawana w 4:2:0, a więc pasmo koloru jest maksymalnie ścięte i w zasadzie ten subpiksel Y będzie pracował współliniowo z R+G.

Chętnie poczytam kolegów opinie w tej materii,

Reply to
Tomasz Wójtowicz
Loading thread data ...

W dniu 2010-03-24 21:48, Tomasz Wójtowicz pisze:

W oku, za widzenie barwne, odpowiedzialne są czopki. Oko ludzkie (a przynajmniej ustandaryzowane oko) ma trzy rodzaje czopków tj. różnią się one inną charakterystyką czułości względem długości fali świetlnej (tak jakby różniły się nałożonymi na nie filtrami barwnymi). I teraz jeśli światło o jakimś widmie padnie na te trzy rodzaje czopków wytworzą różne sygnały, a te sygnały to nic innego jak X, Y i Z. Tyle i tylko tyle... wiązanie sygnałów X, Y i Z z jakąś długością fali nie jest zbyt szczęśliwe.

Ani czopek X, ani Y, ani Z nie reagują na zakresy pozawidzialne.

Kombinacja liniowa... też się na to złapałem, gdy zgłębiałem sobie tajniki wiedzy o kolorach. Faktycznie np. wystarczą 3 monochromatyczne źródła światła widzialnego o różnych częstotliwościach i teraz wystarczy odpowiednio podobierać ich intensywności by uzyskać dowolną kombinację odpowiedzi czopków X, Y i Z... Algebra liniowa chyba nie kłamie :-) No i nie kłamie, tylko by uzyskać niektóre kombinacje odpowiedzi XYZ trzeba by źródeł światła o intensywności ujemnej - tu tkwi drobny problem natury praktycznej :>

sRGB definiowane było znacznie później niż NTSC, a pokrycie "kopyta" ma słabiutkie - decydowały jeszcze inne czynniki, np. sprawność energetyczna.

Jeśli chodzi o matryce lustrzanek, to tu teoretycznie wystarczą tylko trzy typy czujników - o charakterystyce takiej jakie mają czopki w oku ludzkim (jeśli oczywiście aparat foto. ma służyć do robienia zdjęć do oglądania przez ludzi). Dodatkowy czwarty element w lustrzankach ma za zadanie bodajże poszerzenie dynamiki czułości matrycy - znawcy tematu ewentualnie mnie tu skorygują.

Swoją drogą, czy ktoś wie dlaczego w matrycach światłoczułych nie stosuje się filtrów subtraktywnych tj. CMY, a tylko RGB(+coś)? Przecież na filtrze subtraktywnym zatrzymywanych będzie wyraźnie mniej fotonów, co powinno przekładać się na lepszą czułość matrycy.

pzdr mk

Reply to
mk

Matryca 'bayerowska' - RGGB. Dodatkowy G, bo oko jest mocno czule na zielone.

Nie wiem czy jest sens, bo jako filter bedzie to dzialac podobnie. Np: Cyan na papierze ma za zadanie odbic niebieski a zatrzymac pozostale. Cyan w matrycy aparatu musialby przepuscic niebieski i odbijac/pochlaniac cala reszte, wiec roznicy z RGB nie widze. Chyba ze bedziesz robic 'negatyw', czyli pochlaniac jeden kolor a przepuszczac cala reszte - ale wtedy masz trudniejsze dojscie do prawdziwych kolorow (duzo trzeba liczyc) a i ilosc informacji sie nie zmienia, wiec pewnie czulosc i szumy po konwersji zostana podobne.

Mozna by uzyc 3 lustra dichroiczne szeregowo i oswietlac 3 matryce mono, ale wiesz ile to by kosztowalo? Pewnie justowanie kosztowaloby wiecej niz aparat (dla 'wspolczesnych' rozmiarow pixeli <10um).

Reply to
Jerry1111

Am 24.03.2010 23:17, schrieb mk:

hm. W zasadzie masz rację, nie widzimy tego, czego nie widzimy ;-). Co do czułości czopków to jednak racji nie masz. Czopki "widzą" od mniej więcej 250nm do prawie 1100nm. Promieniowanie UV jest jednak filtrowane przez soczewkę oka. Protezy soczewek (operacja katarakty) mają z tego powodu również wbudowany filtr UV, bo inaczej oko by zgłupiało. Z drugiej strony (IR) światło co prawda dociera do czopków, ale czułość spada gwałtownie i dla lasera NdYAG jest w okolicach 10^-9 czułości dla światła zielonego, czyli praktycznie nic. Mimo to co drugi egzemplarz h*mo sapiens widzi światło w zakresie 760-900 nm.

Waldek

Reply to
Waldemar Krzok

Dodatkowy G w matrycy z filtrem Bayera służy zwiększeniu rozdzielczości, a G dlatego, że dla tego zakresu widma oko ma najlepszą ostrość. Nie mniej producenci matryc światłoczulych wprowadzają dodatkowe filtry. Jak wspomniałem, dla akwizycji obrazu z pełną przestrzenią barw rozróżnialnych przez człowieka (ustandaryzowanego) wystarczą trzy typy komórek światłoczułych. Dodawanie dodatkowych elementów albo ma związek z trudnością realizacji filtrów o pożądanej charakterystyce albo wiąże się ze zbytnim obniżeniem czułości matrycy po zastosowaniu takiej matrycy, może inne powody - nie znam tematu.

Opcja nr 2: 'negatyw' - "pochłaniamy jeden kolor, a przepuszczamy resztę". Upraszczając b. mocno sprawę: mamy 3 typy filtrów i każdy z nich przepuszcza wybrany wycinek widma; dla światła o widmie równomiernym filtr RGB przepuści 1/3 światła (uproszczenie), natomiast filtr CMY przepuści 2/3 światła! Intuicja mi mówi wstępnie, że dla filtrów odzwierciedlających rzeczywistą czułość oka filtr subtraktywny wypadnie jeszcze lepiej. Obliczenia związane z konwersją negatywu na pozytyw to "bułka z masłem" :)

Doszukałem się, że przez moment były takie matryce produkowane:

formatting link

Pozwolę sobie na korektę: dwa lustra dichroniczne. Albo jedno trichroniczne. Takie rozwiązania są. Patrz 3CCD.

A justowanie, o ile to jest faktycznie problem, załatwi informatyka :) Faktycznie trzy matryce umyślnie się "rozjustowuje", dzięki czemu można zyskać na rozdzielczości.

W sumie teraz mi do głowy przyszło, że takie rozwiązanie ma jeszcze tą świetną zaletę, że dla trzech składowych można niezależnie korygować ostrość, dzięki czemu łatwo zredukować aberrację chromatyczną i można sporo zaoszczędzić na konstrukcji obiektywu.

pzdr mk

Reply to
mk

W dniu 2010-03-25 10:23, Waldemar Krzok pisze:

Z rozmysłem swe zdanie tak, a nie inaczej skonstruowałem ;-)

Świadomie dokonałem uproszczenia, co by nie mącić. Miałem tu na myśli standardowe receptory X, Y i Z, ustandaryzowanego przez CIE oka ludzkiego.

Z tym zgłupieniem to bym uważał, bo... niektórzy znawcy tematu doszukują się wpływu operacji (zastąpienie soczewki naturalnej, sztuczną) jaką przeszedł Claude Monet na jego twórczość :)

Gdzie ja to czytałem... podobno promieniowanie Roentgena też może wywoływać efekty świetlne w oku.

pzdr mk

Reply to
mk

Ba, kosmonauci, "widza" czastki elementarne.

Reply to
Ghost

Am 25.03.2010 17:22, schrieb Ghost:

Wnętrze oka działa wtedy jak komora Wilsona. Prawda. Ale czopki do tego nic nie mają.

Waldek

Reply to
Waldemar Krzok

Am 25.03.2010 17:06, schrieb mk:

Znaczy dobry polityk by z ciebie był ;-)

Całkiem całkowicie możliwe. Ale nie każdy jest Monetem (choć większość je lubi, znaczy monety ;-)). W każdym razie ludzie skarżyli się, że kwiatki wyglądają zupełnie inaczej, biały obrus był poplamiony, choć inni twierdzili, że nie i podobne siupy.

To jest prawdopodobnie efekt w ciele szkielistym oka. Jonizacja czegoś w oku promieniami X i już mamy detektor.

Waldek

Reply to
Waldemar Krzok

Użytkownik mk napisał:

Tyle że Monet żadnej operacji zastąpienia soczewki oka nie przeszedł - bo to nie te czasy. Jemu co najwyżej usunięto kataraktę razem z soczewką i powstałą tak sporą wadę dioptrialną skorygowano szkłami. Co prawda grube (bez implantu wewnątrz oka korekcja wychodzi spora) i nienajlepiej odżelazione (a grube szkła do dziś robi się z nieodżelazianego szkła, tzw. lustrzanego, bo z czystego i ołowiowego za ciężkie wychodzą) sporo UV też pochłaniały ale to raczej dalekiego - czyli faktycznie mogło mu się postrzeganie barw zmienić.

Reply to
"Dariusz K. Ładziak"

Nie bardzo, a przynajmniej nie w praktyce. Dopóki interesują Cię zdjęcia przez teleobiektyw, to luz, ale już przy tzw. normalnej ogniskowej (dającej obraz w kącie widzenia zbliżonym do stożka "aktywnego postrzegania", tzn. rzędu 60°) masz problem: przy obiektywie z jednej, idealnej soczewki masz za obiektywem do matrycy mniej niż szerokość matrycy (sqrt(3)/2). konstrukcje z rzeczywistych soczewek zostawiają jeszcze mniej miejsca. Żeby odsunąć się dalej, potrzeba konstrukcji retrofokalnej, która przy większych krotnościach odsunięcia (2x dalej, niż normalnie, 3x itd) zaczyna być mocno problematyczna, żeby nie powiedzieć, droga. A jak zaczniemy myśleć o szerokim kącie, to już zupełna zabawa.

Np. moja kamera video, 3ccd, kończy się na ekwiwalencie 40mm, mimo stosunkowo małych ccd. Nie bardzo wyobrażam sobie taką konstrukcję przy APS-C.

Reply to
Marek Lewandowski

osobiscie wolalbym zwyczajnie dodawac pasmo ultrafioletu i podczerwieni, na ktore oko byc moze jest tak samo niewrazliwe (bo posiada tylko TRZY rodzaje receptorow zdolnych dekodowac kolor) - ale natura w tych barwach jest o wiele bardziej 'ciekawsza' niz (w badz co badz waskim) nie pokrytym pasmie widzialnym.

mozna by wiec probowac konstruowac algorytmy 'translacji' niewidocznych kolorow, przesuwajac je w pasmo widzialne, mozna tez lepiej rozpoznawac rozne substancje chemiczne (i co za tym idzie przedmioty... np. rozrozniac kwiaty sztuczne od prawdziwych)

oczywiscie mowa tu raczej o sprzecie typu aparaty cyfrowe, bo telewizor swiecacy widmem ktore widza co najwyzej pszczoly i koty to raczej srednio mnie interesuje ;)

--

Reply to
Piotr "Curious" Slawinski

te algorytmy są i mają się dobrze. Pooglądaj obrazki astronomiczne. Do detektorów i urządzeń pomiarowych stosuje się sensory czułe na UV lub IR. Przy IR masz jednak ten problem, że w okolicach 1100nm krzem wysiada i trzeba przejść na GaAs. A te draństwa są drogie. Chciałem kiedyś kupić chip 512x512 GaAs, pracujący do 6mikro-m, ale kosztował >>1kEUR.

aparaty cyfrowe mają filtry, by właśnie te pasma wyciąć. Aby mieć IR wystarczy odkleić filtr z sensora (czasem się da), dla UV jest już trudniej, musisz mieć inne "opakowanie" sensora, ale jak zamówisz, to ci zrobią ;-).

Waldek

Reply to
Waldemar Krzok

Tak wlasnie jest - to sa .. nawet nie tyle barwy, co wspolczynniki wirtualne.

Tu masz ladne wykresy

formatting link
te "wirtualne barwy" sa tak dobrane zeby rzeczywiste kolory nie dawaly ujemnych wartosci, a tylko dodatnie.

Z wykresu widac tez ze zolty ladnie lezy jako liniowa kombinacja zielonego i czerwonego, wiec pomysl Panasonica raczej nie ma sensu.

A zobaczcie jeszcze tutaj:

formatting link
Czy na waszych monitorach czegos brakuje ? :-)

IMO to jednak z luminoforow wynikalo, bo czemu nie mialby to byc wiekszy trojkat ?

Inna sprawa ze byc moze strata z tego ograniczenia nie jest duza.

J.

Reply to
J.F.

Ja sobiem tak mysle ze to jest NTG wlasciwa grupa to jakas z grafika zwiazana

formatting link

Reply to
wirefree

Tu sa dane kolorymetryczne ftp://ftp.kodak.com/gastds/q60data/R1-Data/R1200211.Q60

tej odbitki foto :

formatting link

kiedys sie tym bawilem i przeliczalem w photoshopie RGB CMYk Lab itd ale to bylo dawno w takim razie jesli patrzymy na pierwsze 3 wartosci xyz w pliku Q.60 , to do jakiego wykresu to sie odnosi ? nie do tego :

formatting link
bo w pliku z danymi mamy wartosci po 60-70 a na kolorowej tabeli zielony w osi y konczy sie na 0,84

dalej mamy S_X S_Y S_Z M_DE S_DE ktorych to wartosci tez nie moge odszukac w tablicy barw , leza poza zakresem , zamotane to jest wszystko ja kumam tylko CieLab zwiezle i logiczne L intensywnosc ,luminancja , A i B polozenie punktu

formatting link

Reply to
nenik

Czy ja to dobrze rozumiem: oko ma trzy rodzaje receptorów (właściwie cztery, bo jeszcze pręciki do widzenia w nocy), każdy ma jakąś tam charakterystykę odpowiedzi na światło o różnej długości fali. Otaczające nas przedmioty emitują (bądź odbijają) światło o różnych długościach fal, co możemy obiektywnie zmierzyć rozkładając to na widmo. Najlepiej byłoby zrobić ekran, na którym możemy dowolnie kształtować widmo każdego pikselka... czyli mnóstwo pikselków od fioletu po głęboką czerwień. Oczywiście człowiek nie wszytko zobaczy - przykładem może tu być pewien czerwony samochód - malowany błotnik nie do odróżnienia od reszty przy świetle dziennym, natomiast przy świetle lampy sodowej jest wyraźnie żółciejszy od brązowawej reszty nadwozia. Co do dodania żółtego pikselka - skoro znamy charakterystyki oka i algebrę, to można obliczyć co lepiej się opłaca dodać - ile pikselków i o jakim widmie. Może faktycznie lepiej dodać fioletowy i poprzesuwać resztę.

Mirek.

Reply to
Mirek

No wlasnie. Poniewaz ma tylko 3 rodzaje receptorow, to cale widmo niepotrzebne.

I tu wystarcza rzut oka na diagram CIE - pamietajac ze kolory tam moga tworzyc liniowe kombinacje, to wydaje sie ze akurat zolty jest swietnie osiagalny jako R+G.

No chyba ze te monitorowe R i G nie sa mocno nasycone, i to sie odbija na odbiorze zoltego .. watpie ..

J.

Reply to
J.F.

Ale skoro wychodzą ujemne wartości przy RGB, to widać że to za mało.

Przed LCD-kami miałem taki stary ale jary monitor na Trinitronie - kolory miał przepiękne (ale nie wiem czy wierne) - pamiętam jak na nowo oglądałem i podziwiałem zdjęcia i grafiki. Po zamianie na LCD to już nie to - kiedyś przeglądałem jakieś stare pliki i się dziwiłem co ja w tym widziałem. Teraz mam LG W2600HP - kolory ma troche żywsze niż poprzedni, ale gradienty pokazuje fatalnie - widać prążki. Do tego ten fioletowawy czerwony - już się do niego przyzwyczaiłem, ale na początku myślałem, że go wywalę. Teraz wydaje mi się normalny, natomiast na laptopie - to nie jest czerwony (a był;)) tylko brązowy.

Mirek.

Reply to
Mirek

Masz oczywiście rację. Jest tylko jeden problem: nie mamy idealnych emiterów RGB o dokładnej charakterystyce oka, perfekcyjnej liniowości i nieskończonej dynamice poziomu emisji. Prowadzi to do tego, że czasem łatwiej poskładać wymagany emiter z 4, 5, czy 6 składowych, żeby pokryć całość widzialnej palety.

Reply to
Marek Lewandowski

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.