ich versuche nun schon seit geraumer Zeit eine geeignete Formel f=FCr folgendes Problem zu entwickeln, bislang aber ohne durchschlagenden Erfolg:
Ich habe drei reelle Zahlen (ohne zus=E4tzliche Informationen) min, med, max aus [0, 1], wobei min > max - med). Ich empf=E4nde einen Wert aus [0.8, 0.85] als sehr passend.
Ich w=FCrde mich =FCber Vorschl=E4ge oder Anregungen sehr freuen. Meine bisherigen Ergebnisse konnte ich immer wieder durch Negativbeispiele entkr=E4ften.
Wird in der Literatur unter "median filter" "rank order filter" abgehandelt. Die verwenden aber sehr viel mehr als 3 Samples.
Abhängig von den Randbedingungen und dem Aufwand den man treiben will ( Histogramm-Berechnung usw. ) gibt es verschiedenste Varianten. Standard-ICs ( die Marktgängigkeit eines Verfahrens anzeigen würden ) sind selten, es gab man "Marconi MA7190 Rank order Filter" in den 80ern für Radar, später ab und zu Vorschläge für kundenspezifische ICs, aber heute wohl typisch FPGAs. Oder bei niederiger Geschwindigkeit eben Software.
Solange man keine Ahnung über typische Verteilungen hat, ist med schon eine prima Filtrierung, streng nichtparametrisch. Willst du einen besseren Schätzwert, würde ich eher noch mehr Werte einsammeln, 5 z.B. und dort wieder den Median nehmen. Ansonsten müsste man wirklich mal viele Dreiersamples oder insgesamt sehr viele Messwerte nehmen, und erst mal die Verteilung bestimmen. Alles andere ist Kaffeesatzleserei, IMHO.
Ich kann es lebhaft nachfühlen, 2-D Daten Putzalgorithmen ewig gesucht habend :-]
Entweder meinst du arithmetisches Mittel wenn du Median sagst oder du meinst doch Median und irrst dich aber gewaltig!
"Gleiche Abstände" ergeben sich nur beim arithmetischen Mittel, Stichwort "Nulleigenschaft des a.M." Der Median hat hingegen keine "Null-" sondern eine "Minimumeigenschaft" seiner Summe der linearen Abweichungen d.h. min und max weisen nicht unbedingt "gleiche Abstände" zum Median auf.
Dein "Wenn A dann B" Satz kann also wg. falschem A in die Tonne. Was möchtest du denn wirklich machen?
Oder am Beispiel gefragt: Geordnete Datenreihe {x_1, x_2 , ... , x_n}:
Fall I: {1,1,1,1,96}, med=1, med-min=2 und max-med=2. Was soll deine Kennziffer jetzt ausdrücken?
Fall II: {1,1,1,1,2}, med=1, med-min=2 und max-med=2. Was soll deine Kennziffer jetzt ausdrücken?
Fall III: {1,1,1,1,96}, a.M. = 20, (min-a.M.)=-19 und (max-a.M.)=76 Was soll deine Kennziffer jetzt ausdrücken?
(Und wenn dich unberücksichtigtes [0..1] stört, teile alles durch 100)
Fall III geht nur bei metrischem Messniveau, sonst ergeben sich leicht aus rein statistischen Gründen Widersprüche in der Auswertung.
Diesen obigen Satz bitte dreimal laut vorlesen *g*! Und danach darüber meditieren, dass du in Fall I versuchst, med=1 und med-min=0 und max-med=95 zu rechnen was ausser dir niemand macht, es sei denn er würde ebenso Median und a.M. verwechseln.
Noch zu den Beispielen kurz gezeigt, dass: Nulleigenschaft *des a.M.* erfüllt ist in Fall III wie man leicht sieht: Sum(x_i - a.M.) = 0 oder konkret 4*(-19) + 76 = 0. Aber nicht beim Median! Sum(x_i-med) =/= 0 oder am Beispiel II: 0+0+0+0+1 = 1 am Beispiel I : 0+0+0+0+95 = 95
Der Median hat dafür die Minimumeigenschaft seiner linearen Abweichungen, d.h. jede andere Möglichkeit, Differenzen der Ursprungsreihe aufzusummieren führt zu grösseren Zahlen. Und das arithmetische Mittel hat auch eine Minimumseigenschaft seiner *quadrierten linearen Abweichungen* d.h. jede mögliche Summe von Abweichungsquadraten der Ursprungsreihe, die sich nicht auf das a.M. beziehen würden, ergeben größere Zahlen...
| | | Nulleigenschaft | Minimumeigenschaft | | ---------+ ------------------+----------------------- | | Summe der Median | gibbet nich | lin. Abweichungen | | ---------+-------------------+----------------------- | Summe der | Summe der arith.M.| lin. Abweichungen | Abweichungsquadrate | | ---------+-------------------+----------------------- | |
Ich komme auf med-min=1 und max-med=1, also exakt gleich und eben nicht sehr viel grösser (>>).
Empathiefähigkeit ist immer gut im Leben und Grundlagenbücher zur deskriptiven Satistik sind auch klasse ;)
Rangordnungsfilter z.B. existieren, müsstest du also nicht neuerfinden. Aber vermutlich möchtest du eher sowas wie einen gewogenen gleitenden Durchschnitt deiner Kennzahl zugrundelegen, so wird jetzt von mir 'empfunden'.
Ohne deine bisherigen Ergebnisse zu kennen; Das arithmetische Mittel ist bei Verwendung nichtmetrisch skalierter Daten (Zitat: "über die Daten ist weiter nichts bekannt") leider nicht invariant gegenüber linearen Transformationen, wie allseits bekannt sein sollte. Das wäre dann z.B. ein 'Lehrbuchklassiker' dafür, wie sich sehr leicht durch fehlerfreies tapferes rechnen höchst widersprüchliche Ergebnisse erzielen lassen.
Möglich, dass du gerade dabei bist, das (für dich) neu zu "entdecken".
man Lehrbuch deskriptive Statistik. (Ferschl, Pfanzagl, ...)
Bei nominal skalierten Daten bleibt ihm nichts anderes übrig als parameterfreie Tests zu nehmen, selbst der Median ist dann als lagetypisches Maß für irgendwas schon unbrauchbar. (Muss er Chi-Quadrat oder Fisher oder Run-tests machen).
Oha, du scheinst zu wissen oder zu ahnen, was er vorhat. An die Entwicklung von "Schätzer" hatte ich auf Grundlage des Ursprungsposting bisher gar nicht gedacht, ist aber natürlich auch sehr gut möglich. Jetzt, wo du es sagst...
also wenn man doch "eine Ahnung über typische Verteilungen" hat?
Hauptsache viele. Scheint ne Modeerscheinung zu sein, vermutlich mit Fingerzeig auf zentralen Grenzwertsatz oder sowas.
ja, folgt aus "ansonsten" oder setzt es voraus oder ähnlich, aber wie auch immer, es leuchtet ein.
Jetzt, wo du es sagst... was sollte er sonst vorhaben? (Auf das Naheliegenste kommt man manchmal erst zuletzt.)
Ich denke nicht. Wenn ich drei reelle Zahlen x, y, z \in [0, 1] habe, dann ich ausgehend von diesen drei Variablen min, med und max so belegen, dass min Was m=F6chtest du denn wirklich machen?
Bei mir ist n =3D 3.
st
ht sehr
Hier gilt doch med - min =3D 0.73 und max - med =3D 0.24 (zumindest im Dezimalsystem ;-))
kriptiven
Ich glaube, dass mein "Problem" nur entfernt mit deskriptiver Statistik behandelt werden kann. Bei einem Datenumfang von 3 machen solche Methoden nur bedingt Sinn.
Bilder glätten? Vergiss in diesem Fall, was ich vorher schrieb und mach' es so wie Udo vorschlug!
Das arithm. Mittel ist ausreisserempfindlich d.h. es verteilt einen Ausreisserwert gleichmäßig auf seinen gesamten Stützbereich. Der Median ist nicht ausreisserempfindlich, er ignoriert Ausreisser solange sie nicht auf den zentralen Wert selbst fallen. Dann aber geht der Extremwert sehr stark in den Median ein.
Deshalb wird man einen Medianfilter dann nehmen wollen wenn Ausreisser oder Extremwerte erhalten bleiben sollen (Kanten in Bildern). Möchte man aber Ausreisser über den gesamten Stützbereich "verschmieren", wird man eher einen Glättungsfilter auf Grundlage des arithm. Mittels wählen.
Den Rest macht man mit Filterkoeffizienten (Gewichtungen) und Wahl des Stützbereiches u.Ä.
Die Rechenvorschrift ist jedesmal gleich und völlig unabhängig vom Skalenniveau.
Irgendwelche Inferenzschlüsse oder Vergleichskennzahlen für Grundgesamtheiten darf man aus so einem "Glättungsschätzer" aber nicht ableiten wollen! Verzerrt sind diese dann allemal, also nix mit 'blue'-Eigenschaft ;)
Aber alles ok, das willst du ja auch nicht.
Ich seh' schon, ihr wollt mich alle fertigmachen! Verschwörung! Arrgxx! Röchel!
Es gibt durchaus eine (begründete) 'Statistik kleiner Fallzahlen'. Sonst würde man sowas wie die Wahrscheinlichkeiten platzender Kernkraftwerke u.s.w. ja nicht angeben können. Siehe Stichwort Poisson-Verteilung. Oder für den Herren Ingenieur u.U. interessanter, wenn Dependenzbeziehungen bekannt sind, das Stichwort 'Weibull-Verteilung' und 'Ausfallwahrscheinlichkeiten'...
ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here.
All logos and trade names are the property of their respective owners.