Gewichtete Summation von drei (Mess)werten

Hallo zusammen,

ich versuche nun schon seit geraumer Zeit eine geeignete Formel f=FCr folgendes Problem zu entwickeln, bislang aber ohne durchschlagenden Erfolg:

Ich habe drei reelle Zahlen (ohne zus=E4tzliche Informationen) min, med, max aus [0, 1], wobei min > max - med). Ich empf=E4nde einen Wert aus [0.8, 0.85] als sehr passend.

Ich w=FCrde mich =FCber Vorschl=E4ge oder Anregungen sehr freuen. Meine bisherigen Ergebnisse konnte ich immer wieder durch Negativbeispiele entkr=E4ften.

Beste Gr=FC=DFe, Sascha

Reply to
piramido
Loading thread data ...

Die solltest mit Differenzen arbeiten.

y = w1*(max-med) + w2*med + w3*(med-min)

ggf. w1==w3, möglicherweise clippen der Differenzwerte, falls erforderlich.

Gruss Udo

Reply to
Udo Piechottka

derlich.

Das Problem sind die Gewichte: In dem konkreten Fall m=FCsste w_3 sehr klein (fast 0 sein).

Reply to
piramido

Zuwenig für Realname.

Wird in der Literatur unter "median filter" "rank order filter" abgehandelt. Die verwenden aber sehr viel mehr als 3 Samples.

Abhängig von den Randbedingungen und dem Aufwand den man treiben will ( Histogramm-Berechnung usw. ) gibt es verschiedenste Varianten. Standard-ICs ( die Marktgängigkeit eines Verfahrens anzeigen würden ) sind selten, es gab man "Marconi MA7190 Rank order Filter" in den 80ern für Radar, später ab und zu Vorschläge für kundenspezifische ICs, aber heute wohl typisch FPGAs. Oder bei niederiger Geschwindigkeit eben Software.

MfG JRD

Reply to
Rafael Deliano

piramido schrieb:

Nimm med.

Solange man keine Ahnung über typische Verteilungen hat, ist med schon eine prima Filtrierung, streng nichtparametrisch. Willst du einen besseren Schätzwert, würde ich eher noch mehr Werte einsammeln, 5 z.B. und dort wieder den Median nehmen. Ansonsten müsste man wirklich mal viele Dreiersamples oder insgesamt sehr viele Messwerte nehmen, und erst mal die Verteilung bestimmen. Alles andere ist Kaffeesatzleserei, IMHO.

Ich kann es lebhaft nachfühlen, 2-D Daten Putzalgorithmen ewig gesucht habend :-]

--
mfg Rolf Bombach
Reply to
Rolf_Bombach

aha, also nicht das üblichere [0...1[

Entweder meinst du arithmetisches Mittel wenn du Median sagst oder du meinst doch Median und irrst dich aber gewaltig!

"Gleiche Abstände" ergeben sich nur beim arithmetischen Mittel, Stichwort "Nulleigenschaft des a.M." Der Median hat hingegen keine "Null-" sondern eine "Minimumeigenschaft" seiner Summe der linearen Abweichungen d.h. min und max weisen nicht unbedingt "gleiche Abstände" zum Median auf.

Dein "Wenn A dann B" Satz kann also wg. falschem A in die Tonne. Was möchtest du denn wirklich machen?

Oder am Beispiel gefragt: Geordnete Datenreihe {x_1, x_2 , ... , x_n}:

Fall I: {1,1,1,1,96}, med=1, med-min=2 und max-med=2. Was soll deine Kennziffer jetzt ausdrücken?

Fall II: {1,1,1,1,2}, med=1, med-min=2 und max-med=2. Was soll deine Kennziffer jetzt ausdrücken?

Fall III: {1,1,1,1,96}, a.M. = 20, (min-a.M.)=-19 und (max-a.M.)=76 Was soll deine Kennziffer jetzt ausdrücken?

(Und wenn dich unberücksichtigtes [0..1] stört, teile alles durch 100)

Fall III geht nur bei metrischem Messniveau, sonst ergeben sich leicht aus rein statistischen Gründen Widersprüche in der Auswertung.

Diesen obigen Satz bitte dreimal laut vorlesen *g*! Und danach darüber meditieren, dass du in Fall I versuchst, med=1 und med-min=0 und max-med=95 zu rechnen was ausser dir niemand macht, es sei denn er würde ebenso Median und a.M. verwechseln.

Noch zu den Beispielen kurz gezeigt, dass: Nulleigenschaft *des a.M.* erfüllt ist in Fall III wie man leicht sieht: Sum(x_i - a.M.) = 0 oder konkret 4*(-19) + 76 = 0. Aber nicht beim Median! Sum(x_i-med) =/= 0 oder am Beispiel II: 0+0+0+0+1 = 1 am Beispiel I : 0+0+0+0+95 = 95

Der Median hat dafür die Minimumeigenschaft seiner linearen Abweichungen, d.h. jede andere Möglichkeit, Differenzen der Ursprungsreihe aufzusummieren führt zu grösseren Zahlen. Und das arithmetische Mittel hat auch eine Minimumseigenschaft seiner *quadrierten linearen Abweichungen* d.h. jede mögliche Summe von Abweichungsquadraten der Ursprungsreihe, die sich nicht auf das a.M. beziehen würden, ergeben größere Zahlen...

| | | Nulleigenschaft | Minimumeigenschaft | | ---------+ ------------------+----------------------- | | Summe der Median | gibbet nich | lin. Abweichungen | | ---------+-------------------+----------------------- | Summe der | Summe der arith.M.| lin. Abweichungen | Abweichungsquadrate | | ---------+-------------------+----------------------- | |

Ich komme auf med-min=1 und max-med=1, also exakt gleich und eben nicht sehr viel grösser (>>).

Empathiefähigkeit ist immer gut im Leben und Grundlagenbücher zur deskriptiven Satistik sind auch klasse ;)

Rangordnungsfilter z.B. existieren, müsstest du also nicht neuerfinden. Aber vermutlich möchtest du eher sowas wie einen gewogenen gleitenden Durchschnitt deiner Kennzahl zugrundelegen, so wird jetzt von mir 'empfunden'.

Ohne deine bisherigen Ergebnisse zu kennen; Das arithmetische Mittel ist bei Verwendung nichtmetrisch skalierter Daten (Zitat: "über die Daten ist weiter nichts bekannt") leider nicht invariant gegenüber linearen Transformationen, wie allseits bekannt sein sollte. Das wäre dann z.B. ein 'Lehrbuchklassiker' dafür, wie sich sehr leicht durch fehlerfreies tapferes rechnen höchst widersprüchliche Ergebnisse erzielen lassen.

Möglich, dass du gerade dabei bist, das (für dich) neu zu "entdecken".

man Lehrbuch deskriptive Statistik. (Ferschl, Pfanzagl, ...)

Reply to
Ruediger Klenner

"Rolf_Bombach" schrieb:

Bei nominal skalierten Daten bleibt ihm nichts anderes übrig als parameterfreie Tests zu nehmen, selbst der Median ist dann als lagetypisches Maß für irgendwas schon unbrauchbar. (Muss er Chi-Quadrat oder Fisher oder Run-tests machen).

Oha, du scheinst zu wissen oder zu ahnen, was er vorhat. An die Entwicklung von "Schätzer" hatte ich auf Grundlage des Ursprungsposting bisher gar nicht gedacht, ist aber natürlich auch sehr gut möglich. Jetzt, wo du es sagst...

also wenn man doch "eine Ahnung über typische Verteilungen" hat?

Hauptsache viele. Scheint ne Modeerscheinung zu sein, vermutlich mit Fingerzeig auf zentralen Grenzwertsatz oder sowas.

ja, folgt aus "ansonsten" oder setzt es voraus oder ähnlich, aber wie auch immer, es leuchtet ein.

Jetzt, wo du es sagst... was sollte er sonst vorhaben? (Auf das Naheliegenste kommt man manchmal erst zuletzt.)

Reply to
Ruediger Klenner

nst

Ich denke nicht. Wenn ich drei reelle Zahlen x, y, z \in [0, 1] habe, dann ich ausgehend von diesen drei Variablen min, med und max so belegen, dass min Was m=F6chtest du denn wirklich machen?

Bei mir ist n =3D 3.

st

ht sehr

Hier gilt doch med - min =3D 0.73 und max - med =3D 0.24 (zumindest im Dezimalsystem ;-))

kriptiven

Ich glaube, dass mein "Problem" nur entfernt mit deskriptiver Statistik behandelt werden kann. Bei einem Datenumfang von 3 machen solche Methoden nur bedingt Sinn.

Vielen Gr=FC=DFe, Sascha

Reply to
piramido

Hmm, wenn ich es richtig verstanden habe, würde ich das so angehen:

Erst mal Differenzen bilden. d=min-med u=max-med

so, jetzt wert=f(d)*d + f(u)*u +med

mit f(x) als Gewichtsfunktion, mit der Eigenschaft f(0)=1 und f(x)>=0.

Da kann man sich was schönes aussuchen, ich schlage mal was was nach gauss vor: exp(-x^2/a), und a geeignet anpassen. Oder generell exp(-(x^b)/a)

HTH, Jan

Reply to
Jan C. Bernauer

"piramido" schrieb:

Äh, ja. Was möchtest du denn machen?

Bilder glätten? Vergiss in diesem Fall, was ich vorher schrieb und mach' es so wie Udo vorschlug!

Das arithm. Mittel ist ausreisserempfindlich d.h. es verteilt einen Ausreisserwert gleichmäßig auf seinen gesamten Stützbereich. Der Median ist nicht ausreisserempfindlich, er ignoriert Ausreisser solange sie nicht auf den zentralen Wert selbst fallen. Dann aber geht der Extremwert sehr stark in den Median ein.

Deshalb wird man einen Medianfilter dann nehmen wollen wenn Ausreisser oder Extremwerte erhalten bleiben sollen (Kanten in Bildern). Möchte man aber Ausreisser über den gesamten Stützbereich "verschmieren", wird man eher einen Glättungsfilter auf Grundlage des arithm. Mittels wählen.

Den Rest macht man mit Filterkoeffizienten (Gewichtungen) und Wahl des Stützbereiches u.Ä.

Die Rechenvorschrift ist jedesmal gleich und völlig unabhängig vom Skalenniveau.

Irgendwelche Inferenzschlüsse oder Vergleichskennzahlen für Grundgesamtheiten darf man aus so einem "Glättungsschätzer" aber nicht ableiten wollen! Verzerrt sind diese dann allemal, also nix mit 'blue'-Eigenschaft ;)

Aber alles ok, das willst du ja auch nicht.

Ich seh' schon, ihr wollt mich alle fertigmachen! Verschwörung! Arrgxx! Röchel!

Es gibt durchaus eine (begründete) 'Statistik kleiner Fallzahlen'. Sonst würde man sowas wie die Wahrscheinlichkeiten platzender Kernkraftwerke u.s.w. ja nicht angeben können. Siehe Stichwort Poisson-Verteilung. Oder für den Herren Ingenieur u.U. interessanter, wenn Dependenzbeziehungen bekannt sind, das Stichwort 'Weibull-Verteilung' und 'Ausfallwahrscheinlichkeiten'...

Reply to
Ruediger Klenner

ElectronDepot website is not affiliated with any of the manufacturers or service providers discussed here. All logos and trade names are the property of their respective owners.