hallo, wir haben heute nachmittag eine ganze Weile philosophiert und möchte die NG mit einladen...
Wir betrachten gerade mal ein EKG-Signal. Es ist ja nicht wirklich ein streng stationäres Signal. Wenn man ein solches messen will, dann taucht sofort das Thema Anti-Aliasing-Filter auf. Es sei also z.B. eine Abtastraten von 100 Sps, was sicher zu wenig ist, um das Signalspektrum in ganzer Breite erfassen zu können. Trotzdem sehen die gemessenen EKGs ohne Filter besser aus, als die mit entsprechenden Filtern, die eben das Signal ganz heftig abrunden. Ich kann mich noch gut an einen schwer umstrittenen Gastvortrag erinnern (ich weiss leider nicht mehr welcher Prof sich das getraut hatte), wo ein Prof einen vergleich vorgestellt hatte, wie die entsprechend "unwissenschaftlich" aufgenommenen Signale mit den gängigen Approximierungsverfahren rekonstruiert wurden und mit dem (ungefilterten) Orginal verglichen hatte. Er argumentierte rein Phänomenologisch: "Es ist, weil es so ist, eine Erklärung hab ich nicht." Mein Gedanken hierzu heute war, dass ja der Aliasingeffekt ein stationäres Signal voraussetzt, so dass die Unterabtastung über mehrere Welenzyklen hinweg das Aliasingsignal aufzubauen vermag. Dies ist in einer Zacke aber nicht gegeben. Ich kann selbstverständlich ein Fenster über ein Signal (-teil) legen und meine Mathe draufloslassen und errechnen lassen, wie sich ein Signal verfälschen wird... tut es ja aber offensichtlich gar nicht, weil die hohen Frequenzanteile eben nur für wenige ms in einer Sekunde auftreten. Wie sehen die Fachleute ier im Kreis das?
Ein EKG lässt sich für diese Frage gut anähern als ein Dreieck mit