Hallo,
ich möchte mich erst mal für das Subject entschuldigen. Aber mir ist für meine Fragestellung einfach nichts besseres eingefallen. Auch die NG passt u.U. nicht so gut aber ich möchte es nicht nach de.sci.math posten weil es eher ein Problem aus der Nachrichtentechnik ist.
Ich schreibe gerade ein Programm welches mir für ein OFDM System eine möglichst günstige Synchronisationssequenz erzeugt. Dafür betrachte ich das peak average power ratio (PapR) des Zeitsignales und das PapR der Autokorrelationsfunktion. Um ein Optimum zu finden arbeitet mein Algorithmus genetisch, verändert also das Spektrum ein wenig und schaut ob es besser geworden ist. Die besten 3 (oder wie viel auch immer) kommen durch und mutieren weiter.
Nun funktioniert dieser Ansatz aber nur dann zufriedenstellen (also schneller als ein wildes rumprobieren) wenn ich davon ausgehen kann, das eine kleine Änderung im Spektrum auch nur eine kleine Änderung des PapR des Zeitsignales erzeugt.
Ich habe dazu eine Versuchsreihe unternommen. Ich habe ein Spektrum S der Länge L vollständig mit zufälligen BPSK Symbolen (1,-1) gefüllt. Nun habe ich L mal jeweils ein Symbol in S verändert. Ich habe also L Versionen des originalen Spektrums in der jeweils nur ein Symbol geändert ist. Von diesen L Spektren habe ich das PapR berechnet und das die maximale Abweichung delta PapR gesucht. Dies habe ich, da das Originalspektrum S ja zufällig war, jeweils
50 mal gemacht und abermals das Maximum gesucht.Dabei ist mir aufgefallen, dass das maximale delta PapR von der Länge L des Spektrums abhängig ist. Das scheint erst mal nachvollziehbar weil eine Änderung von einem Symbol unter vielen weniger auffällt als bei wenigeren.
Diese Untersuchungen habe ich für Spektralgrößen von 3-50 gemacht und erhalte einen Graphen der, ähnlich wie 1/x, asymptotisch gegen
0dB delta PapR läuft.Nun frage ich mich ob und wie man dies analytisch lösen kann und ob sich darüber schon mal jemand mehr Gedanken gemacht hat.
Vielen Dank Martin L.