Nogen (Bo Bjerre :-D) der kan fortælle mig hvorfor disse to simuleringer ikke stemmer overens??
Jeg skal have lavet nogle usikkerheds/sensitivitets simuleringer på et passivt filter. Alle komponenter er blevet tildelt en 5% tolerance og jeg er så interesseret i en worst case dæmpning ved 16khz. Ved en "Worst case/sensitivity" simulering med indstillingerne: udgangsspændingen er min output variabel, MAX value og worst case direction: HI. Dette giver mig i
16khz en wortcase dæmpning på -18dB.Så laver jeg mig en Monte Carlo hvor jeg ligeledes undersøger dæmpningen i
16khz. Igen er udgangsspændingen valgt som variabel og MAX value funktionen valgt. Jeg simulerer 1000 gange i frekvens området 15.9khz til 16khz og plotter så et histogram a fordelingen af dæmpningen. Men her får jeg en worst case dæmpning på 15dB.-- Morten