Wie kommst Du denn auf die Formel? Ein billiges Multimeter misst recht wahrscheinlich den Spitzenwert (Spitzenwertgleichrichter) und teilt dann die gleichgerichtete Spannung um den Gleichrichtwert runter, so dass die Anzeige bei exakt sinusförmigem Spannungs- bzw. Stromverlauf den Effektivwert anzeigt. Bei der Netzspannung mag das ja noch hinkommen, beim Strom dürfte Dir der Crestfaktor einen Strich durch die Rechnung machen, weil die Stromaufnahme nicht sinusförmig ist. Ein True-RMS-Multimeter sollte den echten Effektivwert messen, aber auch das nur bis zu einer begrenzten zulässigen Verzerrung der Sinuskurve. Das nächste Problem, was aber schon andere angesprochen haben: selbst wenn Du von beiden Grössen den echten Effektivwert hast, erhältst Du durch Multiplikation die Scheinleistung, bei PC-Netzteilen ohne PFC trennt Dich dann noch ein cos phi von 0,65 oder so vom richtigen Wert
- kurzum: Du misst Mist. Ich habe hier so ein Aldi-Energiekostenmessgerät, das sich anscheinend an Deinem Messverfahren: am neuen Server misst es im Leerlauf ziemlich genau passende 165W, wenn er auf einem Netzteil läuft, beim alten sind's angeblich 370W, der (ABB?-) VDE-Tester, der wohl genau messen sollte, zeigt 210W an. Der Fehler lässt sich nur noch durch grobe Dummheit beim Schaltungsdesign erklären...