Leyendo el post sobre cómo sacar 400V DC, se me acaba de plantear una duda. A ver qué pensais.
Ya se ha dicho por aquí más de una vez, y es comprobable, que un trafo en vacío da más tensión que la nominal. Por ejemplo, un trafo con salida 12V-1A da 12V cuando la carga se chupa 1A, pero si la carga sólo gasta 10mA, la tensión será de 14V o 15V.
¿Y qué pasa por ejemplo con los trafos de 220 a 125? Quiero decir, si tengo un trafo de 220V a 125V de 1000W, y en vez de colgarle una carga de 1000W le cuelgo una carga de 10W, por la misma regla de tres, la salida debería darme 150V o cosa así, ¿no?Pero esto significaría que en realidad, la relación de espiras entre el primario y el secundario no es 220/125, sino 220/150, para compensar la caída de tensión por pérdidas.
Y entonces, ¿qué pasa cuando lo usamos al revés, es decir, si queremos transformar de 125V a 220V? En ese caso, tendremos que la relación ahora será 150/220, con lo que al meterle 125V, la salida en vacío no dará 220V, sino 183V. Pero si encima ahora le colgamos la susodicha carga de 1000W, la tensión de salida bajará más aún, a 150V ó 160V.
Y sin embargo, estos transformadores se usaban lo mismo para subir (cuando comprabas la lavadora superautomática de 220V teniendo en casa 125V), que para bajar (cuando ya habías cambiado a 220V pero seguías teniendo electrodomésticos a 125).
Esos eléctricos que saben más de trafos, a ver si echan un poco de luz, porque a mí se me ha hecho la picha un lío.