Bon, a priori:
- rdg est bien 400 ohm ici
- +-1.2% of rdg +- 4 dgts signifie une précision entre 4.4 ohm et 5.2 ohm, puisque 1.2%*400ohm = 4.8 ohm, d'après les infos ici:
Extrait:
""" Ainsi, l?exemple de précision déjà donné pourrait également être formulé comme suit : ± (1 % + 2). Dans ces conditions, pour un affichage de 100 volts, la tension réelle se situerait entre 98,8 volts et 101,2 volts. Par ailleurs, les spécifications d?un multimètre analogique sont déterminées par l?erreur à pleine échelle, et non pas pour la lecture affichée. Une précision typique de multimètre analogique sera ainsi de ± 2 % ou de ± 3 % de la pleine échelle. À un dixième de la pleine échelle, cela correspond à une approximation de 20 ou 30 % de la lecture. Par contraste, la précision typique d?un multimètre numérique se situe généralement entre ± (0,7 % + 1) et ± (0,1 % + 1) ou mieux. """
Suis-je dans le juste?
Merci