Como funciona el medidor de Amperios de una fuente???

Puede ser una pregunta tonta y tal vez offtopic, pero tengo intencion de cambiar el medidor de amperios de una fuente o ponerle los dos el de aguja que tiene y yo quiero uno digital para tomar mejor las muestras, el caso esque pensaba que estaba en serie con el circuito y quitando los dos cables y poninedo un tester en su lugar iba a medir igual, pero para mi sorpresa no es así, alguien ha sustuituido o montado alguno de estos??
Un saludo.

Olvidate de la conexión donde tiene el actual amperímetro. El amperímetro digital lo intercalas en las bornas de salida de la fuente.

Vale pues lo pongo en serie con el positivo de la saluda y deja tb el de aguja, entre hoy a la noche y mañana lo monto a ver si lo consigo.
Un saludo.

muchos medidores de amperios de aguja son realmente voltímetros. Lo que se suele hacer es poner una resistencia en serie con el consumo de muy bajo valor 0,1 ohm por ejemplo y medir la tensión que cae en ella con el voltímetro, que por algún lado tendrá que indicar si es de 0-10mV , 0-40mV,...
Esto, auque parece una forma cutre de medir (que opino que lo es), te puedo decir que es lo que viene dentro de un rectificador de 700A donde yo trabajo.

@pacojarcia, todos los medidores de intensidad son por caida de tension, excepto los inductivos, pero abre cualquier polímetro y lo verás

Esto lo puedes hacer directamente con un milivoltetro digital midiendo la tensión en la bobina del amperímetro.
Me esplico:
La resistencia del amperimetro analógica es muy baja, pero aun asi, implica una pequeña caida de tensión proporcional a la corriente que pase por ella, midiendo esa tensión estás midiendo la corriente.
La impedancia de entrada del voltímetro debe ser muy alta para que interfiera lo minimo posible en la medida del amperímetro analogico.
Despues deberías hacer la conversión correspondiente entre mV y amperios.