Il multimetro, conosciuto anche con il nome di tester, è uno strumento molto importante da tenere sempre sottomano per monitorare il funzionamento dei propri elettrodomestici e dei propri impianti elettrici.
Nei modelli viene spesso indicato il margine di incertezza dello specifico dispositivo che si è acquistato. Ma cosa vuol dire? E in che modo questo intacca l’affidabilità del multimetro?
Preparati a scoprire tutto continuando a leggere questo articolo.
Multimetri: a cosa servono?
Capire a cosa servono i multimetri e come funzionano è fondamentale per comprendere cosa sia il margine di incertezza.
Innanzitutto, questi tester servono a misurare delle grandezze elettriche:
- la corrente, misurata in Ampere (A) o milliampere (mA) e per la quale è necessario un amperometro
- la tensione, misurata in volt (V) che necessita di un voltmetro
- la resistenza, misurata in ohm (Ω) per cui serve un ohmmetro
Se prima amperometro, voltmetro e ohmmetro erano tre diversi dispositivi, ora si possono trovare racchiusi all’interno di un unico strumento. Questo strumento può essere analogico oppure digitale; nel primo caso i valori delle misurazioni vengono indicati da un ago che si sposta su una scala graduata, mentre nel secondo caso è un display digitale a restituire le cifre corrispondenti.
Cosa si intende con incertezza di misura
Per questa ragione i tester fanno parte di determinate classi di precisione. Queste esistono per aiutarti a capire quanto sia affidabile e accurato il tuo strumento, partendo dal presupposto che non potrà mai restituirti un risultato davvero reale. La classe di accuratezza, insomma, è il parametro che riassume tutte le possibili cause di errore che possono interessare il multimetro.
Quali sono le classi di precisione
Cerchiamo di capire meglio cosa siano queste classi di precisione e come puoi interpretare i valori dati. Ricorda che stiamo parlando dei multimetri analogici.
L’errore è sempre relativo alla misura di fondo scala. Cos’è la misura di fondo scala? Nient’altro che il valore massimo che puoi misurare con il tuo multimetro.
Quali sono, dunque, le classi di precisione? Ecco un elenco esaustivo:
- 05, il cui limite di errore è compreso tra ±0.05%
- 1, il cui limite di errore è compreso tra ±0.1%
- 2, il cui limite di errore è compreso tra ±0.2%
- 3, il cui limite di errore è compreso tra ±0.3%
- 4, il cui limite di errore è compreso tra ±0.4%
- 5, il cui limite di errore è compreso tra ±0.5%
- 1, il cui limite di errore è compreso tra ±1%
- 5, il cui limite di errore è compreso tra ±1.5%
- 2, il cui limite di errore è compreso tra ±2%
- 5, il cui limite di errore è compreso tra ±2.5%
- 3, il cui limite di errore è compreso tra ±3%
- 5, il cui limite di errore è compreso tra ±5%
A questo punto, potresti essere un po’ confuso e starti chiedendo cosa significhi nei fatti tutto questo. Prendiamo come esempio un multimetro che abbia come fondo scala 200V. Questo vuol dire che il tuo tester può misurare la tensione sino a 200V. Poniamo il caso che il tuo multimetro rientri nella classe di precisione 1, la quale prevede di conseguenza un errore percentuale compreso tra ±1. Nei fatti, significa che, se il tuo multimetro dovesse misurare una tensione di, poniamo, 195V questo valore potrebbe sbagliarsi di un solo punto percentuale ed essere dunque compreso tra 194V e 196V.
Appare chiaro come i multimetri appartenenti alla classe di precisione 0.05 siano i più precisi e affidabili, mentre quelli appartenenti alla classe 5 sono i più imprecisi, ma comunque molto utilizzati per le misurazioni del quadro elettrico.
Come calcolare la classe di precisione
Per calcolare la classe di precisione del tuo multimetro, nel caso in cui questa non fosse stata segnalata all’acquisto, avrai bisogno di eseguire una calibrazione e taratura. Tale procedura deve essere effettuata molto spesso nel caso si abbia un multimetro analogico, mentre i corrispettivi digitali hanno da questo punto di vista una maggiore autonomia.
Per scoprire la classe di precisione, tuttavia, avrai bisogno di un ulteriore dispositivo stavolta molto preciso e la cui classe di precisione sia conosciuta. Passa poi a effettuare numerosissime misurazioni, annotando sia i valori restituiti dal tuo multimetro, sia quelli rilevati dal tester di precisione. Osserva poi con attenzione quali sono state le differenze di misurazione più ampie. Dovrai poi effettuare i seguenti calcoli:
- prendi in considerazione l’errore massimo
- moltiplicalo per cento
- dividi il risultato per il valore del fondo scala
- arrotonda per eccesso, se necessario, il valore ottenuto
Il margine di incertezza di un multimetro digitale
Nel caso in cui avessi acquistato un multimetro digitale, ricorda che la sua accuratezza è determinata due parametri: la risoluzione e la precisione.
Il numero di cifre può essere:
- di tre e mezzo, il che corrisponde a una misurazione tra 0.000 e 1.999, commercializzata con la dicitura di 2000 count
- di tre e tre quarti, che corrisponde a una misurazione tra 2.999 e 9.999, commercializzata con la dicitura tra 2.000 e 10.000 count
- di quattro e mezzo, con una misurazione tra 0.0000 e 19.000, commercializzata come 000 count
Di seguito, ecco come i count rappresentano il margine di incertezza:
- 2000 count significa un errore pari a 0.5%
- 3200 count significa un errore pari a 0.3%
- 4000 count significa un errore pari a 0.25%
- 6000 count significa un errore pari a 0.15%
Appare evidente come più il count sia maggiore (e quindi sia maggiore il numero di cifre) e più l’errore sarà ridotto.
Per quanto riguarda invece la precisione, si tratta di un valore percentuale che restituisce quale sia il margine d’errore della misurazione. Questi valori percentuali sono gli stessi che abbiamo già visto parlando dei multimetri analogici.
Assicurati, in ultimo, di acquistare un tester dotato di True RMS, in grado cioè di misurare in modo molto affidabile e versatile tutti i tipi di onda.
Non ti resta che calibrare il tuo multimetro!