Salve,
so che questo è un argomento già trattato n-volte, ma volevo fare un riassunto di quello che ho letto e mi è sembrato di capire.
Tutto è partito da voler fare una misura della temperatura ambiente il più possibile vicino alla realtà. Ci sono tanti sensori che fanno a tale scopo. Quale sensore scegliere magari lo affrontiamo separatamente, ma a titolo di esempio ho considerato il DHT22.

Dalla tabella risulta:
- accuratezza +-0,5°C
- risoluzione 0,1°C
- ripetibilità/precisione +-0,2°C
- tempo di aggiornamento 2s
Quindi supponiamo di avere una temperatura ambiente di 20°C misurata con un termometro di riferimento.
Se leggiamo la temperatura ambiente con il DHT22 mi aspetto di leggere un valore che va da -0,5-0,2+20=19,3°C a 20+0,5+0,2=20,7°C con passo di 0,1°C.
Se la temperatura rilevata dal mio termometro di riferimento passa a 20,01°C o a 20,04°C l'intervallo del DHT22 non varia. Se la temperatura di riferimento passa a 20,05°C o a 20,09°C, l'intervallo di incertezza diventerà da 19,4°C a 20,8°C.
Se l'accuratezza fosse stata solo positiva o negativa (non so se gli altri sensori hanno questa caratteristica, non li ho ancora guardati con attenzione) la situazione si dovrebbe semplificare come nella seguente figura.

In questo caso a 20°C leggerò una temperatura che può variare da -0,2-0+20=19,8°C a 20+0,5+0,2=20,7°C.
Spero di non aver scritto un mucchio di caxxate. Vorrei sentire la vostra opinione.
Comunque vada la mia temperatura letta sarà quasi sempre sbagliata ;D