Misure di temperatura...un po' di teoria

Salve,
so che questo è un argomento già trattato n-volte, ma volevo fare un riassunto di quello che ho letto e mi è sembrato di capire.
Tutto è partito da voler fare una misura della temperatura ambiente il più possibile vicino alla realtà. Ci sono tanti sensori che fanno a tale scopo. Quale sensore scegliere magari lo affrontiamo separatamente, ma a titolo di esempio ho considerato il DHT22.

Dalla tabella risulta:

  • accuratezza +-0,5°C
  • risoluzione 0,1°C
  • ripetibilità/precisione +-0,2°C
  • tempo di aggiornamento 2s

Quindi supponiamo di avere una temperatura ambiente di 20°C misurata con un termometro di riferimento.
Se leggiamo la temperatura ambiente con il DHT22 mi aspetto di leggere un valore che va da -0,5-0,2+20=19,3°C a 20+0,5+0,2=20,7°C con passo di 0,1°C.

Se la temperatura rilevata dal mio termometro di riferimento passa a 20,01°C o a 20,04°C l'intervallo del DHT22 non varia. Se la temperatura di riferimento passa a 20,05°C o a 20,09°C, l'intervallo di incertezza diventerà da 19,4°C a 20,8°C.

Se l'accuratezza fosse stata solo positiva o negativa (non so se gli altri sensori hanno questa caratteristica, non li ho ancora guardati con attenzione) la situazione si dovrebbe semplificare come nella seguente figura.

In questo caso a 20°C leggerò una temperatura che può variare da -0,2-0+20=19,8°C a 20+0,5+0,2=20,7°C.

Spero di non aver scritto un mucchio di caxxate. Vorrei sentire la vostra opinione.

Comunque vada la mia temperatura letta sarà quasi sempre sbagliata ;D

ecco che quindi facendo una media di 10 o 20 letture ti avvicini molto alla sommità della gaussiana