Volevo sapere se a Senigallia si devono stimare anche gli errori sistematici e in caso affermativo come orientarsi.
MISURA DIRETTA
Per esempio in una misura diretta ripetuta ho visto due metodi:
1) dopo avere calcolato il valor medio scelgo la deviazione standard della media o un suo multiplo come errore casuale. L'errore sistematico viene determinato dall'errore di sensibilità, lo stesso per tutti i dati.
2) oppure l'errore casuale come il massimo tra deviazione standard della media e errore di sensibilità.
L'errore sistematico dalla precisione degli strumenti dichiarata dai costruttori (per esempio gli amperometri di solito sono precisi all'1% ecc. ma con una riga al mm come mi comporto?)
In entrambi i casi poi l'errore assoluto si ottiene dalla somma in quadratura.
I risultati sembrano molto simili ma concettualmente mi sembrano diversi.
MISURA INDIRETTA
Qui farei così: dovendo misurare una costante fisica z che dipende dai parametri a, b e c;
misuro a, b, e c varie volte (mi servono i loro errori di sensibilità in questo caso?, di solito li prendo per fare poi le barre di errore ma con tre grandezze non saprei)
calcolo le varie z, e il loro valore medio.
Per l'incertezza casuale scelgo un multiplo della deviazione standard della media o la semidispersione massima se ho fretta.
Per la sua incertezza sistematica utilizzo la precisione relativa di a, b, e c e con la propagazione degli errori ho l'incertezza sistematica su z.
Quindi sommo con la radice parte casuale e parte sistematica.
Può andare?