Published on 12 Jun 2019.
Written by Caíke Crepaldi
Updated on 03 Aug 2019.
Read this in about 5 minutes

Propagação de incertezas

O conceito

Na disciplina de Física Experimental I (FEI), aprendemos que uma informação tão importante quanto o valor de uma grandeza é o quanto temos certeza desse valor.

Na vida real, o valor de uma grandeza é obtido por uma medição, e toda medição tem atrelada a ela um erro. Podemos definir o erro como a diferença entre o valor de uma medição e o valor verdadeiro da grandeza.

Este erro é uma combinação entre um erro aleatório, que age de maneira imprevisível na medição e está relacionado com a flutuação observada, e um erro sistemático, que age de maneira determinística na medição e está relacionado com um desvio no valor médio das medições.

Para expressar a dúvida causada pela ação desses erros usamos a incerteza. A incerteza é uma grandeza que nos diz qual o tamanho do intervalo ao redor do valor medido onde esperamos encontrar o valor verdadeiro com probabilidade P conhecida.

Portanto, saber a incerteza é tão importante quanto saber o valor de uma grandeza. Sendo assim, como é possível estimar a incerteza de uma grandeza que não é medida diretamente, mas calculada em função de grandezas que são?

A equação de propagação de incertezas

Seja \(f=f(\vec x)=f(x_1,x_2,\dots,x_N)\) uma grandeza que pode ser calculada em função de \(N\) outras grandezas. Suponha que medimos o valor das \(N\) grandezas,

\[x_1=a_1\pm\sigma_{1},\quad x_2=a_2\pm\sigma_{2},\quad\dots,\quad x_N=a_N\pm\sigma_{N},\]

e desejamos calcular o valor de \(f\). O valor da grandeza \(f\) será claramente dado por \(f=f(\vec a)=f(a_1,a_2,\dots,a_N),\) Mas e a incerteza?

A equação de propagação de incertezas nos diz como calculamos a contribuição de cada variável, \(x_i\), e sua incerteza, \(\sigma_{i}\), e como combinamos essas contribuições para calcular a incerteza total de \(f\), \(\sigma_f\).

Essa equação para qualquer \(f=f(x_1,x_2,\dots,x_N)\) é

\[\begin{equation}\label{prop_ind} \sigma_f = \sqrt{\left(\frac{\partial f}{\partial x_1}(\vec a)\;\sigma_{1}\right)^2+\left(\frac{\partial f}{\partial x_2}(\vec a)\;\sigma_{2}\right)^2+\dots+\left(\frac{\partial f}{\partial x_N}(\vec a)\;\sigma_{N}\right)^2}. \end{equation}\]

Essa equação é dada para medições \(x_i\) estatísticamente independentes. Se essas medições forem correlacionadas, precisamos adicionar termos na soma referentes a essa correlação. No entanto a equação \ref{prop_ind} é o suficiente para a disciplina de Física Experimental II.

Exemplo: Desvio-Padrão da média

Usando a definição de média:

\[\begin{equation} \bar x = \frac{1}{N}\sum_{i=1}^{N} x_i, \end{equation}\]

e supondo que todos os pontos \(x_i\) tem mesma incerteza \(\sigma\), temos pela equação \ref{prop_ind} que a incerteza propagada da média, \(\sigma_{\bar x}\), será:

\[\begin{equation} \sigma_{\bar x} = \sqrt{\frac{1}{N^2}\sum_{i=1}^{N} \sigma^2}=\frac{\sigma}{\sqrt{N}}, \end{equation}\]

que é a equação conhecida para o desvio-padrão da média de \(N\) pontos com desvio-padrão \(\sigma\).

Relação com a aproximação dada em FEI

Para aqueles que ainda se lembram, no experimento da densidade de polímeros dado em Física Experimental IFísica Experimental I - Roteiro do Experimento 2 - Aula 3: Densidade de Polímeros. Versão de 2019., o conceito de propagação de incertezas era apresentado de maneira bem simplificada.

O intuito do experimento era descobrir de qual polímero era feito diferentes cilindros regulares através da densidade. A densidade de um cilindro pode ser calculada em função da massa, \(m\), diâmetro, \(\phi\), e altura, \(h\), através da relação

\[\begin{equation} \rho = \rho(m,h,\phi) = \frac{m}{V} = \frac{4}{\pi}\frac{m}{h \phi^2}. \end{equation}\]

Utilizando uma balança, paquímetros e/ou micrômetros, obtemos os valores e incertezas de cada grandeza. Digamos que os resultados das medições foram

\[m = m_0 \pm \sigma_m, \quad h = h_0 \pm \sigma_h, \quad \phi = \phi_0 \pm \sigma_\phi.\]

A contribuição de uma variável qualquer, \(x\), na incerteza da densidade era calculada como a variação no valor da densidade quando variamos o valor medido dessa grandeza, \(x_0\), de uma incerteza, \(\sigma_{x}\), pra mais ou para menos

\[\begin{equation} \Delta\rho_{\boldsymbol{[}x\boldsymbol{]}}=\rho-\rho _x=\rho(\dots,x_0,\dots) - \rho(\dots,x_0+\sigma_x,\dots). \end{equation}\]

Ou seja, a contribuição da massa seria

\[\begin{equation} \Delta\rho_{\boldsymbol{[}m\boldsymbol{]}}=\rho-\rho _{m}=\rho(m_0,h_0,\phi_0) - \rho(m_0+\sigma_m,h_0,\phi_0). \end{equation}\]

As outras contribuições são análogas

\[\begin{equation} \Delta\rho_{\boldsymbol{[}h\boldsymbol{]}}=\rho-\rho _{h}=\rho(m_0,h_0,\phi_0) - \rho(m_0,h_0+\sigma_h,\phi_0), \end{equation}\] \[\begin{equation} \Delta\rho_{\boldsymbol{[}\phi\boldsymbol{]}}=\rho-\rho _{\phi}=\rho(m_0,h_0,\phi_0) - \rho(m_0,h_0,\phi_0+\sigma _\phi). \end{equation}\]

Por fim essas contribuições deveriam ser combinadas. Uma forma de combiná-las seria somando o módulo dessas contribuições, no entanto, a forma correta é tomar a raíz quadrada da soma de cada contribuição ao quadrado, ou seja

\[\begin{equation} \sigma_f = \sqrt{ (\Delta \rho_{\boldsymbol{[}m\boldsymbol{]}} ) ^2 + (\Delta \rho_{\boldsymbol{[}h\boldsymbol{]}} ) ^2 + (\Delta \rho_{\boldsymbol{[}\phi\boldsymbol{]}} ) ^2 }. \end{equation}\]

Ou para uma função genérica \(f(\vec x)=f(x_1,x_2,\dots,x_N)\):

\[\begin{equation}\label{prop_aprox} \sigma_f = \sqrt{ (\Delta \rho_{\boldsymbol{[}x_1\boldsymbol{]}} ) ^2 + (\Delta \rho_{\boldsymbol{[}x_2\boldsymbol{]}} ) ^2 + \dots +(\Delta \rho_{\boldsymbol{[}x_N\boldsymbol{]}} ) ^2 }. \end{equation}\]

Isso é algo bem semelhante a equação de propagação formal (eq. \ref{prop_ind}), não é mesmo? O que temos é que, nesta aproximação, tomamos uma derivada parcial de passo não infinitesimal, \(\sigma_i\),

\[\begin{equation}\label{aprox} \frac{\partial f}{\partial x_i}(\vec a) \simeq \frac{f(a_1, \dots , a_i+\sigma_i, \dots ,a_n) - f(a_1, \dots, a_i, \dots ,a_n)}{\sigma_i} . \end{equation}\]

A equação \ref{aprox} é conhecida como Fórmula das Diferenças Finitas, e é usada geralmente para diferenciação numérica. Se essa aproximação for razoável, podemos escrever,

\[\begin{equation} \frac{\partial f}{\partial x_i}(\vec a)\; \sigma_i = f(a_1, \dots , a_i+\sigma_i, \dots ,a_n) - f(a_1, \dots, a_i, \dots ,a_n) . \end{equation}\]

Ou seja,

\[\begin{equation} \frac{\partial f}{\partial x_i}(\vec a)\; \sigma_i = \Delta f_{\boldsymbol{[}x_i\boldsymbol{]}} , \end{equation}\]

o que nos mostra que as equações \ref{prop_ind} e \ref{prop_aprox} são equivalentes. No entanto fica a pergunta: Quando que a aproximação \ref{aprox} é boa? A resposta é simples: Quando o erro for suficientemente baixo.

Podemos definir o módulo do erro como:

\[\begin{equation} |\xi(x,h)| = \left|\frac{\partial f}{\partial x_i}(\vec a) - \frac{f(\dots , a_i+\sigma_i, \dots) - f(\vec a)}{\sigma_i}\right| \end{equation}\]

Através do Teorema de Taylor, temos

\[\begin{equation} f(x+h) =f(x) + h f'(x) + \frac{h^2}{2}f''(\zeta),~~\zeta\in (x,x+h), \end{equation}\] \[\begin{equation} \frac{f(x+h) -f(x)}{h} = f'(x) + \frac{h}{2}f''(\zeta). \end{equation}\]

O que nos leva a estimativa de erro máximo:

\[\begin{equation} \left|\xi(x,h)\right|\leq \frac{h}{2}\max_{x\in [x,x+h]} |f''(x)|. \end{equation}\]

Com isso fica fácil de perceber que a aproximação será boa em 2 casos:

  • Se \(\sigma_i\) for suficientemente pequeno;
  • Se a derivada segunda da função em relação a variável de interesse for suficientemente pequena, ou seja, que a função seja aproximadamente linear no intervalo \([x_i,x_i+\sigma_i]\).