Disciplina F-329 Curso de
Verão
2.000 .
FUNDAMENTOS
BÁSICOS SOBRE ERROS
Com aplicações em eletricidade.
Apostila feita para o curso
F-429B
20 sem.1995,
revisada
07.01.99, 05.01.00.
A norma básica para o
tratamento
dos erros de medição é considerar que SEMPRE
EXISTEM, porque TODA
MEDIÇÃO
TEM ERRO. Mesmo elementar, as vezes podemos esquecé-la e
achar que os valores que manipulamos são perfeitos. É que
estamos acostumados a aprender a física por meio de
explicações
que envolvem valores já suficientemente testados onde foi visto
que os erros não podiam alterar conceitualmente as
conclusões
obtidas das medições. Portanto não é
necessário
nesses casos carregar junto os valores das incertezas. Em muitos outros
casos também esses valores não são fornecidos, no
que a pessoa que declara os resultados "assina embaixo" uma garantia de
que já realizou todas as análises necessárias de
maneira
a não haver incerteza nas conclusões. A análise de
erros é uma tarefa sempre trabalhosa e, como mesmo os grandes
especialistas
podem ter deixado de considerar algum fator, nunca é aceito um
resultado
de grande importância sem que este tenha sido verificado
experimentalmente
em mais de um laboratório. Os valores das constantes
fundamentais
usadas em metrologia devem ser homologados por três
laboratórios
específicos de diferentes países.
Até que ponto podemos confiar em valores e
aparelhos
fornecidos por terceiros?.
Essa questão não tem resposta, apenas disser que, quanto
mais critérios tenhamos aplicado para verificar nos mesmos
nossos
resultados, mais certos estaremos deles. Sobre os aparelhos,
convém
disser que além da confiabilidade em sua origem, as
mudanças
geradas pelo transporte e diversidade de ambiente podem ser suficientes
para invalidar os testes realizados antes do embarque.
Os antigos só filosofavam, não mediam? Mediam sim. Já séculos antes de Cristo um grego mediu o diâmetro da terra. Teve de medir distância entre duas cidades em passos, e não se comenta se houve estimativa de erros. Assim, seria errado dizer que a medida foi de boa precisão somente porque o valor indicado não difere muito do valor aceito hoje. Dizer p.ex.(1): 39.250 km (antes) e 40.000 km (hoje), é um erro menor que 2% não tem validade alguma. Mas o valor achado foi sem dúvida importante para a humanidade.
Diga-se de passagem, que não somente com exatidão cresce a humanidade. A viagem de Colombo (ano 1492) teve a negativa da famosa Universidade de Salamanca porque esta afirmou que Colombo não ia encontrar as Índias onde ele dizia estarem. O que era verdade, pelos cálculos, mas o que ninguém sabia (porém Colombo talvez desconfiasse) era que existía a América no meio do caminho.
Por outro lado, a ciência de
Galileo começou a definir bem o universo não apenas
porque
mediu os efeitos da gravidade com suas pulsações
arteriais,
no que obteve relações de proporção muito
boas,
senão também porque teve medições
astronômicas
realizadas por seu contemporâneo Tycho Brahe com cuidado e
dedicação
instrumental únicos na época.
Na medida em que as medições são feitas com menor erro vê-se que as teorias necessitam ser acrescidas de mais termos ou novas formulações que contemplem novos detalhes que são detectados. Einstein não teria como provar que sua teoria estava certa, se vivesse na época de Newton.
Ou cota máxima de erro, numa
medição, é o intervalo de incerteza n aleitura,
dentro
do qual sabemos que se encontra o valor medido.
Escolhemos para indicar o valor medido
o centro desse intervalo, que é um valor arbitrário de
referência,
e acrescenntamos a faixa de incerteza. Assim, expressamos o valor como:
x MAIS/MENOS DELTA x
quando o intervalo foi DELTA x, sendo x o valor no centro do intervalo. Muitas veces um valor vem com errro expressado em percentagem, por essemplo 10%, e expressaremos o valor medido como
x MAIS/MENOS DELTA x . 0,10/2
Curiosamente, algumas situações levam a definir um erro assimétricamente, como por essemplo:
x+1% , x-3%
quando uma lei de distribuição regula o processo aleatório (que é assim aleatório não gaussiano).
#3. ERROS SISTEMÁTICOS E ERROS ALEATÓRIOS
A primeira classificação geral chama de sistemáticos os que sempre acontecem da mesma maneira, enquanto os aleatórios podem ter valores positivos ou negativos, grandes e pequenos, com a mesma probabilidade ("distribuição gaussiana") ou seguindo alguma outra lei estatística em casos especiais.
Tomemos exemplos disto no caso dos erros de leitura num instrumento de escala com agulha como o galvanômetro. Temos que definir primeiramente o zero da escala fazendo alineação visual da agulha com a primeira divisão.
A posição dessa
primeira
divisão respeito das outras não pode ser perfeitamente
regular
senão o mais regular que o fabricante pode fazer. Se um erro
afetasse
essa posição ele ia afetar todas as leituras. Se, P.es.,
a primeira divisão está algo a direita do lugar certo ,
todas
as leituras serão algo maiores que o valor certo dando um erro
sistemático
de valor positivo e constante. Temos então que a precisão
da construção da escala afeta as medições,
de uma maneira que o fabricante calcula e inclui em sua
avaliação
do erro final. No exemplo anterior o erro foi sistemático, mas
podemos
pensar que o erro de posicionamento variasse aletoriamente para cada
divisão,
ou que houvesse uma combinação dos dois tipos de erros.
Atribuindo
a todos os erros o valor do erro máximo pode-se ganhar em
simplicidade
perdendo em precisão, que é o caso mais comum.
A calibração da
posição
inicial passa também pela qualidade do ajuste visual ao
considerar
que a linha de uma divisão está perfeitamente coincidente
com a linha da agulha. É fácil entender que isto depende
da precisão de nosso sistema visual (fator de erro
aleatório)
e também da espessura das linhas(Figura 1). Se as linhas
forem grossas o aparecimento da divisão pela lateral da agulha
ficaría
mascarado (Figura 1b). De todas maneiras o fator básico
vem
dado pelo menor detalhe que podemos visualizar, menor que uma
décima
de milímetro, mas que varia de uma pessoa para outra.
Fig.1: Aparência do erro de alinhamento em duas situações idênticas
a) No caso de linhas
finas.
b) No caso de linhas grossas.
(A agulha se vé fora
da
linha)
(A agulha se confunde com a linha)
A leitura na posição
final da agulha não acontece geralmente pela
sobreposição
exata da agulha com uma divisão, e o valor estimado para a
leitura
é mais afetado de erro. Quanto?. .
Tomemos o caso da Figura 2, onde a agulha se encontra na
posição
mais desfavorável.
Fig.2: Estimativa do
erro
máximo de leitura visual numa escala.
Duas linhas
divisórias
imaginarias aparecem tracejadas
definindo o
máximo
intervalo possível de erro visual.
Se fizermos uma subdivisão
mental
do espaço entre as divisões, em quanto poderíamos
faze-lo?. Dividamos o espaço em três e veremos que,
certamente,
se a agulha está próxima do centro, não poderemos
disser que está em algum dos outros terços, se
está
de um lado, também não. Assim, o erro seria 1/3 da menor
divisão. Poderíamos afirmar que a divisão mental
do
espaço entre divisões seria possivelmente mais precisa?.
Talvez sim, mas para isto o esforço mental passa a ser maior e a
situação menos natural. Somando então o valor de
1/3
a algum erro do ajuste do zero, temos a regra muito conhecida que diz "o
erro é metade da menor divisão do instrumento". Em
geral,
o fabricante define as divisões e o desenho do instrumento de
maneira
a atender essa norma, mas atenção, isto é certo
sempre
apenas respeito do erro visual e assume que a escala é sempre
uniforme,
o que, no caso de um ohmimetro p.es., não é verdade. Se o
instrumento estiver descalibrado ou outros fatores externos afetassem a
leitura, como uma instabilidade ou um erro sistemático, devidos
p.es. a flutuações na tensão da rede
elétrica
ou a mudanças na temperatura que afetam os componentes, a regra
deixa de valer.
O
ERRO NÃO VALE SEMPRE METADE DA MENOR DIVISÃO, APENAS O
ERRO
DE LEITURA VISUAL PODERIA VALER ISTO, MAS NÃO É BOM
GENERALIZAR
PARA TODA A EXPERIÊNCIA DE MEDIÇÂO SEM REFLETIR
ANTES
SOBRE A SITUAÇÃO.
Assim, não devemos nos entusiasmar demais pela alta precisão na leitura ao ponto de não perceber a presença de outros erros que estejam prejudicando a exatidão da medida. Embora a palavra exatidão seja a correta para definir o resultado final, a palavra precisão, que corresponderia estritamente à fineza da leitura, é usada frequentemente no mesmo sentido de exatidão.
Outros termos que não devem ser confundidos são precisão e sensibilidade. Uma alta sensibilidade não garante a estabilidade (repetição de uma mesma leitura) nem a linearidade da resposta. É conhecido o caso do detetor de infravermelho para astronomia defendido por Edison, o inventor da lâmpada elétrica e grande impulsor das usinas de eletricidade. Esse detetor era baseado em grãos de carvão e extremadamente sensível. Com seu grande prestigio Edison conseguiú a aprovação oficial para seu projeto , que nunca deu certo por falta de estabilidade, prejudicando um outro que finalmente ficou consagrado.
Podemos ainda analisar mais um tipo
de erro, o chamado "erro de paralaxe" (erro gerado pela
mudança
de perspectiva de uma cena). Como a agulha está um pouco acima
do
plano da divisão, se o observador está de lado
verá
a coincidência acontecer quando, na visão frontal,
não
acontece. Se sempre observasse desde a mesma posição (e
não
muito perto do painel), teríamos o caso feliz de um erro
sistemático
se cancelando na posição inicial e na
posição
final. Mas como não é garantido o posicionamento fixo do
observador, alguns instrumentos trazem junto da escala um pequeno e
espelho
onde deve-se alinhar a agulha com sua imagem refletida antes de medir.
desta maneira obriga-se o observador a ter uma visão frontal.
Temos deixado de considerar se o fenômeno elétrico teria leitura realmente linear. O elemento medidor básico é o galvanômetro de bobina móvel, que têm o campo magnético do imã uniforme e a agulha girando perfeitamente sobre seu eixo. A força eletromagnética se equilibra com a de recuperação de uma mola em forma de espiral que a agulha vai esticando. Mesmo assim a linearidade da leitura depende da linearidade da relação tensão-corrente, que não é universal porém muito comum, a chamada "Lei de Ohm".
Vale agora a pergunta:
Será que toda esta análise sobre os instrumentos de medição por agulha faz sentido nesta época de eletrônica digital?
Os medidores eletrônicos são diferentes dos elétricos. São mais delicados e incorporam elementos ativos, por isto necessitam de uma fonte de energia. São mais instáveis e sujeitos a mudanças dos materiais por causa do uso, clima ou simplesmente do tempo. São mais indicados para o caso de se querer medir sinais de pequena amplitude sem realizar correções pelo efeito da resistência interna dos equipamentos de medição. O medidor de bobina móvel necessita de uma certa quantidade de corrente para ser acionado, que retira do elemento sob medição. Isto é uma consequência do principio universal de que toda medição afeta aquilo que pretende medir. Para reduzir isto, usa-se o efeito amplificador da corrente elétrica, que foi inventado a partir da introdução de mais eletrodos numa lâmpadinha elétrica de filamento, gerando primeiramente o diodo e depois o triodo, que ao evoluir foi chamado de válvula eletrônica (de Forest, 1925). Um amplificador é um elemento que permite controlar um fluxo grande de energia com um gasto mínimo. É como no caso de se dirigir um carro ou regular uma torneira, com pouca energia controlamos a aplicação de um a quantidade bem maior. Uma válvula elétrica (ainda hoje usada nos transmissores das estações de radio e TV)ou os modernos transistores introduzem o potencial do sinal controlador de maneira a criar uma barreira que freie o fluxo da corrente elétrica desenvolvida a partir de uma fonte. Temos assim o multímetro eletrônico, que pode ter leitura por bobina móvel ou por mostradores de cristal líquido, onde cada número é composto por meio de sete segmentos que escurecem quando uma corrente (muito pequena) é aplicada. Um multímetro digital acostuma ser fabricado de maneira que o erro do instrumento coincida com o valor correspondente ao digito que não é mostrado, introduzindo geralmente um processo de arredondamento (si = 0,5 acrescenta 1, si <0,5 o despreza. Como ele incorpora amplificadores possui mais sensibilidade e pode ter mais precisão. Mesmo assim, podemos verificar em nosso laboratório de ensino que alguns valores são melhor medidos pelos instrumentos convencionais, também chamados de analógicos. De outro lado, o aparelho eletrônico tem mais tendência a mudar suas características por envelhecimento.
Se, medindo uma mesma fonte, notamos uma diferença de leituras entre um instrumento analógico e um digital, NÃO É CORRETO dizer que o analógico é o errado. Qualquer um dos dois pode errar.
Se medimos um valor de x por um método e obtemos o resultado x1, depois por outro método obtendo x2 , não faz sentido comparar Dx = x1 - x2 e disser que esse é o erro. Vejam que, por acaso, poderia ser nulo,emedição sempre tem erro (pense bem nisso). Posso comparar Dx1 com Dx2, para saber qual método é melhor. Observe de passo que os dois métodos, se tiveram o erro bem calculado, devem oferecer uma região de valores comuns, ou seja que as faixas de incerteza devem ter sobreposição e seria nessa região de sobreposição onde o valor correto deve se encontrar.
A única saída para avaliar completamente um instrumento é aferi-lo com instrumentos mais estáveis desenhados especificamente para aferições, ou por meio de elementos como pilhas e resistores do tipo chamado "padrão". A UNICAMP possui um laboratório específico apenas para aferir instrumentos de medição elétrica. O IPT (no campus da USP) e o INMETRO (no Rio de Janeiro) também. Os padrões usados são geralmente de terceira ou quarta geração, quer dizer que foram aferidos por padrões de terceira ou segunda geração, e assim por diante, até chegar nos padrões primários que são guardados nos principais institutos de metrologia do mundo (como no caso do metro padrão, feito de platina, P.es.) mas que cada vez mais conseguem ter uma definição que permitiria sua reconstrução a partir de propriedades físicas básicas e não pela cópia de uma peça que poderia eventualmente até desaparecer. Temos assim o padrão de tempo pelo relógio atômico, o de comprimento pelo comprimento de onda de uma certa luz de laser, ou, mais recentemente, pela distância percorrida pela luz numa fração muito bem definida de tempo, e outros.
Podemos provar um instrumento com testes de linearidade, como P.es., se uma pilha é lida como tendo :
1,5 ± 0,05 V
e outra
1,6 ± 0,05 V
devemos esperar que ao coloca-las
em
serie a leitura seja 3,1 ±
0,1 V. Se não fosse, perceberíamos assim o defeito (mas
não
poderíamos corrigi-lo).
Cada escala do instrumento pode ser linear, mais uma delas corresponder a uma constante que não é a correta. Nesse caso, é possível até que algum valor lido seja o mesmo nas duas escalas, por acaso.
Em muitas experiências o conhecimento do valor absoluto medido não é necessário, porque somente observam-se variações relativos sobre referências conhecidas. Se, p.es., medimos levantando uma curva que tem picos gerados por fenômenos conhecidos e já medidos, basta tomar a distância a esses picos como referência, o que nos livra de uma trabalhosa aferição. Mesmo assim, as experiências que um físico ou um engenheiro devem dessenvolver necessitam frequêntemente de conceitos criteriosos sobre erros. Imaginemo-nos trabalhando no desenho ou aferição de instrumentos, ou em experiências para as quais não ha instrumentos prontos para medição.
O uso rigoroso dos valores absolutos é importante na industria, p.es. quando os componentes não são produzidos numa mesma planta, ou seja, não são controlados pelos mesmos instrumentos. Componentes que saem de uma fábrica tem de se corresponder com os que vem de outra. A nível internacional isto gera o gerenciamento de normas rigorosas.
Se o fenômeno oferece variações maiores que o erro de leitura, os valores lidos serão diferentes ao se repetir a medição, podendo-se aplicar estatística, tirando a média <x> e o desvio quadrático, que é representado pela letra grega sigma(s ). A média representa o valor mais provável e o desvio o erro mais provável. Para isto o numero de medições precisa ser grande. Quanto?. Até que o valor da média e o do desvio deixem de ter variações apreciáveis(2) (vide explicação por extenso na Ref.2). Quanto é uma variação apreciável? A resposta sai da mesma consideração que define quanto é o erro tolerável, como veremos mais adiante.
Utilizamos:
x @ < x > ±s
com:
___________
<x > =
åxi
/N e: s
= Öå
(x-xi)2/N
(1)
Assim, usamos como erro
absoluto
Dx
o valor de s
, o que deixa uma probabilidade baixa de o erro estar fora dessa faixa.
Esta modalidade é usada em física porque dá o erro
mais provável e em engenharia onde permite baixar os custos de
produção.
De maneira absoluta (cota
máxima):
Uma magnitude resulta geralmente da medição de varias outras, combinadas numa fórmula. Os erros de leituras das magnitudes primárias afetam ao resultado de maneira diversa, segundo seja a fórmula. Chamamos isto de propagação do erro da magnitude primária no resultado final. Assim, se a magnitude A vem definida por uma fórmula como P.es.:
A = B . C / D
e as magnitudes B, C e D são medidas com erros DB, DC e DD, o erro DA vem de se obter o valor máximo possível de A:
AM = (B + DB) (C + DC)/ (D - DD)
e subtraí-lo do
mínimo:
Am = (B - DB)
(C - DC)/
(D + DD)
Assim, damos como valor de A a
média
e o desvio DA
segundo as relações:
A =
<A>
±DA
<A> =
(AM
+ Am)/2 ; DA
= (AM - Am)/2
(2)
que é o valor do erro, sem usar nenhuma aproximação. Teremos o valor de cota máxima do erro, independentemente de fazer uma ou mais medições,sem usar estatística nem aproximações. A validade depende da validade do modelo que gerou a fórmula de partida.
Apesar de ser uma
fórmula
simples, é mais certa que outras mais complexas que podem ser
usadas
somente dentro de aproximações.
Na aproximação diferencial:
Se a fórmula for muito
complexa
pode ser difícil manipula-la, ficando sempre disponível o
resultado por cálculo numérico (calculadora, computador).
Uma maneira de se obter fórmulas para os erros surge de
aproximar
os resultados do cálculo diferencial. Se é
possível
aceitar que o erro é pequeno (de novo a questão: quanto
é
"pequeno"?) frente ao valor medido, pode-se aproximar o erro DELTAx ao
valor diferencial dx, igualando o incremento da função
pela
derivada da curva:
y = f(x) ----> Dy»D
y* = dy/dx . Dx
(3)
que corresponde ao caso da Figura 3.
Fig.3:
Aproximação
do incremento de uma curva por meio da derivada. Observe o segmento
tangente
à curva representando a derivada.
Para saber quando isto é possível necessitamos de uma avaliação, que também não é simples, mas aceitando que alguém já testou o critério, teremos uma fórmula como:
onde não usamos o sinal da
derivada
porque, não sabendo o sinal do erro, escolhemos a
situação
mais desfavorável, a de que os erros sempre acontecem em nossa
contra
(algo como a "Lei de Murphy").
Observe que para fórmulas
contendo
somente produtos e divisões temos que:
DELTA A/A = DELTA B/B + DELTA C/C + DELTA D/D
ou seja que o erro relativo
é
a soma dos erros relativos de cada medição. Mas
não
se pode generalizar isto a qualquer tipo de fórmula.
Experimente usar agora uma
fórmula
de uma experiência das realizadas calculando o erro por (2) e por
(3).
Cálculo estatístico do erro propagado:
Se o numero de magnitudes (fatores de erro) for grande (Quanto?), podemos pensar que não seriamos tão azarados como para cair sempre no caso pior, e pensar que alguns dos erros poderiam aparecer de maneira favorável, diminuindo algo o valor do erro final(caduca a "lei de Murphy"). Nisto entra a estatística, calculando essa probabilidade. No caso normal, gaussiano, somamos os erros de maneira algo parecida à da soma de vetores:
Vejamos aproximadamente
como
isto funciona na Tabela 4, onde (1), (2) e (3) representam os termos
dentro
da raiz quadrada na equação 5.
termo em B | termo em C | termo em D | pela eq. 4 | pela eq.5 |
3 | 4 | 5 | 12 | 7,07 |
8 | 1 | 1 | 10 | 8,12 |
7 | 7 | 7 | 21 | 12 |
Tabela 4: Soma
estatística
de erros, alguns exemplos.
O erro cresce, mas não tanto quanto sua soma direta. Lembremos que este caso é independente da estatística nos erros de leitura, mas que os dois assumem uma probabilidade de não serem certos, que talvez poderia se chamar:"probabilidade de erro do valor estimado para o erro".
Quanto de erro é
bom?
1%, 5%? ... depende de cada caso. Se perguntarmos: 5 reais é
muito
dinheiro?, não haveria resposta possível sem o
conhecimento
do contexto da situação. Conhecer o tamanho de um ser
extraterrestre
com exatidão de 200% seria muito bom, já para se medir o
consumo de eletricidade de uma casa essa precisão seria
seguramente
insuficiente.
Ao colocar as faixas de erro na representação de valores medidos num gráfico, lembre sempre que a curva esperada pode passar por qualquer ponto dentro dessa faixa, não necessariamente pelo valor medido. Lembre também que o fato de um ponto medido ser superior (ou inferior) aos outros não indica que esse seja o máximo (ou o mínimo) da curva, visto que falta conhecer todos os outros pontos na vizinhança. No caso da interseção de duas curvas, observe que a extensão da largura delas até a faixa de erro determina uma possibilidade de deslocamento do ponto de interseção no sentido das abcissas, dando uma faixa de erro para o ponto de interseção.
14. Erros inesperados, de digitação e de separação de decimais.
As vezes um valor aparece muito
diferente
do esperado. Seja honesto e coloque ele no gráfico. Algo pode
estar
acontecendo e, se mascarar o erro, pode depois vir a perceber que todo
o trabalho foi afetado e perdido. Sequer forçe um valor a entrar
numa determinada curva. Por outro lado, não é
difícil
que um dado entre afetado por erro de digitação, e
então
fuja completamente do valor inicial. A solução
é
fazer como todo caixa de banco faz: digitar duas vezes e conferir que
se
obteve o mesmo resultado as duas vezes, pois é muito
improvável
cometer o mesmo erro de digitação duas vezes quando o
número
de entradas digitadas é grande.
A separação de decimais
na língua portuguesa se faz clássicamente por meio de uma
vírgula, podendo ser usado um ponto opcionalmente para
separação
de casas inteiras, de a três antes da vírgula. Exatamente
ao contrário da norma inglesa e estadounidense que,
infelizmente,
domina todas as calculadoras disponíveis, mesmo que fabricadas
ou
montadas no Brasil.
A proximidade de pessoas (professores,
economistas, até o presidente da república) falando em
"ponto"
no lugar de vírgula pode se dever à estreita
ligação
destes à influência da língua inglesa, mas
não
poderiamos usar a norma de maneira híbrida, visto que
sería
impossível dar valor ao número, p.es., 1.389 .
Sería
1.389 ou 1,389 ? A empressa de telefonía Tess perdeu em
1998
a primeira concorrência para explorar a banda B de
telefonía
celular, entre outros, por esse motivo, pois o valor oferecido como
pagamento
resultava irrissório. Foi um caso de mau uso da língua
portuguesa.
1)"Curso de Física Básica", H.M. Nussenzveig, V1, Ed. E. Blucher Ltda., 1983, p.19.
2)"Mecánica Elemental", Roederer, Juan G., cap.1, Editorial Universitária de Buenos Aires-EUDEBA, 1963, p.17-39(vide cÓpia fornecida na pasta da disciplina na biblioteca do IFGW).
3)"Problemas experimentais de Física", Guimaraes, Roversi, Hennies, ed. UNICAMP,1984, V2 e suplemento sobre "Algaritmos significativos, erros e desvios", ou edições mais atuais.
4)"Física Experimental I, Guia do Curso de Laboratório"C.H.Brito Cruz et al, Instituto de Física Gleb Wataghin, 1996.