Caleidoscópio
20/08/2018

No último episódio…

No texto anterior, falamos sobre o que é corrente elétrica. Partimos do básico, comentando as minúsculas partículas que compõem a matéria: prótons, elétrons e nêutrons. Em seguida, explicamos o papel de uma pilha, que “bombeia” os elétrons, fazendo-os se mover ordenadamente ao longo de um circuito formado por um fio de cobre, por exemplo. Agora, veremos como esse fluxo ― ou corrente elétrica ― pode ser usado para acender uma lâmpada, e explicaremos as semelhanças e diferenças entre esse fenômeno e o que ocorre quando você liga um eletrodoméstico na tomada.

Em brasa

Digamos que, além da pilha, fazemos o fio de cobre passar por uma lâmpada incandescente (daquelas antigas, com luz amarelada, que esquentavam bastante e por isso caíram em desuso). Uma corrente elétrica vai se estabelecer, conforme explicamos antes, e os elétrons se moverão ordenadamente ao longo de todo o circuito composto pelos pedaços de fio e pelo filamento da lâmpada. Esse filamento é composto de outro tipo de metal, como por exemplo o tungstênio. O que faz a lâmpada acender é o fato de que os elétrons da corrente vão se chocar fortemente com os átomos de tungstênio, aumentando a agitação natural destes. Como já mencionamos no texto anterior, essa é a agitação térmica, traduzida pela temperatura do filamento; portanto, essa temperatura aumenta.

Ou seja, a função da corrente elétrica, numa lâmpada incandescente, é simplesmente esquentar o filamento metálico, eventualmente provocando o que chamamos de emissão térmica. Você provavelmente já viu, pelo menos em filmes, um metal sendo aquecido até que comece a ficar em brasa, ganhando luz própria. É exatamente isso que ocorre na lâmpada incandescente: ela esquenta tanto que começa a emitir luz visível. (E a maior parte da energia é gasta no aquecimento em si, e não na emissão luminosa; por isso a eficiência energética dessas lâmpadas é terrível.)

Tanto a espada sendo forjada quanto a lâmpada incandescente emitem luz por aquecimento. (YouTube - Niels Provos/Wikimedia Commons)

Revezando os polos

Tudo o que dissemos até agora se refere ao que chamamos corrente contínua: a pilha “induz” um sentido preferencial de movimento para os elétrons, e esse sentido é fixo, do polo positivo para o negativo da pilha. A coisa toda é diferente se você liga um eletrodoméstico na tomada. A tensão elétrica entre os terminais da tomada é alternada, o que significa que ela induz no circuito do eletrodoméstico uma corrente que varia no tempo: ora tem um sentido, ora outro. É como se a tomada fosse uma pilha cujos polos se invertem periodicamente: o que é negativo em um instante vai se tornando positivo ao longo do tempo, depois voltando a ser negativo gradativamente. Esse “revezamento” se dá o tempo inteiro, e um ciclo completo ― isto é, um terminal sendo o “máximo positivo”, se transformando em negativo, e retornando ao máximo positivo ― se repete, no caso da rede elétrica brasileira, 60 vezes em um único segundo! Por isso dizemos que a corrente da rede é de 60 Hz (lê-se: hertz); um hertz significa “um ciclo por segundo”.

A consequência disso, como já dissemos, é que a corrente elétrica fica mudando de sentido o tempo todo. E essa variação é simétrica, no sentido de que o tempo que os elétrons levam se movendo para lá é o mesmo que levarão, logo em seguida, se movendo para cá. Não só isso: no final de um ciclo, o deslocamento dos elétrons é nulo! Note que isso ainda é um movimento ordenado, diferentemente da agitação térmica: embora o sentido do movimento seja variável ao longo do tempo, se você tirasse uma “foto” instantânea dos elétrons, veria que, num certo instante, eles têm exatamente o mesmo comportamento que os elétrons em uma corrente contínua. A principal diferença é que o sentido da corrente muda o tempo inteiro. Isso é o que chamamos de corrente alternada: os elétrons ficam indo e voltando ordenadamente, como em uma ciranda onde as crianças se movem ora para um lado, ora para o outro. (Veja esta animação!)

Sério mesmo?

De fato, é estranho (ou, no mínimo, contraintuitivo) o fato de que você pode estabelecer uma corrente elétrica sem fixar um único sentido de movimento, com elétrons indo e voltando. Lembre, porém, do exemplo da lâmpada incandescente. Mesmo com uma corrente alternada, ainda haverá, da mesma forma, as colisões dos elétrons com os átomos do filamento, e a transferência de energia que provocará um aumento na temperatura e consequentemente a emissão de luz. Ou seja, o funcionamento da lâmpada, em princípio, independe de a corrente ser contínua ou alternada! Da mesma forma, os aparelhos que temos em casa poderiam funcionar com os dois tipos de corrente (alguns deles, inclusive, só funcionam com corrente alternada, por diferentes motivos).

Em inglês, corrente alternada se diz alternating current (AC), e corrente contínua, direct current (DC). Por isso, em equipamentos antigos que eram feitos para operar com os dois tipos de tensão, podiam-se ler as iniciais: AC/DC. Ainda hoje podemos encontrar essa inscrição em multímetros, que são um tipo de instrumento feito para tomar medidas elétricas. Daí o nome da famosa banda de rock encabeçada pelos irmãos Young!

Agradeço aos colegas Victor Mello, Gabriel Toschi e Clara Vidor pelos comentários e discussões que deram ao texto sua forma final.



Mais sobre o assunto:

Rradiação térmica (Wikipédia)

Por que as lâmpadas fluorescentes são mais eficientes do que as incandescentes? (Canaltech)

Animação ilustrativa dos dois tipos de corrente (YouTube)

Visualizando o potencial elétrico (YouTube)

Mais sobre corrente contínua e alternada (Mundo Educação)



13/08/2018

Eletricidade é uma palavra muito comum no nosso dia-a-dia, mas o verdadeiro significado dessa ideia ainda pode parecer misterioso para muita gente. Por exemplo: talvez você já tenha ouvido falar que a tensão elétrica que nós recebemos em casa, nas nossas tomadas, é uma tensão alternada. É possível que você nem tenha ouvido esse termo, mas provavelmente já ouviu ou leu que a tensão da rede elétrica “é de 60 Hz”. O que isso realmente significa? O que é uma corrente alternada, afinal?

A matéria é feita de átomos

Como ponto de partida para falar sobre corrente elétrica, vamos comentar muito brevemente a composição da matéria. Se você pegasse um pouco de qualquer sólido, líquido ou gás e conseguisse enxergar com um aumento de uns 100 milhões de vezes, veria que ele é feito de átomos. Simplificadamente, pode-se pensar num átomo como feito de um núcleo pequeno e denso, rodeado por elétrons. O núcleo contém prótons ― com carga elétrica positiva ― e nêutrons ― sem carga elétrica. Os elétrons, que circundam o núcleo, têm carga negativa, e eles são os responsáveis pela corrente elétrica com que lidamos no dia a dia.

A ilustração ao lado mostra uma visualização um pouco antiga, porém útil, de um átomo: os elétrons (em roxo) orbitam o núcleo formado pelos prótons (em vermelho) e nêutrons (em preto). (Créditos: Henry Schmitt)

A nível atômico, pode-se dizer que o que mantém a matéria unida é a atração entre elétrons e prótons: cargas de sinais opostos se atraem (*). Porém, a intensidade dessa coesão varia muito de material para material, dependendo de diversos fatores. Nos chamados condutores elétricos, como os metais, por exemplo, há alguns elétrons (tipicamente um ou dois por átomo) que são muito fracamente atraídos pelo núcleo, ficando “livres” o bastante para conduzir corrente, conforme veremos mais adiante: são os chamados elétrons de condução.

(*) Esse não é o modelo mais preciso que há hoje, mas é suficiente para o nível da nossa discussão. Para saber um pouco mais sobre modelos atômicos, isto é, descrições que os cientistas adotaram ou adotam para o átomo, veja a referência ao final do texto.

A matéria não é estática

Agora, pense num sólido (por exemplo, um fio de cobre). Embora a nível macroscópico esse objeto pareça rígido e estático, hoje sabemos que, olhando mais de perto, não é bem assim. Na verdade, os átomos que compõem esse material nunca estão realmente parados: eles estão vibrando, numa espécie de dança, uma coreografia aleatória e completamente desordenada; uns balançam da esquerda para a direita, outros de cima para baixo, alguns para frente e para trás e um zilhão deles em outra infinidade de direções. Em um sólido, porém, cada átomo “balança” sem sair muito do lugar, pois, em certo sentido, eles são mantidos “presos”, cada um na sua posição. Numa linguagem um pouco mais formal, dizemos que eles oscilam com pequena amplitude em torno da posição de equilíbrio - onde “pequena” quer dizer “muito menor que a distância entre os átomos” (a qual já é minúscula para a escala humana!).

Em resumo, os átomos apresentam uma vibração bastante desordenada, à qual chamamos agitação térmica; quanto maior a temperatura do material, mais rapidamente se dão essas oscilações. O que ocorre com os elétrons de condução, em “condições normais”, é muito parecido: eles se mexem desordenadamente, sem uma direção preferencial. É como em uma roda punk: as pessoas são atiradas para todos os lados, sem qualquer distinção ou civilidade. Essa explicação tem o objetivo de distinguir claramente esse tipo de movimento daquilo que chamamos de corrente elétrica.

Ligando as pontas

Para deixar as coisas mais interessantes, vamos conectar as duas pontas do nosso fio de cobre às extremidades de uma pilha (na prática, não é uma boa ideia fazer isso diretamente, pois você vai provocar um curto-circuito!). O que ocorre em uma pilha é um conjunto de reações químicas que, na prática, puxa elétrons de uma região (o polo positivo), forçando-os a se mover para outra (o negativo). É interessante pensar no conjunto dos elétrons de condução como um fluido ― por exemplo, água ―, e no circuito elétrico como uma tubulação fechada. Nessa analogia, a pilha desempenha o mesmo papel que uma bomba d’água, que gasta energia para colocar a água em movimento, fazendo surgir um fluxo ou vazão na tubulação.

A pilha funciona como uma bomba d’água, impulsionando os elétrons a se moverem numa dada direção, de acordo com a disposição dos polos. (Na figura, o movimento dos elétrons é indicado pelas setas verdes.)

Nessas condições, os elétrons de condução estarão se movendo ordenadamente, respeitando o fluxo que foi criado pela pilha. É isso que caracteriza a corrente elétrica: um movimento ordenado de cargas, que, em vez de simplesmente agitarem-se de modo aleatório, seguem um sentido específico. A agitação térmica ainda ocorre, e, portanto, os elétrons não se movem todos de forma idêntica, mas seguem uma direção aproximada. É como uma turma de alunos saindo da sala de aula na hora do recreio: cada um caminha do seu jeito, mas há uma direção preferencial, que é de dentro para fora da sala.

Em breve, falaremos sobre como essa corrente pode, por exemplo, acender uma lâmpada incandescente. Você entenderá, ainda, que existe uma diferença fundamental entre essa corrente elétrica, gerada por uma pilha, e aquela que é produzida pelas tomadas da sua casa. Aguarde!

Agradeço aos colegas Victor Mello, Gabriel Toschi e Clara Vidor pelos comentários e discussões que deram ao texto sua forma final.



Mais sobre o assunto:

Corrente elétrica em um nível um pouco mais técnico (Mundo Educação)

Modelos atômicos (Wikipédia)

Curto-circuito (InfoEscola)

Da curiosidade à tecnologia: nasce o eletromagnetismo



19/04/2018

Você já se perguntou por que nós, humanos, bem como a maioria dos animais (pelo menos os vertebrados), temos dois olhos? Um não basta? E se eu te disser que a resposta não só é incrivelmente simples como também se relaciona à astronomia e aos filmes 3D?

Ter dois olhos pode parecer desnecessário, à primeira vista (sem trocadilhos!). Por exemplo: olhar para as coisas com um dos seus olhos coberto não afeta certas propriedades dos objetos que você enxerga, como as suas cores. “Ótimo”, você pensa, “um é o bastante” - mas um experimento bem simples pode mostrar que isso não é bem verdade.

Tome uma folha de papel em branco e desenhe um pequeno ponto nela. Então, levante-a à altura dos seus olhos e, mantendo um deles fechado, tente tocar o ponto com o seu indicador vindo verticalmente, de cima (como se fosse uma garra daqueles brinquedos de parque de diversão, onde te desafiam a “pescar” algum bicho de pelúcia). Você logo perceberá que a tarefa não é tão trivial quanto parece. O que tal experimento mostra é que você precisa de dois olhos se você quer ter uma percepção nítida da profundidade. Olhar para o mundo com um único olho o faria parecer plano, mais ou menos como um filme comum, 2D (em que você tem uma sensação de profundidade limitada, baseada apenas na perspectiva e nos padrões de luz e sombra). Mas, afinal, por que razão um segundo olho faz tanta diferença

Figura 1: visão monocular (um olho). Você só sabe que a fonte luminosa está na reta s, o que não é o bastante para distinguir entre A, B e C.

A explicação tem a ver com Biologia, Física e, principalmente, Geometria. De fato, quando um fóton (uma partícula de luz) atinge a sua retina, a única informação que ele carrega sobre a localização de sua origem é a direção: a forma como ele colide com suas células sensitivas é suficiente para o seu cérebro saber se ele veio de frente ou num ângulo de 45 graus ou qualquer outra coisa (o que só funciona porque o cérebro “sabe” que a luz viaja em linha reta). Noutras palavras, seu cérebro pode garantir que o ponto que você vê está em uma reta bem específica, e um olho é o suficiente para isso. O problema é: assim como o ponto que você realmente observa, muitos outros (infinitos, aliás!) estão exatamente na mesma reta, o que faz ser impossível distinguir entre eles apenas com a noção da direção. Melhor explicando: feixes de luz vindo de qualquer desses pontos atingiriam a sua retina exatamente da mesma forma, então como você pode afirmar qual deles é a verdadeira fonte da luz que você recebe?

Figura 2: visão binocular (dois olhos). Você sabe que a fonte está tanto na reta s quanto na reta t, então ela deve estar em A, e não em qualquer outro ponto.

E é aí que entra o papel do segundo olho. Através do mesmo mecanismo, seu cérebro agora pode garantir que a fonte de luz (o ponto que você observa) está, também, numa outra linha reta. E, como nos diz a Geometria Euclidiana, o lugar onde duas retas se encontram é um ponto específico(*). Tcharam! O ponto está determinado e agora você tem certeza da sua posição no espaço tridimensional, o que inclui a distância até você - daí a noção de profundidade passa a fazer sentido. Isso é tecnicamente chamado visão estereoscópica ou, em palavras simples: visão 3D.

(*) Se duas linhas retas se cruzam, elas se cruzam num único ponto. Essa ideia intuitiva é uma das "verdades absolutas" dentro da chamada Geometria Euclidiana, formalizada pelo matemático grego Euclides. Veja os exemplos abaixo: as retas a e b se cruzam no ponto P; as retas c e d são paralelas e não se cruzam. Há ainda uma outra forma de as retas não se cruzarem, que é quando elas não estão no mesmo plano. Pense em duas arestas ("lados") de um cubo, que não pertençam à mesma face.

Essa é uma visão simplificada do fenômeno, a qual funciona bem nas escalas de distância do dia-a-dia. Mas agora imagine que o ponto A está localizado a 150.000.000 quilômetros de distância. Neste caso, a separação entre seus olhos (que não ultrapassa 10 cm) se torna imensuravelmente pequena. Para uma fonte luminosa tão distante, seus olhos funcionam como se fossem apenas um, já que estão muito próximos um do outro. Pense em termos da Fig. 2: se as retas s e t se cruzassem num ponto muito afastado, você teria a impressão de elas serem paralelas, e ficaria difícil estimar com precisão o local dessa interseção. Assim, voltamos ao problema da visão monocular: você não consegue saber a distância do ponto P.

Isso é tipicamente o que ocorre quando olhamos para o céu: as coisas estão muito distantes, e a noção de profundidade acaba se perdendo. Você já olhou para duas estrelas à noite e se perguntou qual das duas está mais próxima de nós? Difícil, não? Impossível, na verdade, pelo menos a olho nu - e agora você sabe o porquê. Mesmo com um telescópio, foi só em 1838 que os astrônomos conseguiram usar geometria para estimar a distância absoluta de certas estrelas. Além disso, os dois pontos de vista separados não eram dois olhos, mas sim dois pontos na órbita da Terra - o afélio e o periélio, distando 300 milhões de quilômetros um do outro.

Se não se pode “sentir” a profundidade com um único olho, você pode imaginar que o mesmo se aplica a uma única lente ou, mais precisamente, uma única câmera. Uma câmera funciona basicamente como o olho humano. É por isso que um filme gravado com uma câmera comum parece, de certa forma, plano - como dissemos antes, você pode ter uma noção da profundidade, baseada nas sombras e perspectiva, mas isso é notoriamente diferente do que você vê na vida real. Então, se você quer fazer que um filme pareça tão realista quanto o mundo que nos cerca - ao menos no que se refere à visão estereoscópica -, você precisa, primeiramente, gravá-lo com duas lentes separadas. Sim, é isso que os diretores dos filmes 3D usam! (Há ainda o problema de fazer você ver duas imagens separadamente, o que traz à tona aqueles óculos especiais, com muita Física envolvida, mas isso é assunto para outro texto…)

Figura 3: câmera utilizada em fotografia ou filmagem 3-D. Créditos: Bilby

Agora, uma breve retomada. Partimos do questionamento: ter dois olhos é, realmente, importante? Um simples experimento mostrou que, com um único olho, é difícil ter uma noção de profundidade, pelo menos em uma situação específica. Investigando a forma como o nosso olho recebe a luz dos objetos e interpreta essa informação, concluímos que, de fato, ter dois pontos de vista é algo fundamental para saber as distâncias que nos separam dos objetos. Vimos, depois, que essa mesma ideia geométrica se aplica no cinema e até em problemas de astronomia.

Fantástico, não? É disso que a Ciência trata: reunir diferentes fenômenos, que podem parecer totalmente desconectados, e explicá-los através dos mesmos princípios básicos. É isso que a torna tão bela - pelo menos na minha opinião. Então, mantenha seus (dois) olhos abertos e não pare de aprender!

Agradeço ao prof. Dr. Luiz Vitor de Souza, do IFSC/USP, pela revisão final ao texto.


10/04/2018

Um prego longo, um fio de cobre (esmaltado, de preferência), uma pilha grande e um pouco de fita adesiva: isso é tudo o que você precisa para construir um ímã caseiro. Sim, um ímã!

A receita é simples. Corte aproximadamente 1 metro do cobre e enrole-o ao longo do prego, de modo a criar uma única camada de fio. Retire o esmalte isolante das pontas do fio e prenda cada uma delas a uma extremidade da pilha, usando a fita adesiva. Pronto! Seu pequeno dispositivo já é capaz de atrair objetos magnéticos leves, como moedas e clips. Apenas tome cuidado para não manter as extremidades ligadas à pilha por muito tempo, pois isso a desgasta e o fio pode eventualmente superaquecer. (Para um passo-a-passo mais detalhado, consulte as sugestões ao final do texto.)

Dois conceitos importantes:

(1) Hoje sabemos que uma corrente elétrica é um movimento ordenado de cargas elétricas (partículas carregadas), que transportam energia. É o que sai da sua tomada ou de pilhas e baterias, capaz de fazer aparelhos elétricos funcionarem.

(2) De maneira bem simples, você pode entender um campo magnético como uma região do espaço que é capaz de interagir com ímãs e objetos magnéticos, atraindo-os, repelindo-os ou simplesmente orientando-os (fazendo-os girar). Nas proximidades de um ímã, sempre surge um campo magnético.

Mas por quê?

A montagem descrita acima é o que se chama de eletroímã, ou seja, um ímã obtido a partir da eletricidade. O fundamento físico por trás dos eletroímãs é o fato de que toda e qualquer corrente elétrica(1) que flui através de um condutor (um fio metálico, por exemplo) cria um campo magnético(2) em suas proximidades. Esse fenômeno foi descoberto em 1820 pelo físico dinamarquês Hans Christian Öersted (1777 - 1851), que observou que uma bússola posicionada abaixo de um fio por onde passava corrente se orientava formando um ângulo reto com o fio. Como já se sabia que as bússolas tendem a se alinhar com campos magnéticos, Öersted concluiu, corretamente, que a corrente no fio havia produzido magnetismo ao seu redor.

Figura 1: Ilustração do experimento de Öersted. Retirado de uma obra de 1876, de Agustin Privat-Deschanel.

Talvez tal descoberta pareça pouco relevante, mas, na verdade, esse foi o primeiro passo rumo ao surgimento do eletromagnetismo. Com efeito, era uma época em que ainda não se entendia bem a natureza dos fenômenos elétricos e magnéticos. A eletricidade era observada desde a antiguidade como uma propriedade de certos materiais atritados, que se tornavam capazes de atrair pequenos objetos. Já no século XVIII, descobriu-se que ela se relacionava com os relâmpagos e os movimentos musculares de animais, e em 1799 o italiano Alessandro Volta (1745 - 1827) criou a chamada pilha voltaica, a tataravó das baterias atuais. Quanto ao magnetismo, já era antigo o conhecimento de que certos minerais tinham a capacidade de atrair o ferro, e navegadores chineses e europeus utilizavam a bússola para se orientar em alto-mar desde séculos passados. (As bússolas funcionam porque se alinham com o campo magnético próprio da Terra, o qual segue aproximadamente a direção norte-sul geográfica.) Esses dois conjuntos de fenômenos eram pouco compreendidos pelos contemporâneos de Öersted, cujo experimento trouxe a primeira forte evidência de que havia uma íntima relação entre eles, dando um impulso para que os pesquisadores da época investigassem o tema mais a fundo.

Figura 2: Ilustração da pilha de Volta. Retirado de uma obra de 1893, de Adolphe Ganot.

E eles investigaram...

É aí que entra em cena a figura do inglês Michael Faraday (1791 - 1867), um dos mais renomados físicos experimentais de todos os tempos. Mesmo sem uma formação acadêmica regular, Faraday conseguiu se dedicar à ciência depois de se tornar assistente de laboratório de um famoso cientista da época, Humphry Davy, hoje bem menos conhecido que ele. Sabendo das descobertas de Öersted, Faraday decidiu se empenhar na melhor compreensão da eletricidade, do magnetismo e da ainda obscura relação entre ambos. Passou então a realizar uma série de experimentos, e já em 1821 veio a sua primeira grande descoberta: após suspender um fio de cobre sobre um recipiente contendo mercúrio com um ímã em seu interior, Faraday fez passar uma corrente elétrica pelo fio, observando que este passava a girar em torno do ímã (veja o vídeo ao final do texto). Em essência, o que se havia criado ali era o primeiro motor elétrico da história! O fundamento descoberto era o de que, ao se combinar corrente elétrica e campo magnético, produz-se movimento - este é exatamente o princípio de funcionamento de qualquer motor elétrico moderno, como os de ventiladores, máquinas de lavar, veículos elétricos, etc. A explicação era relativamente simples, se fosse levada em conta a descoberta de Öersted: a corrente elétrica no fio gerava um campo magnético, que interagia com o campo do ímã e produzia o movimento. (Na verdade, ainda não se falava em campos magnéticos; apenas pode-se pensar que a eletricidade “criava” um ímã, e sabemos que dois ímãs bem posicionados tendem a atrair-se ou repelir-se, isto é, a movimentar-se.)

Recapitulando: após Öersted descobrir que corrente elétrica gerava magnetismo, Faraday generalizou a ideia e observou que corrente elétrica e magnetismo combinados produzem movimento. A pergunta aparentemente óbvia passava a ser: será possível criar eletricidade a partir do magnetismo?

Com mais trabalho duro, a resposta

Faraday continuou incansavelmente seus experimentos e, em 1831, encontrou a resposta. A descoberta ocorreu com uma montagem de duas bobinas (fios de cobre enrolados em círculos) próximas: a primeira com suas terminações ligadas a uma pilha e a segunda, a um galvanômetro (um dispositivo de laboratório que detecta a passagem de pequenas correntes elétricas). Mantendo o aparato exatamente como acabamos de descrever, Faraday não observou nada digno de nota: a segunda bobina, que não estava ligada a nenhuma fonte, não tinha corrente elétrica e o galvanômetro permanecia “zerado”. No entanto, as coisas ficavam interessantes quando o cientista ligava ou desligava a bateria: em ambos os casos, o ponteiro do galvanômetro se deslocava instantaneamente - ora em um sentido, ora em outro, retornando ao zero logo em seguida. Foi então que Faraday percebeu que, para obter corrente a partir de magnetismo, era preciso aplicar um campo magnético variável (que muda ao longo do tempo). Isto é, como já vimos, a corrente na primeira bobina produz um campo magnético nas proximidades; naturalmente, enquanto a corrente está sendo ligada ou desligada, tal campo é variável, e parecia razoável atribuir a esse estado de variação o surgimento da corrente na segunda bobina, já que, enquanto o circuito permanecia ligado, nada ocorria.

O que vimos surgir acima é um exemplo de hipótese científica: a de que um campo magnético variável aplicado em um condutor sempre faz surgir uma corrente elétrica nele. Faraday trabalhou arduamente nesta hipótese, testando-a de diferentes formas. Por exemplo, um de seus experimentos era muito parecido com o descrito anteriormente, mas a bateria era mantida ligada, e as bobinas eram aproximadas ou afastadas uma da outra: novamente, o galvanômetro registrava uma corrente na segunda bobina enquanto durava a aproximação ou o afastamento. Substituindo a primeira bobina (à qual se ligava a bateria) por um forte ímã, o efeito era o mesmo. Com uma série de evidências favoráveis, a hipótese de Faraday acabou se tornando a Lei de Faraday, ou Lei da Indução Eletromagnética, que pode ser enunciada qualitativamente (em linguagem atual) como: a variação do fluxo magnético em um circuito produz uma corrente elétrica induzida no mesmo. O significado preciso de “fluxo magnético” vai ser deixado de lado neste texto, mas tenha em mente que, em muitos casos, variar o campo magnético ou variar o fluxo são a mesma coisa.

E daí?

Figura 3: Experimento de Faraday da indução eletromagnética. Durante a aproximação da bobina A (onde circula corrente elétrica), o galvanômetro G detecta uma corrente induzida na bobina B. Retirado de uma obra de Arthur William Poyser, de 1892.

Além de ter sido de grande impacto para a ciência, a descoberta de Faraday tinha uma consequência prática imediata e importantíssima. Como vimos antes, era uma época em que a melhor fonte de corrente elétrica já inventada eram as pilhas voltaicas, ainda pouco potentes, o que restringia muito a gama de aplicações da eletricidade. Nesse sentido, a indução eletromagnética abria um novo horizonte: se um campo magnético variável produz corrente elétrica, então tudo o que se precisa para gerar eletricidade em altas escalas é de campos magnéticos suficientemente intensos e uma fonte de movimento. Eureka! Eis o princípio de funcionamento de quase todos os tipos de usinas elétricas modernas. O próprio Faraday criou o que se reconhece como o primeiro gerador elétrico: um disco de cobre girando entre os pólos norte e sul de um ímã, capaz de criar uma corrente num circuito externo. Perceba que, para que ocorra indução eletromagnética, é suficiente que haja movimento relativo entre um ímã e um condutor: não importa se o ímã gira enquanto o circuito permanece parado ou se ocorre o contrário. Os geradores modernos são construídos de maneira diferente do de Faraday, mas a essência ainda é a mesma: transformar movimento em corrente elétrica, usando para isso um campo magnético. Assim, só com a descoberta da indução foi possível que a eletricidade fosse gerada em largas escalas e transmitida por longas distâncias, tornando-se um elemento essencial da vida humana moderna.

E fez-se luz!

As descobertas experimentais de Öersted e Faraday, bem como de muitos outros cientistas - André-Marie Ampère, François Arago e Joseph Henry são alguns deles -, marcaram o nascimento do eletromagnetismo: a área da Física que tratava da relação entre fenômenos elétricos e magnéticos. Ainda demoraria algumas décadas para que o físico-matemático inglês James Clerk Maxwell (1831–1879) finalmente unificasse as duas classes de fenômenos em uma única teoria científica, sintetizando todas as leis empíricas (isto é, deduzidas experimentalmente) de seus antecessores em quatro equações. Desde então, eletricidade e magnetismo passaram a ser encarados como duas faces da mesma moeda, intrinsecamente ligadas, e explicadas pelos mesmos princípios básicos. O trabalho de Maxwell foi importante inclusive para a compreensão da natureza ondulatória da luz, e continha a semente das dúvidas que colocariam Einstein no caminho da teoria da relatividade, no século seguinte.

A história do eletromagnetismo é um belo exemplo do processo de construção do conhecimento científico. Veja que tudo começa com a observação: quando Öersted viu a bússola se movendo de maneira estranha, ele procurou explicar o que havia visto e, realizando sucessivos testes, concluiu que era a presença da corrente elétrica que provocava o fenômeno. Uma vez que parecia haver uma relação entre eletricidade e magnetismo, outros cientistas - com destaque para Faraday - se interessaram pelo assunto e passaram a realizar suas próprias investigações. Novos fenômenos “estranhos” foram observados e, com experimentos cada vez mais refinados, novas explicações surgiram, levando à formulação de leis empíricas. Finalmente, Maxwell, tendo estudado profundamente as descobertas anteriores, teve sucesso em reconhecer padrões nas ditas leis e sintetizá-las, utilizando uma avançada linguagem matemática. No meio do caminho, engenheiros e inventores aproveitaram o conhecimento que desabrochava e criaram máquinas que tiveram um profundo impacto sobre a humanidade. E foi assim que, movidos pela curiosidade e munidos do método científico, todos esses nomes fizeram crescer não só a tecnologia, mas também a nossa compreensão sobre a natureza que nos cerca.

Agradeço ao prof. Dr. Leonardo Paulo Maia, do IFSC/USP, pela revisão final ao texto.


Mais sobre o assunto:

Como construir um eletroímã (WikiHow)

Motor de Faraday (YouTube)

Indução eletromagnética (Brasil Escola)

Usinas elétricas (Mundo Educação)

Referências:

The birth of the electric machines: a commentary on Faraday (1832) ‘Experimental researches in electricity’

Michael Faraday - Wikipedia, the free encyclopedia

ROONEY, Anne. A história da Física. São Paulo: M. Books, 2013.


Categorias
Ciência e cotidiano
Como descobrimos coisas?
Mulheres na ciência
A arte de ensinar
Por que tudo acontece?
Do que tudo é feito?
O mundo dos números
O que nos faz vivos?
Um pouco de fantasia
Sobre
Um veículo de transmissão do conhecimento científico onde o principal foco é tentar expor esse conhecimento de maneira simples, acessível ao grande público, e com ênfase no que há de belo e interessante. Não deixemos morrer a nossa curiosidade!