Caleidoscópio
20/08/2018

No último episódio…

No texto anterior, falamos sobre o que é corrente elétrica. Partimos do básico, comentando as minúsculas partículas que compõem a matéria: prótons, elétrons e nêutrons. Em seguida, explicamos o papel de uma pilha, que “bombeia” os elétrons, fazendo-os se mover ordenadamente ao longo de um circuito formado por um fio de cobre, por exemplo. Agora, veremos como esse fluxo ― ou corrente elétrica ― pode ser usado para acender uma lâmpada, e explicaremos as semelhanças e diferenças entre esse fenômeno e o que ocorre quando você liga um eletrodoméstico na tomada.

Em brasa

Digamos que, além da pilha, fazemos o fio de cobre passar por uma lâmpada incandescente (daquelas antigas, com luz amarelada, que esquentavam bastante e por isso caíram em desuso). Uma corrente elétrica vai se estabelecer, conforme explicamos antes, e os elétrons se moverão ordenadamente ao longo de todo o circuito composto pelos pedaços de fio e pelo filamento da lâmpada. Esse filamento é composto de outro tipo de metal, como por exemplo o tungstênio. O que faz a lâmpada acender é o fato de que os elétrons da corrente vão se chocar fortemente com os átomos de tungstênio, aumentando a agitação natural destes. Como já mencionamos no texto anterior, essa é a agitação térmica, traduzida pela temperatura do filamento; portanto, essa temperatura aumenta.

Ou seja, a função da corrente elétrica, numa lâmpada incandescente, é simplesmente esquentar o filamento metálico, eventualmente provocando o que chamamos de emissão térmica. Você provavelmente já viu, pelo menos em filmes, um metal sendo aquecido até que comece a ficar em brasa, ganhando luz própria. É exatamente isso que ocorre na lâmpada incandescente: ela esquenta tanto que começa a emitir luz visível. (E a maior parte da energia é gasta no aquecimento em si, e não na emissão luminosa; por isso a eficiência energética dessas lâmpadas é terrível.)

Tanto a espada sendo forjada quanto a lâmpada incandescente emitem luz por aquecimento. (YouTube - Niels Provos/Wikimedia Commons)

Revezando os polos

Tudo o que dissemos até agora se refere ao que chamamos corrente contínua: a pilha “induz” um sentido preferencial de movimento para os elétrons, e esse sentido é fixo, do polo positivo para o negativo da pilha. A coisa toda é diferente se você liga um eletrodoméstico na tomada. A tensão elétrica entre os terminais da tomada é alternada, o que significa que ela induz no circuito do eletrodoméstico uma corrente que varia no tempo: ora tem um sentido, ora outro. É como se a tomada fosse uma pilha cujos polos se invertem periodicamente: o que é negativo em um instante vai se tornando positivo ao longo do tempo, depois voltando a ser negativo gradativamente. Esse “revezamento” se dá o tempo inteiro, e um ciclo completo ― isto é, um terminal sendo o “máximo positivo”, se transformando em negativo, e retornando ao máximo positivo ― se repete, no caso da rede elétrica brasileira, 60 vezes em um único segundo! Por isso dizemos que a corrente da rede é de 60 Hz (lê-se: hertz); um hertz significa “um ciclo por segundo”.

A consequência disso, como já dissemos, é que a corrente elétrica fica mudando de sentido o tempo todo. E essa variação é simétrica, no sentido de que o tempo que os elétrons levam se movendo para lá é o mesmo que levarão, logo em seguida, se movendo para cá. Não só isso: no final de um ciclo, o deslocamento dos elétrons é nulo! Note que isso ainda é um movimento ordenado, diferentemente da agitação térmica: embora o sentido do movimento seja variável ao longo do tempo, se você tirasse uma “foto” instantânea dos elétrons, veria que, num certo instante, eles têm exatamente o mesmo comportamento que os elétrons em uma corrente contínua. A principal diferença é que o sentido da corrente muda o tempo inteiro. Isso é o que chamamos de corrente alternada: os elétrons ficam indo e voltando ordenadamente, como em uma ciranda onde as crianças se movem ora para um lado, ora para o outro. (Veja esta animação!)

Sério mesmo?

De fato, é estranho (ou, no mínimo, contraintuitivo) o fato de que você pode estabelecer uma corrente elétrica sem fixar um único sentido de movimento, com elétrons indo e voltando. Lembre, porém, do exemplo da lâmpada incandescente. Mesmo com uma corrente alternada, ainda haverá, da mesma forma, as colisões dos elétrons com os átomos do filamento, e a transferência de energia que provocará um aumento na temperatura e consequentemente a emissão de luz. Ou seja, o funcionamento da lâmpada, em princípio, independe de a corrente ser contínua ou alternada! Da mesma forma, os aparelhos que temos em casa poderiam funcionar com os dois tipos de corrente (alguns deles, inclusive, só funcionam com corrente alternada, por diferentes motivos).

Em inglês, corrente alternada se diz alternating current (AC), e corrente contínua, direct current (DC). Por isso, em equipamentos antigos que eram feitos para operar com os dois tipos de tensão, podiam-se ler as iniciais: AC/DC. Ainda hoje podemos encontrar essa inscrição em multímetros, que são um tipo de instrumento feito para tomar medidas elétricas. Daí o nome da famosa banda de rock encabeçada pelos irmãos Young!

Agradeço aos colegas Victor Mello, Gabriel Toschi e Clara Vidor pelos comentários e discussões que deram ao texto sua forma final.



Mais sobre o assunto:

Rradiação térmica (Wikipédia)

Por que as lâmpadas fluorescentes são mais eficientes do que as incandescentes? (Canaltech)

Animação ilustrativa dos dois tipos de corrente (YouTube)

Visualizando o potencial elétrico (YouTube)

Mais sobre corrente contínua e alternada (Mundo Educação)



13/08/2018

Eletricidade é uma palavra muito comum no nosso dia-a-dia, mas o verdadeiro significado dessa ideia ainda pode parecer misterioso para muita gente. Por exemplo: talvez você já tenha ouvido falar que a tensão elétrica que nós recebemos em casa, nas nossas tomadas, é uma tensão alternada. É possível que você nem tenha ouvido esse termo, mas provavelmente já ouviu ou leu que a tensão da rede elétrica “é de 60 Hz”. O que isso realmente significa? O que é uma corrente alternada, afinal?

A matéria é feita de átomos

Como ponto de partida para falar sobre corrente elétrica, vamos comentar muito brevemente a composição da matéria. Se você pegasse um pouco de qualquer sólido, líquido ou gás e conseguisse enxergar com um aumento de uns 100 milhões de vezes, veria que ele é feito de átomos. Simplificadamente, pode-se pensar num átomo como feito de um núcleo pequeno e denso, rodeado por elétrons. O núcleo contém prótons ― com carga elétrica positiva ― e nêutrons ― sem carga elétrica. Os elétrons, que circundam o núcleo, têm carga negativa, e eles são os responsáveis pela corrente elétrica com que lidamos no dia a dia.

A ilustração ao lado mostra uma visualização um pouco antiga, porém útil, de um átomo: os elétrons (em roxo) orbitam o núcleo formado pelos prótons (em vermelho) e nêutrons (em preto). (Créditos: Henry Schmitt)

A nível atômico, pode-se dizer que o que mantém a matéria unida é a atração entre elétrons e prótons: cargas de sinais opostos se atraem (*). Porém, a intensidade dessa coesão varia muito de material para material, dependendo de diversos fatores. Nos chamados condutores elétricos, como os metais, por exemplo, há alguns elétrons (tipicamente um ou dois por átomo) que são muito fracamente atraídos pelo núcleo, ficando “livres” o bastante para conduzir corrente, conforme veremos mais adiante: são os chamados elétrons de condução.

(*) Esse não é o modelo mais preciso que há hoje, mas é suficiente para o nível da nossa discussão. Para saber um pouco mais sobre modelos atômicos, isto é, descrições que os cientistas adotaram ou adotam para o átomo, veja a referência ao final do texto.

A matéria não é estática

Agora, pense num sólido (por exemplo, um fio de cobre). Embora a nível macroscópico esse objeto pareça rígido e estático, hoje sabemos que, olhando mais de perto, não é bem assim. Na verdade, os átomos que compõem esse material nunca estão realmente parados: eles estão vibrando, numa espécie de dança, uma coreografia aleatória e completamente desordenada; uns balançam da esquerda para a direita, outros de cima para baixo, alguns para frente e para trás e um zilhão deles em outra infinidade de direções. Em um sólido, porém, cada átomo “balança” sem sair muito do lugar, pois, em certo sentido, eles são mantidos “presos”, cada um na sua posição. Numa linguagem um pouco mais formal, dizemos que eles oscilam com pequena amplitude em torno da posição de equilíbrio - onde “pequena” quer dizer “muito menor que a distância entre os átomos” (a qual já é minúscula para a escala humana!).

Em resumo, os átomos apresentam uma vibração bastante desordenada, à qual chamamos agitação térmica; quanto maior a temperatura do material, mais rapidamente se dão essas oscilações. O que ocorre com os elétrons de condução, em “condições normais”, é muito parecido: eles se mexem desordenadamente, sem uma direção preferencial. É como em uma roda punk: as pessoas são atiradas para todos os lados, sem qualquer distinção ou civilidade. Essa explicação tem o objetivo de distinguir claramente esse tipo de movimento daquilo que chamamos de corrente elétrica.

Ligando as pontas

Para deixar as coisas mais interessantes, vamos conectar as duas pontas do nosso fio de cobre às extremidades de uma pilha (na prática, não é uma boa ideia fazer isso diretamente, pois você vai provocar um curto-circuito!). O que ocorre em uma pilha é um conjunto de reações químicas que, na prática, puxa elétrons de uma região (o polo positivo), forçando-os a se mover para outra (o negativo). É interessante pensar no conjunto dos elétrons de condução como um fluido ― por exemplo, água ―, e no circuito elétrico como uma tubulação fechada. Nessa analogia, a pilha desempenha o mesmo papel que uma bomba d’água, que gasta energia para colocar a água em movimento, fazendo surgir um fluxo ou vazão na tubulação.

A pilha funciona como uma bomba d’água, impulsionando os elétrons a se moverem numa dada direção, de acordo com a disposição dos polos. (Na figura, o movimento dos elétrons é indicado pelas setas verdes.)

Nessas condições, os elétrons de condução estarão se movendo ordenadamente, respeitando o fluxo que foi criado pela pilha. É isso que caracteriza a corrente elétrica: um movimento ordenado de cargas, que, em vez de simplesmente agitarem-se de modo aleatório, seguem um sentido específico. A agitação térmica ainda ocorre, e, portanto, os elétrons não se movem todos de forma idêntica, mas seguem uma direção aproximada. É como uma turma de alunos saindo da sala de aula na hora do recreio: cada um caminha do seu jeito, mas há uma direção preferencial, que é de dentro para fora da sala.

Em breve, falaremos sobre como essa corrente pode, por exemplo, acender uma lâmpada incandescente. Você entenderá, ainda, que existe uma diferença fundamental entre essa corrente elétrica, gerada por uma pilha, e aquela que é produzida pelas tomadas da sua casa. Aguarde!

Agradeço aos colegas Victor Mello, Gabriel Toschi e Clara Vidor pelos comentários e discussões que deram ao texto sua forma final.



Mais sobre o assunto:

Corrente elétrica em um nível um pouco mais técnico (Mundo Educação)

Modelos atômicos (Wikipédia)

Curto-circuito (InfoEscola)

Da curiosidade à tecnologia: nasce o eletromagnetismo



29/05/2018

Uma breve retomada

No texto anterior, partimos de uma situação em que duas pessoas, André e Bruna, fazem duas apostas diferentes na Mega-Sena: ele faz o jogo {11, 12, 13, 14, 15 e 16}, e ela, {31, 23, 41, 29, 37, 43}. Comentamos que, embora a nossa intuição talvez nos leve a achar que a aposta de André é mais improvável por se tratar de uma sequência de números consecutivos, o que ocorre é que, na verdade, ambas as apostas têm a mesma chance de sucesso, já que cada uma delas representa um resultado entre 50.063.860 resultados possíveis e igualmente prováveis.

Sério mesmo?

A impressão de que {11, 12, 13, 14, 15, 16} é mais improvável do que {31, 23, 41, 29, 37, 43} se deve ao seguinte fato: o primeiro conjunto é um representante de uma “classe” extremamente seleta - a dos conjuntos formados por seis números consecutivos. Nosso cérebro imediatamente identifica esse padrão e atribui algo de “especial” a essa aposta, enquanto a segunda, em princípio, parece não ter nenhuma propriedade digna de nota, sendo aceita como algo genuinamente “aleatório”.

No entanto, eu poderia argumentar que {31, 23, 41, 29, 37, 43} representa uma classe muito mais seleta que a primeira: a das apostas formadas exclusivamente por números primos sucessivos (isto é, que aparecem “juntos” na lista dos números primos). A única diferença é que esse padrão é menos evidente. Cuidado: o que se quer dizer com isso não é que essas duas sequências são improváveis por ambas serem “especiais” -- na verdade, para qualquer aposta em que você pensasse, eu poderia encontrar um padrão mirabolante e argumentar sobre o quão especial essa aposta é. O ponto é que as possíveis relações entre os números que compõem o conjunto são absolutamente irrelevantes: pela forma como o sorteio é feito, todas as apostas possíveis têm a mesma chance de ganhar, como já foi dito antes.

Jogando aos montes

Já vimos que a resposta para a situação proposta no início do texto é: ambos têm a mesma chance - 1 em 50.063.860. Isso porque cada um fez apenas uma aposta dentre todas as possíveis. Diferente seria se André apostasse em todas as possíveis combinações de números consecutivos e Bruna apostasse em todos os jogos “espalhados” (isto é, não consecutivos). Para que isso ocorresse, seria necessário que ele fizesse 55 apostas (pois existem 55 apostas possíveis formadas por números consecutivos), e ela, todas as demais 50.063.805 apostas. Sendo assim, é evidente quem tem maior probabilidade de sucesso. As chances de Bruna ganhar são maiores na mesma medida em que ela comprou mais bilhetes. E a situação seria exatamente a mesma se ele tivesse feito quaisquer 55 apostas distintas e ela, todas as apostas restantes. Novamente, o que importa não são os jogos em si: você aumenta as suas chances aumentando o número de apostas diferentes que você fez.

No fundo, desde o início, o que está em jogo é a diferença entre as perguntas:

“O que é mais provável: ser sorteada alguma combinação de números consecutivos ou alguma combinação de números não consecutivos?”

e

“O que é mais provável: ser sorteada a combinação 11, 12, 13, 14, 15, 16 ou a combinação 31, 23, 41, 29, 37, 43?”

Como vimos, a resposta para a primeira pergunta é: uma combinação de números não consecutivos é mais provável - 50.063.805 chances em 50.063.860 versus 55 em 50.063.860. Já para a segunda pergunta: ambas as apostas são igualmente prováveis - 1 em 50.063.860, nos dois casos.

Resumindo: considerando que você faça sempre jogos simples (ou seja, aposte em 6 números), só há uma forma de aumentar as suas chances de ganhar na Mega-Sena: comprar mais bilhetes (e fazer jogos diferentes entre si, é claro). O problema é que, a menos que você esteja disposto a gastar uma boa grana, suas chances continuarão sendo de um em vários milhões...



26/05/2018

Quem não gostaria de ganhar na Mega-Sena? Sem dúvidas, é tentadora a perspectiva de pagar alguns trocados em um bilhete e ser premiado em milhões de reais. Todos sabemos, no entanto, que as chances de “tirar a sorte grande” num sorteio como esse são baixíssimas. Naturalmente, surgem uns e outros argumentando que há “estratégias” capazes de aumentar essas chances... será que dá mesmo?

Números espalhados

Imagine que André e Bruna vão jogar na Mega-Sena. Ele joga os números 11, 12, 13, 14, 15 e 16. Ela aposta em 31, 23, 41, 29, 37 e 43. Quem tem mais chances de ganhar?

Se você respondeu Bruna: vamos com calma. De fato, costumamos achar que jogar números mais “espalhados” na cartela aumenta as nossas chances de sucesso. O que a Matemática nos diz sobre isso?

O mecanismo da loteria

Se você não está habituado, aqui vai uma breve explicação sobre o jogo da Mega-Sena. Você compra uma cartela contendo 60 “dezenas” - que são, simplesmente, os 60 primeiros números naturais: 1, 2, 3, …, 58, 59, 60. Um jogo “padrão” consiste em escolher seis desses números. Você então cobre, com caneta, seis números à sua escolha, entrega a cartela com o seu nome, e torce para dar certo.

No dia do sorteio, há 60 bolas enumeradas (de 1 a 60). Essas bolas são agitadas dentro de um globo; uma pessoa vai e seleciona, ao acaso, seis delas. Se os seis números coincidirem com os seis que você jogou, parabéns! você foi sorteado, e receberá um prêmio em dinheiro (é claro que é possível mais de uma pessoa ter feito o jogo vencedor, e nesse caso o dinheiro é repartido entre elas). Há também os prêmios menores, para quem acertou, por exemplo, quatro ou cinco dos seis números sorteados, mas vamos deixar isso de lado e focar no tão sonhado prêmio máximo (acertar exatamente os seis números).

Pensando em probabilidades

A pergunta mais óbvia que se pode fazer sobre um sorteio como esse é: se eu fizer uma aposta em seis números, quais são as chances de exatamente eles serem sorteados?

Note que, se você conhecesse todos os possíveis resultados do sorteio, a resposta seria um tanto quanto intuitiva: as suas chances são de 1 em “x”, onde “x” é a quantidade de resultados possíveis. Estamos supondo que o sorteio seja completamente honesto, de modo que todos esses resultados são igualmente prováveis.

Pois bem, não entraremos em detalhes técnicos, mas, se você já estudou um pouco de análise combinatória, talvez saiba que esse é um problema clássico de contagem de conjuntos. Os cálculos mostram que o valor de “x” que estamos procurando é exatamente igual a 50.063.860. Isso significa que existem exatamente 50.063.860 formas de escolher seis números distintos dentre os 60 primeiros números naturais. Em resumo, as suas chances de ganhar (jogando uma única vez) são de aproximadamente 1 em 50 milhões. De fato, é muito improvável.

Exercitando a imaginação

Agora, vamos pensar em um cenário hipotético. Imagine que o sorteio da Mega-Sena ocorresse da seguinte forma: você compra uma cartela contendo a lista de todas as 50.063.860 combinações dos 60 primeiros números naturais. Ou seja, na cartela vai haver uma linha com a combinação 1, 2, 3, 4, 5, 6, depois outra com a combinação 1, 2, 3, 4, 5, 7, e assim sucessivamente, até esgotar todas as combinações começando com 1, 2, 3, 4, 5; depois, você terá 1, 2, 3, 4, 6, 7, depois 1, 2, 3, 4, 6, 8, e assim sucessivamente… enfim, seria uma cartela gigantesca, mas o que importa é que entre a primeira e a 50.063.860a linha você teria todas as combinações possíveis. Você seleciona uma linha (isto é, uma combinação), marca à caneta, entrega com seu nome e começa a torcer. No dia do sorteio, há 50.063.860 bolas, cada uma contendo uma das possíveis combinações de seis números. Essas bolas são agitadas (muito bem agitadas!) num globo e uma pessoa vai e seleciona, ao acaso, uma delas. Se os seis números da bola escolhida forem iguais aos seis da linha em que você apostou, parabéns! Você foi sorteado.

Agora, pare pra pensar. Qual é a diferença entre o nosso mecanismo hipotético e o mecanismo real da Mega-Sena? Ora, você dirá, a diferença é que no seu mecanismo hipotético nós precisaríamos desmatar toda a Amazônia só para ter papel suficiente para imprimir as cartelas.

Bem observado. Mas não é disso que estou falando. Embora seja tecnicamente impraticável, esse modelo de sorteio é perfeitamente análogo ao que ocorre na Mega-Sena da vida real. Em ambos os casos, você não aposta em um número: você aposta em um conjunto de seis números, e você recebe o prêmio (máximo) se o conjunto de seis números sorteado for igual ao conjunto de seis números em que você apostou. Em ambas as situações, as suas chances de ganhar são de 1 em 50.063.860, pois você terá apostado em 1 combinação dentre 50.063.860 possíveis.

Brincando um pouco mais...

Imaginemos um terceiro modelo de Mega-Sena. Você compra uma cartela contendo a lista de todos os números naturais entre 1 e 50.063.860. Você marca um dos números, entrega com seu nome, começa a torcer e, no dia do sorteio, haverá 50.063.860 bolas enumeradas de 1 a 50.063.860. As bolas serão muito bem agitadas em um globo e uma pessoa escolherá, ao acaso, uma delas. Se o número ali escrito for exatamente igual ao que você escolheu, parabéns! Você foi sorteado.

Se você conseguiu entender o caso anterior, deve ser simples aceitar que este sorteio também é perfeitamente análogo ao que ocorre na Mega-Sena. Existem 50.063.860 resultados possíveis e você aposta em apenas um deles. A única diferença é que, no primeiro modelo hipotético, assim como na vida real, cada um dos possíveis resultados é um conjunto de seis números entre 1 e 60, e, neste novo sistema, cada resultado é simplesmente um número entre 1 e 50.063.860. Note que a analogia funciona justamente porque existem exatamente 50.063.860 formas de escolher seis números (distintos) entre 1 e 60!

Mas e daí?

O objetivo de propor essas analogias é tornar evidente um fato aparentemente óbvio, mas que o senso comum facilmente deixa de lado: todos os 50.063.860 resultados são igualmente prováveis. Isso significa que as chances de ser sorteado o conjunto {11, 12, 13, 14, 15, 16} são idênticas às do conjunto {31, 23, 41, 29, 37, 43}. Nós temos a impressão de que a segunda aposta é “mais aleatória”, o que quer que isso signifique, e tendemos a achar que é “muito mais difícil” a primeira ser a sorteada. Essa impressão, no entanto, é definitivamente errada. Na analogia das cartelas contendo todas as combinações, teremos exatamente uma linha na cartela com o conjunto {11, 12, 13, 14, 15, 16} e uma com o conjunto {31, 23, 41, 29, 37, 43}. No momento do sorteio, cada um deles corresponderá a exatamente uma bola entre as que serão sorteadas, tendo uma chance em 50.063.860.

Em resumo: não, apostar em números mais “distribuídos” não aumenta de forma alguma as suas chances de sucesso. Pensar que isso ocorre é uma falsa impressão do nosso senso comum. No entanto, há um simples motivo pelo qual temos essa impressão, e pode-se entender que ela surge de uma confusão de conceitos - ou melhor, de uma comparação mal feita. Em um próximo texto, exploraremos do que se trata essa confusão. Aguarde!



19/04/2018

Você já se perguntou por que nós, humanos, bem como a maioria dos animais (pelo menos os vertebrados), temos dois olhos? Um não basta? E se eu te disser que a resposta não só é incrivelmente simples como também se relaciona à astronomia e aos filmes 3D?

Ter dois olhos pode parecer desnecessário, à primeira vista (sem trocadilhos!). Por exemplo: olhar para as coisas com um dos seus olhos coberto não afeta certas propriedades dos objetos que você enxerga, como as suas cores. “Ótimo”, você pensa, “um é o bastante” - mas um experimento bem simples pode mostrar que isso não é bem verdade.

Tome uma folha de papel em branco e desenhe um pequeno ponto nela. Então, levante-a à altura dos seus olhos e, mantendo um deles fechado, tente tocar o ponto com o seu indicador vindo verticalmente, de cima (como se fosse uma garra daqueles brinquedos de parque de diversão, onde te desafiam a “pescar” algum bicho de pelúcia). Você logo perceberá que a tarefa não é tão trivial quanto parece. O que tal experimento mostra é que você precisa de dois olhos se você quer ter uma percepção nítida da profundidade. Olhar para o mundo com um único olho o faria parecer plano, mais ou menos como um filme comum, 2D (em que você tem uma sensação de profundidade limitada, baseada apenas na perspectiva e nos padrões de luz e sombra). Mas, afinal, por que razão um segundo olho faz tanta diferença

Figura 1: visão monocular (um olho). Você só sabe que a fonte luminosa está na reta s, o que não é o bastante para distinguir entre A, B e C.

A explicação tem a ver com Biologia, Física e, principalmente, Geometria. De fato, quando um fóton (uma partícula de luz) atinge a sua retina, a única informação que ele carrega sobre a localização de sua origem é a direção: a forma como ele colide com suas células sensitivas é suficiente para o seu cérebro saber se ele veio de frente ou num ângulo de 45 graus ou qualquer outra coisa (o que só funciona porque o cérebro “sabe” que a luz viaja em linha reta). Noutras palavras, seu cérebro pode garantir que o ponto que você vê está em uma reta bem específica, e um olho é o suficiente para isso. O problema é: assim como o ponto que você realmente observa, muitos outros (infinitos, aliás!) estão exatamente na mesma reta, o que faz ser impossível distinguir entre eles apenas com a noção da direção. Melhor explicando: feixes de luz vindo de qualquer desses pontos atingiriam a sua retina exatamente da mesma forma, então como você pode afirmar qual deles é a verdadeira fonte da luz que você recebe?

Figura 2: visão binocular (dois olhos). Você sabe que a fonte está tanto na reta s quanto na reta t, então ela deve estar em A, e não em qualquer outro ponto.

E é aí que entra o papel do segundo olho. Através do mesmo mecanismo, seu cérebro agora pode garantir que a fonte de luz (o ponto que você observa) está, também, numa outra linha reta. E, como nos diz a Geometria Euclidiana, o lugar onde duas retas se encontram é um ponto específico(*). Tcharam! O ponto está determinado e agora você tem certeza da sua posição no espaço tridimensional, o que inclui a distância até você - daí a noção de profundidade passa a fazer sentido. Isso é tecnicamente chamado visão estereoscópica ou, em palavras simples: visão 3D.

(*) Se duas linhas retas se cruzam, elas se cruzam num único ponto. Essa ideia intuitiva é uma das "verdades absolutas" dentro da chamada Geometria Euclidiana, formalizada pelo matemático grego Euclides. Veja os exemplos abaixo: as retas a e b se cruzam no ponto P; as retas c e d são paralelas e não se cruzam. Há ainda uma outra forma de as retas não se cruzarem, que é quando elas não estão no mesmo plano. Pense em duas arestas ("lados") de um cubo, que não pertençam à mesma face.

Essa é uma visão simplificada do fenômeno, a qual funciona bem nas escalas de distância do dia-a-dia. Mas agora imagine que o ponto A está localizado a 150.000.000 quilômetros de distância. Neste caso, a separação entre seus olhos (que não ultrapassa 10 cm) se torna imensuravelmente pequena. Para uma fonte luminosa tão distante, seus olhos funcionam como se fossem apenas um, já que estão muito próximos um do outro. Pense em termos da Fig. 2: se as retas s e t se cruzassem num ponto muito afastado, você teria a impressão de elas serem paralelas, e ficaria difícil estimar com precisão o local dessa interseção. Assim, voltamos ao problema da visão monocular: você não consegue saber a distância do ponto P.

Isso é tipicamente o que ocorre quando olhamos para o céu: as coisas estão muito distantes, e a noção de profundidade acaba se perdendo. Você já olhou para duas estrelas à noite e se perguntou qual das duas está mais próxima de nós? Difícil, não? Impossível, na verdade, pelo menos a olho nu - e agora você sabe o porquê. Mesmo com um telescópio, foi só em 1838 que os astrônomos conseguiram usar geometria para estimar a distância absoluta de certas estrelas. Além disso, os dois pontos de vista separados não eram dois olhos, mas sim dois pontos na órbita da Terra - o afélio e o periélio, distando 300 milhões de quilômetros um do outro.

Se não se pode “sentir” a profundidade com um único olho, você pode imaginar que o mesmo se aplica a uma única lente ou, mais precisamente, uma única câmera. Uma câmera funciona basicamente como o olho humano. É por isso que um filme gravado com uma câmera comum parece, de certa forma, plano - como dissemos antes, você pode ter uma noção da profundidade, baseada nas sombras e perspectiva, mas isso é notoriamente diferente do que você vê na vida real. Então, se você quer fazer que um filme pareça tão realista quanto o mundo que nos cerca - ao menos no que se refere à visão estereoscópica -, você precisa, primeiramente, gravá-lo com duas lentes separadas. Sim, é isso que os diretores dos filmes 3D usam! (Há ainda o problema de fazer você ver duas imagens separadamente, o que traz à tona aqueles óculos especiais, com muita Física envolvida, mas isso é assunto para outro texto…)

Figura 3: câmera utilizada em fotografia ou filmagem 3-D. Créditos: Bilby

Agora, uma breve retomada. Partimos do questionamento: ter dois olhos é, realmente, importante? Um simples experimento mostrou que, com um único olho, é difícil ter uma noção de profundidade, pelo menos em uma situação específica. Investigando a forma como o nosso olho recebe a luz dos objetos e interpreta essa informação, concluímos que, de fato, ter dois pontos de vista é algo fundamental para saber as distâncias que nos separam dos objetos. Vimos, depois, que essa mesma ideia geométrica se aplica no cinema e até em problemas de astronomia.

Fantástico, não? É disso que a Ciência trata: reunir diferentes fenômenos, que podem parecer totalmente desconectados, e explicá-los através dos mesmos princípios básicos. É isso que a torna tão bela - pelo menos na minha opinião. Então, mantenha seus (dois) olhos abertos e não pare de aprender!

Agradeço ao prof. Dr. Luiz Vitor de Souza, do IFSC/USP, pela revisão final ao texto.


10/04/2018

Um prego longo, um fio de cobre (esmaltado, de preferência), uma pilha grande e um pouco de fita adesiva: isso é tudo o que você precisa para construir um ímã caseiro. Sim, um ímã!

A receita é simples. Corte aproximadamente 1 metro do cobre e enrole-o ao longo do prego, de modo a criar uma única camada de fio. Retire o esmalte isolante das pontas do fio e prenda cada uma delas a uma extremidade da pilha, usando a fita adesiva. Pronto! Seu pequeno dispositivo já é capaz de atrair objetos magnéticos leves, como moedas e clips. Apenas tome cuidado para não manter as extremidades ligadas à pilha por muito tempo, pois isso a desgasta e o fio pode eventualmente superaquecer. (Para um passo-a-passo mais detalhado, consulte as sugestões ao final do texto.)

Dois conceitos importantes:

(1) Hoje sabemos que uma corrente elétrica é um movimento ordenado de cargas elétricas (partículas carregadas), que transportam energia. É o que sai da sua tomada ou de pilhas e baterias, capaz de fazer aparelhos elétricos funcionarem.

(2) De maneira bem simples, você pode entender um campo magnético como uma região do espaço que é capaz de interagir com ímãs e objetos magnéticos, atraindo-os, repelindo-os ou simplesmente orientando-os (fazendo-os girar). Nas proximidades de um ímã, sempre surge um campo magnético.

Mas por quê?

A montagem descrita acima é o que se chama de eletroímã, ou seja, um ímã obtido a partir da eletricidade. O fundamento físico por trás dos eletroímãs é o fato de que toda e qualquer corrente elétrica(1) que flui através de um condutor (um fio metálico, por exemplo) cria um campo magnético(2) em suas proximidades. Esse fenômeno foi descoberto em 1820 pelo físico dinamarquês Hans Christian Öersted (1777 - 1851), que observou que uma bússola posicionada abaixo de um fio por onde passava corrente se orientava formando um ângulo reto com o fio. Como já se sabia que as bússolas tendem a se alinhar com campos magnéticos, Öersted concluiu, corretamente, que a corrente no fio havia produzido magnetismo ao seu redor.

Figura 1: Ilustração do experimento de Öersted. Retirado de uma obra de 1876, de Agustin Privat-Deschanel.

Talvez tal descoberta pareça pouco relevante, mas, na verdade, esse foi o primeiro passo rumo ao surgimento do eletromagnetismo. Com efeito, era uma época em que ainda não se entendia bem a natureza dos fenômenos elétricos e magnéticos. A eletricidade era observada desde a antiguidade como uma propriedade de certos materiais atritados, que se tornavam capazes de atrair pequenos objetos. Já no século XVIII, descobriu-se que ela se relacionava com os relâmpagos e os movimentos musculares de animais, e em 1799 o italiano Alessandro Volta (1745 - 1827) criou a chamada pilha voltaica, a tataravó das baterias atuais. Quanto ao magnetismo, já era antigo o conhecimento de que certos minerais tinham a capacidade de atrair o ferro, e navegadores chineses e europeus utilizavam a bússola para se orientar em alto-mar desde séculos passados. (As bússolas funcionam porque se alinham com o campo magnético próprio da Terra, o qual segue aproximadamente a direção norte-sul geográfica.) Esses dois conjuntos de fenômenos eram pouco compreendidos pelos contemporâneos de Öersted, cujo experimento trouxe a primeira forte evidência de que havia uma íntima relação entre eles, dando um impulso para que os pesquisadores da época investigassem o tema mais a fundo.

Figura 2: Ilustração da pilha de Volta. Retirado de uma obra de 1893, de Adolphe Ganot.

E eles investigaram...

É aí que entra em cena a figura do inglês Michael Faraday (1791 - 1867), um dos mais renomados físicos experimentais de todos os tempos. Mesmo sem uma formação acadêmica regular, Faraday conseguiu se dedicar à ciência depois de se tornar assistente de laboratório de um famoso cientista da época, Humphry Davy, hoje bem menos conhecido que ele. Sabendo das descobertas de Öersted, Faraday decidiu se empenhar na melhor compreensão da eletricidade, do magnetismo e da ainda obscura relação entre ambos. Passou então a realizar uma série de experimentos, e já em 1821 veio a sua primeira grande descoberta: após suspender um fio de cobre sobre um recipiente contendo mercúrio com um ímã em seu interior, Faraday fez passar uma corrente elétrica pelo fio, observando que este passava a girar em torno do ímã (veja o vídeo ao final do texto). Em essência, o que se havia criado ali era o primeiro motor elétrico da história! O fundamento descoberto era o de que, ao se combinar corrente elétrica e campo magnético, produz-se movimento - este é exatamente o princípio de funcionamento de qualquer motor elétrico moderno, como os de ventiladores, máquinas de lavar, veículos elétricos, etc. A explicação era relativamente simples, se fosse levada em conta a descoberta de Öersted: a corrente elétrica no fio gerava um campo magnético, que interagia com o campo do ímã e produzia o movimento. (Na verdade, ainda não se falava em campos magnéticos; apenas pode-se pensar que a eletricidade “criava” um ímã, e sabemos que dois ímãs bem posicionados tendem a atrair-se ou repelir-se, isto é, a movimentar-se.)

Recapitulando: após Öersted descobrir que corrente elétrica gerava magnetismo, Faraday generalizou a ideia e observou que corrente elétrica e magnetismo combinados produzem movimento. A pergunta aparentemente óbvia passava a ser: será possível criar eletricidade a partir do magnetismo?

Com mais trabalho duro, a resposta

Faraday continuou incansavelmente seus experimentos e, em 1831, encontrou a resposta. A descoberta ocorreu com uma montagem de duas bobinas (fios de cobre enrolados em círculos) próximas: a primeira com suas terminações ligadas a uma pilha e a segunda, a um galvanômetro (um dispositivo de laboratório que detecta a passagem de pequenas correntes elétricas). Mantendo o aparato exatamente como acabamos de descrever, Faraday não observou nada digno de nota: a segunda bobina, que não estava ligada a nenhuma fonte, não tinha corrente elétrica e o galvanômetro permanecia “zerado”. No entanto, as coisas ficavam interessantes quando o cientista ligava ou desligava a bateria: em ambos os casos, o ponteiro do galvanômetro se deslocava instantaneamente - ora em um sentido, ora em outro, retornando ao zero logo em seguida. Foi então que Faraday percebeu que, para obter corrente a partir de magnetismo, era preciso aplicar um campo magnético variável (que muda ao longo do tempo). Isto é, como já vimos, a corrente na primeira bobina produz um campo magnético nas proximidades; naturalmente, enquanto a corrente está sendo ligada ou desligada, tal campo é variável, e parecia razoável atribuir a esse estado de variação o surgimento da corrente na segunda bobina, já que, enquanto o circuito permanecia ligado, nada ocorria.

O que vimos surgir acima é um exemplo de hipótese científica: a de que um campo magnético variável aplicado em um condutor sempre faz surgir uma corrente elétrica nele. Faraday trabalhou arduamente nesta hipótese, testando-a de diferentes formas. Por exemplo, um de seus experimentos era muito parecido com o descrito anteriormente, mas a bateria era mantida ligada, e as bobinas eram aproximadas ou afastadas uma da outra: novamente, o galvanômetro registrava uma corrente na segunda bobina enquanto durava a aproximação ou o afastamento. Substituindo a primeira bobina (à qual se ligava a bateria) por um forte ímã, o efeito era o mesmo. Com uma série de evidências favoráveis, a hipótese de Faraday acabou se tornando a Lei de Faraday, ou Lei da Indução Eletromagnética, que pode ser enunciada qualitativamente (em linguagem atual) como: a variação do fluxo magnético em um circuito produz uma corrente elétrica induzida no mesmo. O significado preciso de “fluxo magnético” vai ser deixado de lado neste texto, mas tenha em mente que, em muitos casos, variar o campo magnético ou variar o fluxo são a mesma coisa.

E daí?

Figura 3: Experimento de Faraday da indução eletromagnética. Durante a aproximação da bobina A (onde circula corrente elétrica), o galvanômetro G detecta uma corrente induzida na bobina B. Retirado de uma obra de Arthur William Poyser, de 1892.

Além de ter sido de grande impacto para a ciência, a descoberta de Faraday tinha uma consequência prática imediata e importantíssima. Como vimos antes, era uma época em que a melhor fonte de corrente elétrica já inventada eram as pilhas voltaicas, ainda pouco potentes, o que restringia muito a gama de aplicações da eletricidade. Nesse sentido, a indução eletromagnética abria um novo horizonte: se um campo magnético variável produz corrente elétrica, então tudo o que se precisa para gerar eletricidade em altas escalas é de campos magnéticos suficientemente intensos e uma fonte de movimento. Eureka! Eis o princípio de funcionamento de quase todos os tipos de usinas elétricas modernas. O próprio Faraday criou o que se reconhece como o primeiro gerador elétrico: um disco de cobre girando entre os pólos norte e sul de um ímã, capaz de criar uma corrente num circuito externo. Perceba que, para que ocorra indução eletromagnética, é suficiente que haja movimento relativo entre um ímã e um condutor: não importa se o ímã gira enquanto o circuito permanece parado ou se ocorre o contrário. Os geradores modernos são construídos de maneira diferente do de Faraday, mas a essência ainda é a mesma: transformar movimento em corrente elétrica, usando para isso um campo magnético. Assim, só com a descoberta da indução foi possível que a eletricidade fosse gerada em largas escalas e transmitida por longas distâncias, tornando-se um elemento essencial da vida humana moderna.

E fez-se luz!

As descobertas experimentais de Öersted e Faraday, bem como de muitos outros cientistas - André-Marie Ampère, François Arago e Joseph Henry são alguns deles -, marcaram o nascimento do eletromagnetismo: a área da Física que tratava da relação entre fenômenos elétricos e magnéticos. Ainda demoraria algumas décadas para que o físico-matemático inglês James Clerk Maxwell (1831–1879) finalmente unificasse as duas classes de fenômenos em uma única teoria científica, sintetizando todas as leis empíricas (isto é, deduzidas experimentalmente) de seus antecessores em quatro equações. Desde então, eletricidade e magnetismo passaram a ser encarados como duas faces da mesma moeda, intrinsecamente ligadas, e explicadas pelos mesmos princípios básicos. O trabalho de Maxwell foi importante inclusive para a compreensão da natureza ondulatória da luz, e continha a semente das dúvidas que colocariam Einstein no caminho da teoria da relatividade, no século seguinte.

A história do eletromagnetismo é um belo exemplo do processo de construção do conhecimento científico. Veja que tudo começa com a observação: quando Öersted viu a bússola se movendo de maneira estranha, ele procurou explicar o que havia visto e, realizando sucessivos testes, concluiu que era a presença da corrente elétrica que provocava o fenômeno. Uma vez que parecia haver uma relação entre eletricidade e magnetismo, outros cientistas - com destaque para Faraday - se interessaram pelo assunto e passaram a realizar suas próprias investigações. Novos fenômenos “estranhos” foram observados e, com experimentos cada vez mais refinados, novas explicações surgiram, levando à formulação de leis empíricas. Finalmente, Maxwell, tendo estudado profundamente as descobertas anteriores, teve sucesso em reconhecer padrões nas ditas leis e sintetizá-las, utilizando uma avançada linguagem matemática. No meio do caminho, engenheiros e inventores aproveitaram o conhecimento que desabrochava e criaram máquinas que tiveram um profundo impacto sobre a humanidade. E foi assim que, movidos pela curiosidade e munidos do método científico, todos esses nomes fizeram crescer não só a tecnologia, mas também a nossa compreensão sobre a natureza que nos cerca.

Agradeço ao prof. Dr. Leonardo Paulo Maia, do IFSC/USP, pela revisão final ao texto.


Mais sobre o assunto:

Como construir um eletroímã (WikiHow)

Motor de Faraday (YouTube)

Indução eletromagnética (Brasil Escola)

Usinas elétricas (Mundo Educação)

Referências:

The birth of the electric machines: a commentary on Faraday (1832) ‘Experimental researches in electricity’

Michael Faraday - Wikipedia, the free encyclopedia

ROONEY, Anne. A história da Física. São Paulo: M. Books, 2013.


02/04/2018

É difícil, eu sei. Você passa a vida inteira ouvindo que não se pode tirar raiz quadrada de números negativos, e no Ensino Médio chega um belo dia em que o professor escreve na lousa: √−1 = i. Você conclui, então, assustado: esses matemáticos são loucos! Certo?

Errado. Mas, para chegarmos a uma compreensão minimamente satisfatória sobre esse tema, precisamos entender melhor o que os números realmente são – e para que servem.

Uma das necessidades mais primitivas do ser humano, muito provavelmente, foi a de quantificar objetos no dia a dia. Assim, nossos ancestrais logo aprenderam a contar as coisas que faziam parte do seu cotidiano: três ovelhas, cinco filhos, dez dedos nas mãos, etc. Daí surgiram os ditos números naturais: aqueles que usamos para conferir.

Outra necessidade não menos natural era a de tratar objetos divididos em partes, ou seja, meia laranja, um terço de corda, duas vasilhas e meia de água; assim apareceram os chamados números fracionários.

Muito tempo depois, já com o desenvolvimento do comércio monetário, as pessoas passaram a lidar com dívidas e débitos; uma maneira conveniente de tratar isso era pensar no que hoje entendemos como números negativos. Os números naturais, juntamente com os negativos a eles associados, constituem o conjunto dos números inteiros; agregando as frações negativas às positivas, obtemos o conjunto dos números racionais (de razão, no sentido de divisão). Perceba que este último conjunto engloba todos os outros mencionados até aqui (qualquer inteiro pode ser representado por uma fração; por exemplo, 2 = 6/3). Já com a matemática bem mais desenvolvida, os intelectuais da área começaram a perceber que algo faltava. Alguns problemas pareciam intrigantes pois não podiam ser respondidos com os números conhecidos até então. Por exemplo, não parece haver nada que nos impeça de construir um quadrado de área igual a 2 unidades, correto? Pois bem, ocorre que, se o lado do quadrado for um número racional, a área nunca será exatamente igual a 2!

Os gregos perceberam esse fato e ficaram espantados. Séculos depois, os matemáticos passaram a aceitar a existência de números que não podem ser representados como razão de dois inteiros. Esses números foram então denominados irracionais e, juntamente com os racionais, formam o conjunto dos números reais. Um bom modelo intuitivo para este conjunto é a chamada reta numérica: dada uma reta, marque um ponto sobre ela, o qual será chamado origem e representará o número zero; fixada uma unidade de medida, cada ponto sobre a reta representa o valor numérico da sua distância até a origem, sendo que pontos à direita da origem representam números positivos, e à esquerda, números negativos. (É possível provar que existe uma “correspondência perfeita” entre os pontos da reta e os números reais: podemos associar a cada número um só ponto e vice-versa.)

Veja que cada “tipo” de número tem certas propriedades que o tornam útil para algumas finalidades e inútil para outras. Por exemplo: eu não sei quantas pessoas estão na mesma sala que você agora, mas sei que essa quantidade não é igual a 3,5. Eu não sei quantas vezes a população de moscas no planeta Terra é maior que a de formigas, mas esse número definitivamente não é irracional (lembre-se da definição dada acima!). Eu não sei com quantos paus se faz uma canoa, mas a resposta é certamente diferente de -7. Pode parecer bobagem, mas estes três exemplos ilustram algo fundamental em Matemática, que é a noção de conjunto universo: quando resolvemos um problema em busca de um resultado numérico, precisamos ter em mente qual é o conjunto dos possíveis valores que fazem sentido como resposta - e qualquer coisa fora desse conjunto passa a ser simplesmente desprovida de significado.

Pois bem, você já está habituado aos números reais (e seus subconjuntos) e já sabe que os diferentes conjuntos numéricos são aplicáveis a diferentes contextos. Talvez você não tenha percebido, mas todos os números, assim como qualquer outro objeto matemático, são abstrações. Com isso quero dizer que, embora possam ser (e são!) úteis para descrever coisas reais, os entes matemáticos não existem no sentido físico da palavra. Você não vê o número 2 caminhando no parque, ou uma reta tomando café na padaria. Ou seja, sempre que se fala de matemática, lida-se com idealizações e conceitos abstratos. Os próprios números reais, apesar de seu pretensioso nome, são abstratos. Você provavelmente aceita a existência deles porque já está condicionado, mas, se pensar bem, verá que, se o zero representa o nada e os números negativos são menores que zero, trata-se na verdade de uma quantidade menor que o nada. Quanto aos números irracionais, eles não podem nem ser “colocados no papel”: qualquer medida que se faça com uma régua dá como resposta um número racional. Perceba que você na verdade já lida com conceitos extremamente contraintuitivos, mas que funcionam maravilhosamente bem e servem para descrever diversas situações que surgem no mundo real. Se você acompanhou o raciocínio até aqui, provavelmente não vai ser difícil dar um passo além e admitir a existência de um novo conjunto numérico, que também engloba todos os anteriores. A ideia é muito simples: se os números reais são representados por pontos sobre uma reta, passaremos agora a marcar pontos fora da reta, mas ainda sobre o plano. Para isso precisamos apenas construir uma segunda reta, perpendicular à primeira e cruzando com ela na origem, também dotada de orientação e unidade de comprimento. Os números representados por estes pontos em duas dimensões são os números complexos, e aqueles que estão necessariamente fora da “reta real” são os números imaginários. Aqui, o termo complexo dá ideia de composto , e vem do fato de que esse tipo de número também pode ser representado em termos de números reais, mas para isso é sempre necessário um par (ordenado) de números reais - por exemplo, o par (1, 2) é o número complexo associado ao ponto do plano que tem coordenadas 1 e 2. Já o nome número imaginário é usado por razões históricas e foi cunhado numa época em que os matemáticos ainda relutavam em aceitar sua existência.

Uma vez estabelecida a ideia básica de número complexo, falta apenas definir operações no nosso novo conjunto numérico. Pois bem, não vamos entrar em detalhes técnicos sobre isso, mas, se você está habituado à ideia de vetores, tenha em mente que somar números complexos é exatamente como somar vetores, e multiplicar números complexos tem a ver com rotacionar vetores.

Se os números complexos são como pares de números reais, então parece razoável estabelecer duas unidades neste conjunto. Uma delas é a unidade propriamente dita, que já conhecemos dos números reais: o número 1 - que, na linguagem dos complexos, é melhor caracterizado pelo par (1, 0), ou seja, 1 no eixo real, 0 no eixo imaginário (aquela reta perpendicular que nós construímos). A outra, como você deve imaginar, é o par (0, 1), que foi batizado de unidade imaginária e é denotado pela letra i. Ocorre que, em consequência da regra multiplicação que se definiu para os números complexos (a mesma que está relacionada à rotação de vetores), temos (0, 1) x (0, 1) = (-1, 0). Talvez você tenha percebido que se trata da famigerada equação: i2 = -1. Veja que não há nada de imoral nisso: ainda é verdade que um número real multiplicado por si mesmo resulta sempre positivo ou nulo; apenas criamos um novo sistema numérico onde essa regra geral deixa de ser válida.

Agora falta apenas ressaltar que os números complexos, com todas as características comentadas acima, são de extrema relevância para descrever o mundo real (pasme!). Além de serem fundamentais para a matemática pura (e de permitirem uma compreensão bem mais rica sobre a própria natureza dos números reais), os números complexos têm aplicações em diversas áreas da Física. Cabe ressaltar que tais números são uma ferramenta essencial quando se resolve um tipo muito importante de equação - as equações diferenciais - e, além disso, aparecem de maneira natural na mecânica quântica. Isso não quer dizer que eles possam surgir magicamente em qualquer lugar. Lembre-se da noção de conjunto universo: não podemos medir a velocidade de uma partícula e encontrar um número imaginário como resposta. Em certos contextos, porém, tais números fazem bastante sentido, e ajudam a fazer previsões sobre o mundo real.

Antes de finalizarmos, algo precisa ficar muito claro. Talvez em algum momento nesta leitura você tenha ficado com a impressão de que, se todos os números são abstrações, então podemos criar qualquer conjunto numérico que nos “der na telha” porque a Matemática permite. Pois bem, não é assim que funciona. Sistemas numéricos (e outros conjuntos com estruturas mais gerais), para fazerem sentido matematicamente, precisam, em primeiro lugar, ter consistência lógica. Isso significa, por exemplo, que se você cria um conjunto e define operações de tal maneira que as operações definidas levam a conclusões absurdas dentro da própria estrutura do conjunto, então você cometeu um erro. Além disso, para que um conjunto inventado tenha relevância dentro da ciência da Matemática, ele precisa de alguma forma se relacionar a outras áreas pré-existentes do conhecimento matemático. Por fim, um sistema numérico só vai se tornar amplamente relevante dentro e fora da matemática pura se ele for de interesse de outras ciências, ou seja, se ele for aplicável à descrição de fenômenos físicos, por exemplo. Ocorre que os números complexos têm a importância que têm justamente porque satisfazem todos os “critérios” aqui enunciados.

Portanto, abra a sua mente! Estudar Matemática envolve lidar com construções mentais abstratas e é aí que mora boa parte da beleza dessa ciência. Tome cuidado, apenas, para não pensar que fazer Matemática se resume a ficar com a cabeça nas nuvens imaginando números.

Agradeço ao prof. Dr. Valdir Antonio Menegatto, do ICMC/USP, pela revisão final ao texto.


Categorias
Ciência e cotidiano
Como descobrimos coisas?
Mulheres na ciência
A arte de ensinar
Por que tudo acontece?
Do que tudo é feito?
O mundo dos números
O que nos faz vivos?
Um pouco de fantasia
Sobre
Um veículo de transmissão do conhecimento científico onde o principal foco é tentar expor esse conhecimento de maneira simples, acessível ao grande público, e com ênfase no que há de belo e interessante. Não deixemos morrer a nossa curiosidade!