Bruno Carneiro da Cunha
06/03/2017

Um evento típico de decaimento do bóson de Higgs em dois léptons tipo tau. A análise de todos os produtos permite a reconstrução dos parâmetros do modelo teórico que podem ser confrontados com outros tipos de processos. [1]
O modelo padrão de partículas é o nome dado à teoria vigente que descreve as interações elementares e os constituintes básicos do universo. Ele prevê que (quase) todo processo elementar visto na natureza envolve 4 forças fundamentais, 12 partículas elementares e uma partícula “mediadora de massa”, em uma dinâmica ditada pelos princípios da relatividade de Einstein e da mecânica quântica.

O modelo em si tem cerca de 20 constantes arbitrárias, o que pode ser considerado bastante, mas cada uma das constantes rege o comportamento de vários tipos de fenômenos que podem ser medidos e comparados nos aceleradores de partículas (e, mais recentemente, com dados astrofísicos). A mudança na massa de uma delas, por exemplo, um bóson vetorial massivo, traria um efeito cascata em vários outros fenômenos medidos que soçobrariam todo o modelo. É ao mesmo tempo uma construção delicada e sólida, tendo suas predições verificadas experimentalmente já há 40 anos.

O leitor pode perguntar nesse momento o porquê de ainda haver dúvidas sobre a validade do modelo padrão. Ou se já não é hora de mudar o foco da pesquisa (cerca de 2/3 da comunidade de físicos de altas energias ainda se dedicam a estudar possíveis extensões do modelo padrão). É o análogo científico da leitura pós-moderna do conto de fadas: salvar o mundo (verificar a teoria) é finalizar a estória (estabelecer a teoria). Problema resolvido, partimos para a próxima e deixemos as descrições adicionais com os filósofos ou matemáticos. Delimitados seus regimes de aplicação, ninguém duvida das leis de Newton, e assim nenhum físico as estuda — a menos que esteja interessados em aspectos filosóficos e/ou históricos.

Felizmente — ou não — há vários aspectos do modelo padrão que não entendemos muito bem. Alguns de natureza teórica, outros mesmo experimentais. Não chegam a ser violações, mas sim coincidências estranhas. Ou incômodas, dependendo do ponto de vista. A base do modelo é extremamente robusta, regida pelos princípios de simetria de calibre e de quebra espontânea de simetria. A (quase)-coincidência da intensidade das 3 forças fundamentais da natureza que o modelo prediz guiou muito do desenvolvimento formal da física de altas energias nas últimas décadas. Em um certo sentido, a teoria de cordas foi imensamente impulsionada por esta coincidência, que lhe servia como um farol (ou canto da sereia, para os críticos).

Do ponto de vista teórico, a linguagem do modelo padrão, a teoria quântica de campos, só realmente alcançou sua maturidade após a criação do modelo. Um dos pilares do modelo padrão, a ideia de renormalizabilidade, foi posteriormente entendida como uma contingência física ao invés de uma necessidade do modelo: a renormalizabilidade é uma decorrência da ideia que estamos tentando testar a teoria em escalas de comprimento muito maiores que o comprimento natural da teoria. Neste limite, apenas alguns termos de interação se tornam relevantes para a dinâmica. Uma situação inteiramente análoga ocorre no eletromagnetismo dentro de um meio linear, onde podemos para frequências óticas (cerca de 1 mícron) podemos desconsiderar todas as complicações advindas dos átomos que compõem o meio, um estrutura muito menor, de décimos de nanômetros. Violações de renormalizabilidade, assim, seriam um indício de que estaríamos chegando a essa escala natural da teoria, e assim um indício de física nova.

Neste sentido, por exemplo, podemos estimar correções devidas a essa nova física a quantidades como o decaimento do próton (que não ocorre no modelo padrão), e correções à massa do bóson de Higgs. Infelizmente para quem espera notícias bombásticas, em quase todos estes testes, a estimativa para o surgimento de nova física só acontece na escala de grande unificação, a energias da ordem de 1016 GeV (cerca de 100 bilhões de vezes maior do que podemos testar atualmente em aceleradores). Sem alguma ideia revolucionária, estas escalas continuarão inacessíveis para a pesquisa em laboratório.

Ao invertermos o raciocínio acima, pode-se perguntar o porquê de uma teoria com uma escala de energia natural de 1016 GeV apresentar partículas com massas de energias equivalentes a 169 GeV (como o quark top), ou 0,1 eV (como os neutrinos). É uma ótima pergunta, conhecida como o problema da hierarquia de massa.  Não há uma boa resposta para esta pergunta. A melhor que tínhamos, supersimetria (no mais também entendida como uma necessidade dentro de teoria de cordas), está bastante desfavorecida experimentalmente. Aqui, junto com outros problemas como o da assimetria matéria-antimatéria e o próprio mecanismo de massa para os neutrinos, podemos também usar ideias brilhantes.

Falando de experimentos, também aqui temos um certo “incômodo confortável”. O modelo padrão funciona bem experimentalmente. Muito bem.  A famosa medição do momento magnético do elétron concorda em 10 casas decimais com o valor teórico. Funciona bem a ponto de termos centenas de verificações cruzadas para as cerca de 20 constantes que servem de parâmetros para a teoria e quase todas batem com nível de confiança de 99,7% ou mais (os famosos “3 sigmas”). Como todas as medições são feitas de forma estatística, sempre há um ou outro valor que acaba “saindo da barra de erro”: não bate exatamente com a predição. Isto é natural, afinal é o próprio conceito de probabilidade. No entanto, as violações têm um propensão para acontecer em interações envolvendo o múon, o parente mais próximo do elétron, e o quark “bottom”. Estas medições são também envoltas por controvérsias e é um ponto que devo voltar no futuro.

Desvio relativo à margem de erro entre o ajuste teórico e as medições experimentais do modelo padrão. Retirado de Baak et al. [2]
Voltando à pergunta acima, podemos justificar a continuidade da pesquisa sobre o modelo padrão sem recorrer à frase de Nietzsche, para quem a pergunta “para que serve a filosofia” deveria ser respondida com “a maior violência possível”. Há vários pontos que não são bem compreendidos pela teoria, desde pontos formais como a existência matemática de teorias de calibre a questões sobre o comportamento dos quarks dentro dos núcleos e vários análogos desses sistemas que se apresentam em sistemas de matéria condensada em voga, como metamateriais e pontos quânticos. Para além da instrumentação de alto nível necessária para os testes experimentais da teoria (como a criação da internet), temos também o exemplo do GPS de como o conhecimento de física fundamental pode influenciar a tecnologia corrente.

E, é claro, temos o elefante na sala: a gravidade. A força é extremamente débil para ser realmente testada por aceleradores, mas é preponderante em eventos astrofísicos. Durante o final da década de 90 e o início da década de 2000 juntou-se uma quantidade de indícios teóricos de que podemos ver a gravidade também como uma espécie de cromodinâmica quântica, com um número muito grande de cores. A geometria da relatividade geral seria uma descrição efetiva a energias muito mais baixas que a energia natural. Aqui, em suma, não temos nada além de belas noções e muita esperança. Felizmente, isto bastou para o progresso científico até agora.

[1] Crédito da imagem: RM Bianchi (CERN). URL: http://cds.cern.ch/record/1631395.

[2] M Baak et al. The global electroweak fit at NNLO and prospects for the LHC and ILC. Cornell University Library. URL: https://arxiv.org/pdf/1407.3792. (2014).

[3] S Weinberg. The making of the standard model. Cornell University Library. URL: https://arxiv.org/pdf/hep-ph/0401010.pdf. (2004).

Como citar este artigo: Bruno Carneiro da Cunha. Afinal, o quão bom é o modelo padrão de partículas? Saense. URL: http://www.saense.com.br/2017/03/afinal-o-quao-bom-e-o-modelo-padrao-de-particulas/. Publicado em 06 de março (2017).

Artigos de Bruno Carneiro da Cunha     Home