E qual a previsão que temos para 2020? Prevemos que a entropia do universo irá aumentar!

Share:
Introdução

Antes de se abordar essa questão, é preciso introduzir alguns conceitos de modo que tudo fique o mais claro e compreensível possível. Esse é que deve ser o papel da divulgação científica virtuosa, já que o vício da divulgação científica atual (isto é, a sua característica que a desqualifica) é cometer simplificações que levam a erros conceituais crassos e, por mais que promovam um entendimento e compreensão menos dificultoso, pecam em deixar de tratar certo tema como ele deve ser tratado, com toda a rigorosidade possível de ser incutida, o que absolutamente não dispensa a clareza conceitual com a fixação mais precisa possível do significado de cada termo, bem como a didática e até, a retórica na hora de expressar e repassar informações para o público.

A entropia é uma grandeza que pode ser entendida de diferentes formas, entretanto, seu conceito geral permanece. Falar sobre entropia é, pois, tão difícil quanto falar sobre o que seja “energia” e “campo”, dois elementos cujos significados variam de acordo com qual domínio estamos nos referindo dentro da Física. Existem vários tipos de energia em Física, assim como existem vários tipos de campos. E existe uma diferença entre “campo” dentro da mecânica clássica e da mecânica quântica. No caso da entropia, existem várias formulações, cada uma perfeitamente válida dentro do seu domínio de aplicabilidade. De fato, podem existir zilhões (um termo que eu usarei aqui para denotar um número muito grande de itens) de formulações entrópicas, algumas sendo mais gerais que outras e abordando casos em que as outras não abordam. No entanto, existe o análogo a um “princípio de correspondência” dentro da mecânica quântica, que para os casos mais gerais, nos permite obter as equações mais básicas de modo válido. Mais para frente eu discutirei sobre isso.

Primeiramente, antes de falarmos sobre essa “previsão” que temos para o ano de 2020 (e que de fato é válida para todos os anos conseguintes), é preciso introduzir a formulação primordial da entropia, que foi concebida pelo físico Rudolf Clausius, no século XIX. Quero deixar claro aqui que, antes de tudo, não trabalho com História da Física, de modo que prefiro propor ao leitor para procurar fontes alternativas para se inteirar a respeito da história da entropia. Mas basicamente, no contexto da época, os físicos estavam interessados em estudar as relações existentes entre algumas grandezas fundamentais da Física, que aparecem dentro da teoria clássica, mas que se relacionam de formas diferentes em outro contexto. E esse caso é justamente, o caso da Termodinâmica, que estuda as relações entre calor, energia e trabalho e busca descrever as ocorrências associadas às variações dessas grandezas (por exemplo, como que a expansão de um gás pode ser descrita em termos de transferência de energia por meio de calor?). No contexto da formulação do chamado “valor equivalente” (proposto por Clausius), já era bem conhecido as formulações de Carnot a respeito das transformações que um sistema físico está sujeito considerando processos cíclicos. Um sistema pode ser entendido como um subconjunto do universo (sistema total) que pode ser determinado univocamente, isto é, de modo que se pode dizer o que pertence e o que não pertence ao sistema de modo inequívoco. Assim, um gás que ocupa um certo volume pode ser entendido como um “sistema”. As transformações que esse gás sofre são cíclicas se, ao esse gás sofrer uma série de transformações partindo de um certo estado inicial A, que pode ser especificado por valores de várias grandezas de estado (como temperatura, volume e energia interna), então, por meio de uma quantidade finita de processos, é possível fazer com que o gás retorne ao seu estado inicial A.

Ciclos de Carnot e formulação entrópica


Como exemplo para ilustrar isso, vamos considerar um gás contido dentro de um êmbolo, isolado termicamente e considerando que não há nenhum atrito entre o pistão e as paredes do êmbolo, de modo que o trabalho realizado se dá em virtude apenas de interações que correspondem às forças conservativas (como a força peso). Como outra condição que vamos considerar, esse gás é descrito como um gás ideal, isto é, com as partículas que o compõem sejam esféricas e que colidam apenas elasticamente umas com as outras, como se fossem objetos esféricos presos a molas interagindo uns com os outros, variando a energia potencial elástica, sem haver atrito nenhum e consequentemente, interação térmica nenhuma. Entre o êmbolo, existem dois reservatórios que, ao entrarem em contato com o sistema em questão, transferem ou recebem energia devido à diferença de temperatura entre ambos os sistemas. Isso pode ser esquematizado pelas seguintes imagens:




         O gás então, anteriormente considerado um sistema isolado (isto é, que não interage com o ambiente ao seu redor de modo que haja transferência de energia por meio de calor ou trabalho), passa a ser um sistema aberto e uma quantidade de calor  é transferida do reservatório ao sistema, sendo transformado em trabalho e havendo a expansão do gás isotermicamente, isto é, sem haver variação da temperatura. De acordo com a primeira lei da termodinâmica, a quantidade de energia transferida por meio de calor para o sistema faz com que sua energia interna aumente, mas nesse caso, essa quantidade é transformada em trabalho realizado pelo gás, fazendo com que o pistão se eleve para uma determinada altura. O sistema então passou de um estado inicial A para um estado B. O próximo processo envolverá novamente, um aumento do volume ocupado pelo gás, mas sem haver troca de energia por meio de calor, havendo somente um saldo energia interna devido ao trabalho realizado pelo gás ao expandir, arrefecendo para uma certa temperatura, partindo da temperatura T1  até T2. Pode-se representar pela seguinte imagem:


  



Nesse outro processo, há a expansão adiabática do gás (como mencionado, sem haver interação térmica do gás com outro sistema), com sua energia interna variando de acordo com a energia transferida por meio de trabalho e o gás indo do estado B para o C. Antes de prosseguir, é importante distinguir que trabalho e calor são grandezas representadas por diferenciais inexatas. Para os que não estão familiarizados com a matemática envolvida, uma diferencial inexata basicamente representa uma porção infinitesimal (extremamente pequena) do valor de uma certa grandeza, não representando pois, variação dessa grandeza entre um certo valor A e B (que podem ser os estados de um sistema, fisicamente falando). Matematicamente, são diferenciais que ao serem integradas, seus valores dependem da trajetória feita e também, não são necessariamente iguais a zero se considerarmos um processo cíclico. São representadas pelo “d cortado”. Grandezas como volume e energia interna são representadas por diferenciais exatas, de modo que, considerando que são funções de estado f(x) por exemplo, temos que: 

                                                      

 Isso está dizendo simplesmente que, partindo de um estado inicial A (com o sistema sendo descrito por certos valores de volume, temperatura, energia interna e outras grandezas que são funções de estado) e alcançando o estado final A (o mesmo que o inicial), ou seja, um processo cíclico, não houve variação, por exemplo, do volume. No caso do calor e do trabalho, esse resultado pode ser menor que zero.

Na terceira parte do processo, temos agora novamente a interação térmica do gás com o reservatório frio, transferindo uma certa quantidade de energia por meio de calor, com a temperatura do gás constante e o volume diminuindo para uma certa quantidade. O gás vai do estado C para o D.



Finalmente, na última parte do processo, temos uma compressão adiabática, com a temperatura do gás variando devido ao trabalho realizado sobre ele e em decorrência disso, havendo a contração, retornando pois, ao seu estado inicial, isto é, isto do estado D para o estado A.



Isso também pode ser representado graficamente pela imagem a seguir:




Em que P e V representam os valores de pressão e volume. No caso do gráfico, ao invés do calor recebido pelo sistema do reservatório quente (hot reservoir) ser representado por Qh, é expresso por Q1. A quantidade calor cedida é representada por Qc (cold reservoirque no gráfico é Q2. E os estados A, B, C e D são representados pelos números 1, 2, 3 e 4.

      Como mencionado anteriormente, Clausius havia formulado o nome “valor equivalente”. Do que exatamente isso se trata? Nesse exemplo do gás contido no êmbolo e movendo o pistão, que está associado ao chamado Ciclo de Carnot, existe uma quantidade de energia transferida ao sistema a certa temperatura e uma quantidade cedida por esse sistema também a certa temperatura, que são equivalentes a uma outra quantidade (isto é, a razão entre a quantidade de calor cedido ou recebido pela quantidade associada à temperatura em que se deu esse processo). O chamado “valor equivalente” corresponde a essa relação entre calor e temperatura, expressa pelas formulações: 



           Em que Q é a quantidade de energia transferida por meio de calor e T representa a temperatura do sistema em que se deu essa transferência de energia. Dessa forma, podemos entender que trabalho e calor são os “meios de pagamento” da natureza enquanto que a energia (por exemplo, a energia potencial e a energia térmica) é o dinheiro. Desse modo, pode haver crédito, débito e saldo de todas essas quantidades. A energia é uma função de estado, que pode estar associada a algum campo (campo gravitacional, campo da temperatura etc), em que nesses campos, existem certos valores em cada posição do espaço e cada momento do tempo, podendo estar distribuído de modo uniforme ao longo do espaço. Calor e trabalho por sua vez, não estão associados a funções que resultam em determinados valores que variam de acordo com as coordenadas de posição e do tempo. Eles estão associados a quantidades de energia transferida durante certos processos, que envolve mudança de estado do sistema (ou sistemas) em questão.
           
           Mais tarde, Clausius chamaria essa quantidade associada à razão entre quantidade de energia transferida por meio de calor e a temperatura do sistema em questão que cede ou recebe essa energia, de “entropia”, uma palavra que etimologicamente deriva do termo grego  τροπή, que significa “transformação”. Nas próprias palavras dele: 
“Eu proponho chamá-la de entropia do corpo, da palavra grega "tropo" para "transformação". Eu deliberadamente escolhi palavra "entropia" para ser o mais semelhante possível à palavra "energia"; pois as duas magnitudes a serem denotadas por essas palavras são tão quase aliadas em seus significados físicos, que uma certa semelhança na designação parece ser desejável.”

Certamente, as quantidades de energia estão associadas às mudanças de estado. Dizer que algo contém certa quantidade de energia quer dizer que esse algo contém uma certa magnitude associada à capacidade de exercer influências ou realizar ações ao seu redor, isto é, alterando o estado dos sistemas que existem e interagem uns com os outros (aumentando a altura de um sistema em relação ao chão, por exemplo, com o acréscimo de sua energia potencial). Como calor é uma quantidade associada à transferência de energia e como vimos nos Ciclos de Carnot que tais variações estão associadas às transformações (mudanças de estado) dos sistemas, realmente, existe uma clara conexão entre entropia e energia. 


Mas então, em que casos que a entropia aumenta? Clausius demonstrou partindo da chamada “desigualdade de Clausius”, formulando o teorema de Clausius, que a entropia de um sistema isolado (que não interage com nada que exista no ambiente ao seu redor de modo que não há transferência de energia de ordem alguma) nunca decai. Ela permanece constante em processos reversíveis e aumenta em processos irreversíveis. Isso pode ser facilmente verificado nos Ciclos de Carnot, que correspondem a processos reversíveis. Considere o seguinte cálculo:






            Como vimos, na passagem do estado A para o B, o sistema recebe uma certa quantidade de calor do reservatório quente e então, na passagem do estado C para o D, ele doa essa quantidade ao reservatório frio. Como não houve perda de energia por meio de calor devido ao atrito entre o pistão e o êmbolo (pois uma das condições que eu considerei foi de justamente não haver atrito nenhum) e também, como o gás nos processos adiabáticos não interagiu termicamente com nada fora dele, então a é possível deduzir que as quantidades de calor recebidos e cedidos são proporcionais a uma mesma constante e às respectivas temperaturas dos reservatórios, de modo que as entropias (definidas como a razão entre calor e temperatura) se cancelam pois não há dependência das temperaturas. Nesse caso, o processo então é dito reversível. Ou, por meio do cálculo da integral, temos que:




            Em que dQ (d cortado) representa quantidades infinitesimais de energia transferidas durante o processo cíclico e a integral corresponde à soma dessas quantidades ao longo desse ciclo. Para compreender o aumento e diminuição da entropia, basta analisarmos as imagens novamente. Na primeira imagem, o sistema recebe energia do reservatório quente por meio de calor. A entropia então varia positivamente (aumenta). Na terceira imagem, o sistema cede essa quantidade ao reservatório frio, diminuindo seu volume e diminuindo sua entropia, voltando ao valor inicial.
           
            Acontece que os processos que ocorrem na natureza não são reversíveis (que é um processo ideal), pois por exemplo, há atrito entre o pistão e o êmbolo, o sistema em que o gás está contido não é totalmente isolado, de modo que há interação térmica entre tal sistema com outros ao seu redor. Nesse caso, há que se considerar um sistema que englobe todos esses sistemas interagindo conjuntamente e que seja isolado. Tal sistema por exemplo, é o universo. Não existe nada “fisicamente” fora do universo, de modo que não há trocas de energia por meio de calor (e nem por trabalho) entre o universo e outro sistema. Nesse caso, temos que a entropia desse sistema isolado aumenta, pois há uma quantidade de energia transferida por meio de calor (durante o contato entre sistemas de diferentes temperaturas, como um reservatório e um gás) que não é integralmente convertida em trabalho, sendo portanto, uma energia “dispersa” em relação ao resto do universo. É justamente isso que corresponde ao aumento da entropia do universo.

           Certo, mas como isso aconteceu desde o nascimento do universo?

            Quando o universo surgiu, ele surgiu com certas condições e num estado global que correspondiam a um estado de baixíssima entropia. Não havia transformação nenhuma de nenhum campo que existia. Na era de Planck por exemplo, pensa-se que os campos estavam unificados em um só, inclusive os chamados “campos fermiônicos” que dão origem às partículas fermiônicas (como quarks e elétrons) por flutuações aleatórias. A temperatura do universo era altíssima, mas por que a entropia também não era?

            Pois a entropia também pode ser entendida de outra maneira. Quando o universo surgiu, existia uma certa energia contida nesses campos, que pode ser associada a uma certa temperatura. A densidade de energia era enorme, que ao ser computada, fornece uma temperatura extremamente alta também. No entanto, ainda não havia acontecido nenhum processo que transformasse toda essa energia (sob forma potencial) na energia cinética associada ao movimento das partículas. Foi posteriormente com a existência de quarks e outros férmions (como os elétrons) que tais partículas passaram a interagir umas com as outras, devido às interações fundamentais (eletromagnética, interação fraca e forte), que proporcionaram o surgimento de regiões de baixa entropia no universo. Pois foi preciso a temperatura diminuir para que sistemas mais organizados fossem surgindo (como núcleos atômicos, íons e átomos que depois formariam gases e poeira via aglomeração gravitacional e depois estrelas e planetas) e que, em decorrência disso, a entropia do universo aumentasse.

            A outra forma de se entender é justamente, considerando a energia útil. A energia útil é a energia que pode ser obtida através da transferência de energia por meio de trabalho. Por exemplo, utilizar uma certa energia recebida por meio de calor um reservatório quente para mover um pistão. Ou um motor. Ou qualquer máquina que funcione com certa eficiência. Todavia, existe sempre uma quantidade de calor que não é transformado em trabalho, sendo portanto, cedido a um sistema de menor temperatura, sendo chamado de “energia inútil”. Não é difícil entender isso se analisarmos casos cotidianos. A energia que move um carro por exemplo, que advém da combustão dos hidrocarbonetos que fazem parte do combustível, fornece trabalho ao carro (pois o carro passa a exibir movimento acelerado), mas uma parte dessa energia ainda é transferida para certas componentes do carro durante o aquecimento. Ou seja, para o próprio carro funcionar, há um aumento da entropia do carro como um todo, em que se tem uma certa quantidade de energia útil que corresponde ao funcionamento do carro e uma quantidade de energia inútil e irrecuperável que aquece o motor (podendo inclusive causar problemas de superaquecimento). A entropia é proporcional a essa quantidade de energia inútil existente. Quando o universo surgiu, digamos que ele surgiu com o máximo de quantidade de energia útil possível, que foi sendo “usada” por vários sistemas fazendo com que se movessem e interagissem, formando outras estruturas. Mas uma parte da energia “inútil”, carregada por fótons, é espalhada no universo, e não pode ser utilizada por exemplo, na formação das estrelas.

            Uma das características associadas à variação da entropia num sistema isolado é que, diminuições locais de entropia implicam num aumento de entropia global (pois um certo subsistema contido dentro do sistema isolado, ao ceder energia por meio de calor, acaba fazendo com que o resto do universo receba essa energia, aumentando pois, a entropia). No entanto, na medida que o universo vai evoluindo, vão surgindo cada vez mais estruturas mais complexas. Seu volume aumenta devido à expansão (se quiser entender mais sobre isso, cheque meus textos sobre a expansão do universo) e há cada vez mais formas de organizar as partículas de modo que isso resulte num estado macroscópico que é justamente, um de alta entropia. Para discutir essa questão, irei introduzir o segundo conceito de entropia.



A entropia entendida do ponto de vista mecânico-estatístico


Equação da entropia de Boltzmann escrita na lápide de seu túmulo


             Antes de falarmos sobre esse novo conceito de entropia, irei introduzir um exemplo básico de probabilidade e definir o que são os “microestados” e “macroestados”. Na formulação da entropia de Clausius, estávamos descrevendo como sistemas macroscópicos (descritos por variáveis macroscópicas como energia interna, volume, temperatura e outras) se comportam face às transformações que experimentam devido às transferências de energia por meio de calor e trabalho. No contexto em que Boltzmann desenvolveu sua formulação estatística da entropia, ele defendia a hipótese atômica (inclusive, foi bastante criticado por isso) com base nos resultados experimentais que haviam surgido no contexto da teoria cinética dos gases (como as leis dos gases). Não será discutido aqui os aspectos filosóficos dessa questão (até onde por exemplo, os átomos, que seriam os constituintes dos gases, seriam apenas entidades sem existência física real e objetiva que eram aceitas como existindo apenas para dar consistência as observações das propriedades macroscópicas que eram feitas nos experimentos e descritas por modelos teóricos), como o realismo, antirrealismo, instrumentalismo e outros. Mas a questão é que tais resultados sugeriam que os gases realmente poderiam ser constituídos de partículas não sendo (até então) reduzidas a outras elementares, que seriam os átomos. Sua formulação se trata portanto, justamente, de descrever o estado macroscópico dos sistemas (sob certas condições como vimos anteriormente, considerando um sistema isolado e outras) a partir dos seus estados microscópicos. Ao estado macroscópico do sistema especificado por uma certa quantidade de parâmetros macroscópicos (como volume e temperatura), chama-se de “macroestado”. Ao estado microscópico especificado por uma certa quantidade de parâmetros microscópicos (como posição e quantidade de movimento), chama-se de “microestado”. Uma das noções fundamentais da Mecânica Estatística é que vários estados microscópicos distintos podem resultar num mesmo estado macroscópico. O seguinte exemplo ilustra essa questão:



            Vamos considerar um caso simples de lançamento de duas moedas. Cada moeda possui ½ de probabilidade de cair com a face “cara” para cima e com a face “coroa” para cima. No entanto, nosso espaço amostral (espaço de resultados possíveis que podemos ter ao fazer o experimento) é:




                                     





        A probabilidade de que as duas moedas caiam com cara e cara e coroa e coroa ao mesmo tempo, é ¼. O número de resultados possíveis são 4. A probabilidade de cair cara e coroa ou coroa e cara é de ½. Com isso, esperamos que quando lançarmos as duas moedas várias vezes, com o decorrer do tempo, seja observado mais resultados de cara e coroa ou coroa e cara do que as duas faces iguais voltadas para cima. É mais provável então, que se observe o estado que corresponde a faces distintas para cima das moedas. Se cada um desses resultados possíveis for um “microestado” e um “macroestado” for definido em termos dessas combinações, considerando o macroestado de caiam duas moedas com faces distintas para cima (cara e coroa ou coroa e cara), temos o número de microestados que correspondem a esse macroestado são 2/4, pois são apenas dois microestados possíveis do total de 4 microestados que são compatíveis com esse macroestado. O número de microestados correspondente a dado macroestado é chamado de peso estatístico. A probabilidade é a razão do peso estatístico pelo número total de peso estatístico correspondentes a todos os macroestados do sistema. A fórmula para a probabilidade é:








         Em que p é a probabilidade de se observar um dado macroestado e w é o número de microestados compatíveis com esse macroestado. A entropia de Boltzmann então pode ser definida como:



                Em que k é a constante de Boltzmann (dada em joules por kelvin para a entropia possuir unidade de medida termodinâmica) e  representa o logaritmo neperiano do número de microestados. O que se nota dessa equação é que, na medida que temos mais microestados compatíveis com um dado macroestado, maior é a probabilidade do sistema se encontrar nesse macroestado. E também, maior é a entropia do sistema. Sistemas altamente organizados (como redes cristalinas) possuem poucos arranjos compatíveis com o macroestado em questão, de modo que são estados de baixa entropia. A relação com a entropia de Clausius é a seguinte: Na medida que se diminui a temperatura, menor é a energia cinética média das moléculas que compõem o gás, fazendo com que o movimento caótico das mesmas diminua e que as interações (de van der Waals por exemplo), sejam responsáveis pelas formações de arranjos específicos que correspondem a certas estruturas. Ao se elevar a temperatura do sistema através da transferência de energia por meio de calor (derretendo um gelo), as moléculas passam a ter uma energia cinética média maior, fazendo com que haja a expansão da água (que antes estava no estado sólido), aumentando o volume e aumentando o número de microestados compatíveis com esse macroestado. 


        Mas o que tudo isso tem a ver com a evolução do universo e a previsão do aumento da entropia para 2020?

            Na medida que o universo evolve, existem cada vez mais maneiras dos sistemas (as galáxias nesse caso) se arranjarem de modo que o universo sempre evolua para um macroestado resultante de maior entropia. Assim como no exemplo das moedas, havendo mais probabilidade delas caírem com faces distintas para cima, espera-se que seja imensamente mais provável que a entropia do universo aumente pois há esmagadoramente mais maneiras disso acontecer. Com a expansão do espaço, as galáxias se distanciam uma das outras e a interação gravitacional responsável pelo decréscimo de entropia local, com o tempo, é sobrepujada pela expansão do espaço, que aumenta a distância das galáxias umas em relação às outras. Com o universo observável tendo um volume cada vez maior, há cada vez mais microestados que correspondem a um volume maior (já que nas condições posteriores ao big bang, que ele tinha um volume pequeno, havia poucos microestados compatíveis com aquela situação e por isso a probabilidade do universo continuar naquele estado de baixa entropia era pequeníssima).

            No caso da evolução estelar, na medida que as estrelas evolvem, elas transformam elementos leves em elementos mais pesados, no processo, liberando energia radiante para o espaço afora, que corresponde a uma “energia inútil”, em grande parte, como mencionado anteriormente. Mesmo que parte da energia solar seja utilizável aqui na Terra, boa parte dessa energia (e de outras estrelas) se torna inutilizável e se dispersa pelo espaço afora. Mas as estrelas não produzem energia para sempre. Elas produzem até chegar em elementos que não funcionam por meio de processos exotérmicos como acontece na fusão. Ao invés de fundirem formando elementos mais pesados, eles absorvem a energia (processo endotérmico) e com isso, a estrela não libera mais radiação eletromagnética que promove um equilíbrio com a força gravitacional que tenta fazer com a estrela colapse sobre si mesma, tendo suas energias potenciais gravitacionais transformadas em outros tipos de energia, como a radiante e a sonora durante a explosão da supernova, que faz com as camadas mais externas da estrela se alastrem e que seja emitido um brilho muito intenso. Ou seja, as estrelas evoluem até um certo ponto em que não liberam mais energia útil para o universo, colapsando sobre si mesmas e acabam se arrefecendo (suas temperaturas diminuem) na medida que o universo se expande. Há cada vez mais energia inútil dispersa por fótons no universo, que com a expansão, ficam cada vez mais dispersos e a densidade de energia eletromagnética diminui.

            A consequência disso é que, todo sistema que depende de energia útil (que possa ser transformado em trabalho) para funcionar, que inclui nós seres humanos e tudo o que existe tecnologicamente aqui na Terra, deixará de funcionar. A energia que é dispersa universo afora não terá como ser recuperada, devido à expansão do universo que leva ao seu envelhecimento. O princípio do aumento de entropia também nos indica a “seta do tempo”, isto é, o fato do universo ir sempre do passado para o futuro, ou seja, sempre para uma situação de maior entropia.

            Observação final

A equação da entropia de Boltzmann, na verdade, vale apenas para sistemas que estejam em equilíbrio termodinâmico, em que uma das condições é, justamente, de não haver interação térmica entre seus constituintes, de modo que o sistema todo não interage termicamente com nada fora dele (e nem suas partes umas em relação às outras). Nesse caso, a probabilidade do sistema se encontrar em cada um dos W microestados possíveis, é a mesma. A equação que generaliza a entropia de Boltzmann é a chamada “entropia de Gibbs”, que leva em conta o aumento de entropia em sistemas em estados de não equilíbrio, em que se tem:


     O universo como um todo, pode ser considerado como estando em “equilíbrio termodinâmico”, pois como não há nada fisicamente fora dele, não há interações e nem troca de energia. No entanto, seus constituintes (no caso, as galáxias) não estão em equilíbrio termodinâmico, pois interagem umas com as outras (eventualmente podendo colidir), mas se afastam com a expansão do espaço. O universo como um todo pode ser descrito aproximadamente como um fluido em que no caso, as galáxias seriam as “partículas do fluido”, como as moléculas de um gás, descritas em termos de variáveis macroscópicas como energia interna, pressão, densidade de energia e outras.

Publicar um comentário

Nenhum comentário