Entropia de mistura - Entropy of mixing

Em termodinâmica, a entropia da mistura é o aumento da entropia total quando vários sistemas inicialmente separados de composição diferente, cada um em um estado termodinâmico de equilíbrio interno, são misturados sem reação química pela operação termodinâmica de remoção da (s) partição (ões) impermeáveis ​​entre eles , seguido por um tempo para o estabelecimento de um novo estado termodinâmico de equilíbrio interno no novo sistema fechado não particionado.

Em geral, a mistura pode ser restringida para ocorrer sob várias condições prescritas. Nas condições normalmente prescritas, os materiais estão, inicialmente, cada um em uma temperatura e pressão comuns, e o novo sistema pode alterar seu volume, ao mesmo tempo que é mantido à mesma temperatura, pressão e massas de componentes químicos constantes. O volume disponível para cada material a explorar é aumentado, desde o seu compartimento inicialmente separado, até ao volume final comum total. O volume final não precisa ser a soma dos volumes inicialmente separados, de modo que o trabalho possa ser feito no ou pelo novo sistema fechado durante o processo de mistura, bem como o calor sendo transferido de ou para o ambiente, devido à manutenção do pressão e temperatura constantes.

A energia interna do novo sistema fechado é igual à soma das energias internas dos sistemas inicialmente separados. Os valores de referência para as energias internas devem ser especificados de forma restrita para tanto, mantendo também que as energias internas são respectivamente proporcionais às massas dos sistemas.

Para concisão neste artigo, o termo 'material ideal' é usado para se referir a um gás ideal (mistura) ou a uma solução ideal .

No caso especial de misturar materiais ideais, o volume comum final é de fato a soma dos volumes iniciais do compartimento separado. Não há transferência de calor e nenhum trabalho é realizado. A entropia da mistura é inteiramente explicada pela expansão difusiva de cada material em um volume final não inicialmente acessível a ele.

No caso geral de mistura de materiais não ideais, entretanto, o volume comum final total pode ser diferente da soma dos volumes iniciais separados, podendo ocorrer transferência de trabalho ou calor, para ou do entorno; também pode haver um afastamento da entropia da mistura daquela do caso ideal correspondente. Essa partida é a principal razão para o interesse na entropia da mistura. Essas variáveis ​​de energia e entropia e suas dependências com a temperatura fornecem informações valiosas sobre as propriedades dos materiais.

Em um nível molecular, a entropia da mistura é de interesse porque é uma variável macroscópica que fornece informações sobre propriedades moleculares constitutivas . Em materiais ideais, as forças intermoleculares são as mesmas entre cada par de tipos moleculares, de modo que uma molécula não sente diferença entre outras moléculas de seu próprio tipo e as do outro tipo. Em materiais não ideais, pode haver diferenças de forças intermoleculares ou efeitos moleculares específicos entre espécies diferentes, mesmo que não reajam quimicamente. A entropia da mistura fornece informações sobre as diferenças constitutivas das forças intermoleculares ou efeitos moleculares específicos nos materiais.

O conceito estatístico de aleatoriedade é usado para explicação mecânica estatística da entropia da mistura. A mistura de materiais ideais é considerada aleatória em um nível molecular e, correspondentemente, a mistura de materiais não ideais pode ser não aleatória.

Mistura de espécies ideais a temperatura e pressão constantes

Em espécies ideais, as forças intermoleculares são as mesmas entre cada par de tipos moleculares, de modo que uma molécula "sente" nenhuma diferença entre si mesma e seus vizinhos moleculares. Este é o caso de referência para examinar a mistura correspondente de espécies não ideais.

Por exemplo, dois gases ideais, na mesma temperatura e pressão, são inicialmente separados por uma partição divisória.

Após a remoção da partição divisória, eles se expandem em um volume comum final (a soma dos dois volumes iniciais), e a entropia da mistura é dada por

.

onde é a constante do gás , o número total de moles e a fração molar do componente , que inicialmente ocupa o volume . Após a remoção da partição, os moles do componente podem explorar o volume combinado , o que causa um aumento de entropia igual a para cada gás componente.

Nesse caso, o aumento da entropia se deve inteiramente aos processos irreversíveis de expansão dos dois gases, e não envolve calor ou fluxo de trabalho entre o sistema e seu entorno.

Energia livre de Gibbs de mistura

A mudança de energia livre de Gibbs determina se a mistura em temperatura e pressão constantes (absolutas) é um processo espontâneo . Essa quantidade combina dois efeitos físicos - a entalpia de mistura , que é uma medida da mudança de energia, e a entropia de mistura considerada aqui.

Para uma mistura de gás ideal ou uma solução ideal , não há entalpia de mistura ( ), de modo que a energia livre de mistura de Gibbs é dada apenas pelo termo entropia:

Para uma solução ideal, a energia livre de Gibbs de mistura é sempre negativa, o que significa que a mistura de soluções ideais é sempre espontânea. O valor mais baixo é quando a fração molar é 0,5 para uma mistura de dois componentes ou 1 / n para uma mistura de n componentes.

A entropia de mistura para uma solução ideal de duas espécies é maximizada quando a fração molar de cada espécie é 0,5.

Soluções e dependência da miscibilidade com a temperatura

Soluções ideais e regulares

A equação acima para a entropia da mistura de gases ideais é válida também para certas soluções líquidas (ou sólidas) - aquelas formadas por mistura completamente aleatória de modo que os componentes se movam independentemente no volume total. Essa mistura aleatória de soluções ocorre se as energias de interação entre moléculas diferentes são semelhantes às energias de interação médias entre moléculas semelhantes. O valor da entropia corresponde exatamente à mistura aleatória para soluções ideais e para soluções regulares , e aproximadamente assim para muitas soluções reais.

Para misturas binárias, a entropia da mistura aleatória pode ser considerada como uma função da fração molar de um componente.

Para todas as misturas possíveis,, de modo que e são ambos negativos e a entropia da mistura é positiva e favorece a mistura dos componentes puros.

Além disso, a curvatura de em função de é dada pela segunda derivada

Esta curvatura é negativa para todas as misturas possíveis , de modo que misturar duas soluções para formar uma solução de composição intermediária também aumenta a entropia do sistema. A mistura aleatória, portanto, sempre favorece a miscibilidade e se opõe à separação de fases.

Para soluções ideais, a entalpia de mistura é zero para que os componentes sejam miscíveis em todas as proporções. Para soluções regulares, uma entalpia positiva de mistura pode causar miscibilidade incompleta (separação de fases para algumas composições) a temperaturas abaixo da temperatura crítica superior da solução (UCST). Esta é a temperatura mínima na qual o termo na energia de Gibbs de mistura é suficiente para produzir miscibilidade em todas as proporções.

Sistemas com uma temperatura de solução crítica mais baixa

A mistura não aleatória com uma entropia de mistura mais baixa pode ocorrer quando as interações atraentes entre moléculas diferentes são significativamente mais fortes (ou mais fracas) do que as interações médias entre moléculas semelhantes. Para alguns sistemas, isso pode levar a uma temperatura de solução crítica mais baixa (LCST) ou temperatura limite inferior para a separação de fases.

Por exemplo, trietilamina e água são miscíveis em todas as proporções abaixo de 19 ° C, mas acima desta temperatura crítica, as soluções de certas composições separam-se em duas fases em equilíbrio uma com a outra. Isso significa que é negativo para a mistura das duas fases abaixo de 19 ° C e positivo acima dessa temperatura. Portanto, é negativo para a mistura dessas duas fases de equilíbrio. Isso se deve à formação de ligações de hidrogênio atraentes entre os dois componentes que evitam a mistura aleatória. As moléculas de trietilamina não podem formar ligações de hidrogênio umas com as outras, mas apenas com as moléculas de água, portanto, em solução, permanecem associadas às moléculas de água com perda de entropia. A mistura que ocorre abaixo de 19 ° C não se deve à entropia, mas à entalpia de formação das pontes de hidrogênio.

As temperaturas de solução críticas mais baixas também ocorrem em muitas misturas de polímero-solvente. Para sistemas polares, como o ácido poliacrílico em 1,4-dioxano , isso geralmente se deve à formação de ligações de hidrogênio entre o polímero e o solvente. Para sistemas apolares, como poliestireno em ciclohexano , a separação de fases foi observada em tubos selados (em alta pressão) em temperaturas próximas do ponto crítico de vapor líquido do solvente. Em tais temperaturas, o solvente se expande muito mais rapidamente do que o polímero, cujos segmentos estão ligados covalentemente. A mistura, portanto, requer a contração do solvente para compatibilidade do polímero, resultando em uma perda de entropia.

Explicação estatística termodinâmica da entropia da mistura de gases ideais

Uma vez que a entropia termodinâmica pode ser relacionada à mecânica estatística ou à teoria da informação , é possível calcular a entropia da mistura usando essas duas abordagens. Aqui, consideramos o caso simples de misturar gases ideais.

Prova de mecânica estatística

Suponha que as moléculas de duas substâncias diferentes tenham aproximadamente o mesmo tamanho e considere o espaço como subdividido em uma rede quadrada cujas células têm o tamanho das moléculas. (Na verdade, qualquer rede serviria, incluindo compactação .) Este é um modelo conceitual semelhante ao de um cristal para identificar os centros moleculares de massa . Se as duas fases são líquidas, não há incerteza espacial em cada uma individualmente. (Esta é, obviamente, uma aproximação. Líquidos têm um "volume livre". É por isso que eles são (geralmente) menos densos do que sólidos .) Em todos os lugares que olhamos no componente 1, há uma molécula presente, e da mesma forma para o componente 2 Depois que as duas substâncias diferentes são misturadas (supondo que sejam miscíveis), o líquido ainda está denso com moléculas, mas agora há incerteza sobre que tipo de molécula está em qual local.Claro, qualquer ideia de identificar moléculas em determinados locais é um experimento de pensamento , não algo que se possa fazer, mas o cálculo da incerteza é bem definido.

Podemos usar a equação de Boltzmann para a mudança de entropia aplicada ao processo de mistura

onde está a constante de Boltzmann . Em seguida, calculamos o número de maneiras de organizar as moléculas do componente 1 e as moléculas do componente 2 em uma rede, onde

é o número total de moléculas e, portanto, o número de locais da rede. Calculando o número de permutações de objetos, corrigindo para o fato de que eles são idênticos um ao outro, e da mesma forma para ,

Depois de aplicar a aproximação de Stirling para o fatorial de um grande inteiro m:

,

o resultado é

onde introduzimos as frações molares , que também são as probabilidades de encontrar qualquer componente particular em um determinado local da rede.

Desde a constante de Boltzmann , onde é o número de Avogadro, e o número de moléculas , recuperamos a expressão termodinâmica para a mistura de dois gases ideais,

Esta expressão pode ser generalizada para uma mistura de componentes,, com

Relação com a teoria da informação

A entropia da mistura também é proporcional à entropia de Shannon ou incerteza composicional da teoria da informação , que é definida sem exigir a aproximação de Stirling. Claude Shannon introduziu esta expressão para uso na teoria da informação , mas fórmulas semelhantes podem ser encontradas já no trabalho de Ludwig Boltzmann e J. Willard Gibbs . A incerteza de Shannon não é o mesmo que o princípio da incerteza de Heisenberg na mecânica quântica, que se baseia na variância. A entropia de Shannon é definida como:

onde p i é a probabilidade de que uma fonte de informação produzirá o i ésimo símbolo de um alfabeto de símbolos r e é independente dos símbolos anteriores. (portanto, i vai de 1 a r ). H é então uma medida da quantidade esperada de informações (log p i ) ausente antes do símbolo é conhecido ou medido, ou, alternativamente, a quantidade esperada de informação fornecido quando o símbolo torna-se conhecido. O conjunto de mensagens de símbolos de comprimento N da fonte terá então uma entropia de N * H.

A entropia termodinâmica é devida apenas à incerteza posicional, então podemos considerar o "alfabeto" como qualquer uma das r espécies diferentes no gás e, em equilíbrio, a probabilidade de que uma determinada partícula seja do tipo i é simplesmente a fração molar x i para essa partícula. Uma vez que estamos lidando com gases ideais, a identidade das partículas próximas é irrelevante. Multiplicando pelo número de partículas N produz a variação de entropia de todo o sistema do caso não misturados na qual todo o p i eram ou 1 ou 0. Nós novamente obter a entropia da mistura em multiplicar pela constante de Boltzmann .

Assim, a entropia termodinâmica com "r" espécies químicas com um total de N partículas tem um paralelo com uma fonte de informação que tem "r" símbolos distintos com mensagens que têm N símbolos de comprimento.

Aplicação a gases

Nos gases, há muito mais incerteza espacial porque a maior parte de seu volume é meramente espaço vazio. Podemos considerar o processo de mistura como permitindo que o conteúdo dos dois conteúdos originalmente separados se expanda no volume combinado dos dois recipientes unidos. As duas redes que nos permitem localizar conceitualmente centros moleculares de massa também se unem. O número total de células vazias é a soma do número de células vazias nos dois componentes antes da mistura. Conseqüentemente, aquela parte da incerteza espacial sobre se alguma molécula está presente em uma célula da rede é a soma dos valores iniciais e não aumenta com a "mistura".

Quase em todos os lugares que olhamos, encontramos células de rede vazias. No entanto, encontramos moléculas em algumas células ocupadas. Quando há uma mistura real, para cada uma dessas poucas células ocupadas, há uma incerteza contingente sobre que tipo de molécula se trata. Quando não há mistura real porque as duas substâncias são idênticas, não há incerteza sobre que tipo de molécula se trata. Usando probabilidades condicionais , verifica-se que o problema analítico para o pequeno subconjunto de células ocupadas é exatamente o mesmo que para líquidos mistos, e o aumento na entropia, ou incerteza espacial, tem exatamente a mesma forma obtida anteriormente. Obviamente, o subconjunto de células ocupadas não é o mesmo em momentos diferentes. Mas apenas quando há uma mistura real e uma célula ocupada é encontrada, perguntamos que tipo de molécula existe.

Veja também: Paradoxo de Gibbs , no qual parece que "misturar" duas amostras do mesmo gás produziria entropia.

Aplicação a soluções

Se o soluto for um sólido cristalino , o argumento é praticamente o mesmo. Um cristal não tem nenhuma incerteza espacial, exceto para defeitos cristalográficos , e um cristal (perfeito) nos permite localizar as moléculas usando o grupo de simetria do cristal . O fato de que os volumes não aumentam ao dissolver um sólido em um líquido não é importante para as fases condensadas . Se o soluto não for cristalino, ainda podemos usar uma rede espacial, uma aproximação tão boa para um sólido amorfo quanto para um líquido.

A teoria da solução de Flory-Huggins fornece a entropia de mistura para soluções de polímero , em que as macromoléculas são enormes em comparação com as moléculas de solvente. Nesse caso, presume-se que cada subunidade monomérica na cadeia do polímero ocupa um local de rede.

Observe que os sólidos em contato uns com os outros também se interdifundem lentamente , e misturas sólidas de dois ou mais componentes podem ser feitas à vontade ( ligas , semicondutores , etc.). Novamente, as mesmas equações para a entropia de mistura se aplicam, mas apenas para fases homogêneas e uniformes.

Misturando sob outras restrições

Mistura com e sem alteração do volume disponível

No uso habitual estabelecido, expresso na seção principal deste artigo, a entropia da mistura vem de dois mecanismos, a mistura e as possíveis interações das espécies moleculares distintas, e a mudança no volume disponível para cada espécie molecular, ou a mudança na concentração de cada espécie molecular. Para gases ideais, a entropia da mistura na temperatura e pressão comuns prescritas não tem nada a ver com a mistura no sentido de mesclagem e interações de espécies moleculares, mas tem apenas a ver com a expansão para o volume comum.

De acordo com Fowler e Guggenheim (1939/1965), a fusão dos dois mecanismos mencionados para a entropia da mistura está bem estabelecida na terminologia costumeira, mas pode ser confusa, a menos que se tenha em mente que as variáveis ​​independentes são a inicial comum e temperatura final e pressão total; se as respectivas pressões parciais ou o volume total forem escolhidos como variáveis ​​independentes em vez da pressão total, a descrição é diferente.

Mistura com cada gás mantido em volume parcial constante, com alteração do volume total

Em contraste com o uso habitual estabelecido, a "mistura" pode ser conduzida reversivelmente em volume constante para cada uma das duas massas fixas de gases de igual volume, sendo misturados pela fusão gradual de seus volumes inicialmente separados pelo uso de duas membranas semipermeáveis ​​ideais, cada uma permeável apenas a um dos respectivos gases, de modo que os respectivos volumes disponíveis para cada gás permaneçam constantes durante a fusão. Ou uma da temperatura comum ou da pressão comum é escolhida para ser controlada de forma independente pelo experimentador, podendo a outra variar de modo a manter o volume constante para cada massa de gás. Neste tipo de "mistura", o volume comum final é igual a cada um dos respectivos volumes iniciais separados, e cada gás finalmente ocupa o mesmo volume que ocupava inicialmente.

Esse tipo de "mistura" de volume constante, no caso especial de gases perfeitos, é referido no que às vezes é chamado de teorema de Gibbs. Afirma que a entropia dessa "mistura" de gases perfeitos é zero.

Mistura em volume total constante e volumes parciais variáveis, com pressão variável controlada mecanicamente e temperatura constante

Uma demonstração experimental pode ser considerada. Os dois gases distintos, em um cilindro de volume total constante, são inicialmente separados por dois pistões contíguos feitos respectivamente de duas membranas semipermeáveis ​​ideais adequadamente específicas. Idealmente de forma lenta e fictícia reversível, a temperatura constante, os gases podem se misturar no volume entre as membranas separadoras, forçando-as a se separarem, fornecendo trabalho para um sistema externo. A energia para o trabalho vem do reservatório de calor que mantém a temperatura constante. Então, forçando externamente de maneira ideal e lenta as membranas de separação juntas, de volta à contiguidade, o trabalho é feito sobre os gases misturados, separando-os novamente de forma reversível de maneira fictícia, de modo que o calor retorne ao reservatório de calor em temperatura constante. Como a mistura e a separação são idealmente lentas e fictivamente reversíveis, o trabalho fornecido pelos gases à medida que se misturam é igual ao trabalho realizado para separá-los novamente. Passando da reversibilidade fictícia para a realidade física, alguma quantidade de trabalho adicional, que permanece externo aos gases e ao reservatório de calor, deve ser provido de uma fonte externa para este ciclo, conforme requerido pela segunda lei da termodinâmica, pois este ciclo tem apenas um reservatório de calor a temperatura constante, e a provisão externa de trabalho não pode ser completamente eficiente.

Paradoxo de Gibbs: "mistura" de espécies idênticas versus mistura de espécies muito semelhantes, mas não idênticas

Para que a entropia da mistura exista, as espécies moleculares que se misturam supostamente devem ser química ou fisicamente distintas de forma detectável. Assim surge o chamado paradoxo de Gibbs , como segue. Se as espécies moleculares são idênticas, não há mudança de entropia ao misturá-las, porque, definido em termos termodinâmicos, não há transferência de massa e, portanto, nenhum processo de mistura reconhecido termodinamicamente. No entanto, a menor diferença detectável nas propriedades constitutivas entre as duas espécies produz um processo de transferência com mistura termodinamicamente reconhecido e uma mudança de entropia possivelmente considerável, ou seja, a entropia de mistura.

O "paradoxo" surge porque qualquer distinção constitutiva detectável, não importa quão leve, pode levar a uma mudança consideravelmente grande na quantidade de entropia como resultado da mistura. Embora uma mudança contínua nas propriedades dos materiais que são misturados possa fazer o grau de diferença constitutiva tender continuamente a zero, a mudança de entropia, no entanto, desapareceria descontinuamente quando a diferença chegasse a zero.

Do ponto de vista físico geral, essa descontinuidade é paradoxal. Mas de um ponto de vista especificamente termodinâmico, não é paradoxal, porque nessa disciplina o grau de diferença constitutiva não é questionado; está lá ou não está. O próprio Gibbs não via isso como paradoxal. A distinção entre dois materiais é uma diferença constitutiva, não termodinâmica, pois as leis da termodinâmica são as mesmas para todos os materiais, embora suas características constitutivas sejam diversas.

Embora se possa imaginar uma diminuição contínua da diferença constitutiva entre quaisquer duas substâncias químicas, fisicamente ela não pode ser diminuída continuamente até que realmente desapareça. É difícil pensar em uma diferença menor do que entre o hidrogênio orto e o para-hidrogênio. No entanto, eles diferem por um valor finito. A hipótese de que a distinção pode tender continuamente a zero não é física. Isso não é examinado nem explicado pela termodinâmica. As diferenças de constituição são explicadas pela mecânica quântica, que postula a descontinuidade dos processos físicos.

Para uma distinção detectável, alguns meios devem estar fisicamente disponíveis. Um meio teórico seria por meio de uma membrana semipermeável ideal. Deve permitir a passagem, para trás e para a frente, de uma espécie, enquanto a passagem da outra é totalmente impedida. Toda a prevenção deve incluir eficácia perfeita ao longo de um tempo praticamente infinito, tendo em vista a natureza do equilíbrio termodinâmico. Mesmo o menor desvio da idealidade, conforme avaliado ao longo de um tempo finito, se estenderia à não idealidade absoluta, conforme avaliado ao longo de um tempo praticamente infinito. Fenômenos quânticos como o tunelamento garantem que a natureza não permita tal idealidade de membrana que apoiaria a diminuição contínua teoricamente exigida, a zero, de distinção detectável. A distinção detectável de diminuição para zero deve ser descontínua.

Para gases ideais, a entropia da mistura não depende do grau de diferença entre as espécies moleculares distintas, mas apenas do fato de serem distintas; para gases não ideais, a entropia da mistura pode depender do grau de diferença das espécies moleculares distintas. A "mistura" sugerida ou putativa de espécies moleculares idênticas não é, em termos termodinâmicos, uma mistura, porque a termodinâmica se refere a estados especificados por variáveis ​​de estado e não permite uma rotulagem imaginária de partículas. Somente se as espécies moleculares forem diferentes, haverá mistura no sentido termodinâmico.

Referências


Bibliografia citada

  • Adkins, CJ (1968/1983). Equilibrium Thermodynamics , terceira edição, McGraw-Hill, Londres, ISBN  0-521-25445-0 .
  • Atkins, PW , de Paula, J. (2006). Atkins 'Physical Chemistry , oitava edição, WH Freeman, New York, ISBN  978-0-7167-8759-4 .
  • Bailyn, M. (1994). A Survey of Thermodynamics , American Institute of Physics, New York, ISBN  0-88318-797-3 .
  • Partington, JR (1949). Um Tratado Avançado sobre Química Física , Volume 1, Princípios Fundamentais. The Properties of Gases , Longmans, Green e Co., London.
  • ter Haar, D. , Wergeland, H. (1966). Elements of Thermodynamics , Addison-Wesley Publishing, Reading MA.

Veja também


links externos