Verallgemeinerte kanonische Verteilung: Unterschied zwischen den Versionen

Aus PhysikWiki
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Zeile 49: Zeile 49:
== Informationstheoretisches Prinzip ( Jaynes) ==
== Informationstheoretisches Prinzip ( Jaynes) ==


Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information '''enthält:
Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die '''minimale Information''' enthält:
 
Also:
 
 
<math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>


Also: <math>I(P)=\sum\limits_{i=1}^{N}{{}}{{P}_{i}}\ln {{P}_{i}}=!=Minimum</math>


Nebenbed.:
Nebenbed.:
 
:<math>\begin{align}
 
<math>\begin{align}
   & \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\  
   & \sum\limits_{i=1}^{N}{{}}{{P}_{i}}=1 \\  
  & \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\  
  & \left\langle {{M}^{n}} \right\rangle =\sum\limits_{i=1}^{N}{{}}{{P}_{i}}{{M}_{i}}^{n} \\  
  & n=1,...,m \\  
  & n=1,...,m \\  
\end{align}</math>
\end{align}</math>


== Variation: ==
== Variation: ==

Version vom 1. September 2010, 14:46 Uhr




Motivation:

Makroskopische thermodynamische Zustände sind gegeben durch die Mittelwerte von Mikroobservablen M(x), interpretiert als Zufallsvariable.

Rückschlüsse von auf die Wahrscheinlichkeitsverteilung


Methode:

Vorurteilsfreie Schätzung ( Jaynes , 1957):

unbiased guess; Prinzip des maximalen Nichtwissens:

  • Verallgemeinerung des Laplacschen Prinzips vom unzureichenden Grund.
  • ( Minimum der Shannon- Information

= Maximum des Nichtwissens

liefert Gleichverteilung
  • Jetzt: Zusätzlich zur Normierung der Pi sind die Mittelwerte von m Zufallsvariablen:



Annahme:

Jedes Elementarereignis

hat gleiche a-priori- Wahrscheinlichkeit , das heißt OHNE zusätzliche Kenntnisse


gilt Gleichverteilung über den 

.

Informationstheoretisches Prinzip ( Jaynes)

Suche die Wahrscheinlichkeitsverteilung , die unter der Erfüllung aller bekannten Angaben als Nebenbedingung die minimale Information enthält:

Also:

Nebenbed.:

Variation:


Es gilt: von den N Variationen

sind nur N-m-1  unabhängig voneinander !



Lagrange- Multiplikator




Lagrange- Multiplikator



Anleitung

Wähle so, dass die Koeffizienten von ´s verschwinden, die übrigen N-(m+1) sind dann frei variierbar !

Somit:



Vorsicht: Auch Summe über n ( Einsteinsche Summenkonvention !)



Die verallgemeinerte kanonische Verteilung

Die Lagrange- Multiplikatoren


sind dann durch die m+1 Nebenbedingungen eindeutig bestimmt !

Kontinuierliche Ereignismenge !



unter der Nebenbedingung



Durchführung einer Funktionalvariation:



Vergleiche: A. Katz, Principles of Statistial Mechanics

ANMERKUNG Schubotz: Siehe auch [1]

Eigenschaften der verallgemeinerten kanonischen Verteilung

hier: noch rein informationstheoretisch,

später: wichtige Anwendungen in der Thermodynamik

Legendre- Transformation:

Sei eine Bahn !

Dann ist


die Geschwindigkeit.

Aus kann die Bahn

noch nicht rekonstruiert werden, jedoch aus



mit t=t(M):



hieraus folgt


eingesetzt in


durch Eisnetzen gewinnt man


Jedenfalls:



heißt legendre- Transformierte von .

Anwendung auf die verallgemeinerte kanonische Verteilung:


Normierung:



Also gilt:


und 

sind durch 

vollständig parametrisiert.

Nebenbemerkung

Die Verteilung

bzw. 

wirkt auf dem Raum der Zufallsvariablen 

(diskret) bzw. 

(kontinuierlich).


sind Parameter.


sind Erwartungswerte 


Beispiel:


 ( Phasenraumelement)

mit als Phasenraum der kanonisch konjugierten Variablen


mikrokanonisch Verteilungsfunktion


als mittlere Energie

Shannon- Information:



Aus



Damit können wir die Legendre- Transformation ( verallgemeinert auf mehrere Variablen) identifizieren:


 Variable


 neue Variable  


 Legendre- Transformierte von 

!

Es folgt:



wegen:



Zusammengefasst:



Dies ist in der Thermodynamik die Gibbsche Fundamentalgleichung !!

Betachte Variation:



dann:



Informationsgewinn:



Wir können die variierten Funktionen für kleine Variationen entwickeln:



Vergleiche oben

also folgt:



negativ semidefinit, für alle


Definiere Suszeptibilitätsmatrix:



Diese Matrix beschreibt die Änderung von


bei Variation von



bzw.:



In Matrixschreibweise:



Wegen



Somit:


 ist symmetrisch

Aus



folgt:



Also: negativ- semidefinite quadratisceh Form:



Nebenbemerkung:

Also sind



und



konvex !

Zusammenhang mit der Korrelationsmatrix

 ist Korrelationsmatrix ( siehe oben)


 2. Kumulante


 mit Kumulantenerzeugender



Suszeptibilität !

Also: Die Korrelationsmatrix ist das Negative der Suszeptibilität !!

Also:



Fluktuations/ Dissipations- Theorem:

Fluktuationen: Zufällige Schwankungen um den Mittelwert

Dissipation: Systematische Änderung der Mittelwerte !

Korrektur einer Verteilung durch Zusatzinformationen

Sei


die Verteilung, die 

unter Kenntnis der Nebenbedingungen



minimalisiert ( Vorsicht: Index und Laufende sind ungünstigerweise gleich bezeichnet !)

Jetzt:

Zusatzinformationen ( zusätzliche Mittelwerte beobachtet):



Prinzip der vorurteilsfreien Schätzung

Suche Minimum des Informationsgewinns



unter dieser Nebenbedingung !!

Also:



mit neuen Lagrange- Multiplikatoren



Mit


 folgt:



Da nun die Mittelwerte nicht durch die Zusatzinfo geändert werden muss gelten:



da diese Mittelwerte nicht durch die Zusatzinfo geändert werden !



Das heißt: Der Informationsgewinn entspricht gerade der Änderung der Shannon- Info !

Siehe auch

< references />

  1. ST7,5.4.13