|
|
(Eine dazwischenliegende Version von einem anderen Benutzer wird nicht angezeigt) |
Zeile 1: |
Zeile 1: |
| ==klassische Mechanik== | | ==klassische Mechanik== |
| * Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik | | * Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik |
| --> gleiche a –priori Wahrscheinlichkeiten
| | → gleiche a –priori Wahrscheinlichkeiten |
| * Hamiltonfunktion mit Hamiltongleichungen | | * Hamiltonfunktion mit Hamiltongleichungen |
| * Lösungen Trajektorien im Phasenraum | | * Lösungen Trajektorien im Phasenraum |
| ==Satz von Liouville== | | ==Satz von Liouville== |
| Das Phasenraumvolumen ist invariant unter Zeitentwicklung | | Das Phasenraumvolumen ist invariant unter Zeitentwicklung |
| --> gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen
| | → gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen |
| --> Informationsmaß über Microzustand kann mit der zeit nicht zunehmen <math>I(t_1)\ge I(t_2)</math> mit <math>t_1 < t_2</math>
| | → Informationsmaß über Microzustand kann mit der zeit nicht zunehmen <math>I(t_1)\ge I(t_2)</math> mit <math>t_1 < t_2</math> |
| ==Zustand== | | ==Zustand== |
| :<math>\left\langle {{M}^{\nu }} \right\rangle =\int{d\xi \rho \left( \xi \right){{M}^{\nu }}\left( \xi \right)}</math> | | :<math>\left\langle {{M}^{\nu }} \right\rangle =\int{d\xi \rho \left( \xi \right){{M}^{\nu }}\left( \xi \right)}</math> |
Zeile 16: |
Zeile 16: |
| *Information: Welches Ereignis tritt ein? | | *Information: Welches Ereignis tritt ein? |
| *Wie viel weiß ich von meinem System? | | *Wie viel weiß ich von meinem System? |
| *'''Maximum'''<math>I\left( P \right)=0</math> --> schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math> | | *'''Maximum'''<math>I\left( P \right)=0</math> → schafte Verteilung<math>{{P}_{i}}={{\delta }_{ij}}</math> |
| ===minimum=== | | ===minimum=== |
| *Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math> | | *Maximum des Nichtwissens entspricht '''minimaler''' Shannon-Information -- ><math>I\left( P \right)<0</math> Variation der <math>P_i</math> um<math>\delta {{P}_{i}}</math> |
Zeile 67: |
Zeile 67: |
| ** Entropie = fehlende Kenntnis | | ** Entropie = fehlende Kenntnis |
| ** <math>S\left( \left\langle {{M}^{\nu }} \right\rangle \right)=-{{k}_{B}}I\left( \left\langle {{M}^{\nu }} \right\rangle \right)</math> | | ** <math>S\left( \left\langle {{M}^{\nu }} \right\rangle \right)=-{{k}_{B}}I\left( \left\langle {{M}^{\nu }} \right\rangle \right)</math> |
| ** da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, --> kann Entropie (S) nicht abnehmen | | ** da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, → kann Entropie (S) nicht abnehmen |
| ** <math>S=-kI=-k\operatorname{Tr}\left( \hat{\rho }\ln \left( {\hat{\rho }} \right) \right)=-k\left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)=k\left( {{\lambda }_{\nu }}{{M}^{\nu }}-\psi \left( \left\{ {{\lambda }_{\mu }} \right\} \right) \right)</math> | | ** <math>S=-kI=-k\operatorname{Tr}\left( \hat{\rho }\ln \left( {\hat{\rho }} \right) \right)=-k\left( \psi -{{\lambda }_{\nu }}{{M}^{\nu }} \right)=k\left( {{\lambda }_{\nu }}{{M}^{\nu }}-\psi \left( \left\{ {{\lambda }_{\mu }} \right\} \right) \right)</math> |
| ** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen | | ** <math>k{{\lambda }_{\nu }}={{\partial }_{\left\langle {{M}^{\nu }} \right\rangle }}S</math> pähnomenologische Definition der intensiven Variabelen |
Zeile 81: |
Zeile 81: |
| * mit Energie <math>\Lambda</math> <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{\Lambda }{k{{T}^{0}}}</math> | | * mit Energie <math>\Lambda</math> <math>K\left( \rho ,{{\rho }^{0}} \right)=\frac{\Lambda }{k{{T}^{0}}}</math> |
| * der Informationsgewinn kann nur abnehmen <math>{{d}_{t}}K\left( \rho ,{{\rho }^{0}} \right)=\frac{{{d}_{t}}\Lambda }{k{{T}^{0}}}</math> mit <math>\nu =-\frac{1}{T}{{d}_{t}}\Lambda </math> | | * der Informationsgewinn kann nur abnehmen <math>{{d}_{t}}K\left( \rho ,{{\rho }^{0}} \right)=\frac{{{d}_{t}}\Lambda }{k{{T}^{0}}}</math> mit <math>\nu =-\frac{1}{T}{{d}_{t}}\Lambda </math> |
| * --> die Entropieproduktion ist ststs <math>\ge 0</math> | | * → die Entropieproduktion ist ststs <math>\ge 0</math> |
| ==Situation in der QM== | | ==Situation in der QM== |
| * Microzustände <math>\left| \psi \right\rangle \in \mathcal{H}</math> | | * Microzustände <math>\left| \psi \right\rangle \in \mathcal{H}</math> |
klassische Mechanik
- Prinzip der Vorurteilsfreien Schätzung in der klassischen Mechanik
→ gleiche a –priori Wahrscheinlichkeiten
- Hamiltonfunktion mit Hamiltongleichungen
- Lösungen Trajektorien im Phasenraum
Satz von Liouville
Das Phasenraumvolumen ist invariant unter Zeitentwicklung
→ gleiche Phasenvolumina ^= gleiche a-priori Wahrscheinlichkeit bleibt bestehen
→ Informationsmaß über Microzustand kann mit der zeit nicht zunehmen mit
Zustand
(thermodynamischer Zustand durch Mittelwerte der Phasenraumfunktionen
- mit
Shannon-Information
- Information: Welches Ereignis tritt ein?
- Wie viel weiß ich von meinem System?
- Maximum → schafte Verteilung
minimum
- Maximum des Nichtwissens entspricht minimaler Shannon-Information -- > Variation der um
mit 1 Nebendbedingung führt unter Verwendung eines Lagrange-Parameters zu
die Variation, also
lässt keine freien Parameter zu also erhält man N Gleichungen
so erhält man wegen der Normierung () die
Gleichverteilung
Nebenbedingungen
- führt zum Informationstheoretischen Prinzip nach Jaynes
- Wahrscheinlichkeitsverteilung die die minimale Information enthält bei Erfüllung aller bekannten Nebenbedingungen
- Variationsverfahren mit Nebenbedingungen
- Shannon-Information soll minimal werden
- Es gibt m+1 Nebenbedingungen:
- Gesamtwahrscheinlichkeiten sind 1:
- Kenntnis von Mittelwerten makroskopischer Observabelen
- also mit Lagrange Multiplikatoren:
- führt zur Variation
- daraus erhält man die verallgemeinerte kanonische Verteilung
- die m+1 Lagrange-Multiplikatoren sind also eindeutig bestimmt
- , da
Fundamentalbeziehung
- durch eine Legenderetransformation
- extensive Parameter
- intensive Parameter
Beziehungen
- Verknüpfung mit phänomenologischer Statistik
- Entropie = fehlende Kenntnis
- da Shannoninformation (I) nach letzer Messung nicht zunehmen kann, → kann Entropie (S) nicht abnehmen
- pähnomenologische Definition der intensiven Variabelen
- Gibbssche Fundamentalgleichung
Kullback-Information
- Informationsgewinn
- Minium Variation mit NB:
- (kein Gewinn)
- Informationsgewinn ^= Änderung der Shannon Information
- Mit Dichtematrix
- Für Druckensemble und nicht im Gleichgewichtszustand folgt
- mit Energie
- der Informationsgewinn kann nur abnehmen mit
- → die Entropieproduktion ist ststs
Situation in der QM
- Microzustände
- Microobservablen (durch Maximalmessung (Satz von vertauschbaren Observabelen)) Operator
- Messert Eigenwert zum Eingenzustand
- Erwartungwert
- für reine Zustände mit
- für gemischte Zustände mit
- vorurteilsfreie Schätzung durch Maximalmessung
Phänomenologische Thermodynamik
1. Hauptsatz
- Energieerhaltungssatz
- vgl Gibsche Fundamentalrelation
2. Hauptsatz
- Wärme kann nicht vollständig in Arbeit umgewandelt werden