Quanten.de Diskussionsforum

Quanten.de Diskussionsforum (http://www.quanten.de/forum/index.php5)
-   Quantenmechanik, Relativitätstheorie und der ganze Rest. (http://www.quanten.de/forum/forumdisplay.php5?f=3)
-   -   Entropie (http://www.quanten.de/forum/showthread.php5?t=713)

Gandalf 26.08.08 17:19

Entropie
 
Entropie?

Ähm, ...
...ich weis nicht wie ich diese vielleicht "dumme Frage" fragen soll, aber irgendwie scheint mir was zu fehlen, um diesen Begriff richtig einordnen zu können. Einerseits scheint mir dieser ja klar definiert (als Maß für erreichbare Zustände) sein und tritt sogar in einer 'Absolutheit' auf, die sich in den Eigenheiten eines schwarzen Loches zu manifestiert:

-> alles was wir über dieses 'Objekt' wissen können sind die physikalischen Eigenschaften: Masse, Impuls, Ladung
-> es besitzt maximale Entropie je Raumeinheit, die sich äquivalent zu seiner Oberfläche verhält

Andererseits erscheint mir Entropie ausgesprochen subjektiv, bzw. 'relational' zu sein:

z.B. (ich gehe im folgenden davon aus, das 'information' ebenfalls etwas physikalisches ist und zählbare Eigenschaften besitzt)
- ein Fachbuch verträgt nur wenige 'Umordnungen' von Seiten (oder Buchstaben)', um weiterhin "nutzbar" zu sein. --> Fachbuch = niedrige Entropie(?)
- Wie stellt sich das gleiche Buch aber für einen Analphabeten dar? ---> hoch entropisch?

weiteres Beispiel:
Ein "Zahlensalat" kann sich doch für mich - je nach Beschäftigung damit - weiterhin als Zahlensalat darstellen, oder als 'hochkomplexe Verschlüsselung einer Information'!? .. und was ist, wenn z.B. das Buch aus einer einzigen Primzahl besteht? Ist dieser "Zahlensalat" hoch oder niedrig entropisch - im Verhältnis zu wem oder was?

.. oder muss man Entropie in Zusammenhang mit Information grundsätzlich anders verstehen? - Dann würde aber der physikalische Entropiebegriff für die Schwarzen Löcher so auch nicht mehr gelten, da wir ja von diesen nichts wissen können, außer der (relativen) Informationsmenge (= erreichbare Zustände), die im Verhältnis zum "Außenraum" (absolut) verloren gegangen ist?

:confused:

Lambert 26.08.08 19:35

AW: Entropie
 
brrrrrrrrrrrrr..............

"Entropie" wurde mal erfunden, um ein unerklärtes Wärmestromphänomen zu begründen.

Das hat der Erfinder nun davon...

Gruß,
Lambert

PS. Boltzmann dürfte sich bei dieser Thread im Grab drei mal umdrehen... Ursache: entropisch natürlich...

;)

richy 28.08.08 01:12

AW: Entropie
 
Hi Gandalf
Entropie ist auf fuer mich ein schwerer Begriff.
Ein Maß der Unordnung aus der Thermodynamik. So fundamental, dass selbst die Richtung des Zeitpfeils danach ausgerichtet ist.

Die Entropie und der Shannonsche Informationsgehalt werden formal gleich gebildet.
Und daher kann man beiders schon vergleichen.

De Physik verwendet also den shannonschen Informationsgehalt als Beschreibung,
Die Zahlenfolgen (1,2,3,4,5,6) und (3,1,2,5,6,4) haben den selben
shannonschen Informationsgehalt.
Ein Fachbuch den selben Informationsgehalt wie dessen verdrehte Buchstaben und Satzfolgen.
Bewertet wird nur die Quantitaet der Information nicht die Qualitaet.

Zitat:

und was ist, wenn z.B. das Buch aus einer einzigen Primzahl besteht?
Es ist im Prinzip egal ob das eine Primzahl ist. Es gibt keine Semantik.
Es kommt darauf an wieviele Zeichen ueberhaupt genutzt werden.
Und die Wahrscheinlichkeit mit der sie Auftreten.

http://de.wikipedia.org/wiki/Informationsgehalt
Der Shannonsche Infogehalt ist definiert als :
http://upload.wikimedia.org/math/0/c...9ee25e1da4.png

Wird nur die Primzahl 13 als Informationstraeger verwendet, so wird die Zahl staendig gesendet und die Info ist logischerweise 0.
Verstehe ich alle Prim oder natuerliche Zahlen als Symbol einer Information so stehen
unendlich viele Symbole zur Verfuegung. Die Auftrittswahrscheinlichkeit eines bestimmten Symbols geht gegen Null und so kann ich mit jedem Symbol unendlich viel Information
uebertragen. Benutzt man den ld gibt der SI an wieviel Bit man benoetigt um die Information zu uebertragen.

Weitere sehr anschauliche Beispiele.:
http://evolutionslehrbuch.wort-und-w...08-02-z01.html

Eine qualitative Bewertung waere der semantische Informationsgehalt.
Diese zu Beurteilen ist auch die Grundidee von Heims aspektbezogener Logik.
Die Z-Verteilung waere ein numerisches Guetemaß semantischer Information, dass z.B schon bei Musikstuecken eingesetzt wurde.
Information aber theretisch qualitativ zu erfassen.
Davon ist die Wissenschaft noch relativ weit entfernt.

_hustle4 28.08.08 04:43

AW: Entropie
 
http://www.br-online.de/br-alpha/alp...7829028384.xml

richy 28.08.08 14:27

AW: Entropie
 
Das Beispiel mit dem Bierschaum von Lesch finde ich gut.
Ohne Energiezufuhr zerfaellt der Schaum. Also muss er eine niedrigere Entropie haben als das Bier.
Wie stelle ich Schaum fuer Capuccino her ?
Lesch meint am Schluss : Entropie ist die Anzahl der Moeglichkeiten.
Das Beispiel mit dem Kartenspiel ist also nicht so gut.

richy 28.08.08 17:28

AW: Entropie
 
Hi Emi
Die Anzahl der Karten im Kartenspiel ist aber konstant.
Und es ist eine rein menschliche, semantische Angelegenheit, dass man dem geordneten Zustand, wenn man das Kartenspiel kauft, eine besondere Rolle beimisst. Diese Besonderheit koennte das Beispiel faelschlicherweise vermitteln.
Lesch muesste betonen dass es lediglich darauf ankommt, dass dieser Zustand gegenueber anderen Zustaenden nur einmal im Spiel vorkommt und daher recht selten auftritt.
So koennte man meinen es liege schon irgendeine besondere Information vor wenn die Karten so vorliegen.
Er koennte vereinbaren, dass diese Information per Definition besagt, dass das Kartenspiel als neu zu betrachten ist. Und alle anderen Zustaende und davon gibt es sehr sehr viel mehr, kennzeichenen ein gebrauchtes Kartenspiel. Dann waere es unmissverstaendlicher.
2^(10^10)

JGC 28.08.08 18:04

AW: Entropie
 
Hi...


Hört mal...

Wenn z.B. ein Kartenspiel soundso viele Möglichkeiten hat, ausgelegt zu werden, so bestimmt die Anzahl der Karten, wie viele Möglichkeiten innerhalb eines "entropischen Verhaltens" auftauchen können..

Oder der Bierschaum.. Der hätte auf Grund seiner Struktur natürlich 1.123.. hoch X viele Möglichkeiten, sich so anzuordnen, bis er zuuufälligerweise mal wieder genau den Ausgangsschaum ergibt, wie beim ersten mal des Einschenkens entstanden ist.


Bedeutet das nicht, das die maximale "Arten-Vielfalt" der entropischen Zwischenzustände lediglich beschreibt, wie viele chaotische Zustände mindestens angenommen werden müssen, bis sich wieder ein geordneter Zustand ergibt, so wie er am Anfang bestand?

Eine Zuckerlösung kann z.B. nur so viele Zustände annehmen, je nach dem, wie viel Zuckermoleküle sich mit wie vielen Wassermolekülen bei welcher Temperatur mischen können, bevor der erste negentropische Auskristallisierungs-Prozess in der Lösung bemerkbar macht.

Das Auskristallisieren bei gleichbleibenden physikalischen Vorraussetzungen ist sozusagen das Ende der entropischen Fahnenstange.

Natürlich kann man den auskristallisierten Zucker noch weiter erhitzen, ihn zum schmelzen bringen und eine amorphe Masse draus machen, oder ihn gar verbrennen,(doch dann betritt der Zucker eine völlig neue Zustandsform mit noch viel mehr entropischen Möglichkeiten)

Ist also die Frage nach der Entropie in Wirklichkeit nicht die Frage eines jeweiligen Ordnungs-Verhältnisses zwischen 2 möglichen Zuständen, die eine beliebige, betrachtete Menge Stoff unter den entsprechenden Umständen einnehmen kann??

(also vereinfacht...

1kg Zucker kann einmal im Extremfalle eine einzige monokristalline Gestalt annehmen, im anderen Extremfalle kann dieses Kg Zucker grade noch in einer bestimmten Menge Wasser in Lösung gegangen sein, wenn die Temperatur des Wassers und dessen Menge genau aufeinander abgestimmt sind...

Und dazwischen, zwischen dem "vollständig gelöst" Zustand und dem Monokristall stecken doch auch theoretisch sämtlich mögliche chaotischen Ordnungszustände..

Auskondesieren von Kristallkeimen in einer reinen, staubfreien Lösung ist doch wie ein negentropischer Prozess, oder etwa nicht?

Ich frage mich, warum immer davon ausgegangen werden soll, das im Universum die Entropie ständig nur zunehmen soll..

Wir wissen doch nur noch nicht, welche Mechanismen oder welche Zeiträume veranschlagt werden müssen, um den Universum ein 1:1 Verhältnis zwischen Entropie und Negentropie zu vermitteln..

JGC

deko 06.10.08 15:59

AW: Entropie
 
noch mal was grundsätzliches:
Es gibt zwei Zugänge zur Entropie, sie führen zwar zu physikalisch gleichen Ergebnissen, haben aber einen anderen Ansatz:

Die informationstheoretische, als Mangel an Information, beschreibt nicht das physikalische System, sondern unsere Information über das System. Sie ist also nicht wirklich eine Eigenschaft des Systems, sondern des Beobachters in Bezug auf das System.
Vorteil: es ist verständlich, dass diese Information von selbst nicht zunimmt.

Die thermodynamische: S ist definiert durch dE = T dS + ..
in der Gibbschen Fundamentalform. Hier ist S eine lokale Größe S(x), deren Strom mit einem Energiestrom einhergeht. Sie ist Zustandsgröße des Systems und kommt ihm zu.

Mir gefällt die erste besser: Physik beschreibt nicht die Welt, sondern nur unser Wissen über sie!
deko

richy 06.10.08 17:34

AW: Entropie
 
Zum Kartenspiel vielleicht noch:
Im Prinzip ist es gerade umgekehrt. Der Zustand der geordneten Karten besitzt einen niedrigen Informationsgehalt. Denn jedes Kartenspiel nimmt diesen Zustand wenigstens einmal an. Dann wenn es aus der Fabrik kommt.
Wenn ich eine bedingte Wahrscheinlichkeit benutze und die Bedingung, dass das Kartenspiel neu ist, dann ist der Informationsgehalt, wenn die Karten geordnet sind, so gut wie gleich 0. Denn die Wahrscheinlichkeit hierfuer ist fast 1.
Es koennte hoechstens auch mal ein Fabrikationsfehler auftreten.
Oder ein Betrueger, Handtaschenraeuber, Scheinasylant hat mir ein bereits gebrauchtes Kartenspiel verkauft.
Auf jeden Fall ein hoher Informationsgehalt.

Hamilton 06.10.08 18:05

AW: Entropie
 
Evtl. ist dieser Linkt hilfreich:
http://de.wikipedia.org/wiki/Zustandssumme


Alle Zeitangaben in WEZ +1. Es ist jetzt 19:47 Uhr.

Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm