Quanten.de Diskussionsforum  

Zur?ck   Quanten.de Diskussionsforum > Quantenmechanik, Relativitätstheorie und der ganze Rest.

Hinweise

Quantenmechanik, Relativitätstheorie und der ganze Rest. Wenn Sie Themen diskutieren wollen, die mehr als Schulkenntnisse voraussetzen, sind Sie hier richtig. Keine Angst, ein Physikstudium ist nicht Voraussetzung, aber man sollte sich schon eingehender mit Physik beschäftigt haben.

Antwort
 
Themen-Optionen Ansicht
  #1  
Alt 26.08.08, 17:19
Benutzerbild von Gandalf
Gandalf Gandalf ist offline
Singularität
 
Registriert seit: 01.05.2007
Beitr?ge: 1.080
Standard Entropie

Entropie?

Ähm, ...
...ich weis nicht wie ich diese vielleicht "dumme Frage" fragen soll, aber irgendwie scheint mir was zu fehlen, um diesen Begriff richtig einordnen zu können. Einerseits scheint mir dieser ja klar definiert (als Maß für erreichbare Zustände) sein und tritt sogar in einer 'Absolutheit' auf, die sich in den Eigenheiten eines schwarzen Loches zu manifestiert:

-> alles was wir über dieses 'Objekt' wissen können sind die physikalischen Eigenschaften: Masse, Impuls, Ladung
-> es besitzt maximale Entropie je Raumeinheit, die sich äquivalent zu seiner Oberfläche verhält

Andererseits erscheint mir Entropie ausgesprochen subjektiv, bzw. 'relational' zu sein:

z.B. (ich gehe im folgenden davon aus, das 'information' ebenfalls etwas physikalisches ist und zählbare Eigenschaften besitzt)
- ein Fachbuch verträgt nur wenige 'Umordnungen' von Seiten (oder Buchstaben)', um weiterhin "nutzbar" zu sein. --> Fachbuch = niedrige Entropie(?)
- Wie stellt sich das gleiche Buch aber für einen Analphabeten dar? ---> hoch entropisch?

weiteres Beispiel:
Ein "Zahlensalat" kann sich doch für mich - je nach Beschäftigung damit - weiterhin als Zahlensalat darstellen, oder als 'hochkomplexe Verschlüsselung einer Information'!? .. und was ist, wenn z.B. das Buch aus einer einzigen Primzahl besteht? Ist dieser "Zahlensalat" hoch oder niedrig entropisch - im Verhältnis zu wem oder was?

.. oder muss man Entropie in Zusammenhang mit Information grundsätzlich anders verstehen? - Dann würde aber der physikalische Entropiebegriff für die Schwarzen Löcher so auch nicht mehr gelten, da wir ja von diesen nichts wissen können, außer der (relativen) Informationsmenge (= erreichbare Zustände), die im Verhältnis zum "Außenraum" (absolut) verloren gegangen ist?

__________________

Warum soll sich die Natur um intellektuelle Wünsche kümmern, die "Objektivität" der Welt des Physikers zu retten? Wolfgang Pauli
Mit Zitat antworten
  #2  
Alt 26.08.08, 19:35
Lambert Lambert ist offline
Singularität
 
Registriert seit: 12.02.2008
Beitr?ge: 2.008
Standard AW: Entropie

brrrrrrrrrrrrr..............

"Entropie" wurde mal erfunden, um ein unerklärtes Wärmestromphänomen zu begründen.

Das hat der Erfinder nun davon...

Gruß,
Lambert

PS. Boltzmann dürfte sich bei dieser Thread im Grab drei mal umdrehen... Ursache: entropisch natürlich...


Ge?ndert von Lambert (26.08.08 um 20:48 Uhr)
Mit Zitat antworten
  #3  
Alt 28.08.08, 01:12
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Entropie

Hi Gandalf
Entropie ist auf fuer mich ein schwerer Begriff.
Ein Maß der Unordnung aus der Thermodynamik. So fundamental, dass selbst die Richtung des Zeitpfeils danach ausgerichtet ist.

Die Entropie und der Shannonsche Informationsgehalt werden formal gleich gebildet.
Und daher kann man beiders schon vergleichen.

De Physik verwendet also den shannonschen Informationsgehalt als Beschreibung,
Die Zahlenfolgen (1,2,3,4,5,6) und (3,1,2,5,6,4) haben den selben
shannonschen Informationsgehalt.
Ein Fachbuch den selben Informationsgehalt wie dessen verdrehte Buchstaben und Satzfolgen.
Bewertet wird nur die Quantitaet der Information nicht die Qualitaet.

Zitat:
und was ist, wenn z.B. das Buch aus einer einzigen Primzahl besteht?
Es ist im Prinzip egal ob das eine Primzahl ist. Es gibt keine Semantik.
Es kommt darauf an wieviele Zeichen ueberhaupt genutzt werden.
Und die Wahrscheinlichkeit mit der sie Auftreten.

http://de.wikipedia.org/wiki/Informationsgehalt
Der Shannonsche Infogehalt ist definiert als :


Wird nur die Primzahl 13 als Informationstraeger verwendet, so wird die Zahl staendig gesendet und die Info ist logischerweise 0.
Verstehe ich alle Prim oder natuerliche Zahlen als Symbol einer Information so stehen
unendlich viele Symbole zur Verfuegung. Die Auftrittswahrscheinlichkeit eines bestimmten Symbols geht gegen Null und so kann ich mit jedem Symbol unendlich viel Information
uebertragen. Benutzt man den ld gibt der SI an wieviel Bit man benoetigt um die Information zu uebertragen.

Weitere sehr anschauliche Beispiele.:
http://evolutionslehrbuch.wort-und-w...08-02-z01.html

Eine qualitative Bewertung waere der semantische Informationsgehalt.
Diese zu Beurteilen ist auch die Grundidee von Heims aspektbezogener Logik.
Die Z-Verteilung waere ein numerisches Guetemaß semantischer Information, dass z.B schon bei Musikstuecken eingesetzt wurde.
Information aber theretisch qualitativ zu erfassen.
Davon ist die Wissenschaft noch relativ weit entfernt.

Ge?ndert von richy (28.08.08 um 02:14 Uhr)
Mit Zitat antworten
  #4  
Alt 28.08.08, 04:43
_hustle4 _hustle4 ist offline
Newbie
 
Registriert seit: 15.08.2008
Beitr?ge: 7
Standard AW: Entropie

http://www.br-online.de/br-alpha/alp...7829028384.xml
Mit Zitat antworten
  #5  
Alt 28.08.08, 14:27
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Entropie

Das Beispiel mit dem Bierschaum von Lesch finde ich gut.
Ohne Energiezufuhr zerfaellt der Schaum. Also muss er eine niedrigere Entropie haben als das Bier.
Wie stelle ich Schaum fuer Capuccino her ?
Lesch meint am Schluss : Entropie ist die Anzahl der Moeglichkeiten.
Das Beispiel mit dem Kartenspiel ist also nicht so gut.
Mit Zitat antworten
  #6  
Alt 28.08.08, 17:28
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Entropie

Hi Emi
Die Anzahl der Karten im Kartenspiel ist aber konstant.
Und es ist eine rein menschliche, semantische Angelegenheit, dass man dem geordneten Zustand, wenn man das Kartenspiel kauft, eine besondere Rolle beimisst. Diese Besonderheit koennte das Beispiel faelschlicherweise vermitteln.
Lesch muesste betonen dass es lediglich darauf ankommt, dass dieser Zustand gegenueber anderen Zustaenden nur einmal im Spiel vorkommt und daher recht selten auftritt.
So koennte man meinen es liege schon irgendeine besondere Information vor wenn die Karten so vorliegen.
Er koennte vereinbaren, dass diese Information per Definition besagt, dass das Kartenspiel als neu zu betrachten ist. Und alle anderen Zustaende und davon gibt es sehr sehr viel mehr, kennzeichenen ein gebrauchtes Kartenspiel. Dann waere es unmissverstaendlicher.
2^(10^10)

Ge?ndert von richy (28.08.08 um 17:31 Uhr)
Mit Zitat antworten
  #7  
Alt 28.08.08, 18:04
JGC JGC ist offline
Gesperrt
 
Registriert seit: 01.05.2007
Ort: ES
Beitr?ge: 3.276
Standard AW: Entropie

Hi...


Hört mal...

Wenn z.B. ein Kartenspiel soundso viele Möglichkeiten hat, ausgelegt zu werden, so bestimmt die Anzahl der Karten, wie viele Möglichkeiten innerhalb eines "entropischen Verhaltens" auftauchen können..

Oder der Bierschaum.. Der hätte auf Grund seiner Struktur natürlich 1.123.. hoch X viele Möglichkeiten, sich so anzuordnen, bis er zuuufälligerweise mal wieder genau den Ausgangsschaum ergibt, wie beim ersten mal des Einschenkens entstanden ist.


Bedeutet das nicht, das die maximale "Arten-Vielfalt" der entropischen Zwischenzustände lediglich beschreibt, wie viele chaotische Zustände mindestens angenommen werden müssen, bis sich wieder ein geordneter Zustand ergibt, so wie er am Anfang bestand?

Eine Zuckerlösung kann z.B. nur so viele Zustände annehmen, je nach dem, wie viel Zuckermoleküle sich mit wie vielen Wassermolekülen bei welcher Temperatur mischen können, bevor der erste negentropische Auskristallisierungs-Prozess in der Lösung bemerkbar macht.

Das Auskristallisieren bei gleichbleibenden physikalischen Vorraussetzungen ist sozusagen das Ende der entropischen Fahnenstange.

Natürlich kann man den auskristallisierten Zucker noch weiter erhitzen, ihn zum schmelzen bringen und eine amorphe Masse draus machen, oder ihn gar verbrennen,(doch dann betritt der Zucker eine völlig neue Zustandsform mit noch viel mehr entropischen Möglichkeiten)

Ist also die Frage nach der Entropie in Wirklichkeit nicht die Frage eines jeweiligen Ordnungs-Verhältnisses zwischen 2 möglichen Zuständen, die eine beliebige, betrachtete Menge Stoff unter den entsprechenden Umständen einnehmen kann??

(also vereinfacht...

1kg Zucker kann einmal im Extremfalle eine einzige monokristalline Gestalt annehmen, im anderen Extremfalle kann dieses Kg Zucker grade noch in einer bestimmten Menge Wasser in Lösung gegangen sein, wenn die Temperatur des Wassers und dessen Menge genau aufeinander abgestimmt sind...

Und dazwischen, zwischen dem "vollständig gelöst" Zustand und dem Monokristall stecken doch auch theoretisch sämtlich mögliche chaotischen Ordnungszustände..

Auskondesieren von Kristallkeimen in einer reinen, staubfreien Lösung ist doch wie ein negentropischer Prozess, oder etwa nicht?

Ich frage mich, warum immer davon ausgegangen werden soll, das im Universum die Entropie ständig nur zunehmen soll..

Wir wissen doch nur noch nicht, welche Mechanismen oder welche Zeiträume veranschlagt werden müssen, um den Universum ein 1:1 Verhältnis zwischen Entropie und Negentropie zu vermitteln..

JGC
Mit Zitat antworten
  #8  
Alt 06.10.08, 15:59
deko deko ist offline
Newbie
 
Registriert seit: 07.06.2007
Beitr?ge: 8
Standard AW: Entropie

noch mal was grundsätzliches:
Es gibt zwei Zugänge zur Entropie, sie führen zwar zu physikalisch gleichen Ergebnissen, haben aber einen anderen Ansatz:

Die informationstheoretische, als Mangel an Information, beschreibt nicht das physikalische System, sondern unsere Information über das System. Sie ist also nicht wirklich eine Eigenschaft des Systems, sondern des Beobachters in Bezug auf das System.
Vorteil: es ist verständlich, dass diese Information von selbst nicht zunimmt.

Die thermodynamische: S ist definiert durch dE = T dS + ..
in der Gibbschen Fundamentalform. Hier ist S eine lokale Größe S(x), deren Strom mit einem Energiestrom einhergeht. Sie ist Zustandsgröße des Systems und kommt ihm zu.

Mir gefällt die erste besser: Physik beschreibt nicht die Welt, sondern nur unser Wissen über sie!
deko
Mit Zitat antworten
  #9  
Alt 06.10.08, 17:34
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Entropie

Zum Kartenspiel vielleicht noch:
Im Prinzip ist es gerade umgekehrt. Der Zustand der geordneten Karten besitzt einen niedrigen Informationsgehalt. Denn jedes Kartenspiel nimmt diesen Zustand wenigstens einmal an. Dann wenn es aus der Fabrik kommt.
Wenn ich eine bedingte Wahrscheinlichkeit benutze und die Bedingung, dass das Kartenspiel neu ist, dann ist der Informationsgehalt, wenn die Karten geordnet sind, so gut wie gleich 0. Denn die Wahrscheinlichkeit hierfuer ist fast 1.
Es koennte hoechstens auch mal ein Fabrikationsfehler auftreten.
Oder ein Betrueger, Handtaschenraeuber, Scheinasylant hat mir ein bereits gebrauchtes Kartenspiel verkauft.
Auf jeden Fall ein hoher Informationsgehalt.

Ge?ndert von richy (06.10.08 um 17:36 Uhr)
Mit Zitat antworten
  #10  
Alt 06.10.08, 18:05
Benutzerbild von Hamilton
Hamilton Hamilton ist offline
Profi-Benutzer
 
Registriert seit: 02.05.2007
Ort: Deutschland
Beitr?ge: 447
Standard AW: Entropie

Evtl. ist dieser Linkt hilfreich:
http://de.wikipedia.org/wiki/Zustandssumme
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun."
Richard P. Feynman
Mit Zitat antworten
Antwort

Lesezeichen


Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beitr?ge zu antworten.
Es ist Ihnen nicht erlaubt, Anh?nge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beitr?ge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 14:27 Uhr.


Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm