|
Quantenmechanik, Relativitätstheorie und der ganze Rest. Wenn Sie Themen diskutieren wollen, die mehr als Schulkenntnisse voraussetzen, sind Sie hier richtig. Keine Angst, ein Physikstudium ist nicht Voraussetzung, aber man sollte sich schon eingehender mit Physik beschäftigt haben. |
|
Themen-Optionen | Ansicht |
|
#1
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
Information ist für mich die Abstraktion von Daten durch den Menschen, also wesentlich mehr als nur eine Unwahrscheinlichkeit. Der Begriff der Entropie bleibt für mich ein Rätsel. Ich frage mich, ob er ausserhalb der Wärmetheorie sinnvoll ist. Er ist der frühe Versuch, Mengentheorie und Wahrscheinlichkeitsrechnung zu verbinden, hat aber m.E. heute keine sinnvolle Verwendung mehr.
__________________
ingeniosus ------------------------------------------------------- Hat der menschliche Geist ein neues Naturgesetz bewiesen, ergeben sich mit Sicherheit (Wahrscheinlichkeit=1) sofort neue Fragen und Unklarheiten! |
#2
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
Hallo ingeniosus, Entropie ist für viele ein Rätsel, es gibt offensichtlich nur einige Wenige die die Entropie umfassend handhaben können. Diese Kenner sehen da auch noch entropische Vorgänge und so ein Zeugs. Ich zieh mich daher demütig in die Physik zurück. Die Entropie ist eine nicht direkt meßbare Größe. Man erhält sie durch Integration der aus dem 2. Hauptsatz der Thermodynamik folgenden Beziehung: ds = (1/T) du = (p/T) dv = ((1/T) dh) - ((v/T) dp) mit s spezifischer Entropie und den messbaren Größen: u spez. Energie, v spez. Volumen, h spez. Enthalpie, p spez. Druck und T der absoluten Temperatur. Die Entropie ist die entscheidende Größe zur Definition der Temperatur! Die verbreiteste Behauptung ist, die Temperatur ist das Maß der Intensität der Bewegung der Moleküle, aus denen sich der Stoff zusammensetzt. Sprich, die Temperatur ist nur ein anderes Maß für die mittlere kinetische Energie der Moleküle. Diese Vorstellung ist falsch, wiederlegt und überholt! Es hat sich gezeigt, das dies vor allem in der Nähe des absoluten Nullpunktes der Temperatur nicht zutreffend ist. Das Problem wurde erst mit der QT umfassend gelöst: Die Temperatur ist gleich dem Quotienten aus Gesamtenergieänderung und Entropieänderung eines Systems! T = dE/dS Gruß EMI
__________________
Sollen sich auch alle schämen, die gedankenlos sich der Wunder der Wissenschaft und Technik bedienen, und nicht mehr davon geistig erfasst haben als die Kuh von der Botanik der Pflanzen, die sie mit Wohlbehagen frisst. Ge?ndert von EMI (21.06.08 um 19:01 Uhr) |
#3
|
|||
|
|||
AW: Entropie in der Informationstheorie
Interessant ist auch die Definition der Entropie in der statistischen Mechanik - proportional (über die Boltzmann-Konstante) zum Logarithmus der Zahl der Zustände die ein System annehmen kann. Siehe z.B.
STATISTISCHE DEFINITION DER ENTROPIE |
#4
|
||||
|
||||
AW: Entropie in der Informationstheorie
Moin
@Uranor Zitat:
__________________
Warum soll sich die Natur um intellektuelle Wünsche kümmern, die "Objektivität" der Welt des Physikers zu retten? Wolfgang Pauli |
#5
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
kene ich andere (kausale) Zusammenhänge? Im Moment muss ich passen. Was wäre da zu nennen?
__________________
Es genügt nicht, keine Gedanken zu haben. Man sollte auch fähig sein, sie auszudrücken. |
#6
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
Ziel des Ganzen war u.a. ein Maß für die Kanalkapazität von Telegraphen zu finden (das war 1948). Die ganzen Konzepte sind aber mathematisch abstrakt- so dass sie natürlich immer noch anwendbar sind (und auch angewendet werden)! Z.B. ist die sogenannte Mutual Information ein sehr beliebtes Maß, mit dem man erkennen kann, ob zwei Zufallsvariablen gemeinsame Information besitzen. Salopp gesagt: "Wenn ich den Terminkalender deiner Frau kenne, wie viel weiß ich dann über dich?". Und die MI nichts anderes als H(x) + H(y) - H(x,y), wobei H deine verhassten Entropien sind. Zitat:
Wie ich schon sagte, die Shannon-Information ist anders, als das, was wir im Alltag unter Information verstehen. Letztere könnte man auch nicht so einfach mathematisch formulieren, da in der Sprache Information und Interpretation eng verknüpft ist. ( Die Zeichenkette "ESP/ITA 4:2") trägt für dich vermutlich mehr "Information" als für den durchschnittlichen Chinesen ) Ich möchte Dir wirklich dringend empfehlen, Aussagen wie Zitat:
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun." Richard P. Feynman
|
#7
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
Ihre Auslegungen von SHANNON finde ich OK. Er selbst hat von HARTLEY übernommen: "no psychological considerations". Inzwischen habe ich gelesen, dass SHANNON mit seinem Entropiebegriff dem der Wärmelehre entsprechen wollte, dies ihm aber nicht ganz gelungen ist. Nun ich komme aus der Ecke der Informationswissenschaft und ich bleibe dabei (aus meiner Sicht), dass der Entropiebegriff heute nichts mehr bringt. Manchmal wird er dem Begriff Information gleichgestellt - manchmal als reziproker Wert definiert. Nun im Sinne einer weltweit einheitlichen Definition des Informationsbegriffes ist der Begriff Information nur in definitiver Verbindung mit dem Menschen festlegbar - wie Sie richtig annehmen. Information ist keine Materie aber kann in Form von Daten aufgezeichnet werden. Der Begriff "Abstraktion der Daten" ist vielleicht etwas unlogisch, aber rein naturwissenschaftlich faktisch zu verstehen. Man könnte auch sagen: Information ist der für den Menschen wertvolle Inhalt der Daten. Darf ich Ihnen meine Home empfehlen? Ich bin nur Physiker aus reinem Interesse, aber ein leidenschaftlicher Informationswissenschaftler. Kritik ist ein Positivum!
__________________
ingeniosus ------------------------------------------------------- Hat der menschliche Geist ein neues Naturgesetz bewiesen, ergeben sich mit Sicherheit (Wahrscheinlichkeit=1) sofort neue Fragen und Unklarheiten! |
#8
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
Jein, Hartley und Shannon - haben als erste die Unwahrscheinlichkeit=den Neuheitswert festgelegt. Hartley hat erstmals das Wort Information in die Physik geholt. Sie verwendeten dazu das 2-wertige Bit für die Signale die entweder ankamen oder nicht. Man darf nicht vergessen, zu jener Zeit war Morsen und Telefonieren der letzte Schrei der Technik. Eine mathematische Berechnung mittels Logaritmus und Wahrscheinlichkeit galt als genial. Nur wenige Jahre später wurde aber dieser Informationsbegriff bereits lächerlich gemacht, weil er eben mit der Umgangssprache nicht vereinbar war. In der heutigen Informationswissenschaft sehe ich eher beide Festlegungen inbegriffen: Man kann festlegen: INFORMATION ist das, was der Mensch aus aufgezeichneten Daten (Schriften) für sich herausliest, in sich verarbeitet und wieder weitergibt. Ursächlich ist also der Mensch dabei. Das erleichtert den Umgang mit dem Wort Information sehr. Die rein mathematische Definition wird dabei ein kleines mögliches Detail für ganz spezielle Reduktionen. Entropie hat heute eher seine grosse Bedeutung aus der Physik vor dem Begriff und durch den Begriff Information verloren.
__________________
ingeniosus ------------------------------------------------------- Hat der menschliche Geist ein neues Naturgesetz bewiesen, ergeben sich mit Sicherheit (Wahrscheinlichkeit=1) sofort neue Fragen und Unklarheiten! |
#9
|
||||
|
||||
AW: Entropie in der Informationstheorie
Man sagt, SHANNON hat mit seinem Entropiebegriff den damals hochmodernen Begriff "Entropie" in seine Theorie miteinbauen wollen. Er hat aber etwas grundlegend Anderes geschaffen.
"En-tropie" im original physikalischem Sinne wurde konstruiert aus der Abkürzung von "energie - tropein(= ändern)"
__________________
ingeniosus ------------------------------------------------------- Hat der menschliche Geist ein neues Naturgesetz bewiesen, ergeben sich mit Sicherheit (Wahrscheinlichkeit=1) sofort neue Fragen und Unklarheiten! Ge?ndert von ingeniosus (14.02.14 um 16:29 Uhr) |
#10
|
||||
|
||||
AW: Entropie in der Informationstheorie
Zitat:
Dein Beispiel ist meiner Meinung nach ein weiterer Beweis, das die ART stimmt. Eine Information kann ja schließlich nicht aus dem Nichts kommen. Und daher sind Reisen in die Vergangenheit nicht möglich... Gruß, George |
Lesezeichen |
|
|