Quanten.de Diskussionsforum

Quanten.de Diskussionsforum (http://www.quanten.de/forum/index.php5)
-   Quantenmechanik, Relativitätstheorie und der ganze Rest. (http://www.quanten.de/forum/forumdisplay.php5?f=3)
-   -   Entropie in der Informationstheorie (http://www.quanten.de/forum/showthread.php5?t=626)

hhmoeller 18.06.08 20:02

Entropie in der Informationstheorie
 
Paul Davies beschreibt in So baut man eine Zeitmaschine unter der Überschrift So holt man Wissen aus dem Nichts ein interessantes Paradoxon:

Die folgende Parabel illustriert das verblüffendste aller Paradoxa von Zeitreisen. Ein Professor baut im Jahr 2005 eine Zeit- maschine und beschließt, in das Jahr 2010 in die Zukunft zu reisen (hier gibt es kein Problem). Nach seiner Ankunft macht er die Universitätsbibliothek ausfindig und überfliegt die aktuellen Zeitschriften. In der mathematischen Abteilung bemerkt er ein brillantes neues Theorem und notiert sich dessen Einzelheiten. Dann kehrt er in das Jahr 2005 zurück, ruft einen intelligenten Studenten zu sich und schildert ihm das Theorem in Umrissen. Der Student setzt sich hin, bringt Ordnung in den Gedankengang, schreibt eine Arbeit und veröffentlicht sie in einer Fachzeitschrift für Mathematik. Es war natürlich genau diese Zeitschrift, in der der Professor 2010 den Aufsatz gelesen hatte.
Auch hier gibt es keinen Widerspruch: Die Geschichte enthält eine konsistente kausale Schleife, weshalb strenggenommen kein Paradoxon vorliegt, sondern einfach nur eine sehr absonderliche Angelegenheit. Das Problem bezieht sich vielmehr auf den Ursprung der Information. Wo stammte das Theorem ursprünglich her? Nicht von dem Professor, denn der hat es lediglich in der Zeitschrift gelesen. Von dem Studenten jedoch auch nicht, da er es von dem Professor bekam. Es scheint, als wäre die Information über das Theorem einfach aus dem Nichts aufgetaucht.


Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?

Uranor 18.06.08 20:36

AW: Entropie in der Informationstheorie
 
Für die Entropie steht der eindeutig gerichtete Zeitpfeil.
Das Superpositionsprinzip stellt für jeden beliebigen Messzeitpunkt nur eine mögliche Ortsrealisierung zur Verfügung.
Sämtliche Erhaltungssätze wären verletzt.
Das Paulische Ausschließungsprinzip ermöglicht im Kehrschluss genau einen Aufenthalt pro Messung.
Die Beobachtung steht ausschließlich für: "SF ist SF, bleibt SF!"
Die Vernunft sagt: "Danke, ich hab heut schon geschmunzelt!" :D

Gruß Uranor

JGC 18.06.08 23:34

AW: Entropie in der Informationstheorie
 
Hi...


Ich behaupte, der Information ist die Entropie piepegal!!


Sie ist immer schon dagewesen, wie und wo man sie findet spielt keine Rolle, solange man den Ort betreten kann, wo man sie erhält(außer, das man vielleicht nicht die letztendlichen Konsequenzen ermessen kann, die so ein Informationserhalt mit sich bringt. Vielleicht baut ja jemand damit versehentlich eine Weltvernichtungsmaschine, weil er denkt, er würde einen prima atomgetriebenen Entsafter bauen) :D


JGC

JGC 19.06.08 00:24

AW: Entropie in der Informationstheorie
 
Fortschreitende Auflösung der Ordnung?

Ich könnte ja einen Wiki-Link jetzt hinschreiben, aber wozu...

JGC

Uranor 19.06.08 07:58

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21278)
Vielleicht baut ja jemand damit versehentlich eine Weltvernichtungsmaschine, weil er denkt, er würde einen prima atomgetriebenen Entsafter bauen) :D

Wäre die Welt entsaftbar, wäre sie von den Dinos damals in der Not ausgesaugt worden... Ein atombetriebener Weltentsafter? Diene lustige Phanthasie ist unüberbietbar. :D :D :D

JGC 19.06.08 09:04

AW: Entropie in der Informationstheorie
 
Hör mal EMI

Wenn du mich nur für blöde verkaufen willst, dann sprich nicht mit mir. OK?


JGC


zum Nachlesen... http://de.wikipedia.org/wiki/Entropie

rafiti 19.06.08 11:42

AW: Entropie in der Informationstheorie
 
Ich habe nen Extra-Anfertigung-Entsafter, dazu muß ich euch mal wieder die Vorgeschichte erzählen. :). Also es war so, es war ein sonniger Tag, viel zu sonnig, um an Melonen zu denken, die Sonne knallte runter (mit 9.58c), was passiert, wenn es zu sonnig ist? klar, man hat Durst. Ich stellte fest, dass eine ganz Melone nicht in den Entsafter passte, klar, ich rief Johnny an, er erledigte das, nun passen 3 ganze Melonen rein. :)

gruss
rafiti

Hamilton 19.06.08 11:59

AW: Entropie in der Informationstheorie
 
Die Entropie ist in der Informationstheorie sowas wie der Erwartungswert der Information.
Nach Tukey ist Information I = -log p, wobei die Basis erstmal egal ist und für die Einheit steht (ist sie 2, dann hat I die Einheit Bit, ist sie e, dann nennt man das "nats")

p ist hier die Wahrscheinlichkeit mit der ein Ereignis eintritt.
Hat man z.B. eine Münze, dann ist die Kopf-W'keit 1/2, damit ist die Info aus einem Münzwurf genau 1 Bit.
Aus 10 Würfen können sich 2^10 Möglichkeiten ergeben, da die W'keit für jeden Wurf 1/2 bleibt, ist die Information = - log (1/2^10) = 10 bit.
Mit jedem Münzwurf steigt die Information an. Ist die W'keit für ein Ereignis 1, dann kann ich den Prozess so oft realisieren, wie ich will, die Information bleibt 0 (da schon vorher klar ist, wie das Ergebnis sein wird)

Der Informationsbegrif aus der Inf.Theorie ist also was ganz anderes als unser alltäglicher Gebrauch des Wortes Information. Er sagt nämlich nichts über die Verwertbarkeit von Information aus, sondern eher etwas über die "Überrschung" über ein Ereeignis. Die Überraschung über ein Ereignis, dass sicher eintritt (I = -log (1) = 0) ist null, wärend die Information, dass ein total seltendes/unwahrscheinliches Ereignis eingetreten ist, sehr groß ist.

Die (Shannon-)Entropie ist der Erwartungswert der Information, H = - SUMME { p log p }
Sie kann interpretiert werden als Unsicherheit über den Ausgang eines Zufallsexperimentes (deren Verteilung man kennt).
Betrachten wir z.B. zwei User eines Internetforums. Der eine schreibt immer das selbe und benutzt oft die gleichen Wörten (z.B. "Einstein, doof, falsch, unlogisch ...), der andere neigt nicht zu Polemik, schreibt deshalb nur, wenn es etwas interessantes zu sagen gibt, wiederholt sich nicht ständig und benutzt auch einen reicheren Wortschatz.
Jetzt kann man z.B. ein Histogramm anfertigen über alle Wörter, die die beiden benutzt haben- ein Historgramm ist ja ein Schätzer für die W'keiten der Wörter, also hat man p(wort) für beide und kann die Entropie ausrechnen. Dabei wird sich vermutlich ergeben, dass der zweite User eine deutlich höhere Entropie hat als der erste, was bedeutet, dass er mehr Information generiert.
Wenn ich die beiden also nicht selbst kenne, sondern nur ihre Entropien, würde ich zweifellos eher die Beiträge von User Nr.2 lesen.

(Ein dritter User, der rein zufällige Nonsenswörter schreibt, wie ghkgfhk etc... und dabei eine große Vielfalt walten lässt, hätte zweifellos eine noch viel höhere Entropie, also Vorsicht bei der Interpretation)

Wie man das jetzt mit der Zeit zusammenbringt und deine Frage beantwortet überlasse ich jetzt den anderen. Ich bin der Meinung, dass für das, was dich eigentlich interessiert, die Entropie dich nicht weiter bringt.

hhmoeller 19.06.08 12:04

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21278)
Ich behaupte, der Information ist die Entropie piepegal!!

Falsch geraten.

Mit Wikipedia wäre das nicht passiert.

George 19.06.08 12:12

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von hhmoeller (Beitrag 21265)
Paul Davies beschreibt in So baut man eine Zeitmaschine unter der Überschrift So holt man Wissen aus dem Nichts ein interessantes Paradoxon:

Die folgende Parabel illustriert das verblüffendste aller Paradoxa von Zeitreisen. Ein Professor baut im Jahr 2005 eine Zeit- maschine und beschließt, in das Jahr 2010 in die Zukunft zu reisen (hier gibt es kein Problem). Nach seiner Ankunft macht er die Universitätsbibliothek ausfindig und überfliegt die aktuellen Zeitschriften. In der mathematischen Abteilung bemerkt er ein brillantes neues Theorem und notiert sich dessen Einzelheiten. Dann kehrt er in das Jahr 2005 zurück, ruft einen intelligenten Studenten zu sich und schildert ihm das Theorem in Umrissen. Der Student setzt sich hin, bringt Ordnung in den Gedankengang, schreibt eine Arbeit und veröffentlicht sie in einer Fachzeitschrift für Mathematik. Es war natürlich genau diese Zeitschrift, in der der Professor 2010 den Aufsatz gelesen hatte.
Auch hier gibt es keinen Widerspruch: Die Geschichte enthält eine konsistente kausale Schleife, weshalb strenggenommen kein Paradoxon vorliegt, sondern einfach nur eine sehr absonderliche Angelegenheit. Das Problem bezieht sich vielmehr auf den Ursprung der Information. Wo stammte das Theorem ursprünglich her? Nicht von dem Professor, denn der hat es lediglich in der Zeitschrift gelesen. Von dem Studenten jedoch auch nicht, da er es von dem Professor bekam. Es scheint, als wäre die Information über das Theorem einfach aus dem Nichts aufgetaucht.


Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?

Nun ja, in dem Beispiel gibt es doch einen kleinen Fehler. Der Professor reist wieder in das Jahr 2005 zurück. Nach der ART sind ja Überlichtgeschwindigkeiten im direktem Sinne nicht möglich, ein Körper kann sich somit nicht in einer negativen Zeit bewegen (Deswegen kann die Zeit erst garnicht negativ werden, weil die Masse des Körpers zu hoch wird, um angetrieben werden zu können).

Dein Beispiel ist meiner Meinung nach ein weiterer Beweis, das die ART stimmt. Eine Information kann ja schließlich nicht aus dem Nichts kommen. Und daher sind Reisen in die Vergangenheit nicht möglich...

Gruß, George

hhmoeller 19.06.08 12:38

AW: Entropie in der Informationstheorie
 
Vielen Dank, Hamilton, für die ausführliche Antwort.

Zitat:

Zitat von Hamilton (Beitrag 21291)
Wie man das jetzt mit der Zeit zusammenbringt und deine Frage beantwortet überlasse ich jetzt den anderen. Ich bin der Meinung, dass für das, was dich eigentlich interessiert, die Entropie dich nicht weiter bringt.

Die anderen machen nicht den Eindruck, daß sie das können. Im Web habe ich Hinweise darauf gefunden, daß C.F.W. das in "Zeit und Wissen" getan hat. Ich denke, dort findet sich die Antwort.

Der eigentliche Grund für meine Frage ist nicht Davies Beispiel, sondern ein Argument von Karl Popper gegen die These "die Welt ist mein Traum". Er argumentiert sinngemäß: Wenn ich eine Schallplatte mit Bachs Kunst der Fuge auflege, dann wäre diese Fuge die Schöpfung meines Geistes, wäre die These "die Welt ist mein Traum" wahr. Wenn ich dagegen versuche, eine Fuge im Stile von J.S.Bach zu schreiben, stelle ich fest, daß ich nicht dazu in der Lage bin.

Poppers Argument ist vielfach kritisiert worden, weil es plausibel aber logisch nicht zwingend ist. Er selbst hält weder den Idealismus noch den Realismus für beweisbar.

Ich denke aber, daß in Poppers Argument noch mehr steckt, nämlich der Hinweis darauf, daß wäre die These "die Welt ist mein Traum" wahr, Information aus dem Nichts entstehen müßte.

hhmoeller 19.06.08 12:43

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von George (Beitrag 21293)
Nun ja, in dem Beispiel gibt es doch einen kleinen Fehler. Der Professor reist wieder in das Jahr 2005 zurück. Nach der ART sind ja Überlichtgeschwindigkeiten im direktem Sinne nicht möglich, ein Körper kann sich somit nicht in einer negativen Zeit bewegen

Paul Davies ist Professor für theoretische Physik, ich gehe davon aus, daß sein Buch keine physikalischen Fehler enthält.

In diesem Thread geht es nicht um die Frage, ob die ART richrtig oder falsch ist, sondern um die Frage, ob Information spontan entstehen kann.

Hamilton 19.06.08 13:22

AW: Entropie in der Informationstheorie
 
Zitat:

Paul Davies ist Professor für theoretische Physik, ich gehe davon aus, daß sein Buch keine physikalischen Fehler enthält.

In diesem Thread geht es nicht um die Frage, ob die ART richrtig oder falsch ist, sondern um die Frage, ob Information spontan entstehen kann.
Auch wenn Professoren für theoretische Physik zweifellos schlaue Menschen sind und meine persönlichen Helden der Neuzeit- es sind trotzdem Menschen und die machen Fehler. Niemals darf man davon ausgehen, dass ein Buch keine Fehler enthält; vorallem dann nicht, wenn es nicht mindestens in der 5. Auflage erschienen ist.
Damit will ich aber nicht den Wahrheitsgehalt dieses konkreten Buches bewerten.

Soweit ich mal gehört hab, hat man Lösungen der Einsteinschen Feldgleichungen gefunden, die sogenannten "closed time-like loops"
Zeitreisen sind in der ART demnach möglich. Das setzt nicht Überlichtgeschwindigkeit voraus- ein "billiges" Wormloch kann den Job erledigen.
Mir hat mal jemand von einem (natürlich theoretischem) Beispiel erzählt, in dem eine Billardkugel auf einem Tisch rollt, durch ein Wurmloch durch, an einer anderen Position des Tisches zu einer früheren Zeit austritt und sich selber stößt.
In der 4-d Raumzeit soll dabei Impuls und Energieerhaltung gelten.

Wie man das auch immer auf deinen Professor übertragen kann- deine Frage ist ja, ob Information aus dem Nichts entsteht, und ich denke "warum nicht? Passiert das nicht ständig?"
Information ist ja im weiteren Sinne (der Informationstheorie) kein Gegenstand der Physik.
Mir ist kein "Informationserhltungssatz" bekannt.

möbius 19.06.08 15:46

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21296)
......
Information ist ja im weiteren Sinne (der Informationstheorie) kein Gegenstand der Physik.
......

Und was ist mit der Quantentheorie der Information:confused:
(Carl Friedrich von Weizsäcker/Thomas Görnitz/Holger Lyre)
möbius

JGC 19.06.08 16:27

AW: Entropie in der Informationstheorie
 
Hi..


Zitat:

hhmoeller
Zitat:
Zitat von JGC Beitrag anzeigen
Ich behaupte, der Information ist die Entropie piepegal!!


Falsch geraten.

Mit Wikipedia wäre das nicht passiert.

Hör mal, der Wiki-Artikel ist wieder mal nur was für Geistesakrobaten...

Ich sagte das deshalb, weil eine Information nur dann eine Information sein kann, wenn sie auch was bewirken kann.

Ob jetzt nur eine Idee von einer großartigen Schöpfung existiert(als strukturiert geordnete Ladung, die in einer bestimmten Reihenfolge "entladen" werden kann oder sie tatsächlich in der Realität (nach visualisierten Ideen Zeichnungen und Berechnungen) geschaffen wurde, das macht keinen Unterschied.

Solange eine Information nur "ideell" vorhanden ist kann sie keine direkte Auswirkung erzeugen. Das können nur "Mittler", die der Idee erst eine Gestalt(reale Möglichkeit) geben, damit diese eine physikalische Funktion ausüben kann...

Das heißt für mich, das eine Information erst dann einen Informationsstatus besitzt, wenn diese auch einfach und ohne komplizierte mathematische Verklausulierungskünste definierbar ist. Jedes Geschehen lässt sich auf einfachste Grundgeschehen zurückführen, so wie jede komplexe Information sich auf einfachste Bits und Bytes reduzieren lässt.

Alles andere ist meiner Meinung nach "unbestimmtes" Zeug und erfüllt auf Grund seiner trotzdem vorhandenen Existenz sehr wohl eine Funktion, nämlich die des Existierenz und der dabei auftretenden Energiege und sonstwas Gefälle so wie zu gegenseitigen räumlichen/zeitlichen Verdrängungen.(genau die virtuelle Welt, in der alles seinen Anfang findet)

Deshalb behauptete ich, das einer "richtigen" Information der Zustand egal ist, weil eine Idee(in Form eines elementaren Prinzips) Äonen überdauert, egal, ob sie als "Zustand" oder als "physische Gegenwart" vorhanden ist. Für diese gelten die entropischen Vorgänge nicht


JGC

Uranor 19.06.08 16:48

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von hhmoeller (Beitrag 21295)
In diesem Thread geht es nicht um die Frage, ob die ART richrtig oder falsch ist, sondern um die Frage, ob Information spontan entstehen kann.

Sag das doch gleich.

Die ART ist hier nutzlos, da sie nur als unrealisierbar nachweist, was es ohnehin nicht gibt. Nichts gelangt in den Erfahrungsraum, nichts verlässt ihn. Mit den Erhaltungssätzen wird man also am weitesten kommen.

Wenn jemand zur Thematik schreibt, soll er dazu schreiben, wie man jetzt eine Gesamt-Zustandssituation wissen und erstellen kann, wie man sie vielleicht 2012 vorfinden wird. Dann sich alles gut gemerkt haben und die Situation wieder bauen, wie man sie verlassen hatte. Die Zukunft bleibt aber unbestimmt, genau wie die Vergangenheit auch.



Ich denke, Information können oh ja spontan entstehen. Unsere Denkfreiheit ist nur nutzbar, weil das Gehirn wegen der enormen Komplexität Fehler begehen kann. Basiert eine fehlerhaft gefundene Information nun kausal auf etwas vorhandenem, oder ist es eine unabhängige Information?

Uranor 19.06.08 17:34

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21296)
Soweit ich mal gehört hab, hat man Lösungen der Einsteinschen Feldgleichungen gefunden, die sogenannten "closed time-like loops"
Zeitreisen sind in der ART demnach möglich. Das setzt nicht Überlichtgeschwindigkeit voraus- ein "billiges" Wormloch kann den Job erledigen.
Mir hat mal jemand von einem (natürlich theoretischem) Beispiel erzählt, in dem eine Billardkugel auf einem Tisch rollt, durch ein Wurmloch durch, an einer anderen Position des Tisches zu einer früheren Zeit austritt und sich selber stößt.
In der 4-d Raumzeit soll dabei Impuls und Energieerhaltung gelten.

salve Hamilton,

nein. ;) Wer ein Wurmloch findet und es nutzen kann, wird der Geodäte nicht folgen müssen, kann ggf. den Weg abkürzen. Aber abkürzen bedeutet niemals!!!, sich selbst überholen. :)

Hawking hat es in "Eine (kurze) Geschichte der Zeit" klar und anschaulich beschrieben. Alles andere ist SF.

-- Ich kapier nicht, wieso mit solchen Infos so unaufmerksam umgegangen wird. Das behauptete ist so wenig möglich wie die Bild lesen, ohne dass Blut raustropft. :D


Gruß Uranor

JGC 19.06.08 18:40

AW: Entropie in der Informationstheorie
 
Mann...

Einfach irreversible Vorgänge..

Zum Beispiel die Unordnungs-Verteilung

Hermes 19.06.08 22:09

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von hhmoeller (Beitrag 21265)
Paul Davies beschreibt in So baut man eine Zeitmaschine unter der Überschrift So holt man Wissen aus dem Nichts ein interessantes Paradoxon:

[I]Die folgende Parabel illustriert das verblüffendste aller Paradoxa von Zeitreisen. Ein Professor baut im Jahr 2005 eine Zeit- maschine und beschließt, in das Jahr 2010 in die Zukunft zu reisen (hier gibt es kein Problem). Nach seiner Ankunft macht er die Universitätsbibliothek ausfindig und überfliegt die aktuellen Zeitschriften. In der mathematischen Abteilung bemerkt er ein brillantes neues Theorem und notiert sich dessen Einzelheiten. Dann kehrt er in das Jahr 2005 zurück, ruft einen intelligenten Studenten zu sich und schildert ihm das Theorem in Umrissen. Der Student setzt sich hin, bringt Ordnung in den Gedankengang, schreibt eine Arbeit und veröffentlicht sie in einer Fachzeitschrift für Mathematik. Es war natürlich genau diese Zeitschrift, in der der Professor 2010 den Aufsatz gelesen hatte.
Auch hier gibt es keinen Widerspruch: Die Geschichte enthält eine konsistente kausale Schleife, weshalb strenggenommen kein Paradoxon vorliegt, sondern einfach nur eine sehr absonderliche Angelegenheit. Das Problem bezieht sich vielmehr auf den Ursprung der Information. Wo stammte das Theorem ursprünglich her? Nicht von dem Professor, denn der hat es lediglich in der Zeitschrift gelesen. Von dem Studenten jedoch auch nicht, da er es von dem Professor bekam. Es scheint, als wäre die Information über das Theorem einfach aus dem Nichts aufgetaucht.

Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?

In dem Multiversum einer Viele-Welten-Interpretation wäre der Professor wohl in der Zukunft eines anderen Zeitstrangs gelandet als er ursprünglich herkam.
Für den weiteren Verlauf des Universums 2005 in das der Professor zurückkehrt kann man sagen, die Information kommt aus einem Nachbaruniversum. In dem das Theorem auf 'natürliche' Art und Weise entstanden ist.

Insofern wäre das kein "Informations-Perpetuum Mobile". Zumindest käme die Information nicht aus dem 'Nichts'.
Andererseits wäre ein funktionierender Quantencomputer mit den erhofften unvorstellbaren Rechenleistungen praktisch schon eine Art informationelles Perpetuum Mobile. Und der würde (nach dem Quantencomputer-Guru David Deutsch) auf dem Austausch von Information einzelner Universen beruhen.

Ist nicht das Uni-Multi-whatever-versum das einzig funktionierende Perpetuum Mobile?!
Ob ein solcher Zeitsprung überhaupt möglich ist weiß ich natürlich auch nicht.

Viel Spaß;)
Hermes

Uranor 19.06.08 23:18

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hermes (Beitrag 21312)
Ob ein solcher Zeitsprung überhaupt möglich ist weiß ich natürlich auch nicht.

Also versteht denn hier niemand was von Physik? Wo soll man denn hinspringen? Was ist denn dort, wo man nach kindlicher Phanthasie hinspringen will?

Tante Else und die BAB verbleiben natürlich im Bezugsraum. Will man beide nun hier und im fictiven anderen Bezugsraum vorfinden? Gilt das für alles? Dann wäre nichts unbestimmt sondern hardcodiert, wie in der Zeit geschnitzt = eine starre 4D-Total-Schnitzung.

Läuft der Thread tatsächlich unter Physikkennern oder im EM-Fieber? :( :p


Frisch geöltes Sprungtuch
Uranor

JGC 20.06.08 00:31

AW: Entropie in der Informationstheorie
 
Hi Uranor..

Diesbezüglich gebe ich dir vollkommen recht...

Meiner Ansicht nach gibt es keine wirkliche Zeitreise, weil der Lauf der Dinge determiniert ist. Der Lauf der Lichtübertragung aber eben meines Erachtens nicht.

Es wäre also möglich, in ferne Zeiten zu sehen, sie aber nicht wirklich zu verändern. (Prophetie?)

Man kann also nur auf Grund zukunftszeigender Visionen das Heute entsprechend verändern, damit das Gesehene nicht so wie gesehen passiert(das Ruder rumreisen in der Strömung der Zeit)

Und das auch wieder nur, wenn man in der Lage ist, das "gesehene" auch richtig zu interpretieren, was wohl das schwierigste sein wird, wie schon die Forschung an sich zeigt.(z.B. die aktuelle Klimadebatte) Manches muss man eben ausprobieren und beobachten, ob es wirklich den gewünschten Erfolg zeigt

JGC

Uranor 20.06.08 00:47

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21321)
Meiner Ansicht nach gibt es keine wirkliche Zeitreise, weil der Lauf der Dinge determiniert ist.

Ja genau...

...Ist es denn überhaupt möglich, Heisenber derart konsequent zu ignorieren? Also gel, also hier, ich zeichne für die meisten Post des Threads nicht verantwortlich.

:p

hhmoeller 20.06.08 15:32

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Uranor (Beitrag 21302)
Ich denke, Information können oh ja spontan entstehen. Unsere Denkfreiheit ist nur nutzbar, weil das Gehirn wegen der enormen Komplexität Fehler begehen kann. Basiert eine fehlerhaft gefundene Information nun kausal auf etwas vorhandenem, oder ist es eine unabhängige Information?

Ich denke, die Lebenserfahrung sagt eher das Gegenteil: Wir können Informationen nicht aus dem Nichts erzeugen, sondern nur durch Informationsverarbeitung. Wer nichts gelernt hat, bringt nichts zustande. Wer im Berufsleben ein Konzept zu erarbeiten hat, wird als erstes Informationen sammeln. Jazzmusiker, die ja ihre Musik improvisieren, sind keine Autisten. Sie greifen in ihren Solos auf Patterns und Licks genannte Versatzstücke zurück. Selbst der chaotischste Free-Jazzer oder abstrakteste Maler steht in einer künstlerischen Tradition und wird von anderen Künstlern beeinflußt. In der Informatik ist das GIGO(Müll rein - Müll raus)-Prinzip als Erfahrungssatz bekannt.

Uranor 20.06.08 16:05

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von hhmoeller (Beitrag 21330)
Ich denke, die Lebenserfahrung sagt eher das Gegenteil: Wir können Informationen nicht aus dem Nichts erzeugen, sondern nur durch Informationsverarbeitung. Wer nichts gelernt hat, bringt nichts zustande. Wer im Berufsleben ein Konzept zu erarbeiten hat, wird als erstes Informationen sammeln. Jazzmusiker, die ja ihre Musik improvisieren, sind keine Autisten. Sie greifen in ihren Solos auf Patterns und Licks genannte Versatzstücke zurück. Selbst der chaotischste Free-Jazzer oder abstrakteste Maler steht in einer künstlerischen Tradition und wird von anderen Künstlern beeinflußt. In der Informatik ist das GIGO(Müll rein - Müll raus)-Prinzip als Erfahrungssatz bekannt.

Hier gebe ich allerdings zu bedenken, dass jeder Akkord irgendwann erstmalig gefunden wurde. Danach suchen und finden geschahen allerdings nicht akausal. Kan man sagen, auf bestehendem fand eine Symmetrieerweiterung statt? Auf bestehendem wurde eine Information gefunden, die es vorher nicht gab. Stile, Genres entwickeln sich auf Erweiterungsprozessen.

Aber wie genannt, das Fehler-Geschehen will mich durchaus mal näher interessieren. Ergibt sich eine Mischung auf bekanntem oder ähnlich wie die Mutation etwas neues?...

Hmm. Auch die Mutation ist nicht wirklich etwas neues. Es ist aber eine neue Kombination. Für mich als neuen Nutzer der Duftnoten-Landkarte ergab sich gegenüber dem Rest der Spezies etwas neues. Und... DNA ist imerhin konkretisierte Information pur. Sie ist kausal spontan etwa auf einer Strahlungs-Anomalie entstanden.

Gruß Uranor

ingeniosus 20.06.08 17:30

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21291)
Die Entropie ist in der Informationstheorie sowas wie der Erwartungswert der Information.
Nach Tukey ist Information I = -log p, wobei die Basis erstmal egal ist und für die Einheit steht (ist sie 2, dann hat I die Einheit Bit, ist sie e, dann nennt man das "nats")

p ist hier die Wahrscheinlichkeit mit der ein Ereignis eintritt.
Hat man z.B. eine Münze, dann ist die Kopf-W'keit 1/2, damit ist die Info aus einem Münzwurf genau 1 Bit.
Aus 10 Würfen können sich 2^10 Möglichkeiten ergeben, da die W'keit für jeden Wurf 1/2 bleibt, ist die Information = - log (1/2^10) = 10 bit.
Mit jedem Münzwurf steigt die Information an. Ist die W'keit für ein Ereignis 1, dann kann ich den Prozess so oft realisieren, wie ich will, die Information bleibt 0 (da schon vorher klar ist, wie das Ergebnis sein wird)

Der Informationsbegrif aus der Inf.Theorie ist also was ganz anderes als unser alltäglicher Gebrauch des Wortes Information. Er sagt nämlich nichts über die Verwertbarkeit von Information aus, sondern eher etwas über die "Überrschung" über ein Ereeignis. Die Überraschung über ein Ereignis, dass sicher eintritt (I = -log (1) = 0) ist null, wärend die Information, dass ein total seltendes/unwahrscheinliches Ereignis eingetreten ist, sehr groß ist.

Die (Shannon-)Entropie ist der Erwartungswert der Information, H = - SUMME { p log p }
Sie kann interpretiert werden als Unsicherheit über den Ausgang eines Zufallsexperimentes (deren Verteilung man kennt).
Betrachten wir z.B. zwei User eines Internetforums. Der eine schreibt immer das selbe und benutzt oft die gleichen Wörten (z.B. "Einstein, doof, falsch, unlogisch ...), der andere neigt nicht zu Polemik, schreibt deshalb nur, wenn es etwas interessantes zu sagen gibt, wiederholt sich nicht ständig und benutzt auch einen reicheren Wortschatz.
Jetzt kann man z.B. ein Histogramm anfertigen über alle Wörter, die die beiden benutzt haben- ein Historgramm ist ja ein Schätzer für die W'keiten der Wörter, also hat man p(wort) für beide und kann die Entropie ausrechnen. Dabei wird sich vermutlich ergeben, dass der zweite User eine deutlich höhere Entropie hat als der erste, was bedeutet, dass er mehr Information generiert.
Wenn ich die beiden also nicht selbst kenne, sondern nur ihre Entropien, würde ich zweifellos eher die Beiträge von User Nr.2 lesen.

(Ein dritter User, der rein zufällige Nonsenswörter schreibt, wie ghkgfhk etc... und dabei eine große Vielfalt walten lässt, hätte zweifellos eine noch viel höhere Entropie, also Vorsicht bei der Interpretation)

Wie man das jetzt mit der Zeit zusammenbringt und deine Frage beantwortet überlasse ich jetzt den anderen. Ich bin der Meinung, dass für das, was dich eigentlich interessiert, die Entropie dich nicht weiter bringt.

Diese mathematischen Festlegungen für Information, Erwartungswert und Entropie sind m.E. heute etwas zu eng.

Information ist für mich die Abstraktion von Daten durch den Menschen, also wesentlich mehr als nur eine Unwahrscheinlichkeit.

Der Begriff der Entropie bleibt für mich ein Rätsel. Ich frage mich, ob er ausserhalb der Wärmetheorie sinnvoll ist. Er ist der frühe Versuch, Mengentheorie und Wahrscheinlichkeitsrechnung zu verbinden, hat aber m.E. heute keine sinnvolle Verwendung mehr.

Hamilton 20.06.08 18:57

AW: Entropie in der Informationstheorie
 
Zitat:

Wer ein Wurmloch findet und es nutzen kann, wird der Geodäte nicht folgen müssen, kann ggf. den Weg abkürzen. Aber abkürzen bedeutet niemals!!!, sich selbst überholen.
Also, ich muss ehrlich zugeben, dass ich keine Kapazität auf dem Gebiet der ART bin, trotzdem: Ein Wurmloch ist ein Shortcut in der Raumzeit, etwas was dort rein geht, kann an einem anderen Ort und zu einer anderen Zeit auf der anderen Seite wieder herauskommen- soweit mein Kenntnisstand.

Gandalf 20.06.08 20:21

AW: Entropie in der Informationstheorie
 
Zitat:

Also versteht denn hier niemand was von Physik? Wo soll man denn hinspringen? Was ist denn dort, wo man nach kindlicher Phanthasie hinspringen will?
Es geht ja hier nicht um (klassische) Physik sondern um Quantenphysik - und da ist ja alles nur buchstäblich einen 'Quantensprung' weit entfernt ;)

Uranor 20.06.08 21:36

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21349)
Also, ich muss ehrlich zugeben, dass ich keine Kapazität auf dem Gebiet der ART bin, trotzdem: Ein Wurmloch ist ein Shortcut in der Raumzeit, etwas was dort rein geht, kann an einem anderen Ort und zu einer anderen Zeit auf der anderen Seite wieder herauskommen- soweit mein Kenntnisstand.

Du wirst mich sicherlich jederzeit in Sachen ART schlagen können. Ich akzeptiere, was zum Wurmloch ermittelt wurde, kann die Rechnung aber selbst nicht nachvollziehen.

Wir können uns einfach einen Bogen vorstelen. Wir folgen der Geodäte, also der Bogenform. Fritze läuft parallel los, steuert aber auf des Wurmloch zu, wohl sowas wie ein SL. Sein Weg wird immer steiler, Er jagt nahezu gerade durch's SL; er folgt nicht dem Bogen sondern der Sehne. Natürlich wird er früher am Ziel sein als wir. Er hat uns also über seinen direkteren Weg überholt.

Ich kann mich aber selbst nicht überholen. Entweder ich tippel den Bogen ab, oder ich ich düse den kürzeren Sehnenweg. Ich werde somit niemals in meine eigene Vergangenheit oder Zukunft gelangen können. Ich kann mich nicht verdoppeln.

Und auch wenn ich extrem hoch beschleunige, werde ich nur das Zwilligsparadoxon erfehren, keinen Bezugssystemwechsel. Die Generationen, die relativ zu mir rasend schnell altern und vergehen, werden mich nicht los. Ich altere fast nicht, doch wir bleiben im gemeinsamen Erfahrungsraum.

Um solche Zusammenhänge geht es. Wir werden sehr verschieden betrachten können. Es wird sich sogar zeigen, dass es außer dem Bezugsraum nichts gibt. Gäbe es doch noch weiteres, hätte es mit uns absolut nichts zu tun...

Gruß Uranor

Uranor 20.06.08 21:46

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Gandalf (Beitrag 21351)
Es geht ja hier nicht um (klassische) Physik sondern um Quantenphysik - und da ist ja alles nur buchstäblich einen 'Quantensprung' weit entfernt ;)

*stimmung*. Der Weg führt allerdings immer kausal voraus, niemals rückwärts. Man kan nur das Zwillingsparadoxon realisieren, keinen Sprung zwischen Erfahrungsräumen realisieren.

möbius 21.06.08 11:24

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Gandalf (Beitrag 21351)
Es geht ja hier nicht um (klassische) Physik sondern um Quantenphysik - und da ist ja alles nur buchstäblich einen 'Quantensprung' weit entfernt ;)

Von woher nach wohin:confused:
:D :D :D möbius

möbius 21.06.08 11:27

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Uranor (Beitrag 21323)
Ja genau...

...Ist es denn überhaupt möglich, Heisenber derart konsequent zu ignorieren? Also gel, also hier, ich zeichne für die meisten Post des Threads nicht verantwortlich.

:p

Es ist weder sinn-voll;) , Werner HEISENBERG, noch Carl Friedrich von WEIZSÄCKER, noch Thomas GÖRNITZ, noch Holger LYRE zu ignorieren =
"Quantentheorie der Information"
möbius

JGC 21.06.08 12:54

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von möbius (Beitrag 21386)
Zitat:

Zitat von Gandalf Beitrag anzeigen

Es geht ja hier nicht um (klassische) Physik sondern um Quantenphysik - und da ist ja alles nur buchstäblich einen 'Quantensprung' weit entfernt


Von woher nach wohin
möbius
Mit Zitat antworten

Hi Möbius..

Ist diese Frage wirklich dein Ernst???


Von wo aus auser von deiner Wahrnemungs-Oberfläche soll es denn sonst gehen...

Einmal der Blick von dir(dein Ich-Bewusstsein) nach innen und einmal der Blick von deinem Ich-Bewusstsein nach außen.

Du selbst bist immer die Mitte deiner Wahrnehmung....


Die anderen sehen immer nur deine äußere Erscheinung, sowie dein äußeres Wirken(und können sich mit Einfühlungsvermögen zur Not auch einigermaßen in dich hineinversetzen um zu verstehen, weshalb und wieso du SO oder SO handelst/reagierst.

Genau wie die Polarität der Gravitation... auch sie wirkt einmal von außen nach innen(sie beeinflusst deine Wahrnehmung in Form der emotionalen Bewertung deiner physischen Erfahrung)..

Und einmal von innen nach außen in Form deiner daraufhin erfolgenden Handlungen/Bewegungen/Aktionen(der Punkt, der eigentlich der antigravitativen Wirkung entspricht)


Weißt du was das heißt?

Alles was auf dich zukommt, wird von dir aufgenommen und verarbeitet(Bewerten und in Wichtigkeiten einteilen) die dein zukünftiges Verhalten steuern(deine absichtliche/unabsichtliche Handlungsmuster auf das gerade passierte Geschehen)


Ich seh das z.B. immer wieder darin, wie die Wärme und Schwerkraft zu dir/uns/ der Lebenssphäre der Erde gerichtete, gleichförmige Energien(longitudinale Wellen wie Wärmeimpulse, Kälte, Lichtimpulse und Schattenperioden, sowie kinetische Impulse und Ereignislosigkeiten)

...die sich fortlaufend miteinander abwechseln und miteinander im Zusammenwirken, dich und das Leben auf der Oberfläche der Erde dazu motiviert, sich entsprechend evolutionär und sonstwie zu verhalten/entwickeln, zu wachsen und entsprechende Strukturen auszubilden...


Leben/Evolution ist meiner Meinung nach also die direkte Folge von Antigravitation..


JGC

Gandalf 21.06.08 13:11

AW: Entropie in der Informationstheorie
 
@EMI

Zitat:

Hier gehts momentan um Lösungen der ART und die hat nichts mit Quantenphysik zu tun, gar nix.
.. und ich dacht es geht um Entropie und Information? (Mein Einwurf erfolgte auf eine Anmerkung bezüglich Quantenphysik...)

@Uranor
Zitat:

Der Weg führt allerdings immer kausal voraus, niemals rückwärts. Man kan nur das Zwillingsparadoxon realisieren, keinen Sprung zwischen Erfahrungsräumen realisieren.
nunja, ... diese 'Gerichtetheit findet man ja nicht in den Gesetzen zur QT, sondern nur in den 'klassischen Theorien' (wobei ich hier die RT mal mit dazunehme). An irgendeiner Stelle muss dann aber wohl "jemand in diese Suppe gespuckt" haben...

(Und das wir keinen "Sprung" 'wahrnehmen' bedeutet ja noch nicht, das es keinen gibt)

Zitat JGC
Zitat:

Ich behaupte, der Information ist die Entropie piepegal!!
Diese Behauptung ist äußerst gewagt und überhaupt nicht fundiert. Möbius hat es ja schon angedeutet mit "Weizsäcker und Görnitz". Ich versuch das mal kurz zusammenzufassen:

Der Gesamtheit der 'ermittelbaren Information' (Masse, innere Zustände und deren deren Bewegungsrichtung) aus 'abzählbaren' klassischen (Teilchen-) Systemen können wir einen Wert zuweisen.

Der 'nicht ermittelbare Rest' (= die nicht ermittelbare Information) ist dann das "Maß der Unordnung " - die Entropie.

Görnitz weist nun darauf hin, das wir wohl vom ersten Anschein nicht wissen können wieviel nutzbare und wieviel unnutzbare Information in einem System steckt, - wir könnten aber durch bestimmte Überlegungen herausbekommen wieviel 'maximale Kapazität' an Information im Universum steckt.

Denn:... auch ein schwarzes Loch wird ebenfalls genau durch diejenigen 3 Eigenschaften definiert, die man wie bereits erwähnt in der klassischen Physik findet:
Masse,
(Dreh-)Impuls,
(elektr.) Ladung
(mehr können wir darüber nicht in Erfahrung bringen). Die Entropie eines sL's verhält sich aber nun proportional zum Quadrat seiner Masse! (Abgeleitet aus dem Zusammenhang zwischen Masse und Oberfläche eines sL) Und mit jedem Massenzuwachs wächst die Entropie mit dem Faktor: 2*M(sL)*M(Objekt). (lässt man die Ladung mal weg) D.H. mit jedem auch nur allerkleinsten Massezuwachs, wächst die Entropie um so ungeheurlicher je größer das sL ist.

Görnitz macht den letzten Schritt: Aus dem Entropiezuwachs, dass das sL erfährt, wenn man das "letzte freie Photon" in das (dann allerletzte) sL wirft, kann man Rückschlüsse auf den Informationsgehalt ziehen, den ein Photon mit sich führt. Er kommt dabei (unter Berücksichtigung von Planckgrößen) auf 10^33 qubit für ein einziges Photon.

Uranor 21.06.08 13:40

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21396)
Hi Möbius..

Ist diese Frage wirklich dein Ernst???


Von wo aus auser von deiner Wahrnemungs-Oberfläche soll es denn sonst gehen...

Sämtliche Quanten gehen also von möbius's Wahrnemungs-Oberfläche aus? Interessant.

JGC 21.06.08 13:41

AW: Entropie in der Informationstheorie
 
Hallo Gandalf..


Genau darum..

Zitat:

Der Gesamtheit der 'ermittelbaren Information' (Masse, innere Zustände und deren deren Bewegungsrichtung) aus 'abzählbaren' klassischen (Teilchen-) Systemen können wir einen Wert zuweisen.
geht es doch..


Ob jetzt eine reale Masse so behandelt werden kann oder nur ein imaginärer abstrakter Berechnungsvorgang, das spielt doch keine Rolle...

Solange das Prinzip, das dahinter steckt, weiterhin gültig bleibt und angewendet erden kann, lassen sich Informationen auch in jeden anderen Zustand transformieren. Ob geistig, Real, Imaginär oder sonstwie diese nacher beschaffen sind.

Und das wäre z.B. die Mengenlehre.. Sie fasst Realitäten, sowie auch imaginäre, physikalische, psychische oder sonstige Grössen zusammen und lässt daraus jeweils statistische Wirkungen erkennen, sowie deren möglichen zukünftigen Auswirkungen erahnen/berechnen..

Das Prinzip ist entscheidend und die Anzahl der Gemeinsamkeiten, mit denen ein und das selbe Prinzip auf all die anderen Bereiche angewendet werden
kann...


Zumindest meinem Verständnis nach.

Gruß......... JGC

JGC 21.06.08 13:45

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Uranor (Beitrag 21400)
Sämtliche Quanten gehen also von möbius's Wahrnemungs-Oberfläche aus? Interessant.

Was ist daran so schwierig?


Du kannst doch auch nur interpretieren, was in dir hineinkommt...

Du bist das Zentrum, so wie jeder ein Zentrum darstellt. Der informatorische Fluss geht also letztlich immer nur von außen nach innen und umgekehrt. Ob das nun von " der Seite betrachtet anders aussieht, spielt meines Erachtens überhaupt keine Rolle, weil es dich in diesem Moment überhaupt nicht betrifft und du in dem Moment keine direkt erfahrbare Informatiom aufnimmst.

JGC...


So, tut mir leid, ich muß für eine Weile verschwinden...

Bis heute Abend oder Morgen früh..

Uranor 21.06.08 14:05

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Gandalf (Beitrag 21397)
nunja, ... diese 'Gerichtetheit findet man ja nicht in den Gesetzen zur QT, sondern nur in den 'klassischen Theorien' (wobei ich hier die RT mal mit dazunehme). An irgendeiner Stelle muss dann aber wohl "jemand in diese Suppe gespuckt" haben...

In welcher Suppe werden denn conterkausale Sprünge beobachtet?

Zitat:

(Und das wir keinen "Sprung" 'wahrnehmen' bedeutet ja noch nicht, das es keinen gibt)
Das bedeutet zunächst, dass weder bekannte Wahrnehmungen noch bekannte Messverfahren etwas derartiges zeigen.

Die QM ist übrigens T-invariant, weil man an einer Messung nur das Ergebnis, nicht aber die Ursache erkennen kann. Eine Momentaufnahme stellt immer Wirkung dar. Also für die Momentaufnahme gilt die T-Invarianz, niemals für den Verlauf.

Ja, sogar einige Physiker haben damit Probs. Sie scheinen bei solchen Zusammenhägngen conter-logisch und wahllos zu sein. Man liest immer wieder Schmunzelstories in den Boullvard-Wissenschafts-News.

Der Kausalpfeil ist sowohl im Mikro als auch im Makro eindeutig gerichtet. :)

Gruß Uranor

Uranor 21.06.08 14:54

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21402)
Zitat:
Zitat von Uranor Beitrag anzeigen
Sämtliche Quanten gehen also von möbius's Wahrnemungs-Oberfläche aus? Interessant./Zitat

Was ist daran so schwierig?

Ist nicht schwierig. Die Aussage ist einfach falsch, sonst nix. Denn:

Zitat:

Du kannst doch auch nur interpretieren, was in dir hineinkommt...

Du bist das Zentrum, so wie jeder ein Zentrum darstellt.
Mein Voltmeter ist das Zentrum. Beobachte den mal, wenn sich Lula nähert.

Alles andere stilisierst du künstlich und unangemessen zu deiner Persönlichkeit hoch. Das kannst du so annehmen. Wenn du es richtig handhaben würdest, wär das OK. Wie auch immer, bring mal bissele Abwechslung in deine eingebrachten Perspektiven.

Gruß Uranor

EMI 21.06.08 18:57

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von ingeniosus (Beitrag 21342)
Der Begriff der Entropie bleibt für mich ein Rätsel. Ich frage mich, ob er ausserhalb der Wärmetheorie sinnvoll ist. Er ist der frühe Versuch, Mengentheorie und Wahrscheinlichkeitsrechnung zu verbinden, hat aber m.E. heute keine sinnvolle Verwendung mehr.


Hallo ingeniosus,

Entropie ist für viele ein Rätsel, es gibt offensichtlich nur einige Wenige die die Entropie umfassend handhaben können. Diese Kenner sehen da auch noch entropische Vorgänge und so ein Zeugs.
Ich zieh mich daher demütig in die Physik zurück.

Die Entropie ist eine nicht direkt meßbare Größe. Man erhält sie durch Integration der aus dem 2. Hauptsatz der Thermodynamik folgenden Beziehung:

ds = (1/T) du = (p/T) dv = ((1/T) dh) - ((v/T) dp)

mit s spezifischer Entropie und den messbaren Größen:
u spez. Energie, v spez. Volumen, h spez. Enthalpie, p spez. Druck und T der absoluten Temperatur.

Die Entropie ist die entscheidende Größe zur Definition der Temperatur!

Die verbreiteste Behauptung ist, die Temperatur ist das Maß der Intensität der Bewegung der Moleküle, aus denen sich der Stoff zusammensetzt.
Sprich, die Temperatur ist nur ein anderes Maß für die mittlere kinetische Energie der Moleküle.

Diese Vorstellung ist falsch, wiederlegt und überholt!

Es hat sich gezeigt, das dies vor allem in der Nähe des absoluten Nullpunktes der Temperatur nicht zutreffend ist.
Das Problem wurde erst mit der QT umfassend gelöst:

Die Temperatur ist gleich dem Quotienten aus Gesamtenergieänderung und Entropieänderung eines Systems!
T = dE/dS

Gruß EMI

Uli 21.06.08 19:18

AW: Entropie in der Informationstheorie
 
Interessant ist auch die Definition der Entropie in der statistischen Mechanik - proportional (über die Boltzmann-Konstante) zum Logarithmus der Zahl der Zustände die ein System annehmen kann. Siehe z.B.
STATISTISCHE DEFINITION DER ENTROPIE

Gandalf 22.06.08 08:35

AW: Entropie in der Informationstheorie
 
Moin
@Uranor
Zitat:

In welcher Suppe werden denn conterkausale Sprünge beobachtet?
Ich sprach an keiner Stelle von "conterkausal" (Ich dachte das Thema hatten wir bereits durch: Es gibt neben energetische kausalen Zusammenhängen auch andere (kausale) Zusammenhänge, die keine zeitliche Gerichtetheit voraussetzen)

Uranor 22.06.08 10:39

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Gandalf (Beitrag 21429)
Ich sprach an keiner Stelle von "conterkausal" (Ich dachte das Thema hatten wir bereits durch: Es gibt neben energetische kausalen Zusammenhängen auch andere (kausale) Zusammenhänge, die keine zeitliche Gerichtetheit voraussetzen)

salve Gandalf,

kene ich andere (kausale) Zusammenhänge? Im Moment muss ich passen. Was wäre da zu nennen?

JGC 22.06.08 10:44

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Uranor (Beitrag 21406)
Ist nicht schwierig. Die Aussage ist einfach falsch, sonst nix. Denn:


Mein Voltmeter ist das Zentrum. Beobachte den mal, wenn sich Lula nähert.

Alles andere stilisierst du künstlich und unangemessen zu deiner Persönlichkeit hoch. Das kannst du so annehmen. Wenn du es richtig handhaben würdest, wär das OK. Wie auch immer, bring mal bissele Abwechslung in deine eingebrachten Perspektiven.

Gruß Uranor



Hi Uranor..


Hör mal.. Weder dein "Voltmeter noch deine "Lula" noch sonst wer steht in deinem Zentrum..

Das bist nur alleine DU mit deiner Moment-Wahrnehmung!! (Die in jedem Augenblich sämtliche Inputkanäle deines Körpers ansprechen.. Du siehst, hörst, spürst, riechst und schmeckst immer gleichzeitig und interpretierst je nach der Summenverteilung der einzelnen Kanäle und deren jeweiligen Absteaktionen, WIE und WAS du daraus machst.)

Und die ist immer deine direkte "Front off" Draufsicht, mit der du deine Wahrnehmungssensor-Oberfläche konfrontiert siehst..(direkter senkrechter Reiz-Einfall)

Alles andere ist "Seitenansicht"..

Schau doch mal in ein technisches Zeichnen-Buch rein und studiere doch mal die Sonderfälle von geometrischen Darstellungen...

Es gibt Objekte, die durchaus auch sehr komplex sein können und sehen von der Seite, von oben von Vorne und von hinten immer gleich aus, während die allermeisten Objekte immer verschieden in Erscheinung treten..

JGC

Uranor 22.06.08 13:20

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21432)
Hör mal.. Weder dein "Voltmeter noch deine "Lula" noch sonst wer steht in deinem Zentrum..

Das will ich meinen. Nicht mal der Nabel steht in meinem Zentrum.

Zitat:

Das bist nur alleine DU mit deiner Moment-Wahrnehmung!! (Die in jedem Augenblich sämtliche Inputkanäle deines Körpers ansprechen.. Du siehst, hörst, spürst, riechst und schmeckst immer gleichzeitig und interpretierst je nach der Summenverteilung der einzelnen Kanäle und deren jeweiligen Absteaktionen, WIE und WAS du daraus machst.)
Wir behandeln hier allerdings nicht Hirnforschung sondern Messergebnisse, Überlegungen und so.

Zitat:

Und die ist immer deine direkte "Front off" Draufsicht, mit der du deine Wahrnehmungssensor-Oberfläche konfrontiert siehst..(direkter senkrechter Reiz-Einfall)
Ist bei mir sowieso anders. Nicht mal bei NATO-Luftübungen dominiert das senkrechte.

Zitat:

Alles andere ist "Seitenansicht"..
Mach das nicht so streng. Der Vektor ist uninteressant. Im Geschehens-Ensemble ermittelt man den sowieso.

Zitat:

Es gibt Objekte, die durchaus auch sehr komplex sein können und sehen von der Seite, von oben von Vorne und von hinten immer gleich aus, während die allermeisten Objekte immer verschieden in Erscheinung treten..
Beispiele?


Gruß Uranor

Gandalf 22.06.08 16:51

AW: Entropie in der Informationstheorie
 
@Uranor
z.B. die Ursache in der "Idee"
http://de.wikipedia.org/wiki/Causa_formalis

die Stoffursache
http://de.wikipedia.org/wiki/Causa_materialis

Und die 'Zweckursache', die sogar "teleologisch zu interpretieren ist"
http://de.wikipedia.org/wiki/Causa_finalis

Die einseitige Fixierung der Naturwissenschaften auf die "causa efficiens" beraubt uns hier möglicher Lösungswege, wenn es die zeitlich ungerichteten Zusammenhänge in der QT zu untersuchen gilt (z.B. bei der sogen "spukhaften Fernwirkung")

Des weiteren: wie sind Emergenzen in den Setzkasten einer energetischen Kausalkette einzufügen?
http://de.wikipedia.org/wiki/Emergenz

Uranor 22.06.08 18:27

AW: Entropie in der Informationstheorie
 
@Gandalf,

Causa formalis möchte ich als energetisch auffassen. Die Erzeugung der Statuenform erfordert Energie. Bei der Hirnarbeit dürfte das offensichtlich sein. Schachmeister nehmen innerhalb eines Turniert rd. 1 Kg Gewicht ab.

Bei natürlicher Formung dürfte es allderdings schwierig erkennbar werden. Eine natürliche Stonehenge-Form wird durch Felsrutsch, Materialabrtagungen (Erosion) verursacht sein. Das forderte Bearbeitungsenergie. Die Frage, ob man der Selbstorganisation in der Natur Causa formalis zubilligen mag, dürfte sich vor allem subjektiv (Auffassung) stellen. Lässt sich hier faktisch argumentieren?


Causa materialis kann ich erst mal nicht zuordnen. Die Bronze besteht aus Bronze. Deren Herkunft ist energetischer Natur. Doch welchen Bezug stellt sie für die Statue dar? Genügt zur Betrachtung nicht Causa formalis?


Causa finalis verstehe ich als Causa formalis. Die Idee beinhaltet eine Zweckvorstellung. In der Natur gibt es Causa finalis nicht. Der Felsen ist Bestandteil des Berges. So etwas ist wertfrei.


Ergänzen sich Causa formalis und Causa efficiens nicht? Wasser in der Höhle arbeitet an der Verwirklichung einer Tropfsteinhöhle.


Wie könnte der spukhaften Fernwirkung beizukommen sein? Wenn ein Plänchen gelingt, lässt sich das anbieten. Das Thema dürfte alllgemein bissele nervös machen. "Es ist halt so!" ist doch eine Stammtisch-Aussage, aber keine physikalische.


Zu den Emergenzen könnte ich nicht meh rsagen als "Guck mal da!" :p Ja, das war jetzt eine H-Detonation. Ein Spaltbombenpilz wäre anders geformt. Was soll's? Mönschlein spielen mit sowas, edal, ob es nun gut war oder saudoof.


Gruß Uranor

JGC 22.06.08 19:56

AW: Entropie in der Informationstheorie
 
@Uranor..


Beispiele?

z.B... die einfacheren, mit verschiedenen Ansichts-Darstellungen...

http://www.tzinfo.de/raum1.pdf

http://www.tzinfo.de/raum2.pdf

http://www.tzinfo.de/uebung4.pdf

dann schon schwierigere Asichts-Optionen zwecks Fluchtgeometrien..

http://www.zeichenclub.de/grundkurs/...fluchtpkt.html

und hier die täuschenden Ansichten in 3d

ftp://www.clausschekonstanten.de/sch...nansichten.gif


Es geht also nur darum, aus welcher Perspektive zur eigenen Frontal-Stellung ein Geschehen von dir/uns aus beobachtet werden kann..

Und dann stell dir vor, all diese Ansichten würdest du nun auch noch relativistisch verzerrt zu sehen kriegen.. Dann ist es Aus mit der "wahren" Interpretation, wenn du diese Objekte dann nicht "besuchen" kannst, um sie direkt vor Ort zu betrachten.

(Ich hatte mal ein paar Rätzel-Ansichten aus meiner Maschinenschlosser-Lehre, die ohne wirkliche Abstraktionsvermögen kein Mensch interpretieren konnte und als Gag in eine Prüfung mit eingeflossen ist... Wäre froh, wenn ich sie jetzt zeigen könnte)

JGC

Uranor 22.06.08 22:22

AW: Entropie in der Informationstheorie
 
JGC,

das mit den Ansichten ist doch völlig normal. Du veränderst den Betrachtungswinkel, schaust in Stereo, da geht schon einiges an Abstraktheit verloren. Bauzeichnungen können wegen ihrer Strenge tatsächlich nicht unbedingt verstanden werden.

Vor allem spielt die Perspektive für passende Berufe eine wichtige Rolle. Im Alltag ist man vor allem mit Kräften konfrontiert. Schall, Duftnoten :D , Elektro, Gravitation. Die Geometrie ist da für unsere Beweglichkeit gar nicht das Problem.

Daher irritiert es, dass du immer wieder die Geometrie so hervorhebst. Du bringst das auch bei Kräfte-Themen, wo es ansich vollkommen gegenstandslos ist. Man kennt es schon auswändig und weiß immer noch nicht, wieso das so eminent wichtig sein soll. Gravitation etwa wirkt durchdringend und immer wieder gleich. Etwa einen Sprung vom 10m Turm ins leere Becken oder mit Bauchklatscher ins gefüllte Becken wird man grundsätzlich vermeiden, da es meist nur einmal je Kandidat möglich wäre.

Gruß Uranor

JGC 22.06.08 22:40

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Uranor (Beitrag 21462)
JGC,

das mit den Ansichten ist doch völlig normal. Du veränderst den Betrachtungswinkel, schaust in Stereo, da geht schon einiges an Abstraktheit verloren. Bauzeichnungen können wegen ihrer Strenge tatsächlich nicht unbedingt verstanden werden.

Vor allem spielt die Perspektive für passende Berufe eine wichtige Rolle. Im Alltag ist man vor allem mit Kräften konfrontiert. Schall, Duftnoten :D , Elektro, Gravitation. Die Geometrie ist da für unsere Beweglichkeit gar nicht das Problem.

Daher irritiert es, dass du immer wieder die Geometrie so hervorhebst. Du bringst das auch bei Kräfte-Themen, wo es ansich vollkommen gegenstandslos ist. Man kennt es schon auswändig und weiß immer noch nicht, wieso das so eminent wichtig sein soll. Gravitation etwa wirkt durchdringend und immer wieder gleich. Etwa einen Sprung vom 10m Turm ins leere Becken oder mit Bauchklatscher ins gefüllte Becken wird man grundsätzlich vermeiden, da es meist nur einmal je Kandidat möglich wäre.

Gruß Uranor

Du fragst dich wirklich, warum ich das mache?


Weil genau diese ganzen möglichen Sichtperspektiven jeweils durch hohe Beschleunigungen und hohe Dillationseffekte so dermaßen verzerrt werden, das im schlimmsten Falle der Beobachter genau das Gegenteil der Wirklichkeit "sieht" und als "wahr" betrachtet...

Viele Ungereimtheiten in der Physik würden nicht nötig sein, wenn man manche Dinge nicht immer so stur und eng sehen würde, wie z.B. der "nichtexistierende" Äther oder die Gravitation, die eigentlich einem Druck entspringt..

Aber inzwischen sehe ich im Netz immer öfters, das grundlegende Dinge doch immer öfters hinterfragt werden. Mal sehen was dabei letztlich herauskommt. Selbst Einstein war sich nicht wirklich sicher, was er da so postulierte. Das jetzt so ein riesen Rummel um ihn gemacht wird, das hätte er selbst bestimmt nicht so gewollt.

JGC

Uranor 22.06.08 23:32

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21465)
Weil genau diese ganzen möglichen Sichtperspektiven jeweils durch hohe Beschleunigungen und hohe Dillationseffekte so dermaßen verzerrt werden, das im schlimmsten Falle der Beobachter genau das Gegenteil der Wirklichkeit "sieht" und als "wahr" betrachtet...

Wann sind wir schon mal mit Ditalationseffekten konfrontiert? Passiert nur, wenn Lula mal wieder zur relativen Verjüngungskur losdüst. ;) Man bekommt da durch die Diskussionsthemen einen hoffnungslos überzogenen Eindruch. Aus der Praxis fällt mir nix ein.

Und selbst wen da mal was vorkäme, ist doch uninteressant, ob man mal 'n bissele LK-gestutzt sieht. Das ist Natur und würde sicher nicht weh tun.


Zitat:

Viele Ungereimtheiten in der Physik würden nicht nötig sein, wenn man manche Dinge nicht immer so stur und eng sehen würde, wie z.B. der "nichtexistierende" Äther oder die Gravitation, die eigentlich einem Druck entspringt..
Das sind keine Sichtverzerrungen sondern persönliche Ansichten. Du verstehst z.B. Äther, Vakuum und Gravitarion offenbar vollkommen falsch. Auf versuchte Korrekturen reagierst du gar nicht.

Ole. Wenn das sogar dir passiert, was erhoffst du da von Physikern? :D ;)

Zitat:

Aber inzwischen sehe ich im Netz immer öfters, das grundlegende Dinge doch immer öfters hinterfragt werden. Mal sehen was dabei letztlich herauskommt. Selbst Einstein war sich nicht wirklich sicher, was er da so postulierte. Das jetzt so ein riesen Rummel um ihn gemacht wird, das hätte er selbst bestimmt nicht so gewollt.
Die Perspektive kommt schon mal gut. Das Gedönz um Einstein ist ohnehin künstlich. Wieviele der "Lärmpegler" haben sich schon als Nationalsozialisten geoutet? Fertige Leute, mit denen man sich nicht zivilisiert unterhalten kann. Normal ist nur Forschung und immer wieder die Falsifizierungsmühe.

Wie gesagt, alles halb so wild. Kann was dran sein?

Gruß Uranor


Alle Zeitangaben in WEZ +1. Es ist jetzt 15:24 Uhr.

Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm