Einzelnen Beitrag anzeigen
  #166  
Alt 28.08.11, 19:48
Benutzerbild von ingeniosus
ingeniosus ingeniosus ist offline
Profi-Benutzer
 
Registriert seit: 14.04.2008
Ort: Wien
Beitr?ge: 185
ingeniosus eine Nachricht ?ber Skype™ schicken
Standard AW: Entropie in der Informationstheorie

Zitat:
Zitat von Hamilton Beitrag anzeigen
Der Informationsbegrif aus der Inf.Theorie ist also was ganz anderes als unser alltäglicher Gebrauch des Wortes Information. Er sagt nämlich nichts über die Verwertbarkeit von Information aus, sondern eher etwas über die "Überrschung" über ein Ereeignis.

Jein, Hartley und Shannon - haben als erste die Unwahrscheinlichkeit=den Neuheitswert festgelegt. Hartley hat erstmals das Wort Information in die Physik geholt.

Sie verwendeten dazu das 2-wertige Bit für die Signale die entweder ankamen oder nicht. Man darf nicht vergessen, zu jener Zeit war Morsen und Telefonieren der letzte Schrei der Technik. Eine mathematische Berechnung mittels Logaritmus und Wahrscheinlichkeit galt als genial.

Nur wenige Jahre später wurde aber dieser Informationsbegriff bereits lächerlich gemacht, weil er eben mit der Umgangssprache nicht vereinbar war.

In der heutigen Informationswissenschaft sehe ich eher beide Festlegungen inbegriffen:
Man kann festlegen: INFORMATION ist das, was der Mensch aus aufgezeichneten Daten (Schriften) für sich herausliest, in sich verarbeitet und wieder weitergibt.
Ursächlich ist also der Mensch dabei.
Das erleichtert den Umgang mit dem Wort Information sehr. Die rein mathematische Definition wird dabei ein kleines mögliches Detail für ganz spezielle Reduktionen.

Entropie hat heute eher seine grosse Bedeutung aus der Physik vor dem Begriff und durch den Begriff Information verloren.
__________________
ingeniosus
-------------------------------------------------------
Hat der menschliche Geist ein neues Naturgesetz bewiesen, ergeben sich mit Sicherheit (Wahrscheinlichkeit=1) sofort neue Fragen und Unklarheiten!
Mit Zitat antworten