|
Theorien jenseits der Standardphysik Sie haben Ihre eigene physikalische Theorie entwickelt? Oder Sie kritisieren bestehende Standardtheorien? Dann sind Sie hier richtig. |
|
Themen-Optionen | Ansicht |
#41
|
||||
|
||||
AW: Zipfelsinn III
@marco
Der Vergleich hinkt etwas , denn es gibt kaum Fouriertransformationskritiker. Oder Wiener-Chintschin Kritiker. |
#42
|
||||
|
||||
AW: Zipfelsinn III
Zitat:
Stimmt. Die müsste man wohl mit der Lupe suchen. Fakt dürfte aber sein: Je weniger Fachleute anwesend sind, desto weniger Beteiligung bei komplexeren Themen. Gr., MP |
#43
|
||||
|
||||
AW: Zipfelsinn III
Zitat:
Zitat:
Wenn ich eine einfache Abbildung auf die Zufallsvariable ausfuehre, aendere ich deren Verteilungsfubktion. Z.B. mit der Inversiosnmethode http://de.wikipedia.org/wiki/Inversionsmethode Mit einfach meine ich , dass nur der aktuelle Wert abgebildet wird. Und bei der Vorgehensweise aendere ich die Korreltation doch offenbar nicht zwingend. Zu verschiedenen Verteilungen wuerde dann die selbe AKF gehoeren. Erst wenn ich benachbarte Werte fuer die Abbildung heranzuehe, wie beim fraktionalen Integral, oder wenn ich einfach Mittelwerte bilde, werden im Ergebnis die Werte eine statistische Abaengigkeit aufweisen. Wenn physikalische Prozesse nun tatsaechlich eine 1/x Verteilung UND ein 1/f Spektrum aufweisen (was wir noch nicht geklaert haben) so muesste beides Konsequenz einer uebergeordneten Ursache sein. In all dem bin ich mir aber noch nicht sicher. |
#44
|
||||
|
||||
AW: Zipfelsinn III
Hi
@Hamilton Meine Anfrage nach einer FFT fuer Maple hat sich erledigt. Hier gibt es eine prima Seite mit Maple Routinen. http://peterstone.name/Maplepgs/maple_index.html Zwischenergebnis ************* So ganz traue ich meinen numerischen Versuchen noch nicht. Aber ich meine folgende Aussagen unter Vorbehalt treffen zu koennen. 1) DER MAPLE RND GENERATOR liefert keine perfekt gleichverteilten Zufallswerte. 2) DAS PERIODOGRAMMD scheint mir das selbe wie das Betragsquadrat der DFT der Zeitfunktion. Und die Ergebnisse bei Zufallssignalen entspricht nur bedingt der theoretischen Erwartung. Eine DFT der AKF bringt hier auch nur kaum eine Verbesserung. Mit geeigneteren Methoden sind vielleicht die moderneren adaptiven Parameter Spektralschaetzungsverfahren gemeint, wie der Burg Algorithmus. 3) Uber die FRAKTALE Integration erzeugtes rosa Rauschen scheint eine Gauss Verteilungsdichte aufzuweisen. Das Spektrum folgt naehrungsweise einer 1/f Verteilung. Immerhin :-) 4) DIE LOGISTISCHE GLEICHUNG weist nahe (1 + SQRT(8)) eine 1/X Verteilungsdichte auf. Aber NICHT wie man aus den von mir hier verlinkten Seiten meinen koennte ein 1/f Spektrum ! Leider, denn das waere sonst ein prima rosa Rauschgenerator. Der Vergleich muss also scheinbar als Analogon verstanden werden. So entspricht zum Beispiel ein Wort mit hoher Auftrittswahrscheinlichkeit einer tiefen Frequenz. Diese ist also nicht die Wortfrequenz. Man koennte dies auch so vormulieren : Ein Wort mit niedrigem Shannonschen Informatiosgehalt enspricht einer niedrigen Freqzenz. Bemerkenswert ist noch, dass die AKF bei 1/X Verteilung nahezu konstant ist. Interessant waere ob es moeglich ist einen 1/X und 1/f Zufallgenerator zu konstruieren. Ebenso einen 1/f Generator anhand eines physikalischen Modells. Viele Gruesse richy Ge?ndert von richy (17.09.08 um 21:14 Uhr) |
#45
|
||||
|
||||
AW: Zipfelsinn III
Zitat:
Du kannst nicht einfach Wörtern eine Frequenz zuordnen, jedenfalls nicht so.
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun." Richard P. Feynman
|
#46
|
||||
|
||||
AW: Zipfelsinn III
Man kann Aepfel schon mit Birnen vergleichen. Im Rahmen einer Analogie.
Aber dann muss man explizit darauf hinweisen. Und das wurde hier versaeumt: WIKI http://de.wikipedia.org/wiki/1/f-Rauschen Zitat:
In der englischsprachigen Version allerdings nicht : Zitat:
Aber dagegen scheint hier fast unmissverstaendlich tatsaechlich vom Leistungsdichtespektrum die Rede : http://books.google.de/books?id=5Z7E...sult#PPA152,M1 Zitat:
Das steht : immitenten Uebergang der dreier Periode ins Chaos, ich habe bei 1 + Wurzel(8) gemessen dem Uebergang vom Chaos in die dreier Periode. Da muss ich also nochmal ran. Was haelts du von den obigen Aussagen ? Ge?ndert von richy (17.09.08 um 23:22 Uhr) |
#47
|
||||
|
||||
AW: Zipfelsinn III
Nun, die Beispiele aus den Zitaten, Herz-Rhythmus, Random-Walk ...
das sind alles Zeitreihen- Zeitdiskrete Zahlenfolgen. Du willst das aber auf eine Sequenz von Wörtern anwenden und das ist etwas anderes. Ich glaube auch, dass doeser Exkurs nicht so viel bringt? Warum gehst du jetzt schon seit einiger Zeit so sehr auf Periodogramme ein- ich denke, es geht um ein Informationstheoretisches Maß -- dafür sind die Verteilungen p(x) interessant, aber nicht irgendwelche Frequenzen?!
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun." Richard P. Feynman
|
#48
|
|||||
|
|||||
AW: Zipfelsinn III
Hi Hamilton
Zitat:
Zitat:
Zitat:
Will man ein Buch statistisch erfassen, so kann man jedem Wort ueber dessen Auftrittswahscheinlichkeit eine Zahl zuordnen. Aus dem Buch wird eine Zeitreihe. Ich messe die Auftrittswahrscheinlichkeit der Merkmale und kann eine Verteilung erstellen. Damit beschaeftigen sich Linguistiker tagtaeglich. Auch ich habe bisher immer nur Verteilungen untersucht. Wie soll ich aber aus der Verteilung, wie in obigerm Zitat, uebehaupt auf eine Leistungsdichtedpeltrum schliessen ? Dazu muss doch die Zeitreihe selbst, nicht die Verteilung untersucht werden. Ich habe hier die selben Zweifel wie du. Und auf die entsprechenden Links bin ich gestossen, weil ich deinem Vorschlag des Periodogramms im Zusammenhang mit 1/f Rauschen nachgegangen bin. "Physikalische" Werte fuer ein Wort waere dessen Auftrittswahrscheinlichkeit, oder shannonscher Informationsgehalt, damit auch dessen Klassennummer in der sortierten Verteilung. Oder auch die Wortlaengen . So bin ich auch bisher vorgegangen. Ein Text ist dann eine Folge von Auftrittswahrscheinlichkeiten oder Informationsgehalten. Erst dann kann ich konkret sagen welche Groesse hier zum Beispiel eine Periodizitaet aufweist. Daher geht dein Einwand vielleleicht in die richtige Richtung : Zitat:
Ich will z.B nur wissen ; Warum existiert das Zipfsche Gesetz. Und habe auch schon fast eine Antwort gefunden. (Dazu spaeter) Zum Periodogramm: Es ist in der Tat gleichgueltig ob ich auf eine Zeitfunktion eine DFT anwende und hieraus das Betragsquadrat bilde oder die DFT auf die AKF anwende. Beides fuehrt zum Periodogramm (Betrag der FT) und ist bei Zufallssignalen zunaechst eine voellig ungeeignete Methode der Schatzung ! Wer misst misst Mist. Es gibt zwei Versionen der AKF. V1) Ist ertungswerttreu, dafuer ist die Varianz falsch wiedergegeben. V2) In der zweiten Version naehert sich die Varianz mit zunehmender Anzahl von Abtastwerten der realen Varianz. Dafuer ist der Erwartungswert voellig falsch. Ich habe die AKF V2) benutzt, da fuer meine Betrachtungen absolute Erwartungswerte zunaechst keine Rolle spielen. Ein Periodogramm ist eine DFT der Version V1 Und du hattest Recht. Die Fensterrung spielt hierbei eine groessere Rolle. In etwa akzepzabel bezueglich Erwartungs und Varianztreue wird die Schaetzung wenn ich mehrere Periodogramme mittele und dabei Welch Fenster und Bartlett Fenster benutze. Dennoch ist das Ergebnis eher bescheiden. Grosse Genauigkeiten erhaelt man mit adaptiven Modellen wie dem Burg Algorithmus. Die dahinter stehende Mathematik ist recht schwierig. Die Implementation weniger, so dass ich den Algo in den 80 ern sogar mal auf dem Taschenrechner programmiert habe. Der Burg Algo waere also das geeignete Hilfsmittel fuer spektrale Schaetzungen. http://books.google.de/books?id=WIC4...um=2&ct=result (BTW das Buch ist von meinem damaligen Prof. Pruefungsstoff zur digitalen Signalverarbeitung. Aus dem habe ich auch die ganzen Infos) Den C-Quellcode gibt es in "Nuemerical Recipes in C" http://www.fizyka.umk.pl/nrbook/c13-6.pdf In dem Buch steht alles was man jemals braucht. Kostenlos hier online : http://www.fizyka.umk.pl/nrbook/bookcpdf.html Ich hab vor 15 Jahren noch 120 DM dafuer geblecht. Dafuer gabs alle Quellcodes auch auf Diskette. Zitat:
Und im folgenden Beutrag versuche ich mal die Ursache des Zipfschen Gesetzes anhand des 1/f Spektrums zu skizzieren. Ge?ndert von richy (20.09.08 um 00:12 Uhr) |
#49
|
||||
|
||||
AW: Zipfelsinn III
Skizze der Ursache des Zipfschen Gesetzes.
Im folgenden mochte ich ueber Analogien zum 1/f Spektrum eine Erklaerug fuer das zipfsche Gesetz finden. Ausgangspunkt soll die Erklaerung des 1/f Rauschens physikalischer Prozesse sein. Hier zunaechst eine schoen Grafik dazu : Im folgenden Link gibt es einen Erklaerungsversuch fuer das 1/f Rauschen : http://books.google.de/books?id=sB_e...esult#PPA88,M1 Wichtige Punkte : 1) Bei, 1/f Rauschen ist die spektrake Gesamtleistung in einer log Slakierung, musikalisch also z.B einer Oktav konstant. S(f)=c*Integral(1/f df) = c*ln(f2) - ln(f1) = c*ln(f2/f1) Ist f2/f1 konstant so ist S(f) konstant ! In jedem Oktavintervall des Systems steckt somit die selbe Leistung. S(200 Hz / 100 Hz) = S( 2000 Hz / 1000 Hz) entspricht 3 dB wobei der Frequenzbereich einmal aber im ersten Fall 100 Hz sind und im zweiten Fall 1000 Hz. ist. Bei WIKI ist das schlecht (ohne Integration) erklaeet. 2) Es muss sowohl eine untere Grenzfrequenz fu als auch eine obere Grenzfrequenz fo geben, da die Leistung nicht unbegrenzt sein kann. 3) Da der ln fuer grosse Argumente von allen Verteilungen am langsamsten waechst, ist die 1/f Verteilung enegetisch am guenstigsten zur Ueberdeckung grosser Frequenzbereiche Die Fiktion wieisses Rauschen natuerlich ausgeschlossen. => Steht einem physikalischen System ein begrenzter Energievorrat zu Verfuegung und wird dieser ueber einen grossen Frequenzbereich verteilt, so ist mit 1/f Rauschen zu rechnen. Unter Beachtung von 2. Analogien zur Linguistik : ****************** a) Die spektrale Leistungsdichte enspricht zunaechst allgemein dem sprachoekonomischen Aufwand fuer eine Wahrscheinlichkeitsklasse von Woertern. Dieser Aufwand setzt sich aus mehreren Teilen zusammen. a1) Beispielsweise enem physikalischen Anteil, Aufwand wie der Wortlaenge. Um ein langes Wort zu formulieren benoetige ich mehr Energie als ein kurzes. (Sollen beide Woerter in gleicher Zeit formuliert sein, mehr Leistung) Daraus ergibt sich schon folgender Schluss : Haeufig verwendete Woerter muessen kurzer sein : Schaen wir einfach mal nach : Zitat:
Die "Donaudampfschiffahrtsgesellschaft" wird selten verwendet. a2) Ein weiterer Aufwand ist die Auftrittwahrscheinlichkeit eines Wortes. Damit auch dessen Shannonscher Informationsgehalt. Je goesser die Auftrittswahrscheinlichkeit ist, umso geringer ist der Informationsgehalt. Beispiel: Wenn man stottert uebersteigt die geistige Informationsmenge den Uebertragungskanal. Man senkt dem Informationsgehalt durch Wiederholung der selben Woerter. Ebenso erfuelllen Fuellwoerter wie ahee .. diesen Zweck. b) Die Wortfrequenz ergibt sich aus der Haeufigkeit des Wortes. Sie kann aber nicht ! der Frequenz der Leistungsdichte entsprechen, wenn ich die Auftrittswahrscheinlichkeit betrachte. Denn haeufige Woerter haben eine hohe Frequenz, aber geringen Aufwand, Entropie, Leistung. c) Die Gesamtleistung entspricht dem Gesamtaufwand eines Textes u.a. auch dessen SHANNONSCHEN Informationsgehalt. d) Die Evolution der Sprache oder desses Erlernen muss gesondert beruecksichtigt werden. (Mache gerade mal ne Pause) Ge?ndert von richy (19.09.08 um 20:44 Uhr) |
#50
|
||||
|
||||
AW: Zipfelsinn III
Fangen wir bei d) an :
Wie erlent ein Kind eine Sprache ? Zuerstmal hat man, wenn man noch sehr jung ist gar nicht viel zu sagen. Damit muss in der Kindersprache nur wenig Shan.Info uebertragen werden. Die Woerter werden kurz und haufig sein. Z.B : Da da da , dada dada Oder schon mit hoeherer (wenn man will semantischer) Information : Mama Papa. Wohl kein Zufall, dass dies in sich phonetische Wiederholungen (von Ma,Pa)sind. BTW: Man muss hier keinen strengen shannonschen Infogehalt verwenden. Anschaulicher waere der Begriff des "Sprachaufwands", den ich im folgenden als Sa bezeichne. Sa ist eine Funktion der Haeufigkeit der Wahrscheinlichkeitsklasse Sa(p(k)). Ein Wort, dass man schon sehr oft benutzt hat ist auch mit weit geringerem Aufwand aus dem Gedaechtnis abrufbar als ein seltenes Wort. Und auch hier kein Zufall , dass Stotterlaute wie dadada oft aus der Kindersprache stammen. Warum ist aehhh ? eigentlich so beliebt ? Empirisch koennte man angelehnt an Shannon folgendes Maß angeben : Pa(p)= c*ln(1/p) + f(Wortlaenge) + g(anderer Aspekte) Weitere Entwicklung der Sprache : Der naechste Schritt wird es sein zwei unterschiedliche Phoneme zu verbinden : "Auto" oder laengere Phoneme zu verwenden : "Haus, Maus" Mit zunehmendem Alter steigt der zu uebermittelnde Informationsgehalt und damit wird auch der Aufwand der Codierung steigen. Es werden auch seltenere, speziellere Woerter und nach 1) damit aufwendigere Woerter verwendet. Dies ist etwas anders als bei der Vereinbarung eines Computercodes. Hier steht die Aufgabenstellung der Shan. Infogehalt von vornerein schon fest. http://evolutionslehrbuch.wort-und-w...08-02-z01.html Wobei aber auch der Aspekt des Aufwandes auch hier beruecksichtigt wird : Zitat:
Es waere nicht effizient bereits erlernte Woerter wieder zu vergessen und die Codierung zu aendern. Und damit enthaelt eine Sprache keine gleichverteilten Wortwahrscheinlichkeiten. Die kurzen haeufigen Phoneme der Kindersprache werden beibehalten. Un dies ist praktisch, denn diese enthalten wenig Informationsgehalt und das bei geringem Aufwand Sa(p) Im Prozess des Erlernens der Sprache kommen immer mehr neue Haufigkeitsklassen hinzu, mit abnehmender Auftrittswahrscheinlichkeit. Beim Leistungsspektrum physikalischer Vorgaenge folgt die 1/f Verteilung hauptsaechlich auch aus der konstanten Leistung pro Oktav, Frequenzverhaeltnis. S(f)=c*Integral(1/f df) = c*ln(f2) - ln(f1) = c*ln(f2/f1) Im Gegensatz dazu sind Haeufigkeitsklassen der Sprache disketisiert. Berechnungen dazu in Kuerze .... Ge?ndert von richy (22.09.08 um 11:41 Uhr) |
Lesezeichen |
|
|