|
Theorien jenseits der Standardphysik Sie haben Ihre eigene physikalische Theorie entwickelt? Oder Sie kritisieren bestehende Standardtheorien? Dann sind Sie hier richtig. |
|
Themen-Optionen | Ansicht |
#1
|
|||
|
|||
Performance Probleme
Hallo,
ich bin neu hier und habe beruflich viel mit Wellen und Frequenzen zu tun. Als Tontechniker kann ich meine Hypothese jedoch nicht in eine wissenschaftliche Form bringen, will es einfach mal hier versuchen ;-) Natürlich basiert sie auf einfachen Beobachtungen aus dem Alltag, interessiere mich zwar für Teilchenphysik, mehr als ein paar Bücher aus der Uni habe ich bisher aber nicht darüber gelesen. Die Idee ist, dass alle Einschränkungen wie maximale Geschwindigkeit von C, Trägheit, Raumzeitkrümmung durch Masse / Beschleunigung (also Gravitation) einfach ein Performance-Problem darstellen. Im Prinzip stellt das (dieses) Universum einen bestimmten Teil an Rechenleisung zur Verfügung. Wird mehr Performance zur Berechnung der Ereigisse benötigt, so laufen alle "Prozesse" in diesem Bereich langsamer ab. Am Rande eines Schwarzen Loches z.B. wird so viel Rechenleistung zur Berechnung der Ereignisse benötigt, dass die Zeit für den Beobachter still steht. Bei erhöter Masse oder Beschleunigung ist hier das Berechnen der Wechselwirkung von Elementarteilchen aufwendiger, um alle Berechnungen durchführen zu können wird mehr Zeit in Anspruch genommen. Das Verursacht eine Raumzeitkrümmung, also die Gravitation. Das ständige Entstehen Virtuelle Teilchen wären eine Art "Leerlauf-Prozess". Da auch im Vakuum stets Teilchen entstehen, kann die Zeit nicht unendlich schnell ablaufen. Hoffe, die Idee ist anschaulich, beste Grüsse, Andre Ge?ndert von AndreD (14.07.08 um 14:07 Uhr) |
#2
|
|||
|
|||
AW: Performance Probleme
Du müsstest klären, ob die Ebene der Performance-Berechnungen (digital oder wie auch immer) ebenfalls in der selben reellen Ereignisszeit (---raum) abläuft wie die ebenso reellen "nur-physikalischen" Prozesse.
Sind die "Rechenprozesse" und die allgemeine Dynamik in ein und demselben Kontinuum beheimatat ? ==> ==> Ist ein ontologischer Unterschied zwischen der physikalischen und der performierenden Ebene ? Wenn Ja, braucht die relativistische Zeitdehnung kein "Recheneffekt" zu sein. Performance wäre ja sonst abhängig von ihrem eigenen Erzeugnis, der Raumzeit ! Die Performance-Berechnungen (wie du es sehen dürftest) scheinen Raum und Zeit eher zu erzeugen, als von ihnen abhängig zu sein.(deswegen ist die Zeitdehnung als Matrix-bedingtes Phänomen ad absurdum zu führen.) Wenn hingegen "Performance-Computing" von der gleichen Art wie Raumzeitliches sein sollte, wäre ersteres logisch eliminierbar. Pythagoras
__________________
Du mich nix verstehen...ächz! |
#3
|
||||
|
||||
AW: Performance Probleme
Du bist Animateur in einem Strandhotel?
Spass beiseite. Ohne jetzt ins Detail gehen zu wollen. Dein Ansatz ist zwar recht interessant (ich übertreibe vielleicht ein wenig), mit der Realität hat das aber imho weniger zu tun. Wenn du mich fragst, solltest du deinen Ansatz aber ganz schnell wieder vergessen. Ist aber eher so ein Bauchgefühl von mir. Lass dich also nicht einschüchtern. Vielleicht liege ich ja auch komplett daneben. Hast du vielleicht noch mehr Einzelheiten in Petto? Gruss, Marco Polo |
#4
|
||||
|
||||
AW: Performance Probleme
Hallo Andre! - auch ein Willkommen von mir
Zitat:
Zitat:
Zitat:
(Für den 'internen' Beobachter, der sich auf den Ereignishorizont zu bewegt, vergeht ja die Zeit nicht langsamer - im Gegenteil, wenn er seinen 'Blick zurück' richtet, "vergeht" im wahrsten Sinne des Wortes - alles andere "da draußen"- rasend schnell... (ich hab noch weitergehende Vorstellungen zu dieser Thematik, - würde aber erst mal hören, was Du zu den bisherigen Erwiderungen sagst) Grüße
__________________
Warum soll sich die Natur um intellektuelle Wünsche kümmern, die "Objektivität" der Welt des Physikers zu retten? Wolfgang Pauli |
#5
|
|||
|
|||
AW: Performance Probleme
Hallo und vielen Dank für Eure Antworten erst einmal.
Hallo Gandalf, ich meine hier den externen Beobachter. Die Elektronen und chemischen Prozesse im Gehirn des Beobachters (sofern diese dann noch funktionieren) sind ja auch von der Zeit-Dilatation betroffen, er kommt sich also ganz normal vor. Ich gehe desweiteren von einem Multiversum aus: Die Wahrscheinlichkeit der eigenen Existenz ist gleich null, wenn man bedenkt, wieviele Elementarteilchen und Energiefelder seit dem Urknall genau das richtige machen mussten damit ich hier heute schreibe. Ich kann meine eigene Existenz mathematisch also theoretisch ausschließen. Nicht so in einem Multiversum. Hier geschieht alles was unter den gegebenen Voraussetzungen möglich ist. Dieses Multiversum ist „event-basiert“. Steht das Multiversum vor einer Entscheidung, so werden stets beide (alle) Versionen „durchgerechnet“. Das Multiversum hat eine eigene Geometrie und enthält alle „Event-Stränge“. (Also alles, was unter den gegeben Voraussetzungen möglich ist) Je unwahrscheinlicher ein Event ist, desto weiter ist er vom Beobachtungspunkt entfernt. Die „Event-Stränge/Event-Strings“ (beobachtbares Universum) stehen untereinander in nur sehr geringer Wechselwirkung: Durch Gravitation (das könnte die fehlende dunkle Materie erklären), Eletromagnetische Kräfte und über Photonen, die bis zum ihrem Aufprall (Wechselwirkung mit andren Teilchen) im Multiversum unterwegs sind und bei uns als Welle in Erscheinung treten (Duales Verhalten). Dem Multiversum steht nur eine endliche Performance-Ressource zur Verfügung. Die Gravitation ist Ursache erhöten Rechenaufwandes des Multiversums. Dies kann sich auf benachbarte Regionen (Orte, deren Event-Strings eng zusammenliegen) auswirken. Bedingt durch die grosse Entfernung im Multiversum kann so z.B. auch keine Supa-Nova Explosion eines anderes String-Events eine messbare Auwirkung auf die Gravitation unseres Universums haben. Dieses Event-String ist zu weit entfernt, um eine messbare Auswirkung auf unser Universum (unser String-Event) zu haben. Generell sollte das jedoch auch für andere Felder wie z.B. elektromagnetische Felder gelten. Die Felder sind sozusagen das Rauschen benachbarter Event-Strings. Im Prinzip ist „unser“ String-Event auch falsch, da es ja extrem viele gibt, nur können einen wahrnehmen. Zusammengefasst: Das Multiversum rechnet alle Möglichkeiten durch, es steht jedoch eine endliche Performance-Ressource bereit. Außerdem kann ich mir nicht vorstellen, dass das beobachtbare Universum „alles“ sein soll. Dafür ist das menschliche Gehirn z.B. einfach zu komplex. So viel Rechenleistung in einem Universum aus etwas Stein, Eis und Gasen und leeren Raums?! Stellt man sich das Universum als „Geflecht“ aller möglichen Ereignisse vor, so wird dieses Multiversum der Komplexität vieler Dinge schon gerechter. Für mich erklärt es die Frage der eigenen Existenz. „Ich kann sein, also bin ich“ Beste Grüße, Andre Ge?ndert von AndreD (14.07.08 um 23:09 Uhr) |
#6
|
||||
|
||||
AW: Performance Probleme
Hi Andre
Mich ueberzeugen deine Argumente eher nicht. Zum einen nimmst du zunaechst mal ein quantisiserte Raumzeit an. Solche Theorien existieren auch bereits. Ich sehe aber ein Problem deines Modells darin, wie du eine Auslastung des Systems begruenden willst. Insbesonders impliziert deine Annahme, dass die Rechenleistung durch die Anzahl der zu verarbeitenden Operationen beeinflusst wird, folgendes : - Dass physikalische Vorgaenge nicht stattfinden sondern im Voraus berechnet und dann realisiert werden. Abgesehen davon dass dann die Frage ofen bleibt wer denn z.B. ein Teilchen an den berechneten Platz positioniert setzt du noch voraus : - Dass diese Berechnungen nicht parallel sondern sequentiell abgearbeitet werden. Also alle anstehenden Berechnungen zunaechst in einem Art Zentralrechner gesammelt werden und die Ergebnisse dann weitergeleitet werden. Und solch eine Vorstellung waere dann wirklich sehr abenteuerlich. Es gibt aber einen weiteren Punkt, der beliebige Geschwindigkeiten ausschliesst, wenn man ein quantisiertes Universum annimmt. Und das waere die Stabilaet einer solchen Simulation. Fuer diese muss erfuellt sein dx/dt < V_max Fuer dx kann man z.B. die Planklaenge einsetzen. Wenn es auch eine zeitliche Diskretisierung gibt muesste die Diskretisierungsgroesse dann auf jeden Fall unter der Plankzeit liegen. Fuer die Heim Theorie hab ich die konkreten Wete mal eingesetzt. Die zeitliche Diskretisierung ist dabei um viele Zehnerpotenzen kleiner als die Plankzeit. Das Arrgument der Stabilitaet wuerde in dem Modell also so gut wie keine Rolle spielen. |
#7
|
||||||
|
||||||
AW: Performance Probleme
Hallo AndreD!
Zitat:
Zitat:
Zitat:
Zitat:
... Zitat:
Wenn man davon ausgehen kann, das der Kosmos (ein einzelnes Universum) unendlich ist, so dürfte das Multiversum nicht enldich sein. Wenn es endlich wäre, müsste man ihm einen konkreten Wert zuweisen können - und das dürfte Probleme bereiten... Im übrigen wäre dies dann das "K.O-Kritierium" für die universelle Turingmaschine, die ein Universum simuliert (berechnet). Wenn aber das Turingprinzip kein universelles Gesetz ist, dann kann 'Deine Theorie der Berechnung' ebenfalls nicht stimmen. Zitat:
Grüße
__________________
Warum soll sich die Natur um intellektuelle Wünsche kümmern, die "Objektivität" der Welt des Physikers zu retten? Wolfgang Pauli |
#8
|
|||
|
|||
AW: Performance Probleme
Hallo,
vielen Dank für die interessanten Antworten erst einmal! Ich werden versuchen, es etwas genauer zu formulieren: Die Beschränkungen der Performance im Multiversum ähnelt denen der klassischen Physik. Jedoch ist hier Zeit und Ort abhängig von der Geometrie des Multiversums, sowie der Raumzeit-Geometrie aller Event-Strings zusammen. Das Multiversum besitzt demnach die uns bekannten Raumzeit-Dimensionen, sowie weiteren Dimensionen die sich aus der Geometrie der Kausalität aller Event-Stränge ergibt. Auswirkung auf unser beobachtbares Universum hat nur die Geschwindigkeit mit der die Berechnungen durchgeführt werden. Unser Universum besteht also aus der Berechnung selbst und aus der Wechselwirkung endlicher Performance Ressource bei Berechnungen aller Event-Strings. Was würde wohl ein Beobachter feststellen, der sich innerhalb, sagen wir mal, einer Klima-Computersimulation befindet.
Zur Unendlichkeit des Universums: Das "Universum" besteht für mich aus dem was wir wahrnehmen können. Meiner Ansicht nach „teilt“ sich das Universum ständig und es werden alle Möglichkeiten durchgespielt, auch wenn nur eine Realität wahrnehmbar ist. „Unser“ Universum ist endlich. Es hat eine bestimmte Menge an Materie und Energie. Die Frage ob das Multiversum endlich sei ist einfach: Natürlich nicht! Es enthält die Summe aller Möglichkeiten aber eben auch nicht mehr. Jedes mögliche Event ist vorhanden, beschränkt duch die Auswirkungen der endlichen Performance. Passend ist das Wort „unendlich“ hier sicher nicht, oder?! Im Prinzip ist die endliche Performance also verantwortlich für unsere Naturkonstanten. Ob es wohl weitere "Mulitversen" mit anderer Performance und anderen Naturkonstanten gibt?! ;-) Beste Grüße, Andre |
#9
|
||||
|
||||
AW: Performance Probleme
Hallo AndreD!
Zitat:
Zitat:
Daher würde mich interessieren: Wie (bzw. an welchem Punkt) kommt dieser Performanceverlust zu Stande, wenn das System "klassisch wird"? Zitat:
Zitat:
Grüße
__________________
Warum soll sich die Natur um intellektuelle Wünsche kümmern, die "Objektivität" der Welt des Physikers zu retten? Wolfgang Pauli |
#10
|
||||
|
||||
AW: Performance Probleme
Hi
Zitat:
Die Performance waere alleine vom Systemtakt abhaengig. In gewisser Weise entspricht deine Vorstellung der von B-Heim. Wobei es sich hier aber mehr um einen holistischen Rechenprozess handelt. Prozeduren sind hier in einem abstrakten Raum vorgegeben. Die Realisation erfolgt ueber die Quantenebene. Letztendlich ist unser direkter Zugangskanal dazu die Zeit. Und dieser Uebertragungskanal ist paralell. Daraus kann man zwar nicht direkt auf eine paralelle Verarbeitung der Daten schliessen. Aber insgesamt hinkt doch an der Stelle ueberhaupt der Vergleich mit einem herkoemmlichen Rechner. Nur weil unsere seriellen Rechner ein Performance Problem haben, kannst du dieses doch nicht gleich auf die Natur uebertragen. Alleine auch schon der Zeitbegriff. Ein Quantenrechner waere auch ein schoenes Beispiel fuer einen Paralellrechner. Allerdings haben wir da nur Zugang auf einen Ein-Ausgangskanal. Mit entsprechenden Algorithmen laesst sich dennoch ein Performancegewinnn erreichen. Wenn ich das Universum schon mit einem Rechner vergleiche, dann doch sicherlich mit einem Paralellrecher. Und da entfaellt dein Argument der Abhaengigkeit der Performace von der Anzahl der Berechnungen. Es ist schon nicht selbstverstaendlich Naturkonstanten in unserem Universum einen zeitlich konstanten Wert zuzuordnen. In Paralelluniversen keonnte diese ganz anders aussehen. Das ist neben der Annahme eines kreativen Schoepfers auch eine Moeglichkeit die Feinabstimmung der Naturkonstanten zu erklaeren. Ueber das antrophische Prinzip. Dieses macht aber nur einen Sinn wenn es nun tatsaechlich mehrere Moeglichkeiten gibt. Diese koennte man sich natuerlich auch zeitlich hintereinander angeordnet vorstellen. Den naechsten Satz Naturkonstanten gibt es also im auf unser folgendes Universum. Das waere aber recht uneffizient.(Nicht fuer uns aber das ganze System eben) Wenn wir Menschen schon in der Lage sind einen Quantenparalellrechner zu bauen, und das scheint sehr wohl moeglich, dann wird das gaze Universum doch diese Kanaele nicht einfach brach liegen lassen. Ist das Multiversum denn duemmer als wir ? Bei einem Ameisenhaufen ist dies jedenfalls anders rum.. Ge?ndert von richy (17.07.08 um 17:24 Uhr) |
Lesezeichen |
|
|