Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Abnahme von Entropie

102 Beiträge ▪ Schlüsselwörter: Entropie ▪ Abonnieren: Feed E-Mail

Abnahme von Entropie

28.12.2008 um 21:17
@fritzchen1

Bevor man den Begriff Entropie auch in der Informationstheorie nutze, war er eben in der Thermodynamik zu finden. Auch scheinst Du die Definition in Bezug zu der Informationstheorie nicht zu verstehen.

Aber egal, schau Dir nun mal wenigstens die Links an:

http://www.madeasy.de/2/entropie.htm#ord (Archiv-Version vom 25.12.2008)
http://www.chemie.fu-berlin.de/fb/diverse/reich991027.html
Wikipedia: Entropie (Thermodynamik)
http://www.physi.uni-heidelberg.de/~eisele/lehrer/huefner.pdf (Archiv-Version vom 28.06.2007)

Anzeige
1x zitiertmelden

Abnahme von Entropie

28.12.2008 um 21:31
Zitat von nocheinPoetnocheinPoet schrieb:Bevor man den Begriff Entropie auch in der Informationstheorie nutze, war er eben in der Thermodynamik zu finden.
Und was soll mir das sagen?

Ich denke mal das System welches du beschreiben möchtest besitzt auch irgendwelche Informationen.
Welche Mittel stehen dir den zu Verfügung für die Beschreibung?


melden

Abnahme von Entropie

28.12.2008 um 22:37
@fritzchen1

Ich denke mal das System welches du beschreiben möchtest besitzt auch irgendwelche Informationen. Welche Mittel stehen dir den zu Verfügung für die Beschreibung?

Junge man, ließ die Links, ließ was ich geschrieben habe und mach Dich schlau. Es nervt.


melden

Abnahme von Entropie

28.12.2008 um 22:41
fritzchen1:
Bei einer 0 und einer 1 hat man genau Zwei Möglichkeiten. Je mehr Nullen und Einsen man hat um so höher ist der Informationsgehalt( Anzahl der möglichen Zustände)
Die Entropie nimmt zu.

2amx:
Nicht automatisch. Nicht die Anzahl der Symbole ist entscheidend, sondern ihre relative Häufigkeit. Beispiel: Eine Datei kann aus Milliarden von Nullen bestehen, ihr Informationsgehalt nach Shannons Formel ist dennoch minimal, nämlich 1.

fritzchen1:
Doch Automatisch.
Ich sprach ja auch von Einsen und Nullen. Leibnitz hat ja auch nicht gesagt das sich jede beliebige Zahl durch Nullen darstellen lässt.
1. Der Informationsgehalt (nach Shannon) ist _nicht_ die Anzahl der möglichen Zustände einer Nachricht.
2. Ersteres wächst _nicht_ automatisch mit der Länge der Nachricht, letzteres schon.
3. Falls du mit dem Hinweis auf "Leibnitz" deiner Aussage mehr Glaubwürdigkeit verleihen willst, dann lass dir gesagt sein, dass der Mann "Leibniz" heisst.


melden

Abnahme von Entropie

28.12.2008 um 22:49
:)


melden

Abnahme von Entropie

28.12.2008 um 22:59
Zumal eine Nachricht nur mit der Brechstange irgendwelche Zustände aufzuweisen hat. ;)

Ein Bit (die Kleinste Informationseinheit) hat Zustände, es ist 1 oder 0.
Bei einer Nachricht kann man nur bedingt von so etwas sprechen. Die Nachricht ist oder ist nicht, wenn man sie als eine zusammenhengende Information ansieht, aber der Zustand des Nicht-Seins bei einer Information ist nur ein theoretischer, und in der Praxis nicht notwendig.


melden

Abnahme von Entropie

28.12.2008 um 23:28
@rockandroll

Eine Nachricht der Länge 10 Bit kann genau 1024 verschiedene Gestalten haben. Jede davon kann man "Zustand" nennen, im Sinne von "eine bestimmte Erscheinungsform von mehreren möglichen". So hab' ich das gemeint.


melden

Abnahme von Entropie

28.12.2008 um 23:39
@2amx
hab Dich schon verstanden. :)
Nur diese 1024 Gestalten sind keine Zustände ein und derselben Information, so wie es beim Bit angenommen wird, sondern 1024 verschiedene Infos.
Aber genug der Wortklauberei. ;)


melden

Abnahme von Entropie

29.12.2008 um 00:06
@rockandroll

Nur diese 1024 Gestalten sind keine Zustände ein und derselben Information, so wie es beim Bit angenommen wird, sondern 1024 verschiedene Informationen.

Nein, die erste Hälfte Deines Satzes ist falsch.

10 Bit sind Eine Information über einen Wert von 0 – 1023 oder

02 mal 5 Bit, also 02 Information über einen Wert von 0 - 0031 oder

05 mal 2 Bit, also 05 Information über einen Wert von 0 - 0003 oder

10 mal 1 Bit, also 10 Information über einen Wert von 0 - 1 oder

2 mal 4 Bit + 1 mal 2 Bit, also 3 Information (2-mal über einen Wert von 0 - 15) und einmal über einen Wert von 0 - 3 oder….


4 Bit nennt man übrigens auch Nibbel und man schreibt die 15 möglichen Werte oft im Hexadezimalsystem, von 0 bis F. So kann man nämlich die 32 Bit super darstellen 0000-FFFF.

Zwei Nibbel sind dann ein Byte 0-FF und so werden auch Farben oft codiert. Hier stehen dann immer zwei Nibbel für einen rot, grün und blau Anteil. Also 000000 ist schwarz und FFFFFF ist weiß. FF0000 ist rot, 00FF00 ist grün und 0000FF ist blau.

Hier noch mal eine Liste, Aufbau ist (Bitanzahl, Werte, Bits) habe aber nur bis 4 Bits die einzelnen Bits ausgeschrieben.

01 00-0001 ---0, ---1
02 00-0003 --00, --01, --10, --11
03 00-0007 -000, -001, -010, -011, -100, -101, -110, -111
04 00-0015 0000, 0001, 0010, 0011, 0100, 0101, 0110, 0111, 1000, 1001, 1010, 1011, 1100, 1101, 1110, 1111
05 00-0031
06 00-0063
07 00-0127
08 00-0255
09 00-0511
10 00-1023


melden

Abnahme von Entropie

29.12.2008 um 00:35
@nocheinPoet
ach so wird das kodiert.
Danke für die berichtigung.
Kombinatorisch wären es wohl 1024 Möglichkeiten, aber das ist nicht das worauf ich hinaus wollte.

Es ging mir nur darum, dass eine Nachricht nur theoretisch gesehen gewissermassen den Ist oder Ist-Nicht Zustand aufweisen kann. Praktisch sowas aber nich benutzt wird.
Wenn eine Nachricht, als einheitliche Information angesehen wird, dann ist sie.
Der Ist-Nicht "Zustand" dieser Nachricht wäre nicht relevant, und deshab von keinem praktischen Nutzen. Wohingegen es bei Bits anders ist. Da ist sowohl der Ist, wie auch der Ist-Nicht Zustand ein relevanter, weil für die Kodierung notwenider.
Weshalb man auch von Zuständen spricht.


melden

Abnahme von Entropie

29.12.2008 um 01:54
Frage zwischendurch:
Wenn ein System bei gleichbleibender Temperatur unordentlicher geworden ist, dann steigt die Energie in diesem System? o_O

(Da S= E/T --> T = konstant, also S~E; S steigt --> E steigt).

Das heißt, ein Stein hat weniger Energie, bevor er zu Sand zerfallen ist?

Wo ist mein Denkfehler?


melden

Abnahme von Entropie

02.01.2009 um 14:08
Ich hab auch mal eine Frage:

Man stelle sich ein Universum vor das aufgrund dessen das die dunkle Energie schwächer ist als die Gravitationsenergie wieder zusammenzieht.
Die Entropie muss also auch zunehmen während es sich zusammenzieht, weil die Gesammtentropie in einem abgeschlossenen System niemals abnehmen kann.
Diesen Universum zieht sich also bis zu einer Singularität zusammen und wird aufgrund der stetig zunehmenden Entropie also auch in einem vollkommen chaotischen Zustand enden.
Nehmen wir an aus dieser Singularität bildet sich nun wieder ein neues Universum, das heißt es müsste ja schon im totalen Chaos beginnen!?

Man nimmt an das unser eigenes Universum in einem geordneten Zustand begonnen hat, das heißt doch das unser Universum nicht aus einem anderen Universum entstanden sein kann?

Wo ist mein Denkfehler?


2x zitiertmelden

Abnahme von Entropie

02.01.2009 um 14:15
@neutrino1:
Ist es nicht so, dass der "Zeitpfeil" rückwärts läuft, wenn sich das Universum wieder zusammenzieht, d.h. die Entropie dann tatsächlich abnimmt?


melden

Abnahme von Entropie

02.01.2009 um 14:16
@neutrino
Zitat von neutrino1neutrino1 schrieb:Man nimmt an das unser eigenes Universum in einem geordneten Zustand begonnen hat,
also eigentlich nimmt man das Gegenteil an.


melden

Abnahme von Entropie

02.01.2009 um 14:25
@mastermind

Ich weis nicht genau, hast einen Link dazu, da bin ich mir nicht so sicher...

@UffTaTa

Das würde den Wiederspruch auflösen, woher hab ich das nur das die Entropie am Anfang gering war... keine Ahnung mehr.

Aber trotzdem war sie während des Urknalls geringer als heute!
Wenn sich das Universum wieder zusammenziehen würde, würde sich dann auch der thermodynamische Zeitpfeil umkehren (wie mastermind schon fragte) ?


melden

Abnahme von Entropie

02.01.2009 um 14:29
nimmt die Entropie in einem geschlossenen System nicht immer zu?


melden

Abnahme von Entropie

02.01.2009 um 14:43
Im geschlossenen System kann die Entropie durch Energieaustausch mit der Umgebung auch abnehmen.


1x zitiertmelden

Abnahme von Entropie

02.01.2009 um 14:46
@levifan

Wir reden hier vom gesammten Universum, das hat keine Möglichkeit Entropie abzugeben, es hat keine Umgebung an die es Entropie angeben kann! (Lassen wir jetzt mal die höherdimensionalen Räume der Stringtheorie außer acht)


melden

Abnahme von Entropie

02.01.2009 um 14:53
Zitat von levifanlevifan schrieb:Im geschlossenen System kann die Entropie durch Energieaustausch mit der Umgebung auch abnehmen.
wenn ein System Energie tauschen kann, dann ist es nicht geschlossen


melden

Abnahme von Entropie

02.01.2009 um 14:56
Wikipedia: Ultimate fate of the universe

Ich werd aus dem Link auch nicht ganz schlau, aber das sind erst einmal alle möglichen Szenarien, welche wohl zur Zeit in Betracht gezogen werden.
Nach der Big-Crunch-Theorie zieht sich das Universum wieder zusammen, um wieder ein neues entstehen zu lassen.
Da steht, dass diese Theorie problematisch ist, da die Entropie stets zunehmen muss in einem abgeschlossenen System.

Was aber auffällt, ist
1. dass man so gut wie nichts über die Anfangsbedingungen des Universums weiß (und somit auch nicht, ob die uns bekannten physikalischen Gesetze dort noch Gültigkeit haben)
2. dass nicht erklärt wird, warum die Entropie trotz Zusammenziehens immer noch zunimmt (S = E/T --> T nimmt zu, wenn sich das Universum zusammenzieht, aber nach dem 2.HTD bleibt E konstant).


Anzeige

melden