Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Der Informationsbegriff in der Physik

153 Beiträge ▪ Schlüsselwörter: Information, Informationsbegriff ▪ Abonnieren: Feed E-Mail

Der Informationsbegriff in der Physik

28.07.2019 um 20:15
Eine gute Einführung zum Thema Entropie und Informationen findet sich hier:
Entropie gilt als eine schwierig zu vermittelndephysikalische Größe, da sie sich einer direkten Anschaulichkeit zu entziehen scheint. Wenn man sich diesem Begriff jedoch von einer informations­theoretischen Perspektive nähert, werden viele Zusammenhänge leichter verständlich
https://www.physik.uni-wuerzburg.de/fileadmin/11030300/_imported/fileadmin/tp3/ThermoEDynamik/Entropie.pdf


melden

Der Informationsbegriff in der Physik

28.07.2019 um 20:37
Ich würde es begrüßen, wenn zu Thema diskutiert wird und die Nebengespräche in entsprechende Threads verlagert werden. Danke


melden

Der Informationsbegriff in der Physik

28.07.2019 um 20:45
Um das ganze noch mal ein wenig zu unterfüttern: Die Menge der Elementarteilchen im Universum ist gemäß gegenwärtiger Erkenntnis endlich. Die Menge aller Zustände, die diese Elementarteilchen annehmen können ist ebenfalls endlich (hier dürfen mich Physiker gerne korrigieren). Das Kreuzprodukt von endlichen Mengen ist endlich. Endliche Mengen sind im Sinne der Informatik entscheidbar. Damit ist die Aussage von Fredkin zwar eine komplexe Schlußfolgerung aus komplexen physikalischen Zusammenhängen, aber keinesfalls fürchterlich überraschend. Insbesondere entsteht daraus keinesfalls die Notwendigkeit anzunehmen, dass wir in einer Simulation leben, die irgendwelche "anderen" beobachten können.
Überraschen sollte uns eher, das wir uns trotz der beschriebenen Endlichkeit Gedanken über das Unendliche machen können. Woher kommt die Vorstellung, dass es eine Zahl gibt, die die Anzahl der Elementarteilchen im Universum übertrifft? Wie kommt man auf die Idee, aus dieser Annahme wiederum Überabzählbarkeit und daraus Kardinalzahlen zu folgern? Der Gedanke an ein aktual unendliches eröffnet so viele Möglichkeiten, das ist wirklich faszinierend.
Zurück zu @peter0167. Wenn die These "endliche Anzahl von Elementarteilchen - endliche Anzahl von Zuständen" stimmt, ist die Antwort auf alle deine Fragen (leider) trivial. Denn endliche Mengen sind bezogen auf alle mathematisch formulierbaren Fragen berechenbar. Dazu benötigt man keine Matrix...
Aufgrund der nahezu unvorstellbaren Größe des Universums dürfte die Antwort "42" allerdings noch einige Zeit auf sich warten lassen.


melden

Der Informationsbegriff in der Physik

28.07.2019 um 20:46
Falls jemand das Thema "Universum-Simulation" weiterdiskutieren möchte, schlage ich dafür den folgenden Thread vor: Leben wir in einer Matrix?. Mit dem Informationsbegriff an sich, um den es hier im Thread geht, hat das Thema nur am Rande zu tun.


melden

Der Informationsbegriff in der Physik

28.07.2019 um 20:48
Hi Peter,
da hast du aber einen schöööönen Thread eröffnet! Ist ja mein Lieblingsthema :)
Also soweit ich bis jetzt gekommen bin was das Thema angeht ist dass Information ganz eng zusammen
hängt mit dem Begriff der Energie und der Entropie (hat ja auch mojorisin schon schön hier beschrieben).

Claude Shannon (Begründer der Informationstheorie) verstand Entropie als das Maß für Information.
Er verband damit die Thermodynamik mit der Informationstheorie:
Wenn die Entropie eines Makrozustandes charakterisiert ist durch die Anzahl der möglichen Mikrozustände, dann
entspricht die Entropie der Information, die fehlt, um den entsprechenden Mikrozustand vollständig zu
beschreiben.

Er verstand Entropie als fehlende Information...

Entropie und Information sind wie 2 Seiten einer Münze und die Entropie bestimmt in welche Richtung
Prozesse ablaufen. Wenn die Entropie zunimmt (die "Unordnung") dann nimmt der Informationsgehalt ab
und immer dann wenn man einen chaotischen Zustand in einen geordneten verwandeln will benötigt man
Energie (z.B. wenn ich mein Zimmer aufräumen (ordnen will) dann muß ich Energie aufwenden).
Hier ist ein schöner Link dazu, kannst ja mal lesen:

https://scilogs.spektrum.de/das-zauberwort/entropie-und-information-treibstoff-des-universums/

Ist ein sehr schweres Thema, da muss man sich ganz viel mit den physikalischen Begriffen Entropie und Energie
beschäftigen (weil alle 3 Begriffe Information, Entropie und Energie ganz eng beieinander sind).
Materie trägt einen Informationsgehalt, sie hat eine Struktur (Teilchen in-Form gebracht / Information).
Ich hab schon viel gelesen was den Informationsbegriff physikalisch betrifft, bin aber noch net wirklich
weit gekommen :D

Ich weiß nur dass sie ganz wichtig ist um zu verstehen was die Welt im innersten zusammen hält.
Information hat nix mit Esoterik zu tun und ich finde es schade dass das Prof. Dürr immer unterstellt wird.
Er hatte als Quantenphysiker ganz tiefe Einblicke in die Materie (was Laien überhaupt nicht nachvollziehen können)
und hat nur versucht das in anschaulicher Weise für uns zu vermitteln und jeder der sich bisschen mit dem
ganzen Quantengedöddels beschäftigt hat wird`s verstehen wie schwer sowas ist.

Hier ist ein schönes Video von Ernst Peter Fischer zum Thema Information, ich stelle es mal ein hier, passt
glaube ich ganz gut hier rein und Ernst Peter Fischer finde ich richtig gut :)

Youtube: Information | Grundlagen (Ernst Peter Fischer)
Information | Grundlagen (Ernst Peter Fischer)
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Liebe Grüße


1x zitiertmelden

Der Informationsbegriff in der Physik

28.07.2019 um 22:23
Eine amüsante Anekdote zum Informationsbegriff (die Geschichte ist seit langer Zeit in vielen verschiedenen Varianten im Umlauf -- mir fehlt leider die Zeit, nach der Originalquelle zu recherchieren): Ein unsterblicher Ausserirdischer beobachtet seit Milliarden von Jahren die Erde. Zahllose über die Erde verteilte Nanosensoren zeichnen seit Beginn der Beobachtungen alles wichtige (visuell, akustisch, aber auch Messwerte wie Luftdruck, Luftfeuchtigkeit, etc.) auf, was auf der Erde geschieht. Die Daten werden zu gigantischen Computern irgendwo ausserhalb der Plutobahn übertragen, und dort gespeichert.

Irgendwie ist es unserem Ausserirdischen aber mit der Zeit langweilig geworden, und er möchte seine Beobachtungen abschliessen. Zu diesem Zweck überlegt er, wie er die gesammelten Daten möglichst effizient dauerhaft speichern kann. Nach einigem Überlegen kommt er auf eine geniale Idee: In gewissem Sinne kann man die Fantastilliarden an Bits, die die Computer über Milliarden von Jahren hinweg gespeichert haben, als eine einzige lange Zahl betrachten. Indem man eine Null und ein Komma vor diese Zahl setzt, kann man daraus eine Zahl zwischen 0 und 1 machen. Nun nimmt der Ausserirdische eine feine Feile, und ritzt in einen Stab aus einer Adamantium-Unobtanium-Legierung eine Kerbe an genau der Stelle ein, die in Bezug auf die Länge des Stabes dem Verhältnis entspricht, das die skalierte "lange Zahl" angibt. So einfach lassen sich Milliarden von Jahren Erdgeschichte speichern! ;)


1x zitiert1x verlinktmelden

Der Informationsbegriff in der Physik

29.07.2019 um 09:28
Zitat von uatuuatu schrieb:So einfach lassen sich Milliarden von Jahren Erdgeschichte speichern! ;)
Da habe ich aber erhebliche Zweifel. Selbst mit einer schweizer Präzisionsfeile kommt man damit ohne Informationsverlust maximal bis zum Kambrium. Mir ist keine Feile mit einer Auflösung bekannt, wie sie für milliarden Jahre zwingend notwendig wäre. Ganz sicher hat er dafür ein anderes Werkzeug verwendet.

Ansonsten muss ich mich erst mal durch die Beiträge arbeiten, mit soooo vielen habe ich jetzt wirklich nicht gerechnet, und sogar ein "roter" Beitrag war dabei ... bestimmt hat sich mojo wieder daneben benommen *duck und weg*


huepfende-smilies-0037


melden

Der Informationsbegriff in der Physik

29.07.2019 um 09:47
Zitat von Sonni1967Sonni1967 schrieb:Entropie und Information sind wie 2 Seiten einer Münze und die Entropie bestimmt in welche Richtung
Prozesse ablaufen.
Darüber habe ich noch mal nachgedacht. Auch Dein verlinkter Artikel gab mir einige Denkanstöße. Darin finden sich u.a. diese Formulierungen:
Wobei Entropie auch eine subjektive Komponente hat: Ob ein Mikrozustand nämlich einem Makrozustand niedriger oder hoher Entropie zugeordnet wird, ist eine Frage der Definition oder des verfügbaren Wissens. ...

Damit werden Zeit und Realität selbst freilich zu Phänomenen, die von unserer Perspektive abhängen und keine fundamentalen Eigenschaften des Universums selbst sind. Philosophen nennen solche Konzepte emergent. Ob das wirklich so ist, ist bisher offen. Zweifellos aber bestimmen Entropie und Information die Welt, in der wir leben. Und bilden gleichfalls eine Klammer zwischen uns und der Welt. Sie beschreiben die Verbindung zwischen dem fundamentalen Universum und unserer Perspektive darauf.
Das bedeutet doch, dass Information etwas ist, was der Beobachter einer vorhandenen Struktur als Konstrukt seines Denkapparates ableitet und nicht etwas, was von vornherein bereits in dieser Struktur vorhanden ist, oder? Handelt es sich bei "Information" also nicht eher um etwas, was physikalischen Beschreibungen künstlich oben draufgesetzt wurde, aber eigentlich entbehrlich ist, wenn es nicht um das Problem geht, Aussagen zwischen Sender und Empfänger zu kommunizieren (was ja auch das eigentliche Anliegen von Shannon gewesen ist, als er seine "Mathematische Theorie der Kommunikation" ausgearbeitet hatte!) ?

Die subjektive Komponente kommt mir hier noch etwas zu kurz, obwohl sie wesentlich zu sein scheint, denn anderenfalls würde es ja genügen, von Entropie zu reden und nicht von Information. Das ist zumindest mein Eindruck.


4x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 10:33
Zitat von NaturalistNaturalist schrieb:Das bedeutet doch, dass Information etwas ist, was der Beobachter einer vorhandenen Struktur als Konstrukt seines Denkapparates ableitet und nicht etwas, was von vornherein bereits in dieser Struktur vorhanden ist, oder? Handelt es sich bei "Information" also nicht eher um etwas, was physikalischen Beschreibungen künstlich oben draufgesetzt wurde, aber eigentlich entbehrlich ist, wenn es nicht um das Problem geht, Aussagen zwischen Sender und Empfänger zu kommunizieren
So ähnlich habe ich auch überlegt, aus @Peter0167´s Frage
Ich würde zunächst gerne klären, was Information ist, und wird sie erst durch durch den Menschen zu einer solchen gemacht? Existiert Information auch unabhängig vom "menschlichen Geist"? Und hat Information überhaupt so etwas wie eine Existenz?
heraus.

Also fragte ich mich ob Information kommunikationsabhängig sein muss?


2x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 12:13
@skagerak
Zitat von skagerakskagerak schrieb:Also fragte ich mich ob Information kommunikationsabhängig sein muss?
Ich möchte aus meinem Link zitieren:

"Die Information bzw. Entropie H eines Systems ist die minimale Anzahl von Bits,die man benötigt, um dessen Zustandvollständig zu charakterisieren."

Das mag etwas kryptisch klingen ist aber eine eindeutige und klare Defintion (Es lohnt sich hier den Text zu lesen). Des Weiteren steht dann:
Anschaulich ausgedrückt ist also die Information bzw.Entropie nichts anders als die minimale Länge einerDatei, die benötigt wird, um ein System oder einenSachverhalt vollständig zu beschreiben. Es ist dabeiwesentlich, dass die Länge der Beschreibungsdateiminimal ist, dass man also zuvor alle möglichenRedundanzen der Zustandsbeschreibung eliminiert,indem man die Datei durch ideale Kompression aufkürzeste Länge bringt. Alternativ formuliert ist dieEntropie die minimale Anzahl binärer ja-nein-Fragen,die notwendig sind, um den aktuellen Zustand desSystems in Erfahrung zu bringen.
...
Man sollte darauf hinweisen, dass die so definierteInformation bzw. Entropie nichts mit dem alltäglichenInformationsbegriff zu tun hat, mit dem die individuellwahrgenommene Bedeutung einer Nachrichtumschrieben wird. Eine sinnlose Folge zufälligerWörter besitzt beispielsweise eine hohe Informationgemäß der obigen Definition, da eine großeDatenmenge erforderlich ist, um sie zu beschreiben,doch sie besitzt für uns keine Bedeutung und damitkeine verwertbare Information im landläufigen Sinne.


Insebsonder der letzte Absatz geht dann auf deine letzte Frage ein. Sprich Information in der Physik ist nicht gleichzusetzen mit dem INformationsbegriff den wir im Alltag verwenden.


1x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 12:20
Zitat von mojorisinmojorisin schrieb:Insebsonder der letzte Absatz geht dann auf deine letzte Frage ein. Sprich Information in der Physik ist nicht gleichzusetzen mit dem INformationsbegriff den wir im Alltag verwenden.
Danke, ich ahnte schon dass es mir schwer fällt das zu unterscheiden ;)
Den Link werd ich mir bei Zeiten reinziehen.


melden

Der Informationsbegriff in der Physik

29.07.2019 um 12:25
@mojorisin
Es ist aber auch leicht verwirend.
Entweder spricht man bei Information in der Physik im Grunde von Entropie, oder man beschreibt Info. i.d.Phy. mit der Entropie?


1x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 12:34
@skagerak
Zitat von skagerakskagerak schrieb:Entweder spricht man bei Information in der Physik im Grunde von Entropie, oder man beschreibt Info. i.d.Phy. mit der Entropie?
Gute Frage. Auch hier möchte ich einen Link einbauen:

https://www.tf.uni-kiel.de/matwis/amat/mw1_ge/kap_5/advanced/t5_3_2.html
Da wir aber nichts Besseres haben, nehmen wir die klassische Definition, von Shannon 1948 eingeführt.
HIer kann sich wieder der Kreis schließen:

Wikipedia: Information (Physik)
Als Informationsentropie S wird die fehlende Information bezeichnet, um herauszufinden, in welchem Zustand sich ein willkürlich herausgegriffener Repräsentant eines Ensembles befindet.
...
Setzt man k = ln ⁡ ( 2 ) − 1 , so ergibt sich der Informationsgehalt aus der Informationstheorie in der Einheit Shannon. In der Statistischen Physik setzt man jedoch k auf die Boltzmann-Konstante k = kB , weil dann die Informationsentropie eines Ensembles mit der thermodynamischen Entropie übereinstimmt.
Von dem her würde ich sagen Entropie ist dasselbe wie Information, aber da möchte ich mich nicht zu weit aus dem Fenster lehnen. Das wird das spannden hier zu diskutieren.

Auch ein spannender Link:

https://www.uni-ulm.de/~phaegele/Vorlesung/Grundlagen_II/_information.pdf


melden

Der Informationsbegriff in der Physik

29.07.2019 um 14:28
So, hab mich jetzt durch alles (auch die Links) durchgearbeitet. Auch wenn es dem Verständnis durchaus dienlich war, möchte ich nicht so weit gehen zu behaupten, es verstanden zu haben. Verstanden habe ich immer dann etwas (zumindest glaube ich das), wenn ich imstande bin, es jemand anderem zu erklären, und genau daran arbeite ich noch.

Erst einmal herzlichen Dank an alle, die diese Diskussion mit konstruktiven Beiträgen bereichert haben, insbesondere Mojo sei hier hervorzuheben, dessen Links sehr hilfreich waren. Ich hoffe doch sehr, es geht hier noch munter weiter...

Bei YT bin ich noch auf eine nette 2teilige Doku gestoßen, von der ich bisher leider nur den ersten Teil auf deutsch gefunden habe. Der erste Teil handelt von Energie und Entropie (wirklich extrem laiengerecht aufgearbeitet, mit vielen Hintergrundinfos), im zweiten Teil geht es dann um die Information, aber da suche ich noch nach einer deutschen Version...

Youtube: Ordnung und Chaos im Universum - Ep.1 Energie | DOKU
Ordnung und Chaos im Universum - Ep.1 Energie | DOKU
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Youtube: BBC Order And Disorder  Episode 2 - Information
BBC Order And Disorder Episode 2 - Information
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



melden

Der Informationsbegriff in der Physik

29.07.2019 um 14:31
Zitat von NaturalistNaturalist schrieb:Das bedeutet doch, dass Information etwas ist, was der Beobachter einer vorhandenen Struktur als Konstrukt seines Denkapparates ableitet und nicht etwas, was von vornherein bereits in dieser Struktur vorhanden ist, oder?
Zitat von NaturalistNaturalist schrieb:Die subjektive Komponente kommt mir hier noch etwas zu kurz, obwohl sie wesentlich zu sein scheint, denn anderenfalls würde es ja genügen, von Entropie zu reden und nicht von Information. Das ist zumindest mein Eindruck.
Hi Naturalist,

das ist wirklich ein schweres Thema vor allem weil der Begriff Information so vielschichtig ist. Ich versuche so wenig
wie möglich das Subjektive (unsere Wahrnehmung) mit dem Begriff in Verbindung zu bringen sondern mehr in dem
Sinne dass Information sich mit Hilfe von Energie in materieller Struktur / Anordnung offenbart (und je höher ihre Komplexität
ist desto höher auch ihr Informationsgehalt).

So ähnlich wie Prof. Fischer in dem von mir verlinkten Video sagte (ab ca 7:00) :
Atome oder Moleküle haben eine Struktur, eine Form eingeprägt und das ist Information.
Ich versuche den Begriff mit anderen physikalischen Begriffen in Zusammenhang zu bringen (der Entropie,
der Energie, Kohärenz, Dekohärenz und Emergenz).

Wenn man sagt dass die Information von der Wahrnehmung abhängt dann ist das irgendwie so als ob man sich
fragt: Ist der Mond auch da wenn ich nicht hinsehe? Natürlich ist er da (ganz unabhängig von uns) weil die
Teichen von ihm sich in einem Zustand der Dekohärenz befinden und miteinander wechselwirken und Wechselwirkung
ist Informationsaustausch (auch ohne Subjekt was wahrnimmt).

Jetzt ist es aber so dass in einem geschlossenen System die Ordnung nur abnehmen kann weil Teilchen danach
streben sich gleichmäßig zu verteilen. Sie verlieren ihre Anordnung mit der Zeit (alles zerfällt) und damit nimmt
die Information auch in dem betreffenden System ab. Das Universum wird insgesamt über die Zeit immer unordentlicher.

Lebewesen sind aber kein geschlossenes System, sie sind offen. Sie können Energie (z.B. durch Nahrung)
aufnehmen und erhalten damit ihre Komplexität aufrecht (höhere Entropie) und damit ihre Struktur und ihre
Form. Sie können "geordnete / konzentrierte" Energie aufnehmen und sie in ungeordnete verwandeln um sie
dann an die Außenwelt abzugeben. Der Inbegriff konzentrierter Energie ist für uns die Sonne.

Naja. Begriffe wie Energie, Entropie und Information gehören irgendwie zusammen und offenbaren sich in
dem was wir Materie nennen. So stelle ich es mir gerade vor :)
LG


7x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 14:41
Hi Peter,
ich hab die Dokus gesehen und fand die richtig gut. Die erste findet man in deutsch über YouTube, die zweite
aber net. Ich hab aber Geo -TV in Amazon Prime und da ist sie in deutscher Sprache.
Ich finde da werden Zusammenhänge gut erklärt (die ich aber noch nicht so ganz kapiert habe, hihi...)

LG


1x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 14:50
Zitat von Sonni1967Sonni1967 schrieb:Ich hab aber Geo -TV in Amazon Prime und da ist sie in deutscher Sprache.
Habs gefunden, kann man dort auch einzelne Dokus downloaden?


1x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 14:57
Zitat von Peter0167Peter0167 schrieb:Habs gefunden, kann man dort auch einzelne Dokus downloaden?
Das weiß ich net. Bin ne totale Niete was sowas angeht :D
Ich hatte Geo TV nur abonniert weil ich so Dokusüchtig bin hihi...,
kostet 4 Euro im Monat und da hatte ich mir gedacht: Für mich lohn sich das.

LG


melden

Der Informationsbegriff in der Physik

29.07.2019 um 14:59
@Sonni1967
Zitat von Sonni1967Sonni1967 schrieb:Jetzt ist es aber so dass in einem geschlossenen System die Ordnung nur abnehmen kann weil Teilchen danach streben sich gleichmäßig zu verteilen.
Diese Erklärung liest man oft in der Thermodynamik. Wie verhält sich das beim einem astronomischen Gasnebel, bei dem sich die Atome und Moleküle zu Haufen zusammenabllen?

Eine andere interessante Frage ist: Wo ist die Entropie größer: A) im Bierschaum oder B) im flüssigen Bier?


3x zitiertmelden

Der Informationsbegriff in der Physik

29.07.2019 um 15:30
Zitat von mojorisinmojorisin schrieb:Diese Erklärung liest man oft in der Thermodynamik. Wie verhält sich das beim einem astronomischen Gasnebel, bei dem sich die Atome und Moleküle zu Haufen zusammenabllen?
Ja, das ist ne super Frage (finde ich) weil da kommt die Gravitation mit ins Spiel. Ohne Gravitation könnte sich Materie
überhaupt nicht strukturieren / formieren oder sich zusammenfinden. Sie ist der Grund warum ich Füße habe.
Die Gravitation ermöglicht ja eigentlich erst Strukturbildung der Materie weil sie die Teilchen zueinander bringt.
Die Raumzeit mit ihren Eigenschaften trägt evtl. selbst einen Informationsgehalt.
Ich weiß aber net wie ich das alles zusammen bringen kann. versuch aber :)
LG


1x zitiertmelden