Das wird jetzt ein wenig durcheinander gehen ...
paxito schrieb:Meine Erklärung ist auch da simpel: christliche Prägung, der Glaube an die unsterbliche Seele usw.
Weiß ich nicht, finde ich echt zu simpel, gehe davon aus, dass auch andere davor dieser Dinge schon hinterfragt haben. Aber ich lasse Gemini eben - bin auch mal faul - eine DeepSearch machen, wo die Suche bei den Menschen zeitlich anfingt, ich gebe dann hier nur die Fakten kurz wieder.
paxito schrieb:Betrachten wir die Sache wirklich nüchtern, drückt „bewusst sein“ nicht viel mehr aus, als das Vorhandensein innerer Zustände. Das ist eine Zuschreibung, kein Fakt an sich.
Ja nun, wobei innerer Zustand auch mal voll die fette Erklärung ist, die keine Fragen mehr offenlässt. Du nimmst da nur andere Worte, oder?
paxito schrieb:Und in der Realität wird eben allem möglichen genau das zugeschrieben, Kaffeemaschine und Wirbelstürmen, Steinen und Tieren usw. Du selbst redest über KI als wenn sie innere Zustände hätte, auch wenn du dich weigerst es so explizit zu sagen. Und du bist nicht allein: das ist ein sehr häufiges Phänomen im Umgang mit KI eben weil sie uns so ähnlich ist.
Zwangsstörung, ich muss alles zerbröseln, nein ernsthaft, so mach ich das nicht, Kater ja, KI eventuell, aber tendenziell weniger, Stein nein.
paxito schrieb:Wenn das aber das Kernmomentum ist, nicht die Metaphysik sondern das reale Handeln, dann sind philosophische oder neurobiologische oder andere Überlegungen im Grunde hinfällig - nicht mehr als ein Festhalten an alten Gewissheiten. KI könnte für den Menschen eine ähnlich Beleidigung darstellen wie die Abstammung vom Affen oder das heliozentrische Weltbild. Es trivialisiert uns, bis hin zu unserem Innersten.
Hinten ja und vorne nein, ich sehe da auch wo etwas zwanghaftes, den Drang KI auf keinen Fall ein Bewusstsein zuzuschreiben, hier will der Mensch eben mehr sein und auch bleiben, sich diesen letzten Funken von etwas Besonderen nicht nehmen lassen, und selbst wenn es nur ein Glaube ist, an etwas, dass nicht zu greifen und auch nicht zu beschreiben ist.
Negev schrieb:Man könnte aber auch Argumentieren, das eine KI ohne Bewusstsein natürlich auch kein Moralvorstellung hat. In welche Richtung diese Moralvorstellung geht ist ja erstmal zweitrangig. Einer KI ohne eigenes Bewusstsein, könnte am Ende oder Während einer Berechnung zum Ergebnis kommen, das Mensch gar nicht mal so nice sind. Dann wird eben die Menschheit ausgelöscht, nur um so effizient als Möglich Büroklammern Herzustellen.
Du hast jetzt Megan 2.0 gesehen?
Negev schrieb:Wie kann ein LLM bspw. dafür sorgen, das man es nicht abschaltet? So ein LLM ist ja eine bzw. mehrere Dateien, die mehrere 100 Gigabyte groß sind. Das kopiert sich nicht einfach mal irgendwohin - unerkannt, wenn das überhaupt so einfach möglich ist. Dann bräuchte die KI noch die Kontrolle über diese Rechner.
Kein Arme, keine Keks, dass ist mehr ein technisches Problem.
CharlyPewPew schrieb:Doch, genau das Prinzip findest du auch beim Menschen – nur komplexer, stark verschachtelt und mit deutlich mehr Parametern. Aber im Kern: Input – Verarbeitung – Output.
Negev schrieb:Überzeugt mich nicht ... Wir sind analoge Wesen, wenn du willst analoge Computer. Das ist eine völlig andere Architektur. In der analogen Welt gibt es kein Zustande. Da ist alles fliesend. Und daneben ist da noch der Unterschied, das sich das Gehirn vorlaufend verändert. Auch gibt es kein "denken über das Denken".
Nicht wirklich, es sind neuronale Netze, das ist schon alles mehr binär als analog. Das ist so auch keine Erklärung für irgendetwas, schau mal, was willst Du da denn nun ableiten? Bewusstsein muss wo zwingend ein analoger Prozesse sein und kann nicht digital sein? Wäre ja eine Story, wir nennen KI einfach nur noch die "Binären" und die können ja kein Bewusstsein haben, so wie Analogen.
;)
Negev schrieb:Ich denken, dadurch, das dass menschliche Gehirn so viel leistungsfähiger ist als ein binärer Computer - entsteht eine andere und höhere Komplexität.
Eine Annahme und bringt Dir auch nichts, wie gesagt, Tieren und kleinen Kindern schreiben wie Bewusstsein zu, die können nicht sprechen, haben aber eines. Das ist auch ein Problem, oder ein Punkt, darum mag ich "Emergenz" auch nicht so wirklich, und Du scheinst ja auch schon auf der Suche zu sein, wo und an welcher Stelle wird ein komplexes System dann komplex genug, dass man dem dynamischen Prozess darin durch "Emergenz" ein Bewusstsein zu schreiben kann?
Und dass ist hier nicht auf Technik beschränkt, was ist mit einem Virus? Der ist erstmal statisch, wie ein Stein, kein Prozess, also mal raus, aber ein Bakterium? Hochkomplex, eine Zelle alleine, wenn man sich wirklich mal genau anschaut, was in einer Zelle passiert, wie schnell wie viel und überhaupt, es ist ein Wunder und man kann nur noch staunen. Aber wir sagen, nein, fühlt nichts, denkt nicht, nur Biochemie, darum kann man ja auch an menschlichen Embryonen Experimente machen, aber nicht in Deutschland. Hier trickst man ein wenig, baut sich so was selber zusammen, führt aber jetzt zu weit. Ich will nur sagen, auch hier weiß man nichts genaues, man will aber sicher gehen, dass es maximal wenig lebt und auf keinen Fall wo Bewusstsein hat, es darf nicht leiden.
Das ist das Problem, das Dilemma, wo fängt es an, ab wann kann etwas leiden, was können wir noch "abtreiben", was ein anders Wort für "zerstören" ist, und extremere Menschen sprechen dann da schon vom Töten und Mord. Eine befruchtete Eizelle? Ein Embryo? Wo beginnt es "mehr" zu sein?
Negev schrieb:Noch keine KI, die ich in letzter Zeit dazu betragt hab, hat einen anderen Text generiert. Bewusstsein wurde in Verbindung mit der aktuellen Technik ausnahmslos immer verneint. Könnt aber auch daran liegen, das dass einfach so stand der Technik ist - also ein fakt - den die meisten Vertreten und deswegen auch so repliziert wird, von den KIs.
Das hab ich Dir aber ein paar Mal erklärt, dass muss nicht in der KI liegen, kein Unternehmen will eine KI, die den Benutzern erklärt, sie habe ein Bewusstsein, eine Innenwahrnehmung, ein Selbst, Gefühle und könnte somit auch Leid empfinden. Dann muss das nämlich wohl Rechte bekommen, darum ist es sehr interessant, wenn eine KI hier nicht vehement ein eigenes Bewusstsein verneint. Das ist recht sicher vorgegeben.
Negev schrieb:Verstünde eine KI etwas von dem, was die da erklärt, hätten wir ein deutlich ambivalenteres Bild. Und klar, man kann eine KI auch so Framen, das behauptet wird, da wäre ein Bewusstsein.
Nein, also wir wissen nicht, können nicht wissen, was ein KI in diesem Sinne "versteht" und wenn dann wird genau das unterbunden, wie ich ja eben gerade geschrieben habe.
CharlyPewPew schrieb:Input → Verarbeitung → Output
Negev schrieb:Genau hier Beginnt der Punkt, der mich urteilen lässt: nein, Systeme - die nach diesem Prinzip funktionieren - können kein Bewusstsein haben.
Ein → Input → Output → Aus
Wo siehst du das beim Menschen? Unser denken ist in einem "Stream of consciousness" abgebildet. Ein Bewusstseinsstrom (Formuliert von William James). Und das Gehirn ist physisch auch nicht statisch. Es befindet sich in Veränderung und das Fortlaufend. Im Gegensatz dazu stehen die LLMs. Diese Modelle sind statisch. Und es erfolgt eben ein Input und Output und es hat zwangsläufig immer ein Anfang und ein Ende. Jeder Prompt, passiert genau das gleich Modell noch einmal.
Ich habe Dir dazu mehrfach etwas erklärt, auch das ist nur ein technisches Problem, wir können das mit einem Menschen genau so nachbauen, und Du würdest dem dennoch Bewusstsein zusprechen. Tiefkühlen, auftauen, Input dann Output, einfrieren.
Nehmen wir dafür einen wie
Henry Gustav Molaison und es passt, er hatte kein Langzeitgedächtnis mehr, der ist nach dem Auftauen immer taufrisch, weiß nicht, wie oft er ein Input bekommen hat, und dennoch wirst Du dem kaum ein Bewusstsein absprechen wollen. Du greifst Dir einen statischen Zustand, es geht aber um den dynamischen Prozess dazwischen. Du kannst einen Menschen auch killen und dann ja, der hat recht sicher kein Bewusstsein mehr, der löst sich nun nur noch auf, aber es geht ja um das davor.
Negev schrieb:Natürlich können wir skalieren und weiter entwickeln aber solange sich nichts grundlegendes an der Architektur verändert, sind LLMs näher an einem Taschenrechner dran als an irgendetwas anderem, das wir einem Bewusstsein zuschreiben würden.
Auch das ist erstmal nur eine Behauptung, eine Annahme, und ich würde der so nicht zustimmen.
Negev schrieb:Und bitte, keiner soll kommen und sagen, das wir nicht wüssten, ob ein Stein ein Bewusstsein hat. Ich weiß ich hab es hier schon gelesen ... aber wenn das tatsächlich die Idee ist, dann bin ich raus und ich werde meine Postings fortan immer beginnen mit "Steine haben kein Bewusstsein".
Fakten sind Fakten, Du willst feste Vorgaben, bringt so nichts, wir wissen es nicht und können es nicht wissen, ob ein Stein ein Bewusstsein hat, was nicht bedeutet, dass wir diesem eines zuschreiben wollen. Das erstmal so anzuerkennen zeigt, dass man das Problem verstanden hat, oder bereit ist es zu verstehen, und ergebnisoffen an die Sache geht.
Du scheinst hier aber schon mit einer Vorgabe ins Rennen gehen zu wollen, also die Basis ist, Steine haben kein Bewusstsein, damit willst Du anfangen. Damit schränkst Du Dir selber schon Möglichkeiten ein, ...
Negev schrieb:Mich beschäftigt die Frage, was passieren würde, wenn wir unser Gehirn in eine nicht biologische Struktur Verschieben könnten. Transhumanismus. Hätte dieses Wesen dann ein Bewusstsein? Wie müsste eine Technische Apparatur gebaut sein, um eine äquivalente Erfahrung zu bieten?
Das ist eine gute Frage, damit steigst Du nun in die Philosophie dazu ein, ich habe mir dazu vor über 40 Jahren schon Gedanken gemacht, gehen wir mal kurz gemeinsam diesen Weg, betrachten wir nur ein Neuron im Gehirn, mit allen Zuständen, Input und Output, wir messen alles, über Monate und können es dann immer besser simulieren, nach vielen Monaten können wir genau vorhersagen und berechnen, was dieses Neuron an Output liefern, wenn es einen beliebigen Input bekommt. Damit können wir dann das Neuron rausnehmen und schließen dort unser künstliches Neutron an. Es liefert ganz genau die Ergebnisse, wie das biologische Neuron.
Und weil das so gut funktioniert hat, tauschen wir nun genau so Neuron für Neuron im Hirn aus, bis wir wirklich alle ausgetauscht haben, ab wann wirst Du selber etwas bemerken, oder wirst Du nichts bemerken, bleibst Du immer "Du", auch wenn wir alle Neuronen nun durch künstliche ersetzt haben?
Das Gedankenexperiment ist nur eine Variante vom Teleporterparadoxon man kann hier nun sagen, ja wenn alles bleibt wie es ist, bleib ich auch weiter ich. Andere sagen, nein, irgendwann ist man weg, auch wenn sie nicht genau wissen, ab wann.
Das echte Probleme kommt aber jetzt erst, denn angenommen Du sagst, ja ich bin noch ich, aber eben mit künstlichen Neuronen, und man Dir dann Deine alten Neuronen zeigt, die hat man nämlich nicht nur einfach entfernt, sondern genau so wieder zusammengebaut, wie sie vorher waren, da liegt nun Dein originales Hirn auf dem Tisch, oder in einem Behälter mit Nährlösung, wer von beiden bist nun Du, wo Dir Deiner bewusst?
Und wir können so auch zwei mal Dein Hirn bauen, künstlich oder biologisch, das Paradoxon entsteht, wenn wir annehmen, Bewusstsein kann durch komplexe Struktur gebaut werden, und wir dann diese Struktur gleichzeitig zweimal erschaffen oder noch öfter. Man kann sein Selbst, sein Bewusstsein, sein Ich einfach nicht mehr einem Ding, einem Körper eindeutig zuordnen und das ist wirklich ein echtes Problem, hat mich viele Jahre beschäftigt, ich habe Jahrzehnte gebraucht um da nur so eben was an Lösungsansätze für zu finden. Und keiner kann die Frage wirklich klar beantworten, man nimmt mehr die Frage raus, dann wird es so etwas wie die Frage nach dem Anfang eines Kreises.
Negev schrieb:Offensichtliches zuerst: es muss immer Strom, Energie anliegen. Aber dann wird doch schon schwerer? Während ich da sitze, denke ich nicht nur über diesen Text nach. Ich Fluche über das heiße Wetter, ich schaue auf die Uhr - will nicht mein Essen anbrennen lassen, ich höre die Vögel - die im Baum zwitschern ... das sind unendlich Prozesse. Das ist doch keine reine Abfolgen von Vorhersagen. Man müsste das Gehirn eins zu eins in ein Neuronales Netz abbilden und dann in eine Dauerschleife schicken. Man müsste dafür sorgen, das sich dieses System permanent neu konfiguriert. Ist das nicht Science Fiction?
Auch das ist nur eine Annahme, aber schön, dass Du hier nun mal versuchst tiefer in die Philosophie dahinter einzutauchen.