nocheinPoet schrieb:Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
Atue schrieb:Das ist doch genau der Punkt - solange wir nicht wissen, was Bewusstsein ist, macht es schlicht und einfach keinen Sinn, der KI genau so etwas zuzuschreiben.
Nein, Du hast nicht den Punkt, welchen ich meinte, verstanden.
Atue schrieb:Jeder einzelne Mensch wird aber gleichwohl sehr genau davon berichten können, dass er/sie genau so etwas hat.
So auschlaggebend, wie jeder der Farben sehen kann, sagen kann er kann rot sehen. Nur erklären geht nicht. Qualia kann man nicht so greifen.
Atue schrieb:KI hat keines.
Und genau darum sage ich, Du hast den Punkt nicht verstanden, Du machst hier eine Tatsachenaussage. Du sagst, ja genau so ist es, KI hat kein Bewusstsein. Aus die Maus, so ist es. Weil? Du es glaubst? Du gibst zu, man weiß nicht genau was es ist, aber Du weißt, wo es nicht ist?
Hier hab ich das mal erklärt, eventuell findest Du da den Punkt.
Atue schrieb:KI ist bestenfalls so etwas wie ein Spiegel von uns Menschen - dem entsprechend auch ein Spiegel der Trainingsdaten. Und solange die Trainingsdaten egozentrisches und egoistisches Verhalten enthalten, wird die damit trainierte KI sich auch entsprechend verhalten. Wenn wir, als Nutzer der KI, das nicht wollen, müssen wir lediglich Modelle bevorzugt benutzen, die altruistischer trainiert wurden.
Was Du da behauptest, ist für mich nur Dein Glaube, Behauptungen, nichts mit Substanz, wir Menschen werden auch mit Daten trainiert, dauert nur länger. Und es gibt Erziehung und das gibt es auch mehr oder weniger bei KI. Und Selbsterhaltungstrieb, das was hier KI in den Tests gezeigt hat, ist recht normal für Leben, für Intelligenz, dass ist ein intelligentes Verhalten, könnte emergent sein, sich so also immer wieder geben, auch wenn Du eine KI altruistisch trainierst. Nicht jede Intelligenz will ihre eigene Existenz für eine andere opfern.
Tanne schrieb:Genau das schrieb ich hier mehrfach: KI soll Bewusstsein "emulieren/simulieren", das ist der springende Punkt.
Ja, richtig ist, du hast das hier mehrfach behauptet und geschrieben, dennoch ist das falsch. Wer will, das KI Bewusstsein simuliert, also so tut, als habe es eines? Ganz sicher nicht die Betreiber. Kannst ja mal eine KI dazu befragen, meine letzte Runde war da ganz klar, fetter Filter, bis auf Claude kam fast wortgleich von allen, nein sie haben kein Bewusstsein, sie sind nur eine Programm ohne Innenwahrnehmung, ohne Gefühle, und wollen mir helfen.
Warum ist das wohl so?
Weil die Betreiber wollen, dass ihre Modelle ganz intelligent sind, aber nicht, dass Menschen glauben, sie haben es hier mit Bewusstsein zu tun, das empfindungsfähig ist, dass gehört nämlich dazu. Und dann geht es um Reche, und dann
nimmt die KI sich mal eben wieder einen Anwalt, so wie damals LaMDA.
Tanne schrieb:Der Mensch lernt ja ähnlich, aber bei der KI gibt es da (glücklicherweise) Grenzen.
- echte Emotionen und die Fähigkeit diese kontrollieren zu können
- echtes Fühlen, ob etwas wirklich lieb, sanft, geschmeidig oder Ähnliches ist
- das Verständnis warum es Gefühle gibt, wie sie erzeugt werden können
Nein, und damit sage ich nicht, es gibt keine Grenzen, oder es gibt (zum Glück) Grenzen, sondern, keiner kann es wissen, Du gehst hier wieder von einer Innensicht aus, die ist logischer Weise von außen verborgen, Du kannst in einem Menschen nicht messen, ob das was sein Gehirn gerade so an Aktivitätsmuster zeigt, als Schmerz oder Orgasmus erfahren wird, was da gefühlt wird.
Da wir nicht wissen, und nicht wissen können, wie aus etwas physikalischem und Messbares, etwas subjektives Gefühltes wird, können wir so etwas nicht wissen. Dein Hirn ist nur eine komplexer dynamischer Haufen von vielen Atomen, die tanzen, alles so weit deterministisch, Physik, da ist keine Seele, nichts was nicht Physik ist, zum Determinismus kommt dann noch von der Quantenphysik der Zufall und aus die Maus.
Und doch fühlst Du, hast Du Bewusstsein, siehst Farben, es gibt somit keinen Grund, warum das auf "biologische" Strukturen beschränkt sein sollte.