Noumenon
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2013
dabei seit 2013
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Eliminativer Materialismus. Ist Bewusstsein nur eine Illusion?
03.05.2025 um 14:29Das ist die entscheidende Frage, ja.SagittariusB schrieb:Eine interessante Vorstellung wäre es, wenn eine Außerirdische KI uns besuchen käme und den Menschen untersuchen müsste. Würde eine KI ohne Innenleben den Menschen beschreiben können ohne Zugang zu seinem Innenleben zu besitzen, oder würde es ihr reichen den Menschen als ein rein funktionales Wesen beschreiben zu können?
Könnte eine KI überhaupt auf Qualia schließen wenn es ihr fremd ist?
Noumenon schrieb:Weder zeigen Maschinen phänomenale Selbstbeschreibungen (etwa dass sie eine Farbe als rot empfinden oder eine bestimmte Situation unangenehm erleben)
Nein, die KI weiß lediglich, welche RGB-Werte (oder Wellenlängen) bei Menschen mit "Rot" assoziiert sind. Das Programm weiß also nicht, was Farben bedeuten.SagittariusB schrieb:Wenn ich Chat GPT ein Foto von mir schicke und ihr sage lege mir einen Roten Umhang an und setze mir eine Goldene Krone auf, dann scheint das Programm sehr gut zu wissen was Farben bedeuten. Zumindest hat es die Voraussetzung dafür, ansonsten könnte es diese Unterscheidung von Rot und Goldgelb gar nicht treffen.
Nein, dieser Einwand greift zu kurz. Ein KI-System könnte sehr wohl programmiert werden, so zu tun, als ob es traurig, fröhlich, zornig usw. wäre - z. B. durch sprachliche Ausdrücke, Mimik, Tonfall oder Verhalten. Tatsächlich gibt es das auch schon:SagittariusB schrieb:Das Chat GPT keine Gefühle zeigt, liegt wohl daran, dass es von den Erschaffern nicht beabsichtigt war ihr diese mit zu geben.

Asking Sophia, Hanson Robotic’s human-like AI robot, to show her range of emotions.
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.
Das sind aber eben lediglich simulierte Gefühle, ähnlich wie bei einem Theater- oder Filmschauspieler. Ein Roboter, der programmiert wäre, Gefühle zu zeigen, muss deshalb nicht automatisch auch etwas erleben. Der Einwand "man müsste KI nur entsprechend programmieren" ignoriert, dass wir gar nicht wissen, was genau zur Entstehung von subjektivem Erleben und Empfinden von Gefühlen überhaupt nötig ist. Wir wissen gar nicht, was wir eigentlich programmieren müssten, um tatsächlich phänomenales Bewusstsein zu erzeugen, oder ob das überhaupt rein programmiertechnisch bzw. funktional realisierbar ist.
Sicher, nur weil eine KI nicht auf "Erleben" programmiert ist, heißt das nicht, dass sie keines haben könnte. Aber das bloße Hinzufügen von "Programmcode" reicht umgekehrt auch nicht aus, um das Problem des subjektiven Erlebens zu lösen, solange wir nicht verstehen, was phänomenales Bewusstsein eigentlich physikalisch oder funktional ist.
Siehe oben. Gelb wird bspw. durch RGB 255,255,0 repräsentiert. Das ist bereits "genug" Information. Und wenn eine KI das weiß, kann sie auch eine Banane derart färben, dass sie mir gelb erscheint. Weiß die KI also, was Gelb ist? Nein, denn RGB-Werte sind nun einmal keine Farben...!SagittariusB schrieb:Eigentlich ein Perfektes Experiment für eine KI. Würde die dir am Ende die Banane gelb färben wenn du sie nur mit genug Informationen füttern würdest?
Mach' es dir am besten klar am Beispiel der sog. Dichromasie: Eine von drei Zapfentypen (Farbsinneszellen) fehlt völlig und Betroffene sehen nur mit zwei Farbkanälen. Menschen mit Protanopie können kein Rot sehen (sie wissen also auch nicht, was Rot ist), Menschen mit Deuteranopie können kein Grün sehen und Menschen mit Tritanopie können kein Blau sehen. Jetzt zu deiner Frage: Welche Informationen sind nötig, damit diese Menschen wissen, was - je nach nachdem - Rot, Grün oder Blau ist...? Genau das ist der Kern des Qualiaproblems - zusammengefasst auf ein Minimum an Zeilen.