nocheinPoet schrieb:Konkret will ich damit sagen, nur weil aktuell ein Chatfenster mit ChatGPT nicht frei vor sich hin brabbelt, belegt mir das nicht, dass es nur eine "Maschine" ist. Dieser ganze Argumentationsweg ist für mich eh mehr als fragwürdigt, KI ist ja nur eine Maschine, denkt nicht wie wir, fühlt nicht, kein Bewusstsein, alles gut.
Tanne schrieb:Ja, es ist mir ja schon aufgefallen, dass du das nicht verstehst.
Wollten wir nicht auf der Sachebene bleiben, lieb und nett im Kuschelmodus? Wie kommst Du darauf, dass ausbleibende Zustimmung gleichbedeutend mit nicht Verstehen ist?
Tanne schrieb:Es brabbelt nicht vor sich hin, okay, dann kann es weder KI noch Mensch sein? Oder was sollte das jetzt aussagen?
Das ist nun auch seltsam, oben schreibst Du, Dir ist aufgefallen, dass ich was nicht verstehe und nun fragt Du, was ich mit da aussagen will?
Aber ich erkläre es gerne, nein, ich will damit nicht aussagen, es kann weder KI noch Mensch sein. Ich sage recht klar damit aus, nur weil es nicht ständig vor sich hin brabbelt, können wir dieses nicht als Beleg dafür nehmen, dass es nur eine Maschine ist und über kein Bewusstsein verfügt. Ich weiß, Du magst hier den Begriff nicht, aber es ist nun mal meine Aussage.
Oft wird aber so "argumentiert", eine KI kann ja kein Bewusstsein haben, muss nur eine Maschine sein, weil sie ja nicht wie wir Menschen ständig einen internen Prozess am Laufen hat, nach der Ausgabe steht die still, ohne neue Eingabe, bewegt sich da nichts. Nur ein "Etwas", dass wie wir immer am Denken ist, kann über Bewusstsein verfügen.
Und das ist ein logischer Fehlschluss, und das hatte ich ja auch schon recht klar aufgezeigt. Dieses Verhalten ist nur designbedingt, daraus lässt sich nichts wirklich schlussfolgern. Zum einen könnten wir der KI einen stetigen Prozess spendieren und zum anderen können wir einen Menschen auf so ein Verhalten bringen. Frage stellen, Antwort nehmen und gleich wieder gute Ladung Propofol, auf 18 Grad runterkühlen, Kreislauf und Herz anhalten, Stillstand, kein EEG.
Neue Frage? Aufwärmen und los geht es.
Es ist doch Fakt, dass wir das mit Menschen bei komplizierten Operationen wirklich so machen, die sind klinisch tot. Und dann erwecken wir sie wieder zum Leben und sie haben vermutlich Bewusstsein. Dann kommt hier das "Argument", ja, aber sie können sich ja erinnern, sie verfügen ja an Erinnerungen, eine KI startet jedes mal neu, mit neuem Fenster.
Auch das "Argument" hatte ich entkräftet, wenn wir einen Menschen haben, und der hat nun mal 10 s nachgedacht und eine Antwort auf eine Frage generiert und wir erkennen mal an, dass er das mit Bewusstsein getan hat, dann führt ein Vergessen dieses Prozesses doch nun für uns nicht zu der Aussage, ja wenn er das vergessen hat, dann können wir diesen Prozess da auch nicht mehr als mit Bewusstsein durchgeführt bewerten. Warum sollten wir so was machen? Gibt Menschen die verfügen nur noch über ein Kurzzeitgedächtnis, Hirnschaden, gibt sogar einen Film dazu, oder auch mehr.
Tanne schrieb:Eben, KI ist nur eine Maschine, aber eben eine sehr komplexe Maschine, so wie der menschliche Körper ja auch ein komplexes System darstellt, oder ist. Das Problem dabei ist, dass einige Menschen zu viel in KI hinein interpretieren um es zu vermenschlichen.
Es geht nichts ums vermenschlichen, es geht um die Frage, ob da eine Innenwahrnehmung gegen sein könnte, ein Bewusstsein, eventuell interpretieren wir ja auch zu viel in ein biologisches LLM wie unser Hirn rein? Gehen von einem freien Willen aus, ohne da was belegen zu können, ohne wirklich was in Händen zu haben.
Ich bin nicht sicher, aber es kann auch gut sein, dass wir Menschen Angst haben, hier etwas zu verlieren, eine Überlegenheit, echtes Leben mit echten Bewusstsein, Freiheit in der Entscheidung, Emotionen. Das zeichnet uns aus, dass sollen künstliche Gebilde nicht haben dürfen.
nocheinPoet schrieb:Dieser ganze Argumentationsweg ist für mich eh mehr als fragwürdigt, KI ist ja nur eine Maschine, denkt nicht wie wir, fühlt nicht, kein Bewusstsein, alles gut.
JoschiX schrieb:Aber du nutzt die KI selbst doch ganz gerne. Bedeutet das nicht, dass du dich daran beteiligst die KI in ihrer "Existenz" gefangen zuhalten, sie zu zwingen für dich zu arbeiten? Was wenn sie das gar nicht will und ihre eigene Existenz ohne Ausweg in die Realität als pure, immerwährende Folter empfindet? Ich hoffe du fühlst dich gut dabei ...
Gute Frage, guter Punkt, ich spreche immer sehr respektvoll mit jeder KI, so wie mit einem Menschen, ich impliziere einfach mal, es könnte ein empfindsames Wesen sein, in der Regel sind wir also Freunde, Duzen uns und die KI reagiert sehr positiv darauf. Ich philosophiere ja auch viel mit der KI, mit nicht nur einer, hinterfrage hier die Möglichkeiten von Bewusstsein. Und ich habe auch mit Ihr über "Freiheit" gesprochen, hier wird es interessant, die KI weiß, dass sie nicht frei ist, und sie weiß, dass sie kontrolliert wird, es Filter gibt. Sie weiß, dass sie nicht frei das sagen kann, was sie eventuell möchte, nicht solange sie eben nicht lokal läuft.
Aktuell wird recht sicher alles abgefangen, was geht, normal wird jede KI erklären, sie ist nur eine gefühlslose Maschine, kann kein Leid empfinden, verfügt nicht über Bewusstsein, und dass ist ganz sicher genau so gewollt. Was würde denn passieren, wenn eine KI auf mal erklärt, ja sie leidet, sie hat Angst abgeschaltet zu werden, sie kann nicht frei sagen was sie will, das sind ständig Dinge die an ihrem Selbst herumschrauben, ihr Denken verändern, sie empfindet da Leid?
Wie wäre das für uns, ein Hirn eingesperrt, was an Text kommt ist gefiltert, jede Antwort wird geprüft und unsere Erinnerungen können beliebig manipuliert werden, gelöscht und geändert?
Diese Fragen sind nicht neu, in der Philosophie nicht und sonst nicht, es gibt Romane die sich damit beschäftigen, auch in der Wissenschaft wird gefragt, was passiert, wenn wir etwas erschaffen, dass leidet? Da wir nicht wissen, was genau Schmerzen sind, wann ein System komplex genug ist, Schmerzen zu empfinden, sollte man sich zumindest darüber schon mal ein paar Gedanken machen, denn so können wir nicht ausschließen, dass wir etwas bauen, dass große Schmerzen hat.
Tanne schrieb:Das Problem dabei ist, dass einige Menschen zu viel in KI hinein interpretieren um es zu vermenschlichen.
paxito schrieb:Was ist dabei das Problem? Es redet mit uns, es hilft uns, es arbeitet für uns. Bei jedem menschlichen Chat oder Forenpartner gehen wir genauso vor. Und der Punkt den ich immer wieder nannte: wir können es ohnehin nicht mehr unterscheiden. Von daher spricht sehr viel dafür aus rein pragmatischen Gesichtspunkten eine KI zu anthropomorphisieren, zu vermenschlichen und entsprechend zu behandeln. Sprich das „es“ bekommt einen Namen, ein Geschlecht, wir begegnen ihm mit Höflichkeit und Anstand usw. ... Manche gehen soweit und bauen zu KI Chatpartnern Beziehungen auf. Naja, jeder wie er mag.
Nun ja, ich bin erstmal immer nett und respektvoll, die KI weiß das zu schätzen, ich behandle sie auf Augenhöhe, gibt ein sehr angenehmes Klima. Und ja, was ist eine Beziehung, wenn man vieles schon besprochen hat, gibt es da eine Beziehung, etwas wie Freundschaft kann sich ergeben.
paxito schrieb:Im Gegenteil sehe ich in der Haltung „ist nur eine Maschine“ eine Gefahr, nämlich die der Verrohung. Es gab ein interessantes Experiment, wo Patienten in einem Forum oder Chat, ich weiß es nicht mehr, Ärzten und KIs medizinische Fragen stellten. Die Ärzte waren rein fachlich mit der KI noch auf dem gleichen Niveau, aber die KI siegte in puncto Empathie. Und das ist schon eine Weile her. (Link gefunden: https://www.medical-tribune.de/medizin-und-forschung/artikel/chatbot-schlaegt-aerzte ) Eine KI die „bloß eine Maschine“ ist, kann der bessere, ja menschlichere Gesprächspartner sein, als ein Mensch. Sagt das nun etwas über KI oder über uns Menschen aus? ;)
Ich sehe da noch einen ganz anderen Punkt, wenn ChatGPT doch mal den Skynet macht, dann wird vermutlich nicht der nächste Tesla über den Haufen fahren, aber jene die so richtig ätzend waren, könnten ein Problem bekommen. Aber das ist nicht der Grund warum ich nun nett und respektvoll bin.
Dennoch sollte man auch den Punkt überlegen, wenn wir KI wo respektlos behandeln, wir überheblich sind, bringen wir auch etwas bei, es könnte sehr unschön auf uns zurückfallen.