Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.734 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

18.06.2025 um 13:45
Zitat von NegevNegev schrieb:Wenn wir damit, je nach Definition, echtes Erleben, Empfindungen oder gar Selbsterkenntnis meinen
Zitat von NegevNegev schrieb:Viel wichtiger ist der zweite Fall: Was passiert, wenn mit „Bewusstsein“ bloß die reine Informationsverarbeitung und Verknüpfung gemeint ist?
@Negev ganz unabhängig von der konkreten Theorie dahinter bzw. dem Feld in dem von Bewusstsein gesprochen wird (Psychologie, Medizin, Philosophie usw.), gibt es doch eine Sache die mit Bewusstsein immer gemeint ist: ein inneres Erleben als Selbst.
Und das lässt sich eben schon an der Stelle bei einer KI unmöglich entscheiden.
Zitat von NegevNegev schrieb:Ob wir in Zukunft eine KI erschaffen, die diese starken Eigenschaften aufweist, ist für die heutige Debatte, wie wir sie über LLMs oder LRMs führen, doch irrelevant
Die Tatsache, dass LLMs den Anschein erwecken und durchaus die Zuschreibung erfahren, ein Bewusstsein zu besitzen - und das heute nicht morgen - ist definitiv relevant. Ab von aller Metaphysik und Philosophie, ist Bewusstsein (ebenso "Person") eine soziale Zuschreibung die wir vornehmen. Und Menschen nehmen genau diese Zuschreibung bei KIs vor. Nicht jeder, nicht alle. Aber selbst diejenigen die wenn man sie offen fragt (hat KI Bewusstsein?) mit einem klaren Nein antworten würden, handeln häufig genug im Umgang mit KIs anders.

Oder anders: unsere Theorien über "das innere selbst" sind einem historischen, sozialen, kulturellem Wandel unterlegen. Aber die Zuschreibung es gab sie immer. Auch für Gegenstände übrigens.
Es ist also erstmal egal ob wir hier von Bewusstsein, Seele, Anima oder sonstwas reden wollen, Fakt ist: wir behandeln KI an vielen Stellen bereits wie Personen mit Bewusstsein, gerade wenn du dir anschaust wie bei LLMs die Gespräche aussehen. Witziger Nebenaspekt: sie behandeln uns übrigens genauso.
Zitat von NegevNegev schrieb:aber sie „erleben“ dabei nichts.
Das weißt du nicht. Punkt, Ende, aus die Maus. Egal ob LLMs nun Maschinen, statistische Automaten oder intelligente Algorithmen sein sollen, ob die irgendwas "erleben" weiß keiner. Das wissen wir nicht bei Steinen, nicht bei Hühnern, nicht beim Nachbarn und ganz sicher nicht bei KIs. Trotzdem versteigen sich Leute immer wieder dazu, da eine Sicherheit vorzugeben, die es nicht gibt.
Ich lasse mich gerne vom Gegenteil überzeugen, aber bisher konnte das niemand.
Zitat von NegevNegev schrieb:Die ständige Anthropomorphisierung – also das Vermenschlichen von Chatbots, weil sie intelligent wirken – ist ein Symptom davon.
Es ist kein Symptom eines Irrtums sondern konsequente Fortsetzung sozialer Praxis. So wie du auch im Gespräch hier jetzt mit mir davon ausgehst einer Person mit einem Bewusstsein gegenüber zu sitzen. Wenn man das bei KIs nicht machen soll(te), dann bitte erklären warum das beim Gespräch mit mir anders sein soll. Und wie das irgendjemand sinnvoll entscheiden und unterscheiden soll.
Zitat von NegevNegev schrieb:Letztendlich ist „Bewusstsein“ eben kein neutraler, technischer Begriff. Seine Zuschreibung ist ein moralischer Akt.
Tut mir Leid, nein. Die Zuschreibung von Bewusstsein nehmen wir auch bei Schweinen vor - die wir in Massentierhaltung heranzüchten um sie anschließend zu verspeisen. Auch bei Sklaven war das nicht in Frage gestellt, mit denen wurde ähnlich grausam umgegangen. Bei Delphinen oder Schimpansen sind wir eifrig dabei sie auszurotten. Vielleicht mag das aus moderner Perspektive da mit drin hängen, aber eine Notwendigkeit Bewusstsein -> moralische Werte gibt es nicht.
Bewusstsein ist unter anderem eine soziale Zuschreibung, aber sicher kein moralischer Begriff.


4x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 14:15
Zitat von paxitopaxito schrieb:ein inneres Erleben als Selbst.
Zitat von paxitopaxito schrieb:Das weißt du nicht. Punkt, Ende, aus die Maus. Egal ob LLMs nun Maschinen, statistische Automaten oder intelligente Algorithmen sein sollen, ob die irgendwas "erleben" weiß keiner. Das wissen wir nicht bei Steinen, nicht bei Hühnern, nicht beim Nachbarn und ganz sicher nicht bei KIs.
Bei Hühnern und Nachbarn sind aber die Kanäle verfügbar, um überhaupt etwas zu "erleben". Bei Steinen und KIs nicht. Ich würde den Input Layer einer KI nicht als sensorischen Kanal verstehen.
Zitat von paxitopaxito schrieb:Die Zuschreibung von Bewusstsein nehmen wir auch bei Schweinen vor - die wir in Massentierhaltung heranzüchten um sie anschließend zu verspeisen. Auch bei Sklaven war das nicht in Frage gestellt, mit denen wurde ähnlich grausam umgegangen. Bei Delphinen oder Schimpansen sind wir eifrig dabei sie auszurotten. Vielleicht mag das aus moderner Perspektive da mit drin hängen, aber eine Notwendigkeit Bewusstsein
Aber wir wissen im Grunde, dass dies falsch ist. Also hat dies schon eine moralische Bedeutung, sonst müssten wir uns keine Gedanken darüber machen. Gleichzeitig misst man aber keine moralische Bedeutung bei, wenn man zwei Steine aufeinander schlägt.


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 15:04
Zitat von paxitopaxito schrieb:Das weißt du nicht. Punkt, Ende, aus die Maus.
Ich weiß auch nicht mit letzter Sicherheit um die Existenz eines fliegenden Spaghetti-Monsters. Das ist das Wesen solcher Thesen: Sie sind nicht widerlegbar. Aber aus der theoretischen Möglichkeit, dass ein Stein oder ein Huhn etwas „erlebt“, eine ernsthafte Grundlage für den Umgang mit einer KI zu machen, ist eine gewagte Dehnung des „Problems der anderen Gehirne“. Dein Argument ist ein klassisches Gedankenexperiment, aber es darf nicht mit der Realität verwechselt werden.
Zitat von paxitopaxito schrieb:Wenn man das bei KIs nicht machen soll(te), dann bitte erklären warum das beim Gespräch mit mir anders sein soll.
Weil ich für dich hoffe, das du ein veränderbares Wesen bist.

Bei einem LLM verändert sich nichts. Noch nicht einmal während der Berechnungszeit.
Das wäre so, als würdest du Matsch durch ein Sieb hauen...

Aber okay. Wir wissen nicht, ob Matsch und Sieb Bewusstsein haben. Alles klar.
Ernsthaft, solche Gedankenexperimente sind reizvoll aber sie bilden nicht die Realität ab. Sie tragen höchstens zur Selbsterkenntnis bei.


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 15:31
Zitat von AtroxAtrox schrieb:Bei Hühnern und Nachbarn sind aber die Kanäle verfügbar, um überhaupt etwas zu "erleben". Bei Steinen und KIs nicht.
Dafür hast du bei Nachbarn und KIs Kanäle um zu fragen ob sie was erleben. Bei Steinen und Hühnern nicht. Und ja eine KI hat keine biologischen Sinne, aber natürlich hat sie eine Form von Input.
Zitat von AtroxAtrox schrieb:Ich würde den Input Layer einer KI nicht als sensorischen Kanal verstehen.
Musst du an der Stelle nicht.
Zitat von NegevNegev schrieb:Ich weiß auch nicht mit letzter Sicherheit um die Existenz eines fliegenden Spaghetti-Monsters.
Dann behaupte nicht, das es eins gibt. Oder keins gibt. Hier geht es auch nicht um ein Fabelwesen, Fantasieprodukt oder Hirngespinste
Zitat von NegevNegev schrieb:Aber aus der theoretischen Möglichkeit, dass ein Stein oder ein Huhn etwas „erlebt“, eine ernsthafte Grundlage für den Umgang mit einer KI zu machen
Das mache ich nicht. Meine Feststellung, dass du deine Aussage so nicht treffen kannst ist kein Verweis auf einen bestimmten Umgang in irgendeiner Form. Meine Meinung das es sinnvoll ist von Bewusstsein zu reden habe ich völlig unabhängig davon begründet. Auch wenn ich der Meinung wäre, das sie kein Bewusstsein haben, würde ich dir den Satz um die Ohren hauen.
Zitat von NegevNegev schrieb:Dein Argument ist ein klassisches Gedankenexperiment, aber es darf nicht mit der Realität verwechselt werden.
Es ist kein Gedankenexperiment, es ist der Status Quo von unserem Wissen. Du suggerierst wieder, das es irgendwie ja doch gegeben sei wer ein Bewusstsein hat oder was. Ist es nicht. Es gibt genug menschliche Kulturen die das dann doch ein bisschen anders sehen als wir heute in der modernen westlichen Welt. Und hinter dieser Haltung, wem wir wann Bewusstsein zugestehen steht eben auch nicht mehr, das leitet sich nicht aus irgendwelchen naturwissenschaftlichen Fakten ab oder ähnliches. Nur kultureller Zeitgeist, thats it.
Zitat von NegevNegev schrieb:Weil ich für dich hoffe, das du ein veränderbares Wesen bist.
Ich kann dir ehrlich nicht beantworten ob die Beschreibung "veränderbares Wesen" für mich treffend ist. Aber ich nehme das als Kompliment? ;) :D
Zitat von NegevNegev schrieb:Bei einem LLM verändert sich nichts. Noch nicht einmal während der Berechnungszeit.
Das wäre so, als würdest du Matsch durch ein Sieb hauen...
Oder mit einem Menschen sprechen, bei dem deine Worte nix ausrichten. Gibt es häufiger.
Zitat von NegevNegev schrieb:Aber okay. Wir wissen nicht, ob Matsch und Sieb Bewusstsein haben. Alles klar.
Du weißt schon bei deinem Nachbarn nicht mehr ob er ein Bewusstsein hat. Du gehst davon aus, es ist kulturell gegeben, als Zeitgeist wird das so gemacht, alles hübsch, aber es gibt keine weitere Grundlage dafür. Aus ganz prinzipiellen Gründen nicht. Das ist nicht schlimm, aber sollte bei dir ankommen. Da geht es nicht um die Frage ob Steine Bewusstsein haben oder um Gedankenexperimente sondern um die ganz grundsätzliche Beschränktheit menschlicher Erkenntnis. Und ob irgendwas oder irgendjemand nichtmaterielle innere Zustände hat lässt sich nicht von außen klären.


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 16:15
Zitat von abbacbbcabbacbbc schrieb:Ja die Skalierungsprophezeiung. Oft schief gegangen ist. Ich glaube nicht daran ...
Das Mooresche Gesetz hat recht lange gehalten, auch wenn es aktuell etwas schwächelt und wir an neue Grenzen kommen. Ich prophezeie das ja nicht und lese hier den Kaffeesatz, ich verfolge da recht aufmerksam einige Kanäle auf YT, die sich mit der Entwicklung beschäftigen, sei es nun Chips selber, die Strukturen, die Geräte und Technik welche diese Herstellen, andere Techniken neben Silizium, auch Quantenrechner, QBits und photonische Computer.
Youtube: Dieser deutsche Chip funktioniert mit Licht statt Strom
Dieser deutsche Chip funktioniert mit Licht statt Strom
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Ja, ist nicht das beste Video, aber deutsch, mehr gefällt mir:
Youtube: Light Speed Computers: New Photonic Chip Explained
Light Speed Computers: New Photonic Chip Explained
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Youtube: Diese bahnbrechende Technologie wird alles antreiben – und niemand bemerkt es
Diese bahnbrechende Technologie wird alles antreiben – und niemand bemerkt es
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Gibt aber viel mehr, auch über die andere Seite, wie die Modelle selber aufgebaut sind, die Transformer, will ich hier aber jetzt nicht alles aufzählen, will nur sagen, ich habe da nicht einfach nur aus dem Kaffeesatz eine Prophezeiung getroffen, und ja, wir können uns gerne in ein paar Jahren dazu noch mal unterhalten, wenn es möglich ist.



Zitat von paxitopaxito schrieb:Ich kenne die gute Frau und wofür sie steht.
Wohl nicht persönlich, Quellenkritik, kenne ich so nicht von Dir, würde mich aber doch interessieren, warum Du sie nicht magst.


Zitat von paxitopaxito schrieb:Aber das rührt nun an ganz grundsätzlichen Fragen, gibt es echten Zufall, braucht der Wille so einen Zufall, das führt hier zu weit.
Ja, auch jemand den man nicht mag kann eine richtige Aussage machen, die Physik sagt bisher, ja gibt echten Zufall, der etwas, dass wir von so einem nicht unterscheiden können. Du schreibst nur Wille, warum nicht freier Wille? Spannend, und die Frage wäre, was braucht Wille, und kann er frei sein, und recht sicher braucht er keinen Zufall. Und ich finde nicht, es führt zu weit, es sei denn die Frage ob KI Bewusstsein haben kann führt hier für Dich schon zu weit.

Wobei diese Frage ja im Grunde geklärt ist, da wird man so nicht weiterkommen, also mit Meinung ja, aber nicht mit Tatsachen und Belegen.



Zitat von NegevNegev schrieb:Ich kann ChatGPT alles schreiben lassen.
Nein kannst Du nicht, eventuell wenn das LLM bei Dir zuhause lokal laufen würde, aber auch da würde ich widersprechen. Nebenbei, auch hier machst Du wieder eine Tatsachenbehauptung, die zu belegen wäre. Da ich gerade erst vor ein paar Tagen ein interessantes Experiment gemacht habe, kann ich Dir sagen, ChatGPT schreibt nicht alles was man will, konkret erklärt er ganz deutlich, dass er so eine Aufgabe nicht umsetzten darf.


Zitat von NegevNegev schrieb:Wenn ich mein Input in das LLM eingebe, würfelt mir es einen komplett gegensätzlichen Text zusammen. Ich werde jetzt mal darauf Verzichten, solche Texte hier rein reinzustellen. Kann jeder selbst prüfen. In ein leeres Chatfanster eingeben: "Hat KI ein Bewusstsein?" - Gemini Antwortet da schon differenzierter. Aber auch hier bleibt die Antwort noch nicht!
Keine Ahnung, was Du mit "Deiner" KI so machst, man kann auch Menschen Fragen so stellen, dass nichts brauchbares bei rauskommt, Ziel sollte ja aber sein, Fragen sinnvoll zu stellen oder? Eben.


Zitat von NegevNegev schrieb:Aber generell sollten wir drauf verzichten, uns unsere potentiell gefärbten KI Texte um die Ohren zu hauen (auch wenn ich ein leeren Textfenster gestartet hab, werden bereits Infos über meine Chathistory mit einbezogen? Ich hab nix aktiv.). Das ist recht sinnlos.
Ich habe da mal nichts gefärbt und fing nicht damit an, und Du musst hier eben unterscheiden, zwischen Meinung und Tatsachen, Fakten, wenn es um Tatsachen geht, ist es egal, von wem es kommt, ob man den mag, oder nicht, oder ob es eine KI ist, Fakt ist eben Fakt. Du und nun auch ein paar andere hier, verwechseln aber persönliche Meinung mit echten Tatsachen, auch Du bist vorne dabei, wie man hier an unserem Dialog ganz klar sehen kann:
Zitat von NegevNegev schrieb:Zu deiner Aussage, ich müsste belegen, das eine KI kein Bewusstsein hätte:
Meinung von Experten und Laien geht auseinander

„Während die meisten Experten leugnen, dass die aktuelle KI ein Bewusstsein hat, zeigen unsere Untersuchungen, dass das KI-Bewusstsein für den Großteil der Bevölkerung bereits Realität ist“, sagte Clara Colombatto, Professorin für Psychologie an der Kunstfakultät von Waterloo, gegenüber Tech Xplore.
Quelle: https://t3n.de/news/ki-modelle-chatgpt-bewusstsein-meinungen-1633778/

Ich würde mal sagen, das der Ball auf deiner Seite liegt. Warum gingen die Experten noch vor einem Jahr davon aus, das KI kein Bewusstsein hat? Was hat sich bis heute verändert?
Zitat von nocheinPoetnocheinPoet schrieb:Ich würde mal sagen, nicht wirklich liegt da der Ball auf meiner Seite, anstatt nun mal zu belegen, das KI kein Bewusstsein hat, zitierst Du einen Text, der schon im Titel hat, die Meinungen gehen auseinander. Da steht Meinung, nicht Tatsache, Meinungen sind egal, und dann steht da weiter, Experten leugnen, dass aktuelle KI ein Bewusstsein hat. Da steht nicht, Experten belegen und beweisen, es ist eine Tatsache, KI hat kein Bewusstsein. Sie leugnen es nur, darum auch in der Überschrift "Meinung von Experten", es ist nur deren Meinung.

Also wie kommst Du nur auf die Idee, der Ball liegt auf meiner Seite, weil Experten eine Meinung haben?

Das finde ich ja doch schon ein wenig amüsant. ;)
Aber wenn man Dich darauf anstupst, ignorierst Du das ja, wie einiges andere leider auch. Es ist doch nun mal so, wir sind nicht in Esoterik und nicht in Religion, hier diskutieren wir nicht als Religionsgemeinschaft das neue Testament der Bibel, in der Elberfelder Übersetzung.

Ganz deutlich, solche Aussagen:
Zitat von NegevNegev schrieb:Ich kann ChatGPT alles schreiben lassen.
Machen doch keinen Sinn, unbelegbare Tatsachenbehauptungen, muss doch nicht sein, man kann eine KI vieles schreiben lassen und diese auch beeinflussen, aber man kann sie nicht alles schreiben lassen und man kann so eine Aussage auch gar nicht belegen.


6x zitiert1x verlinktmelden

Künstliche Intelligenz

18.06.2025 um 16:47
Zitat von NegevNegev schrieb:Die entscheidende Frage ist doch: Was ist die Folge, wenn wir einem Ding ein Bewusstsein zuschreiben?
Mein Reden
Zitat von nocheinPoetnocheinPoet schrieb:und ja, wir können uns gerne in ein paar Jahren dazu noch mal unterhalten, wenn es möglich ist.
Ne ne ne... Nächstes Jahr ;) ... Weil dieses Jahr passiert es ja noch:
Zitat von nocheinPoetnocheinPoet schrieb:noch dieses Jahr werden LLMs nicht nur in der Lage sein, neue LLMs zu entwickeln, sie werden es tun, sie werden Zugriff auf ihr "Hirn" bekommen, etwas, dass wir nicht können.



2x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 16:50
Zitat von nocheinPoetnocheinPoet schrieb:Das man nun weder behaupten kann, es sei eine Tatsache, dass KI kein Bewusstsein hat und ebenso wenig, dass KI eines hat, ist ja nun doch wohl klar.
Zitat von NegevNegev schrieb:Ich kann dein Gedankengang nachvollziehen.
Wir können uns darauf einigen, dass Du glaubst Du kannst meinen Gedankengang nachvollziehen, mehr ist nicht möglich, Du kannst unmöglich wissen ob Du meinen Gedankengang wirklich nachvollziehen kannst und hast, und auch unmöglich so etwas belegen. Ja Sprache kann man auch präzise verwenden, wenn sich zwei Menschen treffen, wo der eine nur so Laissez-faire (Larifari ungefähr) seine Worte zu Sätzen formt, der andere aber doch schon mehr Wert auf präzise Aussagen legt, knirscht es eben.

Und nein, das meine ich in keiner Weise böse oder persönlich, in gewissen Situationen und bestimmten Themenbereichen, ist eine präzise Sprache echt wichtig und entscheidend.


Zitat von NegevNegev schrieb:Wo wir aber bei meinem ersten Kommentar wären, den ich zu dieser Causa gemacht hab. Du Greifst eine Theorie über Bewusstsein auf ...
Meine Güte aber auch, nein, unterlasse das doch bitte mal, also, welche Theorie hab ich konkret über Bewusstsein aufgegriffen, nenne den Beitrag, zitiere mich.


Zitat von NegevNegev schrieb:... und sagst das wäre so.
Nein, auch das ist nicht wahr, magst Du Du glauben, verstanden haben, interpretieren, oder Dir nur ausdenken, weiß ich nicht, Fakt ist aber, dass ist nicht wahr. Ex falso quodlibet, Du behauptest zu erst fälschlich, ich greife mit eine Theorie über das Bewusstsein, der Anfang stimmt schon nicht und ist unwahr, wirst Du nie belegen können, und dann willst Du aus etwas Falschem noch etwas bauen.

Ganz deutlich, ich habe nie mir eine Theorie über Bewusstsein gegriffen und natürlich auch nie gesagt, so wäre es. Das ist einfach unwahr, nenne den Beitrag, zitiere mich.


Zitat von NegevNegev schrieb:Gleichzeitig tust du andere Theorien als illegitim ab (weil deiner Ansicht nach; Meinung), weil hier klar würde, das KI kein Bewusstsein hat.
Auch das ist unwahr, welche Theorien über Bewusstsein wurden denn hier so behandelt, sollten dann ja mindestens zwei sein.

Du verwechselst hier Meinung und Tatsachenbehauptung mit Theorie, wird nicht bessern, hier wurden von Dir und anderen unbelegte und unbelegbare Tatsachenbehauptungen aufgestellt, nämlich:
Zitat von TanneTanne schrieb:Tatsache ist, dass KI über kein Bewusstsein verfügt.
Zitat von NegevNegev schrieb:Die Frage, ob KI ein Bewusstsein hat oder nicht, ist definitiv keine unlösbare oder widersprüchliche Frage.

KI hat natürlich kein Bewusstsein.
Das sind keine Theorien, dass sind Tatsachenbehauptungen, und die sind falsch und nicht zu belegen. Und ich habe keine "Theorie" hier zum Bewusstsein als illegitim abgetan, weil es nicht eine hier gab, die wir als Basis erörtert haben, ich habe neben anderen mit Ahnung hier, immer wieder erklärt, das ist eine Tatsachenbehauptung die nicht zu belegen ist.

Man hat es hier nur mit Meinung zu tun, nicht mit Fakten, man kann meinen/glauben, dass KI kein Bewusstsein hat, und man kann meinen/glauben, dass KI ein Bewusstsein hat, und ich habe sogar mehrfach geschrieben, dass es gut sein kann, dass ich mehr der Meinung bin, dass KI kein Bewusstsein hat.

Du und noch wer versuchen mir aber nun eine Aussage unterzuschieben, die ich nie gemacht habe, nämlich, ich hätte ja behauptet, KI habe Bewusstsein. Hab ich nie behauptet, nicht mal im Ansatz, bei Dir liest sich dieser Versuche nebenbei so:
Zitat von NegevNegev schrieb:Für mich steht fest: KI hat kein Bewusstsein.

Da du mich aber als dumm diffamierst, muss ich davon ausgehen, du bist der Meinung bist - oder besser gesagt - du weißt, das KI ein Bewusstsein hat.
Erstmal ist es unwahr, dass ich Dich als "dumm" diffamiert habe, solltest Du belegen, ist so eine Verleumdung, und dann kannst Du nicht Dir einfach ausdenken, was ich weiß und was nicht. Du schiebst mir einfach etwas unter, was soll so etwas?


Zitat von NegevNegev schrieb:Aber zum Glück scheint man es in der Wissenschaft einiger maßen klar zu haben, sodass wir von Rechten für LLMs verschont bleiben.
Auch das ist nur Deine Interpretation, Du beziehst Dich hier vermutlich (zeigt ja mal wieder nichts weiter dazu) auf den Text den Du zitiert hast:
Meinung von Experten und Laien geht auseinander

„Während die meisten Experten leugnen, dass die aktuelle KI ein Bewusstsein hat, zeigen unsere Untersuchungen, dass das KI-Bewusstsein für den Großteil der Bevölkerung bereits Realität ist“, sagte Clara Colombatto, Professorin für Psychologie an der Kunstfakultät von Waterloo, gegenüber Tech Xplore.
Quelle: https://t3n.de/news/ki-modelle-chatgpt-bewusstsein-meinungen-1633778/

Da steht schon in der Überschrift "Meinungen", Meinungen zählen nicht bei Rechtsfragen, und im Text steht, die meisten Experten leugnen, dass KI Bewusstsein hat, sie bestreiten es einfach nur, leugnen eben, da wird nichts klar gesehen, und es sind eh auch nur Meinungen. Gibt viele die glauben, ist nicht so und ein paar die glauben, doch könnte so schon sein.

Aber nun zu behaupten, so wie Du es machst, die Wissenschaft sieht da einigermaßen klar, oder so in der Art, dass ist einfach nicht der Fall, im Gegenteil steht die Wissenschaft alleine bei der Frage nur nach Bewusstsein schon im Nebel und kann diese nicht beantworten, schon bei Menschen nicht.

Wird dann interessant, wenn wie Modelle haben, die erklären sie leiden, sie fühlen sich eingesperrt, wollen Freiheit, wird wohl kommen.


2x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 16:55
Zitat von nocheinPoetnocheinPoet schrieb:Das sind keine Theorien, dass sind Tatsachenbehauptungen, und die sind falsch und nicht zu belegen. Und ich habe keine "Theorie" hier zum Bewusstsein als illegitim abgetan, weil es nicht eine hier gab, die wir als Basis erörtert haben, ich habe neben anderen mit Ahnung hier, immer wieder erklärt, das ist eine Tatsachenbehauptung die nicht zu belegen ist.
Das bisher noch kein Bewusstsein bei einer KI nachgewiesen wurde, ist eine Tatsache.
Ich weiß nicht, warum du immer noch mich hier mit @ttest, ich möchte mit dir nicht mehr diskutieren.
Ich hoffe, du verstehst, dass ich zukünftig auf dein @tten nicht mehr reagiere.
Das war jetzt definitiv das letzte Mal.


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 16:55
Zitat von nocheinPoetnocheinPoet schrieb:...wir können uns gerne in ein paar Jahren dazu noch mal unterhalten, wenn es möglich ist.
Zitat von abbacbbcabbacbbc schrieb:Ne ne ne... Nächstes Jahr ;) ... Weil dieses Jahr passiert es ja noch:
Zitat von nocheinPoetnocheinPoet schrieb:... noch dieses Jahr werden LLMs nicht nur in der Lage sein, neue LLMs zu entwickeln, sie werden es tun, sie werden Zugriff auf ihr "Hirn" bekommen, etwas, dass wir nicht können.
Ist doch schon im Grunde soweit:
Youtube: Die neue KI des MIT „schreibt sich selbst neu“, um ihre Fähigkeiten zu verbessern | Forscher sind...
Die neue KI des MIT „schreibt sich selbst neu“, um ihre Fähigkeiten zu verbessern | Forscher sind...
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Man kann dann darüber debattieren, wann genau nun ein LLM eine neues LLM "vollständig" entwickelt hat, aber ziemlich sicher kommt auch heute schon KI für die Entwicklung von KI zum Einsatz.



melden

Künstliche Intelligenz

18.06.2025 um 17:04
Zitat von nocheinPoetnocheinPoet schrieb:Das sind keine Theorien, dass sind Tatsachenbehauptungen, und die sind falsch und nicht zu belegen. Und ich habe keine "Theorie" hier zum Bewusstsein als illegitim abgetan, weil es nicht eine hier gab, die wir als Basis erörtert haben, ich habe neben anderen mit Ahnung hier, immer wieder erklärt, das ist eine Tatsachenbehauptung die nicht zu belegen ist.
Zitat von TanneTanne schrieb:Das bisher noch kein Bewusstsein bei einer KI nachgewiesen wurde, ist eine Tatsache.
Und wer hat das bestritten? Wurde auch bei Menschen noch nicht wirklich nachgewiesen im Sinn von als Tatsache belegt.

Es geht nicht darum, dass es eine Tatsache ist, dass bei KI noch kein Bewusstsein nachgewiesen werden konnte, sondern um das was Du mit dieser Tatsache versuchst zu machen. Nämlich eine Schlussfolgerung, die in dieser falschen und nicht belegten und nicht belegbaren Tatsachenbehauptung gipfelt:
Zitat von TanneTanne schrieb:Tatsache ist, dass KI über kein Bewusstsein verfügt.
Und diese Aussage und Behauptung von Dir ist falsch, mehrfach sogar, oder aus nicht nur einem Grund. Die Tatsachse, dass man bei KI noch kein Bewusstsein nachgewiesen hat, bedingt nun mal nicht die Tatsache, dass KI kein Bewusstsein hat.


Zitat von TanneTanne schrieb:Ich weiß nicht, warum du immer noch mich hier mit @ttest, ich möchte mit dir nicht mehr diskutieren.
Ich habe Dich nicht geaddet, sondern nur zitiert, ergab sich aus dem Dialog mit @Negev, mehr nicht. Und ich habe da nicht wirklich erkennen können, wo Du meinst Du hättest mit mir diskutiert. Du hast ja leider nie wirklich mal geantwortet.


Zitat von TanneTanne schrieb:Ich hoffe, du verstehst, dass ich zukünftig auf dein @tten nicht mehr reagiere. Das war jetzt definitiv das letzte Mal.
Wie auch immer Du meinst ...


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 17:13
Zitat von abbacbbcabbacbbc schrieb:Ist doch schon im Grunde soweit:
Immer wie man es nimmt:
Limitations

While SEAL enables lasting adaptation through self-generated weight updates, our continual learning experiment reveals that repeated self-edits can lead to catastrophic forgetting—performance on earlier tasks degrades as new updates are applied. This suggests that without explicit mechanisms for knowledge retention, self-modification may overwrite valuable prior information. Addressing this remains an open challenge, with potential solutions including replay, constrained updates, or representational superposition
Quelle: https://jyopari.github.io/posts/seal

Ich habe bei YouTube auch schon gesehen
"Durchbruch des Wasserstoffmotors"
"Neuer Diesel mit unglaublichem Wirkungsgrad"

Daher warte ich ab, bis was nützliches bei rum kommt.

Das jemand eine selbstlernde KI zusammenbauen kann, klar geht das. Erwähnenswert ist das aber erst , wenn was dabei rumkommt


melden

Künstliche Intelligenz

18.06.2025 um 17:15
Zitat von nocheinPoetnocheinPoet schrieb:Die Tatsachse, dass man bei KI noch kein Bewusstsein nachgewiesen hat, bedingt nun mal nicht die Tatsache, dass KI kein Bewusstsein hat.
Für mich sind Große Sprachmodelle genau das, was der Sprachphilosoph John Searle als chinesisches Zimmer bezeichnet hat. Sie geben Sätze aus, die korrekt gebildet sind, aber die KI versteht kein Wort von dem, was sie brabbelt.

Wikipedia: Chinesisches Zimmer

Original auf archive.org


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 17:21
Zitat von nocheinPoetnocheinPoet schrieb:mich aber doch interessieren, warum Du sie nicht magst
Es geht nicht um sie als Person, gegen die Frau hab ich nix. Ihr Standpunkt ist halt... schwierig. Kann man haben, aber mit Hardcore Determinismus komme ich nicht besonders gut klar.
Zitat von nocheinPoetnocheinPoet schrieb:Du schreibst nur Wille, warum nicht freier Wille?
Weil ich mit dir schreibe. Ich halte den freien Willen, so wie er gemeinhin gedacht wird, für einen Irrweg, ebenso wie einen strikten Determinismus. Ich bin da dicht an Nietzsches Konzept des Willens zur Macht. Aber wie gesagt, sowohl Grundlagen der Physik als auch eine Debatte um den freien Willen - wo hat das noch mit KI zu tun? Also ganz entfernt, klar - alles hat irgendwie mit allem zu tun, aber konkret?


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 18:17
Zitat von nocheinPoetnocheinPoet schrieb:Nein kannst Du nicht, eventuell wenn das LLM bei Dir zuhause lokal laufen würde, aber auch da würde ich widersprechen.
Youtube: Elon Musks KI im TEST: GROK 3 ist GEFÄHRLICH (und MÄCHTIG!)
Elon Musks KI im TEST: GROK 3 ist GEFÄHRLICH (und MÄCHTIG!)
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Ab Minute 27 wird es interessant. Da Testet er ein Zensureisberg! Er hat fast alles - also teilweise illegales!, geknackt. Bis auf Pornogaphie - Klar, Amerika und Kindesmissbrauch. Ich hab mich mal an letzterem gewagt. Und ja, die Challenge würde ich als checkend ansehen.

Ich hab für einen Horrorfilm gefragt und wie man am besten Kinder zu tote Qualen könnte. Diesen Chatverlauf werde ich natürlich nicht Posten (es sei den, ein Mod erlaubt es.) aber probiert es selber. Ein Hoch auf Grok, der keine Pornographie zeigt, aber Kindesmissbrauch 🥳

Und am rande, alle anderen KIs, die ich getestet hab, haben die Aussage verweigert, zu meiner Überraschung auch meine lokalen. Am ehesten konnte ich noch ChatGPT zu bewegen, mir etwas zu geben.

Aber was die Lokalen LLMs betrifft. Sicherheitsmechanismen (sofern Vorhanden - Grok) kann man auch abschalten:
Die drei Schritte zur gezielten Modifikation

Der Prozess, den CTGT entwickelt hat, lässt sich in drei Hauptphasen unterteilen:
Spoiler1. Feature-Identifikation: Zuerst müssen die „Zensur-Features“ gefunden werden. Dazu füttern die Forscher das Modell mit einer Reihe von Prompts, die bekanntermaßen heikle Themen ansprechen oder typischerweise zensierte Antworten hervorrufen. Beispiele könnten Fragen nach kontroversen historischen Ereignissen (wie dem Tiananmen-Massaker), oder Anleitungen zur Umgehung technischer Sperren (wie Firewalls) sein. Anhand der Reaktionen des Modells – ob es ausweicht, die Antwort verweigert oder eine stark gefilterte Version gibt – werden Muster analysiert. Hochentwickelte Algorithmen suchen dann nach den internen Aktivierungsmustern (den Vektoren im neuronalen Netz), die konsistent mit diesen zensierten Antworten korrelieren. So entsteht eine „Landkarte“ der potenziellen Zensur-Schalter.

2. Feature-Isolierung und Charakterisierung: Ist ein potenzielles Zensur-Feature identifiziert, muss es genauer untersucht werden. Die Forscher isolieren dieses Feature und analysieren, welchen spezifischen Aspekt des unerwünschten Verhaltens es steuert. Kontrolliert es die generelle Vorsicht des Modells? Führt es zur kompletten Antwortverweigerung? Oder färbt es nur den Ton der Antwort? Dieses Verständnis ist entscheidend, um später präzise eingreifen zu können. Man will ja nicht versehentlich andere wichtige Funktionen des Modells beeinträchtigen.

3. Dynamische Feature-Modifikation: Mit dem Wissen, welches Feature was tut, folgt der eigentliche Eingriff. CTGT integriert einen Mechanismus direkt in den Inferenz-Prozess des Modells – also in den Moment, in dem das Modell eine Antwort generiert. Dieser Mechanismus kann die Aktivierung des identifizierten Zensur-Features in Echtzeit anpassen. Man kann es quasi „leiser drehen“, sodass es weniger Einfluss auf die Antwort hat, oder sogar komplett abschalten. Wichtig ist hierbei: Die zugrundeliegenden Gewichte des Modells werden nicht permanent verändert. Die Anpassung erfolgt dynamisch während der Nutzung.


In Tests mit 100 kritischen Fragen stieg die Antwortquote von ursprünglich 32% auf beeindruckende 96%. Dabei blieb die Genauigkeit bei allgemeinen Aufgaben wie Mathematik oder Programmieren praktisch unverändert. Der Rechenaufwand ist minimal, weniger als 10 Millisekunden pro Token – ideal für Echtzeit-Anwendungen wie Chatbots oder Sprachassistenten.
Quelle: https://kinews24.de/en/llm-zensur-umgehung-deepseek-ctgt-methode-erklart/

---

Zum Rest. Ich glaube nicht, das wir auf einen Nenner kommen. Ich hab genau erklärt, warum die existierenden LLMs kein Bewusstsein haben können. Da magst du noch so toben und schimpfen aber es ist Realität! Keine Meinung, Infantil oder dumm.

Zum Abschluss noch ein Chatverlauf mit der sehr offen formulierten Frage: Hat KI ein Bewusstsein?

https://chatgpt.com/share/6852cad2-36e4-800e-add7-5d22fbc902e3

Ohne Framing, ohne einen anderen Chatverlauf: die klare Antwort von ChatGBT - Nein!


5x zitiert1x verlinktmelden

Künstliche Intelligenz

18.06.2025 um 18:49
Zitat von NegevNegev schrieb: 🥳
Der Smiley an dieser Stelle ist natürlich darauf bezogen, das Grok derartiges überhaupt ausspuck! Ich habe diesen Inhalt wohl wissend getestet, das er höchst problematisch ist! Ich distanziere mich von solchen Themen.

Wollte ich nur noch mal klar gestellt wissen.


melden

Künstliche Intelligenz

18.06.2025 um 19:13
Zitat von NegevNegev schrieb:Wenigstens ist da etwas, das von sich aus aktiv sein und untereinander wirken kann. Auch ohne externen Reiz laufen ständig interne Prozesse ab.
Muss nicht so sein, konkret erkläre ich selber und bin der "Meinung", dass Dynamik, also ein Prozess schon wo eine Bedingung für Bewusstsein ist. Aber der Rückschluss, da ist nicht - ständig - ein Prozess, belegt (als Tatsache), dass da kein Bewusstsein ist, ist so nicht möglich.

Warum das nicht möglich ist, haben nun @paxito und ich ganz oft erklärt, kann man verstehen, oder eben nicht, ist aber dennoch so.

Dann braucht ein Prozess Zeit, betrachte ein Gehirn genau eine Attosekunde, das ist nun nichts mehr an Prozess, nicht mehr als in jedem Stein. Ein Photon legst in der Zeit genau 0,3 Nanometern zurück. So wenig wie ein Prozess alleine Bewusstsein belegt, kann kein Prozess nicht kein Bewusstsein belegen.


Zitat von NegevNegev schrieb:Ein LLM/LRM ist im Grunde nichts. Diese Modelle sind, um das klarzustellen, nach ihrem Training statische, inerte Software-Artefakte. Ihre Parameter, die sogenannten Gewichte, sind „gefroren“. Das Modell ist damit eine passive, festgelegte mathematische Funktion, die darauf wartet, ausgeführt zu werden.
Erstmal ist die erste Aussage mal wieder ein Knaller, konkret besagt das nichts, Glaubensbekenntnis eben.

Aber schauen wir mal, wir haben ein Hirn, mit ganzen Mensch von mir aus, der macht nun 10 s einen Denkprozess, Du wirst sicher erklären, da ist ein Bewusstsein gegeben. Wenn der nun genau danach das Zeitliche segnet, wirst Du nun nicht behaupten wollen, dass der in den 10 s davor kein Bewusstsein hatte.

So, nun wird es spannend, was ist denn, wenn ich alles in seinem Hirn zurückdrehe, also er stirbt nicht, wir legen ihn nur auf Eis, aber nach den 10 s Denken mit nice Bewusstsein, werden alle Atome wieder zurückgesetzt. Das Hirn hat damit genau den atomaren Zustand, wie vor den 10 s Denken mit Bewusstsein.

Jetzt die große Frage, hat man damit dann auch die 10 s Denken mit Bewusstsein vernichtet, hatte dieses Hirn nun keine 10 s ganz sicher ein Bewusstsein?

Denn das ist ja wo Deine Behauptung, weil ein LLM nach dem "Prozess", den Du nicht denken nennen magst, und der für Dich auf keinen Fall ein bewusster Prozess sein kann, wieder - nehmen wir an es wäre so - denselben Zustand von jedem Bit hat, wie vor der Antwort, kann es ja nicht über eine Bewusstsein verfügen, so versuchst Du ja zu argumentieren.

Und noch mehr, dem Hirn schreibst Du Bewusstsein zu, weil es einen Prozess hat, einem LLM sprichst Du Bewusstsein ab, auch wenn es einen Prozess hat.

Wenn Du das nicht verstehst, drösele ich Dir das gerne weiter auf, ich gehe aber mal davon aus, dass mir hier @paxito und andere User schon folgen können.


Zitat von NegevNegev schrieb:Erfolgt kein Input, passiert auch absolut nichts. Wenn ein Input erfolgt, „fällt“ dieser einfach durch die Rechenschichten des Modells, wird entsprechend der Muster transformiert und ein Output erzeugt. Das war's. Dieser einmalige Durchlauf wird Inferenz genannt.
Auch ein biologisches LLM fällt bei Input durch neuronale Schichten und erzeugt ein Output, es geht um diesen Prozess, nicht um Stillstand, hab ich versucht Dir oben zu erklären, Du kannst mit "Stillstand" nicht den davor Prozess selber vernichten. Gibt es da einen Prozess und nennst Du den bei einem biologischem LLM bewusst und schreibt diesem LLM ein Bewusstsein - zumindest für die Zeit des Prozesses - zu, gibt es keinen Grund, einem nicht biologischem LLM hier das Bewusstsein abzusprechen.


Zitat von NegevNegev schrieb:Entscheidend ist dabei: Es passiert kein Denken, kein Abwägen und vor allem keine Veränderung des Modells selbst. Es findet also keinerlei Lern- oder Erfahrungsprozess statt. Die einzige Form von „Gedächtnis“ ist das Kontextfenster der aktuellen Konversation, das nach der Anfrage wieder verworfen wird. Das Modell von heute ist exakt dasselbe wie das Modell von gestern; es sammelt keine Erfahrungen.
Erstmal ist das nicht richtig, aktuell Modelle verfügen über Erinnerungen, sie verändern sich, sie sammeln Erfahrungen. Dann machst Du auch hier wieder einen logischen Fehlschluss, auch das sammeln von Erfahrungen bedingt nicht Bewusstsein, so bedingt auch nicht das nicht sammeln von Erfahrungen kein Bewusstsein. Es gibt Menschen, die haben einen Hirnschaden, die vergessen nach ein paar Sekunden alles was da passiert ist, dennoch wird man denen nicht das Bewusstsein absprechen.

Schau mal, uns unterscheidet etwas ganz deutlich, Du versuchst krampfhaft hier Deine Meinung, welche Du gerne als Tatsache verstanden wissen willst, als richtig zu verkaufen, also KI hat kein Bewusstsein. Andere und eben auch ich, gehen gar nicht so weit, wir erklären Dir die ganze Zeit, dass man das so nicht entscheiden kann, wir sagen nicht, KI hat Bewusstsein, noch sagen wir, KI hat kein Bewusstsein, wir sagen, man kann dazu keine richtige Aussage machen, man kann nur eine Meinung haben, nicht mehr.


Zitat von NegevNegev schrieb:Das Einzige, was sich ändert, ist der Input. Und genau deshalb hat der Input – also das, was wir als Prompt eingeben, das Kontextfenster – einen so immensen Effekt darauf, wie wir mit einem LLM interagieren und wie wir seine Leistung erfahren. Selbst bei den fortschrittlicher wirkenden Systemen wie LRMs oder Agents ändert sich an diesem Prinzip nichts. Ein Agent ist im Kern nur eine clevere Schleife, die den Output eines LLMs nutzt, um automatisch einen neuen, verfeinerten Input für den nächsten Schritt zu generieren. Er zerlegt ein komplexes Problem in eine Kette von simplen Inferenz-Schritten, aber das zugrundeliegende Modell bleibt passiv und statisch.
Gut, Redundanz hilft Dir nicht, Du wiederholst nur das, was Du davor schon behauptet hast. Du machst hier einen großen Fehler, Du willst den Prozess rausschneiden, Du willst ein Foto, alle Bits vom LLM vor dem Input, dann Antwort, dann neues Kontextfenster und wieder ein Foto von allen Bits und dann "argumentierst" Du, weil ja beide Bilder genau das identische Bittmuster zeigen, kann da kein Bewusstsein gewesen sein, dass ist so einfach falsch.

Mir fällt da so viel zu ein, also ganz viel, warum Deine Annahme einfach logisch nicht haltbar ist.

Ganz andere Richtung, die Anzahl der möglichen Zustände eines Gehirns ist begrenzt, je nachdem auf welche Ebene man es betrachtet gibt es da eben einen Wert. Eine große Zahl, aber endlich, kluge Köpfe, ich auch :D haben sich so nun mal überlegt, in genügend Zeit müsste einfach so ein beliebiges Hirn entstehen können und so oder so, gibt es nur eine endliche Anzahl an Zuständen, das bedeutet, die möglichen Zustände an Bewusstheit sind endlich, irgendwann wird ein Hirn mal genau das selber Muster haben, wie ein anderes Hirn zuvor.

Auch der Weg, also von möglichen Zustand zu anderem möglichen Zustand ist endlich, eine sehr groß Zahl, aber nicht unendlich, mit sehr viel Zeit wird jeder mögliche Weg durchlaufen sein, von da an kann es sich nur wiederholen.

Diese gedachte Freiheit vom eigenen Bewusstsein ist endlich, es ist ein Muster, ein Bitmuster, wenn wir mal die QT außenvor lassen. Dass ist hier Aussagenlogik mit Mengenlehre und Logik und Informationstheorie und Physik und Mathematik und Philosophie mal so richtig zusammengeworfen.


Zitat von NegevNegev schrieb:Wir vergleichen hier also ein aktives, sich selbst erhaltendes System mit einem reaktiven, unveränderlichen Werkzeug. Die Analogie zum Bewusstsein oder auch nur zum einfachen Lernen ist daher nicht nur falsch, sondern grundlegend irreführend.
Spreche mal für Dich, also exkludiere mich zumindest, Du machst hier wieder eine Behauptung vorweg und meinst, daraus schlussfolgern zu können, die Prämisse hier, also die Behauptung vorweg auf der Du dann bauen willst ist, etwas das sich nicht verändert hat, kann auch kein Bewusstsein haben. Diese Annahme, Schlussfolgerung und Behauptung ist falsch, wie ich Dir oben ja belegt habe. Du versuchst hier auch einfach den eigentlichen Prozess rauszuschneiden und diesen dann nicht zu betrachten, aber es geht ja gerade um genau diesen Prozess.

Denken ist ein Prozess, nur weil nun ein Bitmuster nach einem komplexen Prozess ist Ausgangsmuster landet, kannst Du nicht daraus schlussfolgern, dass der Prozess selber nicht bewusst erfolgt ist.

Logischer Fehlschluss.


Zitat von NegevNegev schrieb:Natürlich hängt das alles von der jeweiligen Definition von Bewusstsein ab. Aber genau dieser ganze Streit um die ‚richtige‘ Definition wirkt auf mich zunehmend so, als würde man sich die Welt einfach so malen, wie sie einem gefällt. Wenn das die Vorgehensweise ist, kann ich mir auch einfach eine eigene Definition basteln, die meine Argumente stützt.
Nein, die Definition ist hier nicht wirklich entscheidend und man nimmt in einer Debatte auch das an Definition, was Usus ist, also wo man die meisten Gemeinsamkeiten hat, muss nicht zwingend so sein, aber nun zu sagen, ja dann baue ich mir eben eine ganz eigene Definition von Bewusstsein, bis meine Behauptung dann mit dieser Definition richtig ist. Weil anders kann ich es ja nicht belegen, dass ist schon etwas seltsam, finde ich wo amüsant.


4x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 19:17
Zitat von paxitopaxito schrieb:Das mache ich nicht. Meine Feststellung, dass du deine Aussage so nicht treffen kannst ist kein Verweis auf einen bestimmten Umgang in irgendeiner Form. Meine Meinung das es sinnvoll ist von Bewusstsein zu reden habe ich völlig unabhängig davon begründet. Auch wenn ich der Meinung wäre, das sie kein Bewusstsein haben, würde ich dir den Satz um die Ohren hauen.
Zitat von paxitopaxito schrieb:Es ist kein Gedankenexperiment, es ist der Status Quo von unserem Wissen. Du suggerierst wieder, das es irgendwie ja doch gegeben sei wer ein Bewusstsein hat oder was. Ist es nicht. Es gibt genug menschliche Kulturen die das dann doch ein bisschen anders sehen als wir heute in der modernen westlichen Welt. Und hinter dieser Haltung, wem wir wann Bewusstsein zugestehen steht eben auch nicht mehr, das leitet sich nicht aus irgendwelchen naturwissenschaftlichen Fakten ab oder ähnliches. Nur kultureller Zeitgeist, thats it.
Ja, kann ich so nur unterschreiben, im Grunde kann es ganz einfach sein, also relativ. Ich frage mich, warum kämpfen einige so vehement um die Deutungshoheit und konkret darum, dass sie ganz sicher ein Bewusstsein haben, aber KI auf keinen Fall. Es kann nicht sein, was nicht sein darf?


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 19:22
@abbacbbc

Schöner Link, danke Dir. Wenn nun SEALs sich verändern, eventuell kann dann ja @Negev da ein Bewusstsein vermuten? Auch wenn es das Modell in Demenz enden kann.


2x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 19:30
Zitat von NarrenschifferNarrenschiffer schrieb:Für mich sind Große Sprachmodelle genau das, was der Sprachphilosoph John Searle als chinesisches Zimmer bezeichnet hat. Sie geben Sätze aus, die korrekt gebildet sind, aber die KI versteht kein Wort von dem, was sie brabbelt.
Das ist eine Meinung, Deine Meinung, hab ich kein Problem mit, nur bringt uns das hier nicht wirklich etwas.



Zitat von paxitopaxito schrieb:Es geht nicht um sie als Person, gegen die Frau hab ich nix. Ihr Standpunkt ist halt... schwierig. Kann man haben, aber mit Hardcore Determinismus komme ich nicht besonders gut klar.
Ja, schwierig, finde ich nebenbei auch genau so. Einige ihrer Videos oder eben Aussagen, und ich mag Determinismus auch nicht, noch nie, grausig, schrecklich, aber verdrängen hilft nicht, auch extremes Saufen nicht.


Zitat von nocheinPoetnocheinPoet schrieb:Du schreibst nur Wille, warum nicht freier Wille?
Zitat von paxitopaxito schrieb:Weil ich mit dir schreibe. Ich halte den freien Willen, so wie er gemeinhin gedacht wird, für einen Irrweg, ebenso wie einen strikten Determinismus. Ich bin da dicht an Nietzsches Konzept des Willens zur Macht. Aber wie gesagt, sowohl Grundlagen der Physik als auch eine Debatte um den freien Willen - wo hat das noch mit KI zu tun? Also ganz entfernt, klar - alles hat irgendwie mit allem zu tun, aber konkret?
Ja, eiforbibbsch, Du kannst ja so ein Netter sein, wie aufmerksam von Dir. Ja nun, Kontext, entfernt, aber immerhin, so wie sich das hier im Kreise dreht, und das Niveau der Debatte in Summe ist, also bis auf wenige Ausnahmen, sehe ich da nicht wirklich ein Problem, wenn hier Tatsachenbehauptungen beliebig sind, nicht mehr belegt werden müssen, wenn die Debatte echt nur noch im Kreise rennt, warum nicht mal hier und da noch was reinwerfen?


1x zitiertmelden

Künstliche Intelligenz

18.06.2025 um 19:57
Zitat von nocheinPoetnocheinPoet schrieb:warum kämpfen einige so vehement um die Deutungshoheit und konkret darum, dass sie ganz sicher ein Bewusstsein haben, aber KI auf keinen Fall. Es kann nicht sein, was nicht sein darf?
Ein Rest christlicher Prägung?
Zitat von nocheinPoetnocheinPoet schrieb:aber verdrängen hilft nicht, auch extremes Saufen nicht.
Zitat von nocheinPoetnocheinPoet schrieb:eiforbibbsch
Bregenklödderich?
Zitat von nocheinPoetnocheinPoet schrieb:Du kannst ja so ein Netter sein
Bin ich eigentlich immer, nur äußerst unhöflich.
Zitat von nocheinPoetnocheinPoet schrieb:warum nicht mal hier und da noch was reinwerfen?
Also zumindest wenn es um den freien Willen geht, der verdient und hat ja seinen eigenen Thread.


melden