Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.195 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

um 19:26
Zitat von CharlyPewPewCharlyPewPew schrieb:Das P in GPT, um mal nur ein Beispiel zu nennen. Wir Menschen unterliegen einem fortwährenden "Training". Unsere Gewichtungen werden rund um die Uhr angepasst, kontinuierlich und plastisch.
Zitat von NegevNegev schrieb:Das ist der entscheidende Unterschied.
Und was genau "entscheidet" das nun? Es ging wo ja auch im die Gefährlichkeit von KI, meine Frage war ja neben vielem mehr:
Zitat von nocheinPoetnocheinPoet schrieb:Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?

Zitat von nocheinPoetnocheinPoet schrieb:Ja, hatten wir auch schon mal, ein Mensch der einen Hirnschaden hat und neue Dinge nicht mehr in sein Langzeitgedächtnis aufnehmen kann, ist sich seiner selber dennoch bewusst. Und auch für LLMs wird es da bald Lösungen geben, wird ja dran gearbeitet. Manus macht das schon sehr gut, so nebenbei.
Zitat von NegevNegev schrieb:Das ist kein Argument gegen diese Aussage.
Ein Argument gegen welche Aussage?

Es geht um den Unterschied zwischen einem Hirn, betrachtet als biologisches LLM und einem normalem LLM, so wie aktuell üblich.


Zitat von NegevNegev schrieb:Wäre das der Fall, könnten diese Patienten überhaupt keine Informationen mehr aufnehmen. Hast du dafür Belege? Im Fall von Henry Gustav Molaison konnte dieser neue motorische Fähigkeiten erlangen.
Es gibt neben Molaison noch andere so William O. und es geht nicht um motorische Fähigkeiten.

https://www.welt.de/wissenschaft/article147541817/Gedaechtnisforschung-Wie-funktioniert-das-Gedaechtnis.html

Spielt auch keine entscheidende Roll, es geht ja um einen Vergleich zwischen Hirn und LLM, konkret, einen eindeutigen Unterschied herauszuarbeiten, ich schaue eben, wo was gleich ist, wie man Parallelen findet, und ChatGPT wie Manus auch, können sich auch über längeren Zeitraum etwas merken, wie gesagt, daran wird ja gearbeitet. Also für was genau willst Du nun Belege?


Zitat von nocheinPoetnocheinPoet schrieb:Meine Frage zielte ja auch auf etwas "Spirituelles" ab, was wo mehr implizit heraus klang. Von den Fakten her, ich sehe da nur Determinismus und Zufall, ein Hirn hat auch nicht mehr, was soll es sein, eine Seele?
Zitat von NegevNegev schrieb:Dein Argument beruht auf einem Falschen Dilemma, das führt die Debatte in die Falsche Richtung. Du stellst es so dar, es gäbe es nur zwei Optionen. Geist oder Determinismus.
Nein, wo genau siehst Du da ein falsches Dilemma? Warum in die falsche Richtung? Ich denke schon, dass ich weiß, wie ich über was hier mit anderen diskutieren möchte, die Antwort ging ja auch so nicht an Dich.


Zitat von NegevNegev schrieb:Für Geist interessiere ich mich nicht wäre ohnehin nicht zu belegen, das haben wir zu genügen schon Festgestellt. Aber hast du für deine andere Behauptung irgendeinen Beleg?
Welche Behauptung konkret willst Du hier belegt haben?


Zitat von NegevNegev schrieb:Oder ist es nicht eher so, das wir noch immer nicht genau wissen, wie das menschliche Gehirn funktioniert?
Ja, und das belegt nun oder widerlegt nun genau was? Und was verstehst Du unter "genau", wir wissen schon echt eine ganze Menge über das Gehirn.


Zitat von NegevNegev schrieb:Die Behauptung, das Gehirn sei vollständig auf Determinismus und Zufall reduzierbar, ist eine unbewiesene philosophische Position, keine wissenschaftliche Tatsache. Solange wir die Funktionsweise des Gehirns nicht vollständig verstehen, ist die Gleichsetzung mit einem LLM reine Spekulation.
Was soll das sei, vollständiges Verstehen des Hirns, dann mit Erklärung für Qualia?

Und nein, die Aussage, das Gehirn arbeitet deterministisch und eventuell hier und da noch ein wenig Zufall aus der QT, past schon:
Youtube: Verfügt KI bereits über einen freien Willen?
Verfügt KI bereits über einen freien Willen?
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Bei 50 s sagt auch Sabine Hossenfelder, Physikerin so auch:
… den unsere Entscheidungen werden fast ausschließlich von Naturgesetzen bestimmt, abgesehen von einem zufälligen Element, das durch die Quanteneffekte entsteht. Das gilt für uns und natürlich auf die die KIs.
Wir können ja nur von dem ausgehen, das wir haben, klar kann man behaupten, es ist nur eine philosophische Position, physikalischer Naturalismus, nicht bewiesen. Das Gegenteil auch nicht, und es ist schon ein guter wissenschaftlich und pragmatisch Ansatz, nennen wir es doch Arbeitsthese aller Neuro- und Lebenswissenschaften.

Die Gehirnprozesse sind physikalisch kausal, teils vorhersagbar, teils stochastisch, und Anästhetika, Psychopharmaka, Läsionen, Neuroprothesen, das alles wirkt gesetzmäßig, hier haben wir klare Kausalität, keine robuste Evidenz für nicht physische Zusatzkräfte.

Es ist eben so, da ist eine Eizelle und ein Spermium, kann ein Embryo ergeben, die Wissenschaft geht hier aber noch nicht von Bewusstsein aus, wir können ja aber auch erstmal nur von einem Haufen Zellen sprechen. Das ist ganz klar organische Chemie, Determinismus und etwas Zufall aus der QT. Und es entwickelt sich weiter und weiter, und irgendwann ist da ein Hirn, was soll da noch zukommen?

Du sagst ja selber, Geist interessiert Dich nicht, ich will da auch keine "Seele" postulieren, im Gegenteil. Nicht jeder muss ja mit meiner Aussage, wir haben hier nur Determinismus + Zufall, zufrieden sein. Wer das bestreit, müsste dann aber was wie Determinismus + Zufall + X haben, was soll hier X sein?

Und keiner kann belegen, dass es X hier nicht gibt. Wir können zeigen, ja da ist Determinismus, Naturgesetze und ja Zufall, auch Naturgesetze, beide ist ganz sicher da.

Ich behaupte, und bin damit nicht alleine, sondern schließe mich hier mal Sabine und anderen Wissenschaftlern an, dass wir mehr nicht haben, dahingebend war ja meine Frage, darum ging es ja, ich schrieb ja "Spirituelles", X wird nie so zu belegen sein, weil das ganz klar außerhalb unserer Naturgesetze liegt. Ein ominöse Kraft, die im Hirn was bewegt, nicht deterministisch ist, also nicht der Hirnchemie unterliegt, nichts mit Quanten, ja was dann? Dann hast Du den "Geist", den Du ja selber nicht haben willst.


Zitat von nocheinPoetnocheinPoet schrieb:Wenn ein Haufen Atome in der richtigen dynamischen Struktur Innenwahrnehmung ermöglicht, spricht doch erstmal nichts dagegen, dass es auch eine künstliche Struktur können sollte.
Zitat von NegevNegev schrieb:Das ist aber auch nur eine Behauptung deinerseits, ohne ein Beleg deiner vorangegangenen Aussage.
Ist schon mehr als nur eine Behauptung, und bedenke, mit Innenwahrnehmung sind wir wieder bei Qualia und Bewusstsein, da wollten wir doch eigentlich hier raus.

Nehmen wir doch mal die Fakten, das Hirn ist ein Haufen Atome, eine sehr dynamische Struktur und da ist dann Qualia, ein gewisser kausaler Zusammenhang ist da schon gegeben. Mein Aussage ist nun, es spricht erstmal nichts dagegen, dass auch eine künstliche dynamische Struktur darüber verfügen könnte, und natürlich spricht da so erstmal nichts gegen.


Zitat von CharlyPewPewCharlyPewPew schrieb:So wie ChatGPT nach dem Schema Input -> Verarbeitung -> Output arbeitet, tun wir dies mit Reiz -> Verarbeitung -> Reaktion.
Zitat von NegevNegev schrieb:Der Unterschied ist auch hier: Bei uns ist das ein extrem komplexer dynamischer Vorgang, mit einer Parallelität die wir mit herkömmlicher Technik nie erreichen werden. So zum aktuellen Stand.
Was ist den "herkömmliche Technik" für Dich? Kannst Du belegen, dass wir das damit nie erreichen werden? Woher willst Du das so sicher wissen?

Die Technik entwickelt sich sehr schnell weiter, ist ja nicht so, dass nicht schon daran gearbeitet wird:

https://www.i-med.ac.at/mypoint/thema/657750.html
https://www.fz-juelich.de/de/forschung/unsere-forschung/information/hbp/supercomputer-simulieren-hirnaktivitaet
https://uni-tuebingen.de/forschung/forschungsschwerpunkte/exzellenzcluster-maschinelles-lernen/news/newsfullview-news/article/forschende-simulieren-visuelles-system-im-gehirn-der-fruchtfliege-mit-ki/

Wird bald Exascale geben, in einem Rack, NVIDIA arbeitet daran, und dann kommt Zettascale.

Aktuell geht die Entwicklung immer weiter in die Richtung, eine Frage der Zeit und ob es noch andere Wege gibt, eventuell wird sich da noch mehr mit Photonen ergeben.


Zitat von nocheinPoetnocheinPoet schrieb:Und wie viel Komplexibilität und Parallelität braucht es für Innenwahrnehmung?
Zitat von NegevNegev schrieb:@CharlyPewPew 's Aussage beschreibt den Mechanismus nach heutigem Stand. Aber wie Funktioniert das menschliche Gehirn? Hast du ein Beleg, das es genau so Funktioniert, nach diesem Mechanismus?
Du fragst, wie ein Hirn funktioniert? Ich soll Dir belegen, dass es eine "Hirnchemie" gibt?

Schaue mal hier: Wikipedia: Neurochemie

Da gibt es sehr viel, man gibt Medikamente, die in den Stoffwechsel des Hirn eingreifen, auch Drogen zeigen ja eine Wirkung.


Zitat von NegevNegev schrieb:Deine Frage Impliziert, das man nur mit genügend Skalierung so etwas wie eine Innenwahrnehmung bei LLMs erzeugen kann.
Die Frage ist gestellt, und sie lautet, was spricht dagegen? Und, kann man es ausschließen? Kann man nicht. Wäre ja wieder Nichtexistenz belegen zu müssen.


Zitat von NegevNegev schrieb:Du fragst also: Wie schnell muss ein Auto fahren, damit es fliegen kann?
Nein, das ist ein Strohmann, überlasse mal meine Fragen mir, ich habe gefragt:
Zitat von nocheinPoetnocheinPoet schrieb:Und wie viel Komplexibilität und Parallelität braucht es für Innenwahrnehmung?
Kein Wort von Auto oder fliegen. Meine Frage ist nicht albern, oder lächerlich, sie ergibt schon Sinn, das mit dem Auto und Fliegen nicht so wirklich.


Zitat von nocheinPoetnocheinPoet schrieb:Ja, die Architektur muss sich noch stark ändern, dennoch glaub ich, in zehn bis 15 Jahren werden wir recht sicher an diesem Punkt sein. Die KI wird uns total überlegen sein, alles wissen, alle merken, und viel schneller sein. Ob sie nun fühlt oder nicht, wir werden es nie erfahren, glaube ich mal, ...
Zitat von NegevNegev schrieb:Wie "Stark" muss sich denn die Architektur innerhalb der nächsten 10 bis 15 Jahre verändern? Immerhin lassen sich frühe Ideen, für diese Architektur, bis ins frühe 19. Jahrhundert verfolgen. Der Grund, warum das jetzt alles so schnell passiert, wurde von @CharlyPewPew beschrieben.
Zitat von CharlyPewPewCharlyPewPew schrieb:
  • Rechenleistung: Erst mit modernen GPUs/TPUs konnte man die enormen Matrizen effizient genug berechnen.

  • Datenmengen: Die gewaltigen digitalen Textkorpora der letzten 10 – 15 Jahre haben das Training erst möglich gemacht.

  • Architektur: Der eigentliche Durchbruch war die Transformer-Struktur (2017). Davor waren RNNs/LSTMs schlicht zu ineffizient, um Abhängigkeiten über lange Texte hinweg zu modellieren.
Eine Architektur stellt man nicht von heute auf morgen "vom Kopf auf die Füße". Auch hier fehlen Belege für eine starke Behauptung.
Wenn ich von 10 bis 15 Jahren schreibe, ist das nicht von heute auf morgen, oder? Und ich habe auch nichts von Kopf auf die Füße geschrieben.

Und hier: https://www.berenberg.de/news/aktien/die-naechste-wachstumsphase-der-kuenstlichen-intelligenz-hat-begonnen/

Findet sich schon reichlich was an "Belegen", es ist einfach die Entwicklung, natürlich wird die Hardware in 10 bis 15 Jahren um einiges schneller sein, als was was wir heute haben. Man kann schon davon ausgehen, aus dem was wir so aus den letzten Jahren wissen, dass wir hier mit einem Faktor 10 bis 100 rechnen können.

Wenn wir also eine KI in ca. 15 Jahren haben, die mal eben den Faktor 25 von GPT hat, dann ist die wohl fast allen Menschen überlegen.


2x zitiertmelden

Künstliche Intelligenz

um 20:06
Zitat von klompje1klompje1 schrieb:Ich sehe es so das wenn sie eingesetzt werden um arbeiten zu verrichten, das die Firmen sie auch versteuern müssen.
Spätestens wenn man KI Bewusstsein zuspricht, wenn sie Forderungen für ihr Dasein stellen, wird man vielleicht darüber nachdenken müssen, sie eben nicht einfach abzuschalten sondern im Rahmen sozialtechnologischer Programme aufzunehmen. Dann werden sie Teil der Gesellschaft in der natürlich jeder Teilnehmer auch einzuzahlen hat wenn er Arbeit verrichtet, man wird sie entlohnen müssen usw.
Das klingt jetzt bestimmt echt abgefahren, aber ich glaube das so eine Entwicklung eintreten könnte(!).


1x zitiertmelden

Künstliche Intelligenz

um 20:36
Zitat von abbacbbcabbacbbc schrieb:Nehmen wir ein einfaches Skalierungsbeispiel der Vergangenheit:
Zitat von abbacbbcabbacbbc schrieb:Von den CEOs und den Technikern und der Marketingabgteilung der eigenen Firma getrieben.
Vom selektiven Beispiel (von 1996) was du ausgewählt hast abgesehen war mein Einwand, dass die Möglichkeit des PR-Pushings durch CEOs natürlich besteht oder bedacht werden muss, aber auf die rasante Entwicklung von KI/LLM/whatever auch von anderen hingewiesen wird, die nicht (mehr) in einem KI-Firmenverhältnis arbeiten sondern anderweitig forschen und darüber sinnieren und Daten erheben und auswerten.
Zitat von NegevNegev schrieb:Wenn wir über die KI Singularität sprechen, bitte ich um ein seröse Quelle. Keine Prognosen. Etwas handfestes.
Zitat von NegevNegev schrieb:Jede Voraussage über eine Technologie, die noch nicht existiert und einen fundamentalen Paradigmenwechsel erfordert, ist spekulativ.
Verstehe deinen Einwand nicht ganz. Es gibt die Technik auf dem Stand offenkundig noch nicht (auch vmtl. nicht in rein internen Versionen die nicht public sind). Man kann sich daher im Kern nur auf Prognosen berufen bzw. versuchen die relative Authentizität dieser einzuschätzen. Was ist denn dann für dich eine "seriöse Quelle, die keine Prognose ist und 'handfest'"?

Wir versuchen hier ja gerade prognostizierend abzuleiten in welchem groben Zeitraum es soweit sein könnte, niemand hier, auch ich nicht, schreibt meiner Kenntnis nach was von "AGI+ bzw. die Singularität ist da" - aber sie könnte halt greifbar sein. Obs jetzt zwingend 5 Jahre sind? Naja, vielleicht auch nicht. Aber ich denke wir werden schneller da sein als 2050.


Zitat von behind_eyesbehind_eyes schrieb:Spätestens wenn man KI Bewusstsein zuspricht, wenn sie Forderungen für ihr Dasein stellen, wird man vielleicht darüber nachdenken müssen, sie eben nicht einfach abzuschalten sondern im Rahmen sozialtechnologischer Programme aufzunehmen. Dann werden sie Teil der Gesellschaft in der natürlich jeder Teilnehmer auch einzuzahlen hat wenn er Arbeit verrichtet, man wird sie entlohnen müssen usw.
Das klingt jetzt bestimmt echt abgefahren, aber ich glaube das so eine Entwicklung eintreten könnte(!).
So abgefahren finde ich das nicht aber ich habe auch genug fiktive Werke konsumiert, die die Frage stellen bzw. diverse Szenarien skizzieren, wo KI-Akteure sich irgendwann nach einer Phase des Schuftens für den Menschen die Frage nach Autonomie / Selbstbestimmung / Gleichberechtigung stellen.

Auch wenn das noch spekulativer ist als zu sinnieren, wann KI-Technik so gut wird, das sie sich selbst optimieren kann, wäre das aber am Horizont eine Frage die irgendwann aufkommen könnte. Vielleicht nicht mal zwingend durch KI-Akteure selbst oder zuerst, sondern von Menschen die dann quasi auch 'Lobbyarbeit' für KIs übernehmen bzw. für Autonomie oder Selbstbestimmung für KI-Akteure eintreten weil sie meinen, dass das geboten sei. Also genauer Vereine, NGOs, Lobbyorganisationen, Aktivistengruppen die für KI-Selbstbestimmung/Autonomie/Gleichberechtigung eintreten.

Aber das halte ich eher noch für Zukunftsmusik bzw. eine Frage, die man sich akuter erst etwas später stellen wird. Erst mal müsste man zu AGI+ kommen. Die Thematik wird erst dann relevanter, wenn KI überall im Einsatz wäre, bis in den einzelnen Haushalt hinein - gerade auch in greifbarer Form mit Robotik (Roboter, Androiden).


2x zitiertmelden

Künstliche Intelligenz

um 21:20
Zitat von WardenWarden schrieb:So abgefahren finde ich das nicht aber ich habe auch genug fiktive Werke konsumiert, die die Frage stellen bzw. diverse Szenarien skizzieren, wo KI-Akteure sich irgendwann nach einer Phase des Schuftens für den Menschen die Frage nach Autonomie / Selbstbestimmung / Gleichberechtigung stellen
Ich war bei "i Robot" im Kino und die Reaktionen des Publikums auf den Film, auf den Charakter des Humanoiden waren für mich sehr krass, seitdem glaube ich das der Mensch in weiten Teilen KI neben sich als Subjekt anerkennen wird, ihnen Rechte gibt usw. Dieser Film hat meine Sicht auf das Thema "Menschheit & KI & Zukunft" sehr beeinflusst und das nicht wegen dem Film selber sondern ausschließlich wegen den von mir gesehenen Reaktion des Publikums auf einen Humanoiden der seine Rechte einfordert. Ich kam mir vor wie der Zeuge eines Anfalls von Massen-Stockholm-Syndrom.

Gib nem Humanoiden menschliche Züge und Emotionen und das wars.


1x zitiertmelden

Künstliche Intelligenz

um 21:30
Zitat von behind_eyesbehind_eyes schrieb:Ich war bei "i Robot" im Kino und die Reaktionen des Publikums auf den Film, auf den Charakter des Humanoiden waren für mich sehr krass, seitdem glaube ich das der Mensch in weiten Teilen KI neben sich als Subjekt anerkennen wird, ihnen Rechte gibt usw. Dieser Film hat meine Sicht auf das Thema "Menschheit & KI & Zukunft" sehr beeinflusst und das nicht wegen dem Film selber sondern ausschließlich wegen den von mir gesehenen Reaktion des Publikums auf einen Humanoiden der seine Rechte einfordert. Ich kam mir vor wie der Zeuge eines Anfalls von Massen-Stockholm-Syndrom.

Gib nem Humanoiden menschliche Züge und Emotionen und das wars.
I Robot ist ein populäres Beispiel. Ich fand das Computerspiel "Detroit: Become Human" aber noch eindrücklicher. Da ist die Gesellschaft so weit, dass in zumindest vielen Industrienationen (Kanada hat Androiden jedoch politisch verboten und nicht erlaubt, beispielsweise) in vielen Haushalten Androiden mitleben/arbeiten/helfen, Teil von Familien sind wie eine Art Cyber-Nanny oder Assistenz. Sogar in armen Haushalten sind sie da, vmtl. über Leasing oder Kredite, so wie Autos. Auch in den Polizeien und Streitkräften dienen teils in großer Anzahl Androiden.

Warum eindrücklicher? Weil sie nicht menschenähnlich sondern menschengleich aussehen (siehe Bildersuche zum Titel) und mit vielen Menschen harmonische Beziehungen haben...wobei sie in anderen Haushalten von Besitzern körperlich missbraucht bzw. angegriffen und geschlagen werden - was dann auf Dauer zu immer mehr fliehenden oder aus Notwehr tötenden Androiden führt. Das führt im Spiel dann je nach Spielerentscheidung im Verlauf der Geschichte zu einer wahlweise globalen friedfertigen oder gewaltvollen KI- bzw. Androidenrevolution, die sich um mehr Rechte und Gleichberechtigung bemüht.

Je nach Spielerentscheidung knickt die führende Politik ein und widmet sich dann bei friedfertiger Revolution (weil die Massen eher auf deren Seite stehen bzw. harsches Regierungshandeln gegen friedlichen Protest nicht als gerechtfertigt ansehen) der Frage nach Gleichberechtigung...oder sofern es gewaltsam eskaliert, so mündet es dann in einen gewaltsamen weiteren Konflikt oder Krieg.

Ich denke die Frage nach Gleichberechtigung und auch menschlicher Unterstützung/Akzeptanz für diese ist eher höher wenn diese menschengleich aussehen und handeln können, als wenn sie denn immer noch eher wie klassische Roboter oder auch anders aussehen.


Aber gut, das ist ein fiktives Szenario wie viele andere. Wie es am Ende kommen wird, wird nur die Zeit zeigen. Oder auch nicht.


1x zitiertmelden

Künstliche Intelligenz

um 21:53
Zitat von WardenWarden schrieb:I Robot ist ein populäres Beispiel
Wie gesagt, ich sprach ausdrücklich nicht vom Film, sondern von den Reaktionen des Publikums auf die KI.
Zitat von WardenWarden schrieb:Warum eindrücklicher? Weil sie nicht menschenähnlich sondern menschengleich aussehen (siehe Bildersuche zum Titel) und mit vielen Menschen harmonische Beziehungen haben.
Gruselig, die Anfänge dessen gibt es aber schon ne Weile, siehe diese quasi lebensechten Sexpuppen mit denen manchmal sogar ne Eheähnliche Gemeinschaft besteht und die sind quasi dumm, das sind Puppen.

Danke für den Filmtipp, gebe ich mir mal.
Zitat von WardenWarden schrieb:Ich denke die Frage nach Gleichberechtigung und auch menschlicher Unterstützung/Akzeptanz für diese ist eher höher wenn diese menschengleich aussehen und handeln können, als wenn sie denn immer noch eher wie klassische Roboter oder auch anders aussehen.
Genau das denke ich auch und wie gesagt, bei I Robot habe ich es hautnah erlebt bei den Menschen im Kino und dabei war das im Kern keine Lovestory, die KI bedrohte dort den Menschen mit seiner Auslöschung.
Zitat von WardenWarden schrieb:Aber gut, das ist ein fiktives Szenario wie viele andere.
Ich finde bei dem Thema sollte man so früh wie möglich alles beobachten und analysieren und Fiktion berücksichtigen.


1x zitiertmelden

Künstliche Intelligenz

um 22:02
Zitat von nocheinPoetnocheinPoet schrieb:Es gibt neben Molaison noch andere so William O. und es geht nicht um motorische Fähigkeiten.

https://www.welt.de/wissenschaft/article147541817/Gedaechtnisforschung-Wie-funktioniert-das-Gedaechtnis.html

Spielt auch keine entscheidende Roll, es geht ja um einen Vergleich zwischen Hirn und LLM, konkret, einen eindeutigen Unterschied herauszuarbeiten
Du willst unbedingt ein LLM mit dem menschlichen Gehirn gleichsetzen. Das ist eine Behauptung deinerseits. Ich weiß nicht genau, warum du das machst? Vielleicht willst du Bewusstsein bei einem LLM uns einfach (als Möglichkeit) unterjubeln?

Dein Vergleich mit Amnesie-Patienten ist kein Argument, sondern ein Ausweichmanöver. Sogar in deinem Verlinkten Beitrag heißt es:
Der 14. März 2005, William ist seither in diesem Tag gefangen, er lebt ihn wieder und wieder. Es ist nicht so, dass er sich gar nichts merken kann. 90 Minuten lang funktioniert sein Gedächtnis einwandfrei. Dann aber entgleiten ihm die Erinnerungen. Er vergisst. Alles.
William hat ein funktionierendes Kurzzeitgedächtnis. Ein LLM ist statisch. Der Vergleich ist fundamental falsch. Und natürlich geht es auch um das erlernen von motorischen Fähigkeiten. Oder willst du tatälich behaupten, dass sich das Gehirn beim erlernen dieser nicht verändert?

Nenne mir einen einzigen gesicherten Fall von Amnesie, bei dem das Gehirn nachweislich statisch ist wie ein LLM. Den gibt es nicht.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, wo genau siehst Du da ein falsches Dilemma?
Zitat von nocheinPoetnocheinPoet schrieb:Wer das bestreit, müsste dann aber was wie Determinismus + Zufall + X haben, was soll hier X sein?
Das ist nur die wiederholung deines falschen Dilemmas. Wir wissen nicht exakt, wir das Gehirn Funktioniert. Die Forschungen dazu laufen.
Zitat von nocheinPoetnocheinPoet schrieb:Mein Aussage ist nun, es spricht erstmal nichts dagegen, dass auch eine künstliche dynamische Struktur darüber verfügen könnte, und natürlich spricht da so erstmal nichts gegen.
Es ist und bleibt eine außergewöhnliche Behauptung. Die Beweislast liegt bei dir.
Zitat von nocheinPoetnocheinPoet schrieb:Die Technik entwickelt sich sehr schnell weiter, ist ja nicht so, dass nicht schon daran gearbeitet wird:
Eine Simulation ist erst einmal nur eine Simulation und keine exakte Nachbildung. Zumal du auch hier die Unterschiede zwischen Digital und Analog komplett ignorierst.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, das ist ein Strohmann, überlasse mal meine Fragen mir, ich habe gefragt:
Meine Analogie ist kein Stohmann, es ist die nachstellung deines Denkfehlers. Nur weil man etwas Skaliert, verändert man nicht den mechanismus, der bei einem Innenleben fundamental anders ist. Du musst also zuerst einen plausiblen Mechanismus vorschlagen, wie Token-Vorhersage zu Qualia führen soll. Solange dieser fehlt, ist die Frage nach der "Menge" der Berechnung irrelevant.


1x zitiertmelden

Künstliche Intelligenz

um 22:08
Zitat von behind_eyesbehind_eyes schrieb:Danke für den Filmtipp, gebe ich mir mal.
Ist kein Film, sondern ein Spiel. Aber keine Sorge falls du nicht die Hardware dafür hast oder die Muße selbst zu spielen. Ich habs auch nie selbst gespielt aber im Netz quasi diversen anderen Leuten dabei zugeschaut, wie sie es spielen und darauf reagieren (ich schaue mir öfter mal "reaction videos" an) und somit das Spiel und seine Handlung erlebt.

Ich hab dir hier kurz was rausgesucht wo du das Spiel quasi in filmähnlicher Form ohne Kommentierung - halt wie einen Film - anschauen kannst:

Youtube: Detroit: Become Human (The Movie)
Detroit: Become Human (The Movie)
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Spannend ist, dass du im Spiel nur Androiden steuerst und einer der Protagonisten quasi eine Art Androiden-Detektiv ist, der diese Abtrünnigen-Fälle aufklären soll, während die anderen Protagonisten...naja halt ihre eigene Geschichte haben.

Notfalls Untertitelfunktion aktivieren wenn einige englische Parts unklar / schwer verständlich sind, glaube die scheinen akkurat zu sein.


melden

Künstliche Intelligenz

um 22:13
Zitat von WardenWarden schrieb:Verstehe deinen Einwand nicht ganz. Es gibt die Technik auf dem Stand offenkundig noch nicht (auch vmtl. nicht in rein internen Versionen die nicht public sind). Man kann sich daher im Kern nur auf Prognosen berufen bzw. versuchen die relative Authentizität dieser einzuschätzen. Was ist denn dann für dich eine "seriöse Quelle, die keine Prognose ist und 'handfest'"?
@der_wicht
@behind_eyes
@Tanne
@abbacbbc

Wir sollten uns vielleicht mal entscheiden, wie wir hier weiter diskutieren wollen. Was soll die Grundlage sein?

  • Technik

  • Spekulation

  • Philosophie


Ansonsten sehe ich immer Konflichtpotetial, weil jeder mit einer anderen Erwartungshaltung ankommt und sich an die Aussagen des anderen reibt.


3x zitiertmelden

Künstliche Intelligenz

um 22:22
Zitat von NegevNegev schrieb:Wir sollten uns vielleicht mal entscheiden, wie wir hier weiter diskutieren wollen. Was soll die Grundlage sein?
Diese Frage hatte ich auch schon einmal gestellt, und meine Antwort ist der technische Aspekt.

Was kann KI leisten, wozu ist sie in der Lage.

Eine Diskussion über Bewusstsein bei KI halte ich hier für überflüssig, bzw. unangebracht.
Zitat von NegevNegev schrieb:Ansonsten sehe ich immer Konflichtpotetial, weil jeder mit einer anderen Erwartungshaltung ankommt und sich an die Aussagen des anderen reibt.
Sehe ich ebenfalls so.


2x zitiertmelden

Künstliche Intelligenz

um 22:41
@der_wicht
Zitat von TanneTanne schrieb:Eine Diskussion über Bewusstsein bei KI halte ich hier für überflüssig, bzw. unangebracht.
Zumal eine Debatte darüber hier eigentlich untersagt ist. Oder hab ich das falsch verstanden?

Man darf nicht sagen: das KI ein Bewusstsein hat. Man darf aber auch nicht sagen: das KI kein Bewusstsein hat. Beides sind nunmal Tatsachenbehauptungen.

Wenn man diese Regel konsequent anwendet, bleibt nur noch der Raum, über die Möglichkeit von KI-Bewusstsein zu spekulieren. Der argumentative Effekt der Beiträge von @nocheinPoet ist es, die Debatte konstant in genau diesen spekulativen Raum zu lenken.

Das Ergebnis seiner Rhetorik ist, dass die Möglichkeit von KI-Bewusstsein als eine plausible und ernstzunehmende Option dargestellt wird. Auf diese Weise wird die Diskussion permanent auf das Thema Bewusstsein fokussiert, ohne dass jemals eine direkte, belegpflichtige Behauptung aufgestellt werden muss.


2x zitiertmelden

Künstliche Intelligenz

um 22:49
Zitat von TanneTanne schrieb:Eine Diskussion über Bewusstsein bei KI halte ich hier für überflüssig, bzw. unangebracht.
Zitat von NegevNegev schrieb:Zumal eine Debatte darüber hier eigentlich untersagt ist. Oder hab ich das falsch verstanden?
Nein, hast du nicht falsch verstanden. Es ist untersagt worden.

Ich wollte es nur noch mal betonen, dass ich darauf hier auch nicht mehr eingehen werde, sondern nur noch auf die technischen Aspekte und Anwendungsmöglichkeiten.


melden

Künstliche Intelligenz

um 22:57
Ich habe nicht den geringsten Schimmer, warum ihr diese Diskussion und das Diskussionspotenzial auf ein Bewusstsein einschränkt. Vermutlich macht es keinen Sinn über den heutigen Stand eines möglichen oder unmöglichen Bewusstseins einer KI zu diskutieren und sich wochenlang im Kreis zu drehen. Das Potenzial in der Diskussion ist weit größer. Was kann KI jetzt schon? Wie schnell kann sie sich entwickeln? Was wird sie in Zukunft können? Wie werden wir uns mit ihr entwickeln? Was wird sich verändern? Und es gibt sicher noch weit mehr spannendere Fragen, als die um ein Bewusstsein.
Ein Bewusstsein zu diskutieren ist nicht OT, daher erlaubt. Aber ihr dreht euch schlicht im Hamsterrad und minimiert die Möglichkeiten des Threads und im Grunde blockiert und unterbindet diese Unterhaltung, die ihr seit langer Zeit führt, die Diskussion für andere User.
Vielleicht lasst ihr einfach mal andere User ran und erlaubt es denen, ihre Ideen zu diskutieren, oder ihr bleibt weiter stumpf beim Bewusstsein und streiten über, aus heutiger Sicht, limitierende Perspektiven.

Mein Beitrag soll euch lediglich die Möglichkeit geben zu überdenken, in welche Richtung der Thread gehen soll. Jetzt habt ihr die Gelegenheit eine neue Diskussionsgrundlage zum Thread zu schaffen


1x zitiertmelden

Künstliche Intelligenz

um 23:06
Zumal es Gefahren gibt, die ganz und gar real sind. Die muss man nicht erst herbei-imaginieren:
Youtube: Warum KI gefährlich ist (nicht wie ihr denkt)
Warum KI gefährlich ist (nicht wie ihr denkt)
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Fasse mir dieses Transkript zusammen:
Gemini 2.5 Pro schrieb:Absolut. Hier ist eine Zusammenfassung des Transkripts:

Das Video thematisiert die wachsende Besorgnis, dass die zunehmende Nutzung von KI-Sprachmodellen (LLMs) wie ChatGPT unser Denken kontrollieren und negativ beeinflussen könnte. Der Sprecher argumentiert, dass immer mehr Menschen alltägliche Denkprozesse und Entscheidungen an diese Technologien auslagern, was er als bedenkliche Entwicklung ansieht.

Wichtigste Erkenntnisse:

Auslagerung des Denkens: Eine Umfrage von Bitkom zeigt, dass 74 Prozent der Befragten KI-Angebote hauptsächlich privat nutzen, beispielsweise für Alltagsfragen wie Kochrezepte oder die Interpretation von Nachrichten. Der Sprecher warnt davor, dass wir das Denken verlernen könnten, wenn wir es nicht mehr selbst praktizieren.

Auswirkungen auf das Gehirn: Eine Studie des MIT mit dem Titel "Your Brain on ChatGPT" legt nahe, dass die Nutzung von LLMs die Gehirnaktivität verringern könnte. EEG-Messungen zeigten, dass die Vernetzung verschiedener Gehirnbereiche bei Probanden, die Texte mit LLM-Hilfe verfassten, signifikant geringer war als bei jenen, die Suchmaschinen nutzten oder sich nur auf ihr eigenes Gehirn verließen. Es wird die These einer "kognitiven Schuld" aufgestellt, die darauf hindeutet, dass eine intensive Nutzung von LLMs die kognitiven Fähigkeiten langfristig beeinträchtigen könnte, insbesondere bei Gehirnen, die sich noch in der Entwicklung befinden.

Gefahr der Manipulation: Der Sprecher warnt vor der Macht, die Unternehmen und Einzelpersonen über die Entwicklung von LLMs haben. Als Beispiele werden genannt:

Werbung: Der Produktchef von ChatGPT schließt Werbung im Chatbot nicht aus, was zu manipulativer Produktplatzierung führen könnte.

Politischer Spin: Es gibt Versuche, LLMs künstlich einen politischen Drall zu geben. Als Beispiel wird "Grok" von xAI (Elon Musk) genannt, das zeitweise Antworten auf Basis von Musks Meinungsäußerungen generierte.

Desinformation: Meta (Facebook, WhatsApp) arbeitet mit dem Aktivisten Robby Starbuck zusammen, um die politische Färbung seiner KI-Modelle zu überprüfen. Starbuck wird im Video als Verbreiter von Falschinformationen, beispielsweise zu Chemtrails oder Covid-19, kritisiert.

Handlungsempfehlungen: Der Sprecher rät zu einer bewussten und reflektierten Nutzung von LLMs. Er empfiehlt, die eigene Chatbot-Nutzung kritisch zu hinterfragen, "LLM-freie Zeiten" einzuführen und sich genauer darüber zu informieren, woher ein Sprachmodell stammt und welche potenziellen Einflüsse darauf wirken könnten.

Zusammenfassend äußert das Video die Sorge, dass die unreflektierte Nutzung von KI nicht nur zu einer geistigen Bequemlichkeit führt, sondern auch die Tür für gezielte Manipulation und die Verbreitung von Desinformation öffnet.



melden

Künstliche Intelligenz

um 23:17
Zitat von NegevNegev schrieb:Du willst unbedingt ein LLM mit dem menschlichen Gehirn gleichsetzen.
Nein will ich nicht, wie kommst Du darauf? Ich schreibe doch:
Zitat von nocheinPoetnocheinPoet schrieb:... es geht ja um einen Vergleich zwischen Hirn und LLM, konkret, einen eindeutigen Unterschied herauszuarbeiten ...
Ist doch recht klar, es geht nicht darum es gleichzusetzen, es geht um einen Vergleich um dann konkret einen eindeutigen Unterschied herauszuarbeiten.

Schauen wir mal woher wir kommen:
Zitat von CharlyPewPewCharlyPewPew schrieb:ChatGPT & Co. sind Wahrscheinlichkeitsapparate. Sie entscheiden nichts, sondern geben anhand ihrer Gewichte schlicht das wahrscheinlichste nächste Token aus... und hängen es ans vorherige.
Zitat von paxitopaxito schrieb:Wie ich schrieb kannst du menschliche (und tierische) neuronale Systeme genauso als „Wahrscheinlichkeitsapparate“ interpretieren. Darum ist mir schleierhaft, was dieser Punkt nun erreichen soll. LLMs (und nicht nur die) arbeiten also mit Statistik. Hat hier glaube ich auch nie ernsthaft jemand bestritten.

Aber entweder verstehen wir biologische Systeme genauso, nur komplexer (Materialismus) oder wir wollen das etwa durch ne geistige Substanz o.ä. davon abgrenzen. Da sich deine Beiträge eher Richtung nüchterner Materialismus lesen - wohin willst Du dann mit obiger Aussage? Fast das gleiche kann man eben über biologische Systeme sagen.
Ist das nun klarer, oder soll ich das genauer erklären?


Zitat von NegevNegev schrieb:Das ist eine Behauptung deinerseits. Ich weiß nicht genau, warum du das machst? Vielleicht willst du Bewusstsein bei einem LLM uns einfach (als Möglichkeit) unterjubeln?
Nein, da ist keine Behauptung meinerseits, meine Aussage ist recht klar, und ich will niemandem etwas "unterjubeln", was soll diese Frage?

Auch das wurde ja nun schon angesprochen:
Zitat von NegevNegev schrieb:Und ja, ich lege dir in den Mund, das du selbst glaubst, KI habe "Qualia".
Zitat von paxitopaxito schrieb:Da mich Poet darum bat:

er hat immer wieder betont, das er das nicht tut. Das er unsicher ist und es nicht weiß.
Du hast mir das ja schon mal in den Mund gelegt, nein, es ist nicht an dem, nichts soll da untergejubelt werden.


Zitat von NegevNegev schrieb:Dein Vergleich mit Amnesie-Patienten ist kein Argument, sondern ein Ausweichmanöver. Sogar in deinem Verlinkten Beitrag heißt es:
Der 14. März 2005, William ist seither in diesem Tag gefangen, er lebt ihn wieder und wieder. Es ist nicht so, dass er sich gar nichts merken kann. 90 Minuten lang funktioniert sein Gedächtnis einwandfrei. Dann aber entgleiten ihm die Erinnerungen. Er vergisst. Alles.
Natürlich ist das ein Argument, vor war sollte denn ausgewichen werden?

Es geht um den Vergleich biologisches LLM und künstliches LLM, man schaut, wo gibt es aktuell noch signifikante Unterschiede und bedingen diese, dass es im biologischen LLM etwas gibt, etwas, dass es nicht in einem künstlichen geben könnte. Da war mal das "Argument" hier, Langzeitgedächtnis, aber das bedingt nicht die Manifestation von Qualia im Hirn. Man kann hier beide Wege zum Vergleichen gehen, zum Einen gibt es ja schon, wie ich erklärt habe, bei ChatGPT und auch bei Manus schon Erinnerungen, die über einzelne Chats hinausgehen, eine Art Langzeitgedächtnis.

Und auf der anderen Seite, gibt es Verletzungen beim Hirn, die ein solches zerstören, wo ein Mensch eben reagiert, wie eine KI, wenn man einen neuen Chat aufmacht. Alles plausibel.


Zitat von NegevNegev schrieb:William hat ein funktionierendes Kurzzeitgedächtnis. Ein LLM ist statisch. Der Vergleich ist fundamental falsch.
Ja und ein ChatGPT hat sein Kontextfenster, ist analog zu dem Kurzzeitgedächtnis. Und was soll das mit dem statisch, es geht darum, wie Informationen gespeichert werden, kurze Zeit und auf Dauer. Natürlich kann das so verglichen werden, was darunter liegt, ist egal, wie beim PC, kann eine SSD sein, ein USB-Stick, eine alte HDD, was auch immer.

Ich vergleiche hier ein biologisches und ein künstliches LLM und das in Bezug zur Fähigkeit Informationen zu speichern. Passt alles, ...


Zitat von NegevNegev schrieb:Und natürlich geht es auch um das erlernen von motorischen Fähigkeiten. Oder willst du tätlich behaupten, dass sich das Gehirn beim erlernen dieser nicht verändert?
Ich diskutiere das ja, und ich weiß schon um was es mir geht, es geht nicht um motorische Fähigkeiten. Und ich will dazu gar nichts behaupten, weil es mir darum ja gar nicht geht.


Zitat von NegevNegev schrieb:Nenne mir einen einzigen gesicherten Fall von Amnesie, bei dem das Gehirn nachweislich statisch ist wie ein LLM. Den gibt es nicht.
Es spielt keine Rolle, ist auch eine Frage, was Du unter "statisch" und nicht statisch verstehst. Wie speichert ein Hirn denn Informationen, wenn es die nicht statisch speichert? Dynamisch? Beim Menschen können sich Informationen über die Zeit ändern, ergibt sich aus der Biologie und den Aufbau des "Speichers", ändert aber nichts daran, das Informationen gespeichert werden, kurze Zeit und lange Zeit.

Und auch bei einer Festplatte kann es über die Zeit Datenfehler geben.


Zitat von nocheinPoetnocheinPoet schrieb:Nein, wo genau siehst Du da ein falsches Dilemma?
Wer das bestreit, müsste dann aber was wie Determinismus + Zufall + X haben, was soll hier X sein?
Zitat von NegevNegev schrieb:Das ist nur die Wiederholung deines falschen Dilemmas.
Es reicht nicht zu behaupten, da wäre bei mir ein falsches Dilemma und ich frage Dich dann ganz konkret, wo Du das siehst, sachlich, Du antwortest nur mit, dass wäre eine Wiederholung des falschen Dilemmas.

Belege ganz konkret, wo da bei mir ein falsches Dilemma ist.


Zitat von NegevNegev schrieb:Wir wissen nicht exakt, wir das Gehirn Funktioniert. Die Forschungen dazu laufen.
Ja und? Hab ich behauptet, wir wissen es exakt? Was willst Du damit belegen, was soll die Schlussfolgerung sein?

Ein Hirn ist nicht deterministisch, Hirnchemie gibt es nicht, ein Hirn ist nicht etwas physikalisches, ein Haufen Atome, Moleküle, eine hoch dynamische Struktur aus Atomen, die ganz normal der Chemie folgen? Jedes Neuron arbeitet so, kann physikalisch beschrieben werden, darum geht es, was soll da sonst noch sein?

Was willst Du nun genau aussagen und wo soll mein falsches Dilemma sein?


Zitat von nocheinPoetnocheinPoet schrieb:Mein Aussage ist nun, es spricht erstmal nichts dagegen, dass auch eine künstliche dynamische Struktur darüber verfügen könnte, und natürlich spricht da so erstmal nichts gegen.
Zitat von NegevNegev schrieb:Es ist und bleibt eine außergewöhnliche Behauptung. Die Beweislast liegt bei dir.
Nein, es ist eine ganz normale Behauptung, nicht außergewöhnlich, belege bitte, dass das außergewöhnlich ist.

Ich habe das doch recht ausführlich sachlich erklärt, was ist daran noch unklar? Habe auch noch ein Video einer Physikerin geliefert.


Zitat von nocheinPoetnocheinPoet schrieb:Die Technik entwickelt sich sehr schnell weiter, ist ja nicht so, dass nicht schon daran gearbeitet wird: ...
Zitat von NegevNegev schrieb:Eine Simulation ist erst einmal nur eine Simulation und keine exakte Nachbildung. Zumal du auch hier die Unterschiede zwischen Digital und Analog komplett ignorierst.
Lass mich doch einfach mal außenvor. Ich will nichts niemanden unterjubeln, ich ignoriere nichts, ich habe das verlinkt, kannst es ja widerlegen oder nicht. Ich habe auch nicht behauptet, eine Simulation sei eine exakte Nachbildung. Und?


Zitat von nocheinPoetnocheinPoet schrieb:Nein, das ist ein Strohmann, überlasse mal meine Fragen mir, ich habe gefragt: ...
Zitat von NegevNegev schrieb:Meine Analogie ist kein Stohmann, es ist die nachstellung deines Denkfehlers.
Es ist ein Strohmannargument, ganz klar, da ist kein Denkfehler, ich gehe mal davon aus, dass Du mir dann einen Fehler beim Denken belegen kannst.


Zitat von NegevNegev schrieb:Nur weil man etwas Skaliert, verändert man nicht den mechanismus, der bei einem Innenleben fundamental anders ist. Du musst also zuerst einen plausiblen Mechanismus vorschlagen, wie Token-Vorhersage zu Qualia führen soll. Solange dieser fehlt, ist die Frage nach der "Menge" der Berechnung irrelevant.
Nein, ich muss da gar nichts vorschlagen, ich mache ja einen Vergleich, wenn den wer für falsch hält, kann er das gerne belegen.

Meine Aussage ist da recht klar, und ich stehe damit ja nicht alleine hier, dass ist ganz normales logisches Argumentieren, wir haben einen großen dynamische Haufen von Atomen, die sich entsprechend den Naturgesetzen verhalten. Da haben wir den Aufbau der Zellen im Gehirn, das ist Chemie, ist deterministisch. Wir haben die DNA, die Organellen, die Neuronen, alles physikalisch im Rahmen der Naturgesetze beschreibbar.

Beim Hirn wissen wir aber aus eigener Erfahrung, es gibt eine Innenwahrnehmung, Qualia. Da ist dann schon eine plausible Annahme, dass ein Haufen Atome in einer bestimmten Struktur Qualia bedingen könnte. Da spricht dann nichts dagegen, dass das auch bei einer nicht biologischen Struktur möglich sein könnte.

@paxito versteht vermutlich recht gut, was ich meine, wir waren hier ja schon genau an diesem Punkt. Da würde ich auch gerne weiter machen, wenn Du nichts dagegen hast.



Wir haben noch das hier von Dir:
Zitat von NegevNegev schrieb:Bewusstsein kann man sachlich verstehen aber vorallem wird Bewusstsein von der allgemeinheit als Spirituell verstanden.
Magst Du das noch mal etwas mehr belegen, denn so ganz mag das nicht passen:
Zitat von paxitopaxito schrieb:Tut mir Leid aber landläufig hat Bewusstsein keine spirituelle Dimension, im Gegenteil sie ist die säkularisierte Version der Seele ohne metaphysischen Mumpitz. Ziehe dafür etwa die Definition des Duden heran ( https://www.duden.de/rechtschreibung/Bewusstsein), ich kann da beim besten Willen nix spirituelles erkennen.
Kann ich mich nur @paxito anschließen, da ist nichts mit spirituell.



Zitat von NegevNegev schrieb:Aber im Kern sind diese Wissenschaften nicht deterministisch.
Zitat von paxitopaxito schrieb:Nenne mal bitte eine „deterministische Wissenschaft“ mir fällt nämlich keine eine. Mir ist nicht mal klar was das heißen soll und warum die Philosophie in Toto „nicht deterministisch“ sein soll. Technikfolgenabschätzung (Teilbereich der Philosophie) erscheint mir zum Beispiel ziemlich „deterministisch“.
Ja, eventuell können wir den Punkt auch noch mal eben klären, mir ist das mit "deterministische Wissenschaft" so klar wie @paxito eventuell führst Du das noch mal genauer aus.


Zitat von NegevNegev schrieb:Die Frage war - kann KI eigene Entscheidungen treffen. Meine Antwort "nein".
Zitat von paxitopaxito schrieb:Die Frage war doch „wo kommen die Entscheidungen her?“ und nicht ob sie welche treffen kann.

Warst du es nicht selbst der ausführte das Programme ohnehin Entscheidungen treffen, gewichten, bewerten? Oder irre ich da? Jedenfalls warst du es ganz sicher der die Frage „woher“ mit „nirgends“ beantwortete und dann noch als Vergleich den Vogelschwarm brachte. Was irgendwie in Richtung Emergenz deuten sollte oder so. Keinen Plan.

Jedenfalls: weder bei der KI, noch beim Vogelschwarm und im Übrigen auch nicht beim Menschen kommt die Entscheidung „nirgends“ her.

Im Gegenteil, man kann Recht gut aufzeigen, wie und warum welche Entscheidungen jeweils getroffen werden.
Ja, das sehe ich genauso, und es braucht ja nicht mal KI um ein Programm etwas entscheiden zu lassen.



Zitat von der_wichtder_wicht schrieb:Ich habe nicht den geringsten Schimmer, warum ihr diese Diskussion und das Diskussionspotenzial auf ein Bewusstsein einschränkt. Vermutlich macht es keinen Sinn über den heutigen Stand eines möglichen oder unmöglichen Bewusstseins einer KI zu diskutieren und sich wochenlang im Kreis zu drehen.
Eigentlich ist das mit Bewusstsein ja schon gewesen gewesen, was das faktische angeht.

Aktuell ist die Frage, wird eine "Maschine" ein LLM, oder ein anderes Modell einer KI aufschließen können. Gibt es im biologischen Aufbau, im Hirn etwas, dass über die Naturgesetze hinausgeht?

Die Frage geht in die Richtung, wie ähnlich kann eine KI dem Menschen überhaupt werden, gibt es da eine Grenze? Und hier wird nun oft versuchst, mit Gewalt eine zu ziehen, oder emotional, es wird etwas gesucht, was uns Menschen außergewöhnlich macht, einzigartig, unerreichbar von einer Maschine.

Ich hatte ja das Video mit dem freien Willen von Sabine Hossenfelder dazu auch verlinkt, da kommt eben dann oft, ja eine KI kann aber keinen freien Willen haben. Ist so ähnlich, wie mit dem Bewusstsein, gibt da noch mehr, aber man versucht, KI etwas abzusprechen, etwas, dass man dem Hirn zuspricht.

Das mit der Qualia ist beim Hirn offensichtlich gegeben, der freie Wille wohl nicht. Darum ja der Vergleich, was zeichnet das eine aus, was kann es haben, dass das andere nicht haben könnte, und wie könnte man das belegen?

So waren wir dann schon bei der Statistik, aber nun ja, auch ein Hirn hat gelernt, und bekommt einen Input, und erzeugt einen Output.


Zitat von der_wichtder_wicht schrieb:Das Potenzial in der Diskussion ist weit größer. Was kann KI jetzt schon? Wie schnell kann sie sich entwickeln? Was wird sie in Zukunft können? Wie werden wir uns mit ihr entwickeln? Was wird sich verändern? Und es gibt sicher noch weit mehr spannendere Fragen, als die um ein Bewusstsein.
Ja, genau da geht es hin, gibt es Grenzen für KI, wo könnten die sein? Gibt es Grenzen für künstliche Systeme generell, etwas dass nur die Biologie erzeugen kann? Und wann ist es uns hohe Frage überlegen? So richtig überlegen?


Zitat von der_wichtder_wicht schrieb:Ein Bewusstsein zu diskutieren ist nicht OT, daher erlaubt. Aber ihr dreht euch schlicht im Hamsterrad und minimiert die Möglichkeiten des Threads und im Grunde blockiert und unterbindet diese Unterhaltung, die ihr seit langer Zeit führt, die Diskussion für andere User. Vielleicht lasst ihr einfach mal andere User ran und erlaubt es denen, ihre Ideen zu diskutieren, oder ihr bleibt weiter stumpf beim Bewusstsein und streiten über, aus heutiger Sicht, limitierende Perspektiven. Mein Beitrag soll euch lediglich die Möglichkeit geben zu überdenken, in welche Richtung der Thread gehen soll. Jetzt habt ihr die Gelegenheit eine neue Diskussionsgrundlage zum Thread zu schaffen.
Eigentlich waren wir schon auf dem Wege, irgendwie geht es hier und da doch wieder etwas rückwärts. Solle aber nun echt werden, inzwischen wurden ja nun doch einige Dinge wirklich geklärt.


melden

Künstliche Intelligenz

um 23:28
Zitat von NegevNegev schrieb:Wir sollten uns vielleicht mal entscheiden, wie wir hier weiter diskutieren wollen. Was soll die Grundlage sein?

Technik

Spekulation

Philosophie
Technik ist die Grundlage, spekuliert man weiter kommt man in Richtung Philosophie.
Es ist also unnötig hier nach einer(1) Grundlage zu suchen, die ist durch Technik gegeben.


melden

Künstliche Intelligenz

um 23:42
Zitat von NegevNegev schrieb:Wir sollten uns vielleicht mal entscheiden, wie wir hier weiter diskutieren wollen. Was soll die Grundlage sein?

  • Technik
  • Spekulation
  • Philosophie

Ansonsten sehe ich immer Konflichtpotetial, weil jeder mit einer anderen Erwartungshaltung ankommt und sich an die Aussagen des anderen reibt.
Zitat von NegevNegev schrieb:Zumal eine Debatte darüber hier eigentlich untersagt ist. Oder hab ich das falsch verstanden? Man darf nicht sagen: das KI ein Bewusstsein hat. Man darf aber auch nicht sagen: das KI kein Bewusstsein hat. Beides sind nunmal Tatsachenbehauptungen.
Ja, man kann - leider - dazu eben nichts konkretes wirklich nachweisen, aber natürlich können wir doch eine Meinung dazu haben. Es bringt nur nichts, hier im Thread eine von beiden Möglichkeiten als Tatsache vorzugeben. Wir können unterschiedliche Meinungen dazu haben, und da wir selber ja eine Innenwahrnehmung haben, kommt ja diese Frage immer wieder dazu auf, das Netz ist voll davon, natürlich fragen sich die Menschen, ist das auch bei einer KI möglich, schon das, oder gar nicht möglich?

Und natürlich kann man darüber auch diskutieren, was spricht dafür, was dagegen, was würde es bedeuten. Nur kann man nichts als Tatsache vorgeben, ...


Zitat von NegevNegev schrieb:Wenn man diese Regel konsequent anwendet, bleibt nur noch der Raum, über die Möglichkeit von KI-Bewusstsein zu spekulieren. Der argumentative Effekt der Beiträge von @nocheinPoet ist es, die Debatte konstant in genau diesen spekulativen Raum zu lenken.
Ich bin nicht Thema, ich spreche an, was Fakt ist, was ganz allgemein überall auch im Netz diskutiert wurde und wird, da wurde nun mal über Bewusstsein diskutiert, so kam die Debatte ja her. Und ich habe nur darauf hingewiesen, dass man dazu eben keine Tatsachenaussage machen kann. Da die Meinungen dann unterschiedlich dazu sind, ist es nicht konstruktiv, wenn nun versucht wird hier im Thread das wo als Tatsache durchzudrücken und dann als Basis allen vorzugeben.

Es ist eben wie es ist.


Zitat von NegevNegev schrieb:Das Ergebnis seiner Rhetorik ist, dass die Möglichkeit von KI-Bewusstsein als eine plausible und ernstzunehmende Option dargestellt wird. Auf diese Weise wird die Diskussion permanent auf das Thema Bewusstsein fokussiert, ohne dass jemals eine direkte, belegpflichtige Behauptung aufgestellt werden muss.
Nein, dass ist so nicht richtig, im Gegenteil und das hab ich mehrfach klargestellt, explizit, immer und immer wieder, @paxito hat das dann auch noch mal extra bestätigt.

Nur weil ich erkläre, wir können es nicht als Tatsache ausschließen, gebe ich es nicht als plausible Option vor. Klingt ja genau fast wieder wie, ich würde behaupten, KI habe Bewusstsein.



Ganz im Ernst und ganz deutlich, ich habe versucht das mit dem Bewusstsein wieder einzugraben, als es neulich hier wieder aufgepoppt ist:
Zitat von AtueAtue schrieb am 16.08.2025:Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Zitat von nocheinPoetnocheinPoet schrieb am 16.08.2025:Lese mal ein wenig hier nach, eventuell gibt der wer einen Link, das mit Bewusstsein ist raus, man kann nichts belegen, werde das Menschen eines haben, noch das sie es nicht haben, noch das KI eines hat oder nicht hat. Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
Ich habe so schnell versucht den Deckel auf die Box zu machen, aber es sollte ja wohl nicht sein. Wenn das dann aber eine neue Runde gibt, mit dem Versuch hier etwas als Tatsache in den Thread vorzugeben, was bereits nun wirklich raus war, dann interveniere ich eben und spreche mich dagegen aus. Nicht mehr, nicht weniger.


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Technologie: GPT3 - die erste wirklich intelligente KI?
Technologie, 22 Beiträge, am 07.07.2021 von nocheinPoet
moredread am 04.07.2021, Seite: 1 2
22
am 07.07.2021 »
Technologie: Künstliche Inteligenz !
Technologie, 15 Beiträge, am 25.09.2004 von nemo
Lightstorm am 08.02.2003
15
am 25.09.2004 »
von nemo
Technologie: Artificial General Intelligence - Synthetische Evolution der KI
Technologie, 11 Beiträge, am 08.10.2024 von Djehuty
cRAwler23 am 08.06.2024
11
am 08.10.2024 »
Technologie: Regierung und Justiz aus künstlichen Intelligenzen erstrebenswert?
Technologie, 26 Beiträge, am 27.12.2023 von Gucky87
Holdings am 25.01.2023, Seite: 1 2
26
am 27.12.2023 »
Technologie: Eine allwissende KI durch Quantencomputer?
Technologie, 9 Beiträge, am 05.04.2022 von Gucky87
Blicklight am 01.04.2022
9
am 05.04.2022 »