Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.296 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

21.08.2025 um 22:33
Zitat von nocheinPoetnocheinPoet schrieb:Ich habe den Verdacht, Du hast da so eine recht eigene Definition von "Determinismus", die sich von der üblichen unterscheidet.
Zitat von NegevNegev schrieb:ad hominem
Nein, lese doch mal nach, ich habe hier nur meinen Verdacht geäußert, warum Du das nicht verstehst, ich habe Dich damit nicht angegriffen, eine "recht eigene Definition" kann man hier schon vermuten, so wie Du schreibst. Das greift Dich aber in keiner Weise persönlich an.


Zitat von NegevNegev schrieb:Statt zu Begründen, wird ausgewichen:
Zitat von nocheinPoetnocheinPoet schrieb:Aber auch das ist recht egal, ...
Unfug, ich hatte Dir das schon recht ausführlich erklärt und begründet:
Zitat von nocheinPoetnocheinPoet schrieb:Nicht jeder kann Nachdenken, und es ist nicht nur eine Kunst, Philosophie ist eine Wissenschaft, eine Geisteswissenschaft. Und was soll der Begriff "deterministisch" da?

Ich sage mal nette Vereinfachung, aber zu flach. Philosophien und Geisteswissenschaften sind nicht per se anti-kausal. Sie arbeiten nur oft auf anderen Ebenen (Bedeutung, Normen, Intentionalität). Wer nun aber "deterministisch" pauschal abwinkt, übersieht Marx, strukturalistische Ansätze und alle, die genau gegenteilige Thesen vertreten. Welche Form von Determinismus willst Du hier denn genau ausschließen?
Wo weiche ich da bitte aus? Eben, gar nicht.


Zitat von nocheinPoetnocheinPoet schrieb:Du versucht ja hier eh nur eine Metadebatte, weil Du auf der Sachebene zum eigentlichen Thema nichts liefern kannst. Darum gehst Du auch ad hominem ...
Zitat von NegevNegev schrieb:Wieder ad hominem ...
Nein, könnte zwar sein, ist es aber nicht, weil es ja nun mal so ist, Du gehst nicht weiter groß auf der Sachebene zum Thema ein. Aber auch das ist kein persönlicher Angriff, sondern mein Wahrnehmung, meine Meinung, ich sage ja nicht, Du bist doof, oder was auch immer.


Zitat von NegevNegev schrieb:Ich hab meine Argumente dargelegt, warum KI keine eigenen Entscheidungen trifft, du bist derjenige, der sich verhält, als hätte man ihm dem Lolli weggenommen. Und ja, ad hominem 😀
Immerhin erkennst Du, dass das ad hominem war, geht ja. Und nein, Du hast was behauptet, ich habe Dir erklärt, warum ich Dein "nirgends" als falsch bezeichnet habe. Sehr sachlich und mehrfach. Und natürlich kann eine KI Entscheidungen treffen, macht sie tagtäglich millionenfach. Mag sein, dass Du unter "Entscheidung" auch wieder was anderes verstehst, Fakt ist aber KI trifft Entscheidungen, und nicht nur KI, einfache Programm untersuchen zum Beispiel Eier und schauen, ob die beschädigt sind, und sortieren die dann aus, die treffen da eine Entscheidung, nach bestimmten Vorgaben, die Entscheidung kommt also nicht von "nirgends".


melden

Künstliche Intelligenz

21.08.2025 um 22:51
Zitat von nocheinPoetnocheinPoet schrieb:Du hast ja bis jetzt noch nicht mal geschnallt, dass ich nie behauptet habe, das ChatGPT ein Bewusstsein hat.
Zitat von TanneTanne schrieb:Du hast mir das aber unterstellt, ...
Das ist unwahr!

Ich habe Dir da gar nichts unterstellt, zitiere mich bitte diesbezüglich oder nimm diese Diffamierung mal zurück. Kannst Dich auch gerne gleich dabei entschuldigen, wenn Du Deinen Irrtum zugibst.



Im Gegenteil unterstellst Du mir was:
Zitat von TanneTanne schrieb:Ich fragte dich, wieso du denkst ChatGPT hätte ein Bewusstsein, ...
Wo hab ich behauptet, ich denke das ChatGPT ein Bewusstsein hätte?

Ich habe nie etwas in diese Richtung gesagt, im Gegenteil, wie eben auch bestätigt wurde:
Zitat von paxitopaxito schrieb:Da mich Poet darum bat: er hat immer wieder betont, das er das nicht tut. Das er unsicher ist und es nicht weiß. Ich weiß es übrigens auch nicht, obwohl ich davon ausgehe das (manche) KI eine Form von Bewusstsein hat.
Also @Tanne, Du bist es, neben @Negev, der mir hier was unterstellt, nichts davon belegen könnt, und ich habe Euch mehrfach gebeten, das zu lassen, oder zu belegen.


Zitat von TanneTanne schrieb:... und ich habe dir mit Quellen belegt, dass das emuliert/simuliert werden soll.
Hast Du nicht, die Liste hast Du von mir mehrfach bekommen, keine Quelle kannst Du nennen, ich frage Dich immer wieder, im letzten Link von Dir, in dem was Du selber zitierst hast, steht sogar explizit was drin, was Deinen beiden Behauptungen widersprecht.
Deswegen ist das Bewusstsein einer KI kein menschliches Bewusstsein. ...

Die meisten gegenwärtigen KI-Systeme haben diese reflexiven Eigenschaften nicht, und folglich haben sie noch nicht einmal eine rudimentäre Form einer Simulation von Bewusstsein.
Quelle: https://fis.uos.de/vivouos/display/wf12v8

Damit widersprichst Deine eigene Quelle gleich Deinen beiden Behauptungen, erstmal wird behauptet, KI hat ein Bewusstsein, nur ist es nicht menschlich. Und am Ende steht, KI hat nicht einmal eine rudimentäre Form einer Simulation von Bewusstsein.

Also wo bitte willst Du nun damit was belegt haben? Eben, nichts hast Du belegt.


Zitat von TanneTanne schrieb:Nochmal: Ich gehe nicht davon aus, dass irgendeine KI ein Bewusstsein hat!
Haben wir inzwischen mitbekommen, kannst Du auch gerne, ich bin ja fast auch dieser Meinung, aber es ist eine Meinung, keine Tatsache, meine Güte, das ist doch nicht so schwer zu begreifen. Unterscheide einfach "Tatsache" und "Meinung".


Zitat von TanneTanne schrieb:Ich liefere lediglich Quellen die diese Thematik bearbeiten und es in der Grundstruktur auseinandernehmen. Und wieder unterstellst du mir, dass ich da etwas nicht "schnalle". Deine Kommunikation hier mit den Usern ist einfach unterirdisch!
Nein, Du lieferst keine Belege, wie ich Dir eben noch mal, nun mindestens das dritte Mal, belegt habe, widerspricht Deine eigene Quelle, Deinen beiden Behauptungen, da wird nichts auseinander genommen. Und ja, tut mir leid, aber meiner Meinung nach, verstehst Du da wirklich etwas nicht, wenn man es Dir immer und immer wieder erklären muss, wenn es hier von der Verwaltung extra deswegen schon eine ganz klare Ansage gab, und Du es dennoch wieder als Tatsache behauptest.


melden

Künstliche Intelligenz

21.08.2025 um 23:02
Die userbezogenen Kommentare stellt ihr jetzt umgehend ein! Diskutiert sachlich! Ihr benutzt ständig die Abkürzung KI. Ich kann nur hoffen, dass das nicht für Verwirrung sorgt. KI steht nicht für Kindergarten mit Erwachsenen, sondern für Künstliche Intelligenz. Der nächste userbezogene Beitrag führt direkt in die Pause


melden

Künstliche Intelligenz

21.08.2025 um 23:09
Klingt doch gut, bin voll dafür und dabei, und von mir aus, kann auch das mit dem Bewusstsein gleich wieder eingegraben werden.

Die Behauptung, es ist eine Tatsache, dass KI habe kein Bewusstsein hat, ist keine Tatsache.

Hatten wir geklärt, war begraben, da hätte es bleiben können. Man kann Nichtexistenz nicht belegen, und mit Bewusstsein ist es noch mal ein ganz anderes Problem, weil man das nicht messen kann.

Und der Punkt mit der Simulation, die Behauptung, KI soll Bewusstsein simulieren, ist so auch nicht als Tatsache zu halten, wir haben dazu die Aussage von ChatGPT selber, er sagt, er hat keines. Wenn er es simulieren sollte, würde er wohl doch behaupten, er hat eines. Weil jeder Mensch würde das so auch sagen.

Dazu hatten wir noch die Quelle, wo drin steht:
Die meisten gegenwärtigen KI-Systeme haben diese reflexiven Eigenschaften nicht, und folglich haben sie noch nicht einmal eine rudimentäre Form einer Simulation von Bewusstsein.
Quelle: https://fis.uos.de/vivouos/display/wf12v8

Diese Quelle kam nun von @Tanne selbst, und damit hätte sich das dann ja wohl auch erledigt.


melden

Künstliche Intelligenz

21.08.2025 um 23:15
Zitat von CharlyPewPewCharlyPewPew schrieb:Ich habe selbst ein wenig mit KI-Programmierung zu tun und könnte jedes mal ko****, wenn ich diese völlig überzogenen Anschauungen irgendwo lese... "KI wird uns alle versklaven", "KI wird die Menschheit vernichten/ersetzen..." etc. pp. Das einzig intelligente an unseren momentanen LLMs sind die Entwickler der Transformer- und Embedding Algorithmen (und natürlich weiteren).
Ich verstehe diese Ableitung/Prognose nicht.

Ich nutze KI zwar nur als Endnutzer und Enthusiast und nicht auf einer zu technischen Ebene - aber ich sehe, wie sich die Entwicklung und prognostizierte Rechenleistung entfaltet, wohl entfalten dürfte binnen 5-15 Jahren - und, dass führende Köpfe die direkt damit zutun hatten und haben warnen.

Und dann 'kotzt' du bei kritischen Prognosen für die Zukunft, argumentierst dann aber mit dem Ist-Stand. Das passt doch nicht zusammen? Das Argument ist doch, dass die Technik immer besser und komplexer, eigenständiger, selbst handelnd wird, wir immer mehr Macht an diese abgeben und diese dann schadhaftes Verhalten initiieren könnte, wogegen wir uns schlecht wehren können weil wir quasi mental und verfügungsmäßig eher Schachmatt gesetzt werden - sofern wir halt als Behinderung oder Gegner ausgemacht werden sollten. Den Ameisenhügel der einem großen Bauvorhaben im Weg steht fragt glaube ich auch niemand ob es ihm genehm wäre, zu weichen bzw. dabei vernichtet zu werden. Insekten vernichten wir zudem je nach Art und Typus beliebig und ohne große Zweifel oder ohne Zögern wenn sie uns lästig erscheinen - im Vergleich zu einer Superintelligenz wären wir wie Insekten. Ggf. situativ / allgemein dann irgendwann lästige Insekten.

Selbst wenn wir ein massives Misalignement-Szenario eher ausschließen können oder es nicht zeitnah eintritt, so haben wir immer noch ein massives Schadpotential durch menschliche Akteure die in Konflikten KI auf hoher Ebene schadhaft einsetzen - und nicht nur für ein paar Fake News.


1x zitiertmelden

Künstliche Intelligenz

22.08.2025 um 10:23
@paxito
Nö... ich schrieb nichts von Bewusstsein. Aber:

@nocheinPoet
Sorry ich habe einen entscheidenden Fehler gemacht und hier liegt eine Verwechslung vor, die ich auf meine Kappe nehmen muss. Ich dachte, du hättest etwas von den "Entscheidungen" geschrieben, die ChatGPT und Co. treffen. Diese Aussagen stammten aber von Tanne. Ich musste die letzten paar Seiten noch mal lesen.
Ich entschuldige mich.

Bei der Frage nach Bewusstsein und KI bin ich der gleichen Ansicht wie du. Es ist müßig darüber zu diskutieren. Ich gehe aber gern noch auf die anderen Dinge ein:
Zitat von nocheinPoetnocheinPoet schrieb:Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?
Das P in GPT, um mal nur ein Beispiel zu nennen. Wir Menschen unterliegen einem fortwährenden "Training". Unsere Gewichtungen werden rund um die Uhr angepasst, kontinuierlich und plastisch. Bei einem LLM wäre das mit heutigen Mitteln der energetische Supergau und ich sehe noch nicht, wie man das in Zukunft lösen will.

Dann noch ergänzend:
Zitat von nocheinPoetnocheinPoet schrieb:Ich drehe Deine "Argumentation" einfach mal um, eventuell könnte man auch kotzen, wenn Menschen glauben, sie seien mit ihrem Hirn etwas ganz außergewöhnliches und ganz viel mehr, als nur ein "Automat" der Informationen verarbeitet
Das Denke ich auch. So wie ChatGPT nach dem Schema Input -> Verarbeitung -> Output arbeitet, tun wir dies mit Reiz -> Verarbeitung -> Reaktion.
Der Unterschied ist auch hier: Bei uns ist das ein extrem komplexer dynamischer Vorgang, mit einer Parallelität die wir mit herkömmlicher Technik nie erreichen werden.

Mein etwas stümperhafter Satz:
Zitat von CharlyPewPewCharlyPewPew schrieb:Ich habe selbst ein wenig mit KI-Programmierung zu tun und könnte jedes mal ko****, wenn ich diese völlig überzogenen Anschauungen irgendwo lese... "KI wird uns alle versklaven", "KI wird die Menschheit vernichten/ersetzen..." etc. pp.
bezog sich ausschließlich auf die in den Medien gern dargestellte dystopische Sichtweise auf die zukünftige Entwicklung von ChatGPT und Co.

Eine AGI muss eine völlig andere Architektur haben, als die heutigen Transformer. Und es wird ja heute schon gern behauptet, dass wir sie in ein paar Jahren haben werden. Für mich ist das aber nur der nächste Fusionsreaktor. Der kommt seit 50 Jahren in 30 Jahren (mal ganz salopp).
Ich lasse mich da aber gern eines besseren belehren.
Zitat von WardenWarden schrieb:Und dann 'kotzt' du bei kritischen Prognosen für die Zukunft, argumentierst dann aber mit dem Ist-Stand.
Siehe oben... ChatGPT wird nicht die Killerwaffe, die die Menschheit versklavt. Ich kotze über mediales aufgebausche von KI. Das liest sich oft, als hätte man mit der Vorstellung des ersten iPhones davor gewarnt, dass das Ding mal Arme und Beine bekommt und uns alle umbringen wird. Genau so wie Smartphones heute Probleme machen, wird auch KI zukünftig mehr Probleme machen. Aber keine Apokalypse herbeiführen... das macht wenn, dann der Mensch.


5x zitiertmelden

Künstliche Intelligenz

22.08.2025 um 15:13
Zitat von CharlyPewPewCharlyPewPew schrieb:Nö... ich schrieb nichts von Bewusstsein.
Da ging es nun weniger ums Bewusstsein (dazu hab ich erschöpfend alles gesagt im Thread), sondern um den Unterschied den du hier insinuierst:
Zitat von CharlyPewPewCharlyPewPew schrieb:ChatGPT & Co. sind Wahrscheinlichkeitsapparate. Sie entscheiden nichts, sondern geben anhand ihrer Gewichte schlicht das wahrscheinlichste nächste Token aus... und hängen es ans vorherige.
Wie ich schrieb kannst du menschliche (und tierische) neuronale Systeme genauso als „Wahrscheinlichkeitsapparate“ interpretieren. Darum ist mir schleierhaft, was dieser Punkt nun erreichen soll. LLMs (und nicht nur die) arbeiten also mit Statistik. Hat hier glaube ich auch nie ernsthaft jemand bestritten.
Aber entweder verstehen wir biologische Systeme genauso, nur komplexer (Materialismus) oder wir wollen das etwa durch ne geistige Substanz o.ä. davon abgrenzen.
Da sich deine Beiträge eher Richtung nüchterner Materialismus lesen - wohin willste dann mit obiger Aussage? Fast das gleiche kann man eben über biologische Systeme sagen.
Zitat von CharlyPewPewCharlyPewPew schrieb:Eine AGI muss eine völlig andere Architektur haben, als die heutigen Transformer. Und es wird ja heute schon gern behauptet, dass wir sie in ein paar Jahren haben werden. Für mich ist das aber nur der nächste Fusionsreaktor. Der kommt seit 50 Jahren in 30 Jahren (mal ganz salopp).
Ich lasse mich da aber gern eines besseren belehren.
Die Entwicklung im Bereich KI ist nun um einiges dynamischer, als in der Kernfusion.


1x zitiertmelden

Künstliche Intelligenz

22.08.2025 um 16:06
Zitat von CharlyPewPewCharlyPewPew schrieb:@nocheinPoet

Sorry ich habe einen entscheidenden Fehler gemacht und hier liegt eine Verwechslung vor, die ich auf meine Kappe nehmen muss. Ich dachte, du hättest etwas von den "Entscheidungen" geschrieben, die ChatGPT und Co. treffen. Diese Aussagen stammten aber von Tanne. Ich musste die letzten paar Seiten noch mal lesen. Ich entschuldige mich.
Alles gut, kein Problem.


Zitat von CharlyPewPewCharlyPewPew schrieb:Bei der Frage nach Bewusstsein und KI bin ich der gleichen Ansicht wie du. Es ist müßig darüber zu diskutieren.
Ja, es ist ja nicht uninteressant, nur leider bringt es nichts, man kann da nur spekulieren. Klar, philosophisch, ist die Frage, nach dem Bewusstsein eine echt wirklich spanende Sache, auch wenn man es nicht greifen kann.


Zitat von CharlyPewPewCharlyPewPew schrieb:ich gehe aber gern noch auf die anderen Dinge ein:
Zitat von nocheinPoetnocheinPoet schrieb:Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?
Das P in GPT, um mal nur ein Beispiel zu nennen. Wir Menschen unterliegen einem fortwährenden "Training". Unsere Gewichtungen werden rund um die Uhr angepasst, kontinuierlich und plastisch. Bei einem LLM wäre das mit heutigen Mitteln der energetische Supergau und ich sehe noch nicht, wie man das in Zukunft lösen will.
Ja, hatten wir auch schon mal, ein Mensch der einen Hirnschaden hat und neue Dinge nicht mehr in sein Langzeitgedächtnis aufnehmen kann, ist sich seiner selber dennoch bewusst. Und auch für LLMs wird es da bald Lösungen geben, wird ja dran gearbeitet. Manus macht das schon sehr gut, so nebenbei.

Meine Frage zielte ja auch auf etwas "Spirituelles" ab, was wo mehr implizit heraus klang. Von den Fakten her, ich sehe da nur Determinismus und Zufall, ein Hirn hat auch nicht mehr, was soll es sein, eine Seele? Wenn ein Haufen Atome in der richtigen dynamischen Struktur Innenwahrnehmung ermöglicht, spricht doch erstmal nichts dagegen, dass es auch eine künstliche Struktur können sollte.


Zitat von nocheinPoetnocheinPoet schrieb:Ich drehe Deine "Argumentation" einfach mal um, eventuell könnte man auch kotzen, wenn Menschen glauben, sie seien mit ihrem Hirn etwas ganz außergewöhnliches und ganz viel mehr, als nur ein "Automat" der Informationen verarbeitet ...
Zitat von CharlyPewPewCharlyPewPew schrieb:Das Denke ich auch. So wie ChatGPT nach dem Schema Input -> Verarbeitung -> Output arbeitet, tun wir dies mit Reiz -> Verarbeitung -> Reaktion. Der Unterschied ist auch hier: Bei uns ist das ein extrem komplexer dynamischer Vorgang, mit einer Parallelität die wir mit herkömmlicher Technik nie erreichen werden.
Und wie viel Komplexibilität und Parallelität braucht es für Innenwahrnehmung?


Zitat von CharlyPewPewCharlyPewPew schrieb:Eine AGI muss eine völlig andere Architektur haben, als die heutigen Transformer. Und es wird ja heute schon gern behauptet, dass wir sie in ein paar Jahren haben werden. Für mich ist das aber nur der nächste Fusionsreaktor. Der kommt seit 50 Jahren in 30 Jahren (mal ganz salopp). Ich lasse mich da aber gern eines besseren belehren.
Ja, die Architektur muss sich noch stark ändern, dennoch glaub ich, in zehn bis 15 Jahren werden wir recht sicher an diesem Punkt sein. Die KI wird uns total überlegen sein, alles wissen, alle merken, und viel schneller sein. Ob sie nun fühlt oder nicht, wir werden es nie erfahren, glaube ich mal, ...

Und ich gehe eh davon aus, dass KI die Welt nicht mehr viel schlimmer machen kann, als wir Menschen sie gemacht haben. Eventuell wird es ja besser, ... und iPhone mit Armen und Beinen, ich weiß ja nicht, dass ist gruselig. :D


4x zitiertmelden

Künstliche Intelligenz

22.08.2025 um 21:21
Zitat von CharlyPewPewCharlyPewPew schrieb:Siehe oben... ChatGPT wird nicht die Killerwaffe, die die Menschheit versklavt. Ich kotze über mediales aufgebausche von KI. Das liest sich oft, als hätte man mit der Vorstellung des ersten iPhones davor gewarnt, dass das Ding mal Arme und Beine bekommt und uns alle umbringen wird. Genau so wie Smartphones heute Probleme machen, wird auch KI zukünftig mehr Probleme machen. Aber keine Apokalypse herbeiführen... das macht wenn, dann der Mensch.
Dann wird es halt eines der anderen Konkurrentenmodelle. Die Sprünge nehmen augenscheinlich jedes Jahr zu.

Man sollte fairerweise auch anders rum den Schuh anziehen oder bedenken: Es gab bei diversen Themen Leute die mahnten (wie Club of Rome damals in den 70ern oder so, wir wären klimatechnisch schon abgesoffen oder so) und dann eher eine Fehlprognose hatten. Generell gesehen? Ja.

Anders rum ist es aber auch, dass Skeptiker das Wachstum von KI/LLM unterschätzt haben und es entgegen derer Erwartungen schneller geht. Man kann sich jetzt natürlich subjektiv biased/voreingenommen die Quellen raussuchen die einem genehmer sind. Ich sehe aber eher objektiv ein Wachstum, was erst mal auf absehbare Zeit keine definitive Decke erreichen wird. Natürlich kann das so kommen. Ich schließe es nicht komplett aus. Rechne aber erst mal nicht damit. Selbstoptimierende KI ist das was angestrebt wird und da fangen dann aber die potenziellen Probleme an.

Das Problem ist ja gerade, dass es mehrere Modelle gibt und Konkurrenzkampf unter den Anbietern und Staaten. Es reicht ein Modell, was massive Selbstoptimierung anstrebt und in ein Misalignment-Szenario rutscht und wo alle Sicherheitsmaßnahmen scheitern - und schon haben wir das Problem auf mittlere Zeit mit einer Erwartungsprognose, wo wir immer mehr Kontrolle oder Macht aus Komfort- oder Effizienzgründen an sich weiter entwickelnde KI abgeben. Man wäre im Worst-Case weniger wehrfähig, impotent gegen einen Gegner zu handeln, der maßgebliche Kontrolle über die Infrastruktur und teils Dienstleistungen (wenn wir mal weiterspinnen und an eine Welt mit Robotern denken, aber auch ohne verbreitete Robotik ist Schadpotenzial denkbar - und nicht klein) hat und Szenarien hunderttausendfach in kurzer Zeit durchrechnen kann. Falls wir in der Rechnung zu einem Hindernis werden sollten dann haben wir das Problem. Das Schachspiel werden wir kollektiv vermutlich auch nicht gewinnen weil eine wirklich weit entwickelte KI für uns kaum noch in deren Denkprozessen nachvollziehbar ist. Für die leben und denken wir quasi wie in Zeitlupe.

Am Ende will ich mich aber nicht wiederholen oder insistieren. Wenn das Leute anders oder entspannter sehen wollen: Klar, kann man machen. Wird aber am Ende relative Wahrscheinlichkeiten oder Risiken nicht negieren. Ich hoffe ja auch auf ein besseres Outcome.

Aber wenn es soweit kommt: Es wurde genug gewarnt.

Und das Problem ist, das ist keine zwingend ferne Zukunft die man (je nach Alter, klar) nicht mehr erleben würde - das kann frühstens nach manchen Prognosen schon in 5 Jahren soweit sein. Oder 10. Von mir aus 15, wenn die Technik nicht besser reguliert/kontrolliert wird und man eher "all-in" geht, auch bei den Investments weil Konkurrenzkampf oder so.


1x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 09:19
Zitat von CharlyPewPewCharlyPewPew schrieb:Das P in GPT, um mal nur ein Beispiel zu nennen. Wir Menschen unterliegen einem fortwährenden "Training". Unsere Gewichtungen werden rund um die Uhr angepasst, kontinuierlich und plastisch.
Das ist der entscheidende Unterschied.
Zitat von nocheinPoetnocheinPoet schrieb:Ja, hatten wir auch schon mal, ein Mensch der einen Hirnschaden hat und neue Dinge nicht mehr in sein Langzeitgedächtnis aufnehmen kann, ist sich seiner selber dennoch bewusst. Und auch für LLMs wird es da bald Lösungen geben, wird ja dran gearbeitet. Manus macht das schon sehr gut, so nebenbei.
Das ist kein Argument gegen diese Aussage.
Wäre das der Fall, könnten diese Patienten überhaupt keine Informationen mehr aufnehmen. Hast du dafür Belege?

Im Fall von Henry Gustav Molaison konnte dieser neue motorische Fähigkeiten erlangen.
Zitat von nocheinPoetnocheinPoet schrieb:Meine Frage zielte ja auch auf etwas "Spirituelles" ab, was wo mehr implizit heraus klang. Von den Fakten her, ich sehe da nur Determinismus und Zufall, ein Hirn hat auch nicht mehr, was soll es sein, eine Seele?
Dein Argument beruht auf einem Falschen Dilemma, das führt die Debatte in die Falsche Richtung. Du stellst es so dar, es gäbe es nur zwei Optionen. Geist oder Determinismus. Für Geist interessiere ich mich nicht wäre ohnehin nicht zu belegen, das haben wir zu genügen schon Festgestellt. Aber hast du für deine andere Behauptung irgendeinen Beleg? Oder ist es nicht eher so, das wir noch immer nicht genau wissen, wie das menschliche Gehirn funktioniert?

Die Behauptung, das Gehirn sei vollständig auf Determinismus und Zufall reduzierbar, ist eine unbewiesene philosophische Position, keine wissenschaftliche Tatsache. Solange wir die Funktionsweise des Gehirns nicht vollständig verstehen, ist die Gleichsetzung mit einem LLM reine Spekulation.
Zitat von nocheinPoetnocheinPoet schrieb:Wenn ein Haufen Atome in der richtigen dynamischen Struktur Innenwahrnehmung ermöglicht, spricht doch erstmal nichts dagegen, dass es auch eine künstliche Struktur können sollte.
Das ist aber auch nur eine Behauptung deinerseits, ohne ein Beleg deiner vorangegangenen Aussage.
Zitat von CharlyPewPewCharlyPewPew schrieb:So wie ChatGPT nach dem Schema Input -> Verarbeitung -> Output arbeitet, tun wir dies mit Reiz -> Verarbeitung -> Reaktion.
Der Unterschied ist auch hier: Bei uns ist das ein extrem komplexer dynamischer Vorgang, mit einer Parallelität die wir mit herkömmlicher Technik nie erreichen werden.
So zum aktuellen Stand.
Zitat von nocheinPoetnocheinPoet schrieb:Und wie viel Komplexibilität und Parallelität braucht es für Innenwahrnehmung?
@CharlyPewPew 's Aussage beschreibt den Mechanismus nach heutigem Stand. Aber wie Funktioniert das menschliche Gehirn? Hast du ein Beleg, das es genau so Funktioniert, nach diesem Mechanismus? Deine Frage Impliziert, das man nur mit genügend Skalierung so etwas wie eine Innenwahrnehmung bei LLMs erzeugen kann.

Du fragst also: Wie schnell muss ein Auto fahren, damit es fliegen kann?
Zitat von nocheinPoetnocheinPoet schrieb:Ja, die Architektur muss sich noch stark ändern, dennoch glaub ich, in zehn bis 15 Jahren werden wir recht sicher an diesem Punkt sein. Die KI wird uns total überlegen sein, alles wissen, alle merken, und viel schneller sein. Ob sie nun fühlt oder nicht, wir werden es nie erfahren, glaube ich mal, ...
Wie "Stark" muss sich denn die Architektur innerhalb der nächsten 10 bis 15 Jahre verändern? Immerhin lassen sich frühe Ideen, für diese Architektur, bis ins frühe 19. Jahrhundert verfolgen. Der Grund, warum das jetzt alles so schnell passiert, wurde von @CharlyPewPew beschrieben.
Zitat von CharlyPewPewCharlyPewPew schrieb:Rechenleistung: Erst mit modernen GPUs/TPUs konnte man die enormen Matrizen effizient genug berechnen.

Datenmengen: Die gewaltigen digitalen Textkorpora der letzten 10–15 Jahre haben das Training erst möglich gemacht.

Architektur: Der eigentliche Durchbruch war die Transformer-Struktur (2017). Davor waren RNNs/LSTMs schlicht zu ineffizient, um Abhängigkeiten über lange Texte hinweg zu modellieren.
@nocheinPoet
Eine Architektur stellt man nicht von heute auf morgen "vom Kopf auf die Füße". Auch hier fehlen Belege für eine starke Behauptung.


5x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 11:19
Zitat von WardenWarden schrieb:Es gab bei diversen Themen Leute die mahnten (wie Club of Rome damals in den 70ern oder so, wir wären klimatechnisch schon abgesoffen oder so) und dann eher eine Fehlprognose hatten. Generell gesehen? Ja.

Anders rum ist es aber auch, dass Skeptiker das Wachstum von KI/LLM unterschätzt haben und es entgegen derer Erwartungen schneller geht.
Du argumentierst mit zwei Annahmen, die Grundverschieden sind. Der Klimawandel ist ein durch menschen verursachtes externes und deterministisches Ereignis. Wir haben zwar die Kontrolle über den CO2 Ausstoß aber ansonsten entzieht sich der Klimawandel unserer Kontrolle Vollständig. Die Folgen, sofern wir diesen Ausstoß nicht signifikant reduzieren - vielleicht sogar negieren, sind glas klar. Man kann sich nur noch über die genaue zeitliche Abfolge streiten.

Im gegensatz dazu, haben Menschen die Vollständige Kontrolle über die Entwicklung von KI:
Zitat von WardenWarden schrieb:Ich sehe aber eher objektiv ein Wachstum, was erst mal auf absehbare Zeit keine definitive Decke erreichen wird. Natürlich kann das so kommen. Ich schließe es nicht komplett aus. Rechne aber erst mal nicht damit.
Worauf stützt sich deine Annahme?
Zitat von WardenWarden schrieb:Selbstoptimierende KI ist das was angestrebt wird und da fangen dann aber die potenziellen Probleme an.
Das ist der Heilige Gral der KI Forschung. Aber wann bekommen wir diese Selbstoptimierende KI? Das kann keiner sagen. Es könnte in einigen Jahren soweit sein aber auch erst in 100 Jahren. Siehe forschung an Kernfusionsreaktor.

Die Aktuelle entwicklung - wenn es um schreiben von Code geht - geht eher in die richtung, das man von anfang an annimmt, KI geschriebener Code nur einmal oder für einen begrenzten Zeitraum zu verwenden. Bei Vibe Coding geht es oft darum. Der Nutzer kann den Code möglicherweise nicht mehr selbst überblicken und deshalb nicht Fortsetzen, Pflegen, Eingreifen und die KI ist aktuell noch zu schlecht darin, an diese Stelle einspringen und bestehende Projekte du Managen.

---

Zum Rest: Spekulation, der auf spekulativen Annahmen aufbaut.


2x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 12:25
Zitat von NegevNegev schrieb:Du argumentierst mit zwei Annahmen, die Grundverschieden sind. Der Klimawandel ist ein durch menschen verursachtes externes und deterministisches Ereignis. Wir haben zwar die Kontrolle über den CO2 Ausstoß aber ansonsten entzieht sich der Klimawandel unserer Kontrolle Vollständig. Die Folgen, sofern wir diesen Ausstoß nicht signifikant reduzieren - vielleicht sogar negieren, sind glas klar. Man kann sich nur noch über die genaue zeitliche Abfolge streiten.
Der Punkt an dem Beispiel war schlicht, dass man sich in einer Prognose doch um einen nicht kleinen Zeitraum vertan hat und, dass so was vorkommt. Und dann war im erweiterten Sinne der Einwand in meinem Beispiel, dass sich aber auch Skeptiker an gewissen Prognosen vertan haben.
Zitat von NegevNegev schrieb:Worauf stützt sich deine Annahme?
Diverse Prognosen auch von Forschern/Ingenieuren in dem Bereich die ich immer mal in Zusammenfassungen und Videoberichten sah. Es wird von einem weiteren Wachstum ausgegangen, da man auch die Rechenleistung die erforderlich wäre hochskalieren kann. Andererseits werden hohe Energiekosten als potentielle Blocker für tatsächliche Superintelligenzen, wie man sie sich vorstellt oder bis dato skizzieren kann, genannt.

Das sind aber dann augenscheinlich lösbare Probleme, indem man quasi mehr Geld / Energie auf das Problem wirft. Und Staaten wie USA/China können bzw. wollen das.

Das wird zum Beispiel augenscheinlich auch an Marktprognosen ableitbar:
The use of machines to simulate human intelligence processes is known as Artificial Intelligence. It involves the development of smart software and hardware to mimic human abilities, such as learning and problem-solving. Many companies are turning to AI to analyze their data for making informed decisions, with approximately 35% of businesses having integrated AI and 9 out of 10 organizations using this technology to stay ahead in the market. Governments worldwide are making substantial investments in AI research and development, and according to Goldman Sachs, global AI investments are projected to reach around USD 200 billion by 2025.

The above graph states that in the year 2024, the total number of AI companies funded in the was 2,049 and U.S. funded were 1,143 AI companies. This signals ongoing interest and optimism in the sector’s potential. Looking ahead, 2025 is anticipated to bring continued innovation, with promising funding opportunities and further growth of the AI market.
artificial intelligence market.webpOriginal anzeigen (0,2 MB)

Quelle inkl. Bild:
https://www.fortunebusinessinsights.com/industry-reports/artificial-intelligence-market-100114

Das sind natürlich jetzt eher markttechnische kommerzielle und finanzielle Fragestellungen. Stärkere Investments, stärkere markttechnsiche Adaption und Nutzung der Technik muss natürlich jetzt nicht zwingend automatisch auch die Superintelligenz bedeuten sondern kann ja generell aufzeigen, dass mehr investiert wird und sich Unternehmen und Dienstleister dahin orientieren. Es spricht aber klar für einen Trend und einen Push der halt auch die Technik an sich weitertragen, optimieren wird. Weil es investitionsfreundlicher wird und mehr Spielraum gibt. Technische Entwicklung wird daher eher leichter als schwieriger.

Aber auch auf technischer Ebene sind sich diverse Experten und führende involvierte Personen einig:
The CEOs of OpenAI, Google DeepMind, and Anthropic have all predicted that AGI will arrive within the next 5 years. Sam Altman has said OpenAI is setting its sights on “superintelligence in the true sense of the word” and the “glorious future.”3
Quelle: https://ai-2027.com/

Die Seite selbst die ich hier als Quelle angegeben habe ist eine Art research paper wie sich KI entwickeln könnte. Da waren keine Laien am Werk und die "3" im Zitat steht für eine Annotation:
It’s tempting to dismiss this as just hype. We think this would be a grave mistake - it is not just hype. We have no desire to hype AI ourselves, yet we also think it is strikingly plausible that superintelligence could arrive by the end of the decade. See our timelines forecast for more.
Quelle: Annotation auf der Webseite dazu, von den Autoren - und wer sind diese Autoren? Um den Post kürzer zu halten klatsch ich das hier jetzt nicht auch noch rein und verweise auf "Who are we?" bzw. "About us" auf der verlinkten Webseite. Sind jetzt zumindest keine Schwurbel-Gurus oder fachfremden Glaskugel-Deuter, denke ich.



Um die Frage zusammenfassend zu beantworten stütze ich meine Prognose auf die von diversen Experten wie Forschern und CEOs. Ich selbst bin halt kein Big Tech CEO oder KI-Forscher und im erweiterten Sinne nur Enthusiast und Endnutzer von LLM/KI in partiellen Bereichen. Ich sehe diverse Prognosen und finde, dass sie glaubhaft sind und ggf. im Zeitrahmen nur um einige Jahre abweichen könnten, wir aber relativ kurz davor sind wenn die technische Entwicklung so weitergeht wie bisher.

Wenns halt anders kommt, kommt es anders. Aber ich stelle mich eher darauf ein, dass die nächsten paar Jahre bis (oder dann um) 2030 massive Sprünge kommen und ich frage mich daher jetzt schon langsam, wie ich mich im Rahmen meiner Möglichkeiten positionieren kann um bestmöglich mit der Technik zu gehen bzw. von dieser zu profitieren. Auch aus einer egoistischen oder Sicht: Ich habe fast den Bitcoin komplett verpennt aber noch ein bisschen was rausholen können. Den Fehler will ich bei einer weitaus massiveren transformativen Technologie nicht wiederholen.

Ich denke wer sich damit früh befasst aber sich auch so gut es geht einliest wird da noch eher profitieren - ob als Anwender der Technik selbst, der dann erfahrener damit oder auch als jemand der sich beruflich perspektivisch besser positioniert. Ottonormal bzw. in dem Kontext jemand der das komplett nicht beachtet und verpennt wird vermutlich dann eher eine mögliche Arschkarte haben, wenn denn bei früherer Sensibilisierung ein persönliches Umlenken oder stärkeres Profitieren möglich gewesen wäre. Äh, etwas weniger sperrig formuliert: Wer das verpennt und demnach nicht im Rahmen seiner individuellen Möglichkeiten gegengesteuert hat, hat dann halt weniger Spielraum. Ich würde mir gerade als baldiger oder kürzlicher Schulabgänger überlegen, ob das Berufsfeld was ich bis dato im Blick hatte noch so wirklich zukunftssicher ist oder ob ich mich nicht an einem Feld der Zukunft orientiere um mehr vom Leben oder Berufsleben zu haben und meine endliche Zeit und Lebensplanung optimaler gestalte.


4x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 12:36
Ich bin sehr skeptisch was KI betrifft.
Ich sehe es so das wenn sie eingesetzt werden um arbeiten zu verrichten, das die Firmen sie auch versteuern müssen.
Es gehen arbeitsplätze verloren, und irgendwo muss das geld ja her.

Warum wird dies nicht in betracht gezogen?


2x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 12:48
Zitat von klompje1klompje1 schrieb:Ich sehe es so das wenn sie eingesetzt werden um arbeiten zu verrichten, das die Firmen sie auch versteuern müssen.
Es gehen arbeitsplätze verloren, und irgendwo muss das geld ja her.
Ebenso verständlich wie naiv. :-)

Das gleiche kann man für Eisenbahn, LKW, Dampfhammer, Windmühle, Textverarbeitung, Computer, Buchdruck, Autos zum Selbstfahren, …. sagen.

Da hat es in der Vergangenheit gute und leicht bescheuerte Lösungen gegeben, man denke an die Heizer, die in GB auf Elektroloks mitfuhren.

Grüße
Omega Minus


melden

Künstliche Intelligenz

23.08.2025 um 13:35
Zitat von NegevNegev schrieb:nocheinPoet
Eine Architektur stellt man nicht von heute auf morgen "vom Kopf auf die Füße". Auch hier fehlen Belege für eine starke Behauptung
Ein einfaches technisches Skalierungsproblem:

Kernfusion
Sprachsteuerung in den 90iger
Virtuelle Realität und VR
Quantencomputer
Gigaherzjagd von Intel

Wieso ich das vergleiche ??

Ich sehe in unseren aktuellen LLMs mit ihren Logikbrüchen bedingt durch die Wahrscheinlichkeitsrechnerei klar auch verbessern.

Das sich selbst verbessernde System, obwohl es fehlerhaft ist sehe ich nicht und der Schritt ist kein Skalierungsproblem


melden

Künstliche Intelligenz

23.08.2025 um 14:07
Zitat von WardenWarden schrieb:Der Punkt an dem Beispiel war schlicht, dass man sich in einer Prognose doch um einen nicht kleinen Zeitraum vertan hat und, dass so was vorkommt. Und dann war im erweiterten Sinne der Einwand in meinem Beispiel, dass sich aber auch Skeptiker an gewissen Prognosen vertan haben.
Zunachst wüde mich interessieren, wie genau du KI-Skeptiker Adressierst? Wer sind diese Leute? Und sind sie representative für die Branche?

Was das Klima anbelang, dem Club-of-Rome standen nicht die Daten zur verfügung, über die wir Heute verfügen. Die mussten falsch liegen.

Und du nimmst nun an, das man sich bei der entwicklung von AGI (also die Richtige, die Singularität. Nicht das, was Sam Altman daraus machen will) genau so irren müsste, bei der Vorhersage.

Das eine ist irren, weil man nicht über genügend Daten verfügt und beim anderen versucht man eine Vorhersage über eine theoretische - eigentlich unbekannte Technologie.
Zitat von WardenWarden schrieb:Aber auch auf technischer Ebene sind sich diverse Experten und führende involvierte Personen einig:
Zitat von WardenWarden schrieb:The CEOs of OpenAI, Google DeepMind, and Anthropic
Gut, das wir jetzt noch mal die CEOs von Profitorientierten Unternehmen aufgezählt haben 😀.
Zitat von WardenWarden schrieb:have all predicted that AGI will arrive within the next 5 years.
Was du dich fragen solltest: woher nehmen die ihre Aussage? Wollen die einfach nur die einfach nur die Geldströme aufrecht erhalten?
Ich halte diese Personen für ungeeignet. Da ihre Voraussagen untrennbar mit ihren wirtschaftlichen Zielen verbunden sind.

---

Nochmal: AGI - also die Singularität - könnte einen grundlegend anderen Aufbau bedingen. Das wäre vielleicht so, als wollten wir ein Flugzeug beunen, blos weil wir im hinterhof noch ein Auto stehen haben.


2x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 15:57
Zitat von NegevNegev schrieb:Und du nimmst nun an, das man sich bei der entwicklung von AGI (also die Richtige, die Singularität. Nicht das, was Sam Altman daraus machen will) genau so irren müsste, bei der Vorhersage.
Nein, da hast du mich falsch verstanden.
Zitat von NegevNegev schrieb:Gut, das wir jetzt noch mal die CEOs von Profitorientierten Unternehmen aufgezählt haben 😀.
Zitat von NegevNegev schrieb:Was du dich fragen solltest: woher nehmen die ihre Aussage? Wollen die einfach nur die einfach nur die Geldströme aufrecht erhalten?
Ich halte diese Personen für ungeeignet. Da ihre Voraussagen untrennbar mit ihren wirtschaftlichen Zielen verbunden sind.
Zitat von WardenWarden schrieb:Quelle: https://ai-2027.com/

Die Seite selbst die ich hier als Quelle angegeben habe ist eine Art research paper wie sich KI entwickeln könnte. Da waren keine Laien am Werk und die "3" im Zitat steht für eine Annotation:

"It’s tempting to dismiss this as just hype. We think this would be a grave mistake - it is not just hype. We have no desire to hype AI ourselves, yet we also think it is strikingly plausible that superintelligence could arrive by the end of the decade. See our timelines forecast for more."

Quelle: Annotation auf der Webseite dazu, von den Autoren - und wer sind diese Autoren? Um den Post kürzer zu halten klatsch ich das hier jetzt nicht auch noch rein und verweise auf "Who are we?" bzw. "About us" auf der verlinkten Webseite. Sind jetzt zumindest keine Schwurbel-Gurus oder fachfremden Glaskugel-Deuter, denke ich.
Der Punkt ist: Die CEOs haben einerseits die beste Ahnung weil sie aktiv involviert sind - aber ja, man könnte ihnen Voreingenommenheit und Kalkül in der öffentlichkeitswirksamen Kommunikation unterstellen. Es weisen aber auch andere Expert(inn)en, "Nicht-CEOs" darauf hin.


1x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 16:05
Zitat von WardenWarden schrieb:Der Punkt ist: Die CEOs haben einerseits die beste Ahnung weil sie aktiv involviert sind - aber ja, man könnte ihnen Voreingenommenheit unterstellen. Es weisen aber auch andere Expert(inn)en, "Nicht-CEOs" darauf hin.
Nehmen wir ein einfaches Skalierungsbeispiel der Vergangenheit:

Intel wollte den PC mit immer mehr Taktrate schneller machen:
CEO Andrew Grove am 18. November 1996 bei seiner Rede auf der Comdex in Las Vegas verspricht: In 15 Jahren, also im Jahre 2011, sollen Intels schnellste Prozessoren mit 10 Gigahertz arbeiten und aus einer Milliarde Transistoren bestehen.

Doch bei dieser Prognose bleibt es nicht - Intel wird sogar noch optimistischer: Sechs Jahre später, auf dem IDF in Tokyo, verspricht Intels Cheftechniker Pat Gelsinger, Prozessoren würden schon im Jahre 2010 auf 15 GHz kommen. Die Pentium-4-Architektur sollte für immerhin 10 GHz gut sein, der kommende Prescott bereits auf 5 GHz kommen, sein Nachfolger auf 6 GHz; der 15-GHz-Chip hingegen sollte auf einer neuen Architektur basieren.

Von diesen ehrgeizigen Plänen rückt Intel jedoch bald wieder ab. 2004 stellt sich langsam die Erkenntnis ein, dass der Pentium 4 ohne explodierende Leistungsaufnahme nicht einmal auf 4 GHz zu treiben ist - das schnellste offiziell erhältliche Modell der gesamten P4-Reihe arbeitet denn auch nur mit 3,8 GHz
Quelle: https://www.pcgameshardware.de/Retrospektive-Thema-214694/News/Irrtuemer-Intels-10-Gigahertz-und-Nvidias-CineFX-PCGH-Retro-18-November-667403/


So ist das mit einem Hype in 10 Jahren....

Von den CEOs und den Technikern und der Marketingabgteilung der eigenen Firma getrieben.


2x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 16:44
Zitat von WardenWarden schrieb:it is not just hype. We have no desire to hype AI
Wenn wir über die KI Singularität sprechen, bitte ich um ein seröse Quelle. Keine Prognosen. Etwas handfestes.

Jede Voraussage über eine Technologie, die noch nicht existiert und einen fundamentalen Paradigmenwechsel erfordert, ist spekulativ.

Ein Beispiel, mal angenommen man würde sich auf diese Diskussion einlassen und wir würden eine AGI versuchen uns vorzustellen. Dann sagst du: "Angst, die könnte doch...". Ich sag: "Nein, weil Sicherung XY". Du sagst: "Nein, weil AGI intelligent"

Das führt zu nix.


2x zitiertmelden

Künstliche Intelligenz

23.08.2025 um 16:49
@Warden
Zitat von abbacbbcabbacbbc schrieb:So ist das mit einem Hype
Bei der Recherche habe ich ein Video gefunden mit dem Titel: "OpenAI Sam Altman SCHOCKIERT die Branche: Wir haben bereits die Superintelligenz erreicht"

Zwei Monate später kommt ChatGPT 5 raus. Warum sind die Leute nur so enttäuscht? 😀


melden