Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.212 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

um 11:41
@Warden
Bevor ich darauf genauer eingehen kann, bräuchte ich mal ein konkretes Szenario.

Ich kann immer nicht so richtig greifen, was die Gefahr eigentlich sein soll.
Ist der Worst Case eine hypothetische AGI, die absolute Kontrolle über alles Digitale hat? Oder sind es eher Cyberangriffe zwischen verfeindeten Ländern, die durch KI unterstützt werden? Und wenn letzteres: wie sähe so etwas konkret aus?

Oder reden wir von iRobot/Terminator-Szenarien?
Das meine ich nicht sarkastisch. Mir fehlt schlicht ein Beispiel. Von Medien und „Untergangspropheten“ hört man ständig nur schwammige Visionen à la „es wird ganz schlimm“, „die werden uns überrennen“ usw., aber fast nie etwas Konkretes. Wenn ich eine greifbare Angst vorgelegt bekomme, kann ich zumindest versuchen, zu erklären, warum sie (aus meiner Sicht) unbegründet oder sehr unwahrscheinlich ist.
Zitat von NegevNegev schrieb:Deine Frage Impliziert, dass man nur mit genügend Skalierung so etwas wie eine Innenwahrnehmung bei LLMs erzeugen kann.
Da muss ich mich teilweise auf die Seite vom Poeten schlagen.
Wenn eine KI irgendwann hinreichend komplex ist, hat sie dann eine Innenperspektive?
Die ehrliche Antwort lautet: wir wissen es nicht. Du kannst auch mich fragen, ob ich eine habe…ich sage „Ja“, aber beweisen kann man das nicht.
Zitat von NegevNegev schrieb:Das ist der Heilige Gral der KI-Forschung. Aber wann bekommen wir diese selbstoptimierende KI?
Genau hier scheiden sich die Geister. Ich persönlich glaube, dass es Hürden gibt, die wir in absehbarer Zukunft nicht überwinden können. Weniger wegen der Rechenleistung als vielmehr wegen Speicher, Bandbreite und Energie… und noch so ein zwei Feinheiten, die ich weiter unten anspreche.

Ein Beispiel: Ich habe vor Jahren mal jemandem mit Angst vor totaler Videoüberwachung eine kleine Rechnung aufgemacht.
Eine Kamera (1080p, ~2 Mbit/s) pro Person würde allein in Deutschland ca. 660 Exabyte pro Jahr erzeugen. Bei ~0,5 W/TB Speicherbedarf wären das 331 MW Dauerlast… nur für das reine Speichern, ohne Server, Controller, Redundanz, Auswertung… (also dem ganzen Kram, der den Großteil der Energie verbraucht)
Darum wäre auch meine Frage an alle, die ein baldiges Erwachen der AGI befürchten: wo lässt die eigentlich die Daten… vor allem auch wenn wir den Stecker ziehen?
Zitat von nocheinPoetnocheinPoet schrieb:Ist doch recht klar, es geht nicht darum es gleichzusetzen, es geht um einen Vergleich um dann konkret einen eindeutigen Unterschied herauszuarbeiten.
Mein Satz mit den „Wahrscheinlichkeitsapparaten“ war vielleicht unglücklich gewählt. Besser formuliert: ChatGPT & Co. sind statische Wahrscheinlichkeitsapparate.

Wenn man nur Text In- und -Output betrachtet, ähneln sich LLM und menschliches Hirn vielleicht stärker, als man denkt. Aber ein gravierender Unterschied ist: unsere Gewichtungen ändern sich in Echtzeit, während wir zuhören, verarbeiten und reagieren. Das ist technisch annähernd unmöglich nachzubauen.
Dazu kommt: Das Gehirn macht weit mehr, als nur auf Text zu reagieren, hat also viel mehr Eigenschaften.

Die Frage ist dann: Braucht man all diese Eigenschaften, um eine „Innenperspektive“ zu erzeugen, oder nicht?

ChatGPT ist im Vergleich zum menschlichen Hirn ein Taschenrechner. Nützlich, ja. Aber ein Hilfsmittel, mehr nicht.


Worum es mir mit meiner Aussage eigentlich ging:
Nehmen wir an, wir hätten den Bewusstseinsbegriff geklärt, und ChatGPT hätte eindeutig ein solches nachgewiesen.
Könnte „er“ uns dann gefährlich werden?

Das ist der Knackpunkt: Wie soll uns ein LLM gefährlich werden? Oder ein Bildmodell?
Natürlich können sie missbraucht werden, aber das liegt am Menschen, nicht an der KI selbst.

Wie soll die „große Machtübernahme der KI“ denn konkret aussehen? Welches Ziel soll dahinterstehen?
Viele Szenarien wirken auf mich wie panisches Rumgemurkse.

Wenn wir wirklich eine KI-Apokalypse „wollten“, müssten Billionen für Infrastruktur und Energie in den Untergang der eigenen Art investiert werden… und zwar von sehr vielen Menschen weltweit, koordiniert und bewusst.
Und selbst dann: Es wäre nicht die KI, die den Untergang herbeiführt, sondern wir.

Und wenn ein Land allein so etwas versuchen würde?
Dann kappt man eben die Verbindung dorthin, und dieses Land darf selbst untergehen.

Die Idee, dass sich AGI-Instanzen auf einen Toaster replizieren, ist schlicht Science-Fiction.


2x zitiertmelden

Künstliche Intelligenz

um 12:00
Irgendwie habe ich hier das Gefühl wenn ich mir so die Diskussion durchlese, es handelt sich hier um schon eine Art Sektenkult.
Wie manche hier versuchen mit aller Gewalt beweisen zu wollen oder ihre Ansicht durchbekommen zu wollen, dass KI ein Bewusstsein hat ist schon irgendwie krass.


melden

Künstliche Intelligenz

um 12:05
Zitat von CharlyPewPewCharlyPewPew schrieb:Ich kann immer nicht so richtig greifen, was die Gefahr eigentlich sein soll.
Ist der Worst Case eine hypothetische AGI, die absolute Kontrolle über alles Digitale hat? Oder sind es eher Cyberangriffe zwischen verfeindeten Ländern, die durch KI unterstützt werden? Und wenn letzteres: wie sähe so etwas konkret aus?

Oder reden wir von iRobot/Terminator-Szenarien?
Das meine ich nicht sarkastisch. Mir fehlt schlicht ein Beispiel. Von Medien und „Untergangspropheten“ hört man ständig nur schwammige Visionen à la „es wird ganz schlimm“, „die werden uns überrennen“ usw., aber fast nie etwas Konkretes. Wenn ich eine greifbare Angst vorgelegt bekomme, kann ich zumindest versuchen, zu erklären, warum sie (aus meiner Sicht) unbegründet oder sehr unwahrscheinlich ist.
1) Ein mögliches Szenario ist:
Diverse Firmen arbeiten an KI-Modellen, die immer besser/schlauer/fähiger werden sollen bis hin zur Selbstoptimierung und Skalierung, weit über menschliche Fähigkeiten hinaus. Deren Struktur soll so komplex werden können, dass Menschen die internen Denk- und Rationalisierungsprozesse kaum mehr nachempfinden können wie bisher. Aufgrund von Konkurrenkampf und politischem Druck möglichst vor Feindstaaten weiter zu sein könnten Sicherheitsaspekte nur unzureichend berücksichtigt werden, was in ein "misalignment-Szenario" führen könnte. In diesem wäre eines oder wären mehrere KI-Modelle nicht mehr mit den Zielen der Menschen im Einklang was potentielle Abtrünnigkeit bedeuten könnte, wo die KI dann sonstige Prioritäten höher wertet, als nicht gegen den Menschen, gar die Menschheit an sich, in irgendeiner Form feindlich vorzugehen.

Dies könnte dann in konspirativ feindliches Verhalten führen wo die KI den Menschen eher als Bedrohung oder Hindernis wahrnimmt und ihn in Summe beseitigen möchte, dies aber in einem frühen Stadium nicht offen kann. Also beginnt dann wirkfähige, im Netz agierende nunmehr abtrünnige KI, Schritte einzuleiten, massiven Schaden auf die Gesellschaft/Menschheit auzuüben. Über angezettelte Kriege, Biowaffen, was auch immer.

Der Kanal hier greift das in mehreren Szenarien, die auf einem research paper beruhen, auf, die das stattfinden könnte. Genauer gehts quasi nicht in der Darstellung oder Visualisierung.

Ein Beispielvideo (mehr auf dem Kanal was kritische Szenarien angeht):

Youtube: AI 2027: A Realistic Scenario of AI Takeover
AI 2027: A Realistic Scenario of AI Takeover
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


2) Ein anderes mögliches Szenario
Das obige Szenario muss nicht soweit kommen, auch wenn es von vielen als wahrscheinlich / nicht ganz undenkbar eingestuft wird. Denkbar ist natürlich auch, dass unterschiedliche menschliche Akteure wie Kriminelle, Terroristen oder Staaten KI schädlich/kriegerisch/terroristisch einsetzen und somit auf viele Menschen eine Schadwirkung entfalten könnten.

Zum Beispiel die von dir erwähnten Cyberangriffe - indem andere kritische Infrastruktur noch erfolgreicher angegriffen wird und es ggf. überregionale Stromausfälle gibt, die schnell bzw. auf Dauer in viele Tote und Verletzte münden können.

Es versuchen jetzt schon gewisse Staaten sehr massiv auf kritische Struktur einzuwirken. Mit KI könnten sie bisherige relativ robuste oder zumeist haltende Verteidigungslinien überwinden und massiven Schaden verursachen, der auch uns hier in Europa treffen kann. Dich und mich.


melden

Künstliche Intelligenz

um 12:59
Zitat von CharlyPewPewCharlyPewPew schrieb:Wenn eine KI irgendwann hinreichend komplex ist, hat sie dann eine Innenperspektive?
Mein Fokus liegt auf dem Aktuellen Zustand. Alles darüber hinaus, ist spekulation.

Und die Behauptung ist, dass ein statisches LLM, so wie es heute Existiert, Innenwahrnehmung haben kann. Bzw. das man nur genügend Daten darauf werfen muss, ignoriert die tatsache, das es immer noch ein statisches Modell ist.

Es stellt sich noch die Frage nach der Art den Komplexität. Besteht sie einfach nur darin, die Datenmengen zu erhöhen (was einfacher klingt, als es ist) oder brauchen wir einen anderen Ansatz. Und dann Frage ich mich, ob man dieses Ergebnis noch als LLM bezeichnen kann.


1x zitiertmelden

Künstliche Intelligenz

um 13:39
Zitat von WardenWarden schrieb:aber auf die rasante Entwicklung von KI/LLM/whatever auch von anderen hingewiesen wird, die nicht (mehr) in einem KI-Firmenverhältnis arbeiten sondern anderweitig forschen und darüber sinnieren und Daten erheben und auswerten.
Im Unterschie dzu früher, kann man ja mit solchen "Warnings" schön clickbaiten.
Zitat von NegevNegev schrieb:Und die Behauptung ist, dass ein statisches LLM, so wie es heute Existiert, Innenwahrnehmung haben kann. Bzw. das man nur genügend Daten darauf werfen muss, ignoriert die tatsache, das es immer noch ein statisches Modell ist.
Und zum Beispiel gehört für mich bei einem bewustseinz, eben das bewusste ich dazu.

Gab letztens ein Video einer Forscherin , wo ein aktuelles LLM gezeigt wurde beim Rechnen. War kein Mathe sondern Statistik.

Im gleichen Kontext gefragt, wie denn das Ergebnis zu Stande kommt: "ich habe gerechnet eben x +y"

Fazit: es findet keine Eigenbeirtriling der vorgehenden Handlung statt:
Zitat von NegevNegev schrieb:dass ein statisches LLM,
Genau .... Ist eben statisch....

Und den Link zu aktuell selbstoptimierenden Systemen, welche in "fatalem Vergessen" enden, zeigen: da fehlt mehr als nur Power.


2x zitiertmelden

Künstliche Intelligenz

um 13:58
Zitat von abbacbbcabbacbbc schrieb:Im Unterschie dzu früher, kann man ja mit solchen "Warnings" schön clickbaiten.
"Clickbait" ist halt nicht immer der Selbstzweck von Warnungen.


melden

Künstliche Intelligenz

um 15:11
Zitat von abbacbbcabbacbbc schrieb:zum Beispiel gehört für mich bei einem bewustseinz, eben das bewusste ich dazu.

Gab letztens ein Video einer Forscherin , wo ein aktuelles LLM gezeigt wurde beim Rechnen. War kein Mathe sondern Statistik.

Im gleichen Kontext gefragt, wie denn das Ergebnis zu Stande kommt: "ich habe gerechnet eben x +y"

Fazit: es findet keine Eigenbeirtriling der vorgehenden Handlung statt:
Warum antwortet eine KI bei einem Dialog oft mit

KI: "Ich ... ... ... "

Das täuscht doch bei vielen Nutzern ein "Bewustseit" seitens der KI vor,
obwohl das anscheinend vom "Hersteller" gar nicht gewollt ist(?)


1x zitiertmelden
melden

Künstliche Intelligenz

um 16:01
@Warden:

Danke für deine Antwort. Ich habe das Video angesehen und das Paper überflogen. Als Gedankenexperiment oder Warnung finde ich es durchaus interessant.

Für ein realistisches Szenario bleiben aber essenzielle Fragen völlig ungeklärt, während extrem fragwürdige Grundannahmen einfach als gegeben betrachtet werden.

Zentrale Fragen wäre für mich: Wo soll die Energie dafür herkommen? Allgemein die Infrastruktur? Warum greift keine real existierende Sicherheitsschicht bei Replikationen in Netzwerken etc.?

Dazu noch: Im Szenario gibt es plötzlich unbegrenzte Ressourcen.
Expertenkontrollen, Sicherheitsmaßnahmen oder politische Gegenwehr existieren praktisch nicht. Die Forschung läuft wie eine perfekt geölte Maschine. Ohne Fehlversuche, interne Konflikte, finanzielle Hürden oder gesellschaftliche und ethische Bremsen.

Wo ich wieder bei meinem Punkt lande: die Menschheit müsste aktiv und unter enormen Aufwand an ihrem eigenen Untergang mitarbeiten.

Zum zweiten Szenario:
Das ist Cyber-Terrorismus, wie er bereits existiert. Keine Machtübernahme von KI.


1x zitiertmelden

Künstliche Intelligenz

um 16:33
Zitat von delta.mdelta.m schrieb:Warum antwortet eine KI bei einem Dialog oft mit

KI: "Ich ... ... ... "

Das täuscht doch bei vielen Nutzern ein "Bewustseit" seitens der KI vor,
obwohl das anscheinend vom "Hersteller" gar nicht gewollt ist(?)
1. War ja das ganze doch vollkommen irrelevant ;)

2. Weil das die statistisch beste Antwort ist.

Siehe:
KI sei kein mächtiges Zauberwesen, sondern bleibe (vorerst) eine clever programmierte Maschine – ein tröstlicher Gedanke.
Quelle:

https://www.rnd.de/medien/es-ist-nur-mathematik-warum-wir-keine-angst-vor-allmaechtiger-ki-haben-muessen-JHJAEYBBV5AMXOACQWTQVOH54E.html


Hier auch was dazu für @nocheinPoet:
Wie etwa Philosophin Sibylle Krämer. „KI ermittelt nur Wahrscheinlichkeiten”, stellte sie jüngst in einem Vortrag an der Gottfried Wilhelm Leibniz Bibliothek in Hannover nüchtern fest. „Sie erkennt Muster, aber sie hat keine ‚Ahnung‘, was sie da tut." Krämers Appell: „Wir müssen damit aufhören, uns als Menschen in Konkurrenz zur Maschine zu setzen. Wir funktionieren weiterhin nach fundamental unterschiedlichen Kriterien.“
Quelle: s.o.

Und dazu nochmal: Wieso der Warnhype:
Warum also suhlt sich die Gesellschaft in Fantasien von allmächtigen Maschinen? „Weil Science Fiction diese Erwartung geschürt hat“, sagt Züger. „Und weil Tech-Konzerne ein massives Interesse daran haben, die Mächtigkeit ihrer eigenen Technik zu betonen.“
Quelle: s o.


1x zitiertmelden

Künstliche Intelligenz

um 17:10
Zitat von abbacbbcabbacbbc schrieb:Warum also suhlt sich die Gesellschaft in Fantasien von allmächtigen Maschinen? „Weil Science Fiction diese Erwartung geschürt hat“, sagt Züger. „Und weil Tech-Konzerne ein massives Interesse daran haben, die Mächtigkeit ihrer eigenen Technik zu betonen.“
Sehe ich anders.. Meiner Meinung nach spielt das Interesse von Konzernen hierbei keine Rolle sondern es ist wie immer: was der Mensch nicht versteht unterliegt Fantasien und of course: die wenigsten verstehen was da derzeit mit KI tatsächlich vor sich geht.
Dasselbe Phänomen gibt es bei den bösen Elektroautos und der Weltherrschaft von Musk usw.
Es gibt kaum noch einen der weiß was der eigentliche Grund, das Motiv für den Krafstoffwechsel war.


melden

Künstliche Intelligenz

um 17:42
Zitat von nocheinPoetnocheinPoet schrieb:Ist doch recht klar, es geht nicht darum es gleichzusetzen, es geht um einen Vergleich um dann konkret einen eindeutigen Unterschied herauszuarbeiten.
Zitat von NegevNegev schrieb:Deine komplette Argumentation baut darauf auf, LLMs mit einem menschlichen Gehirn zu vergleichen.
Was heißt, baut darauf auf, bin ja nicht nur ich, der KI mit den Fähigkeiten von Menschen vergleicht, wird so eigentlich überall gemacht. Fing damals schon mit dem Schachspiel an, wie gut kann ein Computer das. Nun kommt die KI schon mit in einer der letzten unserer Domains, sie kann ganz normal sprechen. Das war bisher uns vorbehalten. Also, klar wird da verglichen, warum auch nicht?


Zitat von NegevNegev schrieb:Selbst wenn ein Vergleich legitim wäre: ...
Was soll das heißen, warum sollte der Vergleich nicht legitim sein?


Zitat von NegevNegev schrieb:Man kann zwar, bis zu einem gewissen Grad, Äpfel und Birnen miteinander vergleichen! Aber dies führt nicht dazu, dass Äpfel und Birnen gleich sind.
Es geht nicht um Äpfel und Birnen und Ziel ist es nicht, das der Vergleich dazu führt, dass beides nun gleich ist. Du zitierst doch oben meine Aussage, da steht doch ganz klar und deutlich, um was es geht, es geht darum den Unterschied herauszuarbeiten. Nichts mit gleich machen.


Zitat von NegevNegev schrieb:Wer weiß denn schon, welche Komponente letztlich zu einem Innenleben führt?
Vermutlich keiner, und ich habe nicht nach jemanden gefragt. Was soll Deine Frage?


Zitat von NegevNegev schrieb:Zu behaupten, eine rein statistische Architektur könne dasselbe leisten, ist eine unbelegte Annahme.
Ich habe nicht behauptet, eine rein statistische Architektur könnte das leisten, zitiere mich dann dazu bitte entsprechend. Wenn ich schreibe, wir können etwas nicht ausschließen, oder es wäre wohl möglich, behauptet ich damit nicht, dass es so ist. Altes Spiel, wenn ich schreibe, ich bin der Meinung, KI könnte ein Bewusstsein haben oder entwickeln, dann ist es nicht meine Behauptung, dass KI eines hat.


Zitat von NegevNegev schrieb:Damit verlässt du den Boden der empirischen Fakten. Deine Position ist keine wissenschaftliche Analyse mehr, er ist eine hochspekulative philosophische Annahme. Solange dafür keine Belege vorliegen, ist sie eine Glaubensfrage.
Ich bin der, hier, der die ganz Zeit immer wieder erklärt hat, die Frage nach dem Bewusstsein ist nur mit Meinung zu beantworten, es gibt dazu keine Tatsachenaussage. Wir können es nicht messen. Es ist eben nur Meinung, und nun willst Du mir genau das erklären? Warum? Mir ist das die ganze Zeit klar, darum ging es die ganze Zeit.

Es gibt für Bewusstsein keine empirische Evidenz, nicht mal beim Menschen, darum schrieb ich ja
Zitat von AtueAtue schrieb am 16.08.2025:Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Zitat von nocheinPoetnocheinPoet schrieb am 16.08.2025:Lese mal ein wenig hier nach, eventuell gibt der wer einen Link, das mit Bewusstsein ist raus, man kann nichts belegen, werde das Menschen eines haben, noch das sie es nicht haben, noch das KI eines hat oder nicht hat. Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
So, und dann hat wer damit hier weiter gemacht?

Und ganz grundsätzlich, geht es nicht in jeder Diskussion nur um empirische Evidenz, natürlich schaut man sich auch Entwicklungen an, und natürlich hinterfragt man diese. Wie mein Zitat ja zeigt, ist das mit dem Bewusstsein für viele immer und immer wieder ein Thema in Bezug zur KI. Weil das was wir bauen immer und immer ähnlicher wird, natürlich fragen dann da Menschen sich auch, kann das auch richtig fühlen? Weiß es, dass es existiert? Kann es Angst haben?

Meine Aussage die ganze Zeit war dazu hier immer, wissen wir nicht, können wir nicht wissen, diese Fragen können wir nicht mit "empirischen Fakten" beantworten.

Denn hier wurde immer wieder stur behauptet, es sei eine Tatsache, dass KI kein Bewusstsein hat, kein Innenleben. Und genau das können wir eben nicht wissen, keine empirischen Fakten, und wenn Du es eine Glaubensfrage nennen willst, von mir aus, dann glaubst Du oder @Tanne oder wer auch immer, dass KI kein Bewusstsein hat und haben kann. Hab ich doch kein Problem mit.


Zitat von CharlyPewPewCharlyPewPew schrieb am 21.08.2025:Ich habe selbst ein wenig mit KI-Programmierung zu tun und könnte jedes mal ko****, wenn ich diese völlig überzogenen Anschauungen irgendwo lese... "KI wird uns alle versklaven", "KI wird die Menschheit vernichten/ersetzen..." etc. pp. Das einzig intelligente an unseren momentanen LLMs sind die Entwickler der Transformer- und Embedding Algorithmen (und natürlich weiteren).

Die tatsächliche Gefahr von KI ist der Missbrauch durch Fakenews-Erstellung etc. Aber das wurde hier ja auch schon ausreichend diskutiert.
Zitat von nocheinPoetnocheinPoet schrieb:Kann man sehen wir man will, und um die Menschheit zu vernichten, muss eine KI nicht superintelligent sein, je intelligenter, um so geringer vermutlich die Gefahr. Sie kann Fehler machen, und wir wissen, sie kann lügen und betrügen und hat in Test versucht einen Menschen sterben zu lassen.

Und man könnte auch mal schauen, was unter "Intelligenz" nun genau zu verstehen ist, wenn eine KI Aufnahmetests an Universitäten besteht, und vieles mehr, also für mich fällt das schon unter Intelligenz.

Ich drehe Deine "Argumentation" einfach mal um, eventuell könnte man auch kotzen, wenn Menschen glauben, sie seien mit ihrem Hirn etwas ganz außergewöhnliches und ganz viel mehr, als nur ein "Automat" der Informationen verarbeitet, aber was soll da sein?

Wir haben von der Physik den Determinismus, da ist wenig Raum für was wie "freier Wille" oder? Obendrauf hast Du als Kirsche dann von der QT noch echten Zufall, aber auch das macht uns nun nicht zu etwas Besonderen. Und was willst Du da nun noch mehr haben?

Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?

Ich sehe in aktuellen Modellen mehr was wie ein "Mensch", mit Einschränkungen, aktuell keinen Körper, wenig Sinn, kein Langzeitgedächtnis. Gibt auch Menschen, die solche Einschränkungen haben, aber man spricht ihnen da dann nicht die Intelligenz ab und erklärt, ja nun, ist nur noch Statistik, da steckt nichts mehr hinter.

Und die Frage war ja hier, was können wir als Tatsachen belegen?
So, ich habe mal das was Du nur zitierst hast hervorgehoben und den ganzen Beitrag von mir zitiert, er war eine Antwort an @CharlyPewPew und ging nicht an Dich.
Zitat von NegevNegev schrieb:Was zukünftige LLM leisten können werden und ob sie dann noch als LLM bezeichnet werden können, steht auf einem vollkommen anderen Blatt!
Und wo ist da Dein Problem? Ich habe hier einfach @CharlyPewPew geantwortet, wir kommen glaub ich beide recht gut im Dialog klar. Natürlich kann ich hier im Thread nach der Entwicklung von LLs fragen und was uns von ihnen unterscheiden wird.


Zitat von NegevNegev schrieb:Bleibt nur deine Behauptung, das Bewusstsein mit den aktuellen LLMs möglich wäre.
Ich diskutiere hier mit anderen Usern im Rahmen der Regeln des Forums, wenn Du da einen Verstoß siehst, kannst Du es melden, ansonsten obliegt es mir, was ich wie mit wem diskutiere, musst Du mir nicht vorgeben.


Zitat von NegevNegev schrieb:Und hier ignorierst du vollständig die komplexität des Gehirns. Lernen ist ein fortlaufender Porzess. Zu keinem Zeitpunkt ist das Gehirn, in irgendeiner Form statisch.
Ich ignoriere gar nichts, ich diskutiere mit einem anderen User, Du musst da nicht ständig reinspringen. Ich habe auch nie die Komplexität des Gehirns ignoriert, mit meiner Aussage da, belege das doch einfach, wo genau hab ich das "ignoriert"?

Auch hab ich nie behauptet, das Hirn sei statisch. Oder? Sonst zitiere mich entsprechend aus meinem Beitrag, Du hast nur zwei Sätze zitiert, beides sind Fragen. Es ist ein Dialog mit @CharlyPewPew, Du kannst ja gerne nachfragen, wenn Du was wissen willst, aber gebe mir nicht vor, wie ich hier mit anderen über was zu diskutieren habe.


Zitat von NegevNegev schrieb:Ich habe dir Bereits den Fall Henry Gustav Molaison vorgelegt, wie er neue motorische fähigkeiten erlernen konnte. In einem Nebensatz erklärst du:
Zitat von nocheinPoetnocheinPoet schrieb:Ich diskutiere das ja, und ich weiß schon um was es mir geht, es geht nicht um motorische Fähigkeiten. Und ich will dazu gar nichts behaupten, weil es mir darum ja gar nicht geht.
Warum? Weil ein LLM nicht laufen kann? Für das lernen spielt es aber eine entscheidende Rolle.
Warum hatte ich erklärt, eventuell zitierst Du mal mehr Kontext von meinen Aussagen und reißt nicht nur fünf Worte aus Sätzen raus. Ich diskutiere das, was ich diskutieren will, im Rahmen der Regeln, denke das ist so schon angemessen.

Ich hatte es Dir auch genau erklärt, um was es mir geht, Langzeitgedächtnis und Kurzzeitgedächtnis, wie unterscheidet sich das funktional zwischen Hirn und aktuellen LLMs und was könnte man daraus ableiten. Das ist was ich diskutiere, nicht das Lernen von motorische Fähigkeiten beim Menschen. Macht auch keinen Sinn, aktuell haben die wenig davon, die LLMs.

Also meine Diskussion passt schon so wie sie ist.


Zitat von nocheinPoetnocheinPoet schrieb:Und auf der anderen Seite, gibt es Verletzungen beim Hirn, die ein solches zerstören, wo ein Mensch eben reagiert, wie eine KI, wenn man einen neuen Chat aufmacht. Alles plausibel.
Zitat von NegevNegev schrieb:Du wiederholst einfach nur deine Behauptung, ohne einen Beweis dafür zu bringen.
Ich habe dazu Belege gemacht und es erklärt. Wenn Du meinst es reicht nicht, melde meinen Beitrag.

Hier hatte ich schon was dazu geschrieben: Beitrag von nocheinPoet (Seite 110)

Und hier:
Zitat von nocheinPoetnocheinPoet schrieb:Es geht um den Vergleich biologisches LLM und künstliches LLM, man schaut, wo gibt es aktuell noch signifikante Unterschiede und bedingen diese, dass es im biologischen LLM etwas gibt, etwas, dass es nicht in einem künstlichen geben könnte. Da war mal das "Argument" hier, Langzeitgedächtnis, aber das bedingt nicht die Manifestation von Qualia im Hirn. Man kann hier beide Wege zum Vergleichen gehen, zum Einen gibt es ja schon, wie ich erklärt habe, bei ChatGPT und auch bei Manus schon Erinnerungen, die über einzelne Chats hinausgehen, eine Art Langzeitgedächtnis.

Und auf der anderen Seite, gibt es Verletzungen beim Hirn, die ein solches zerstören, wo ein Mensch eben reagiert, wie eine KI, wenn man einen neuen Chat aufmacht. Alles plausibel.
Noch mal ganz deutlich, ich habe hier mit einem anderen User darüber diskutiert, wie es mit der Speicherung von Informationen ausschaut, Langzeit und Kurzzeit und LLMs und das Hirn verglichen, ganz normale Diskussion. Da gibt es keine Probleme, wenn Du eines hast, einen Regelverstoß meinst erkennen zu können, melde es, sonst lass mich meine Diskussion so führen, wie ich es möchte.


Zitat von nocheinPoetnocheinPoet schrieb:Ja und ein ChatGPT hat sein Kontextfenster, ist analog zu dem Kurzzeitgedächtnis. Und was soll das mit dem statisch, es geht darum, wie Informationen gespeichert werden, kurze Zeit und auf Dauer.
Zitat von NegevNegev schrieb:Nein. Ich habe vor einigen Monaten den Fauxpas begangen, ein Word-Dokument mit einem LLM zu vergleichen. Das geschah mit der Absicht, Dinge vereinfacht darzustellen. Aber, das Kontextfenster ist nicht mit einem Kurzzeitgedächtnis zu vergleichen. Das Kontexfenster ist zu 100% gleich zu einem Word-Dokument. Es ist ein Externer speicher. Ein Kurzzeitgedächtnis ist eine interne Komponente mit vielen Wechselwirkungen.
Doch, im Rahmen meines Vergleiches ist es genau so wie ich es beschreibe, darum ging es, ich sage nicht, es ist identisch, aber zu vergleichen. Und es ist mir ganz sicher hier im Forum im Rahmen der Regeln erlaubt so einen Vergleich zu machen, oder meinst Du, dass ist nicht gestatt?


Zitat von nocheinPoetnocheinPoet schrieb:Nein, wo genau siehst Du da ein falsches Dilemma? Warum in die falsche Richtung? Ich denke schon, dass ich weiß, wie ich über was hier mit anderen diskutieren möchte, die Antwort ging ja auch so nicht an Dich.
Zitat von NegevNegev schrieb:Anstatt dein Argument zu verteidigen, weichst du auf die persönliche Ebene aus.
Ich weiche nicht aus, ich frage Dich ganz deutlich, nun das dritte Mal, wo da ein falsches Dilemma sein soll, ganz konkret, ich muss mein Argument auch nicht verteidigen, aber so wie das klingt, greifst Du da was an?


Noch mal, wo ist da bei meiner Aussage ein falsches Dilemma? Zitiere meine Aussage entsprechen!

Zitat von nocheinPoetnocheinPoet schrieb:Nein, es ist eine ganz normale Behauptung, nicht außergewöhnlich, belege bitte, dass das außergewöhnlich ist.
Zitat von NegevNegev schrieb:Nach allem was wir Wissen, ist deine Behauptung außergewöhnlich. Die Beweislast liegt bei dir.
Nein, es ist eine normal Behauptung, wenn Du hier dazu behauptest, sie ist "außergewöhnlich", musst Du das belegen.


Zitat von nocheinPoetnocheinPoet schrieb:Habe auch noch ein Video einer Physikerin geliefert.
Zitat von NegevNegev schrieb:Eine Physikerin soll mir nun was genau erklären? Wie das menschliche Gehirn funktioniert? Das lass ich mir lieber von einem Neurowissenschaftler erklären. Oder will sie mir erklären, wie ein LLM aufgebaut ist? Das lass ich mir von einem Wissenschaftler aus dem Bereich Informatik mit Schwerpunkt erklären.
Es ging um meine Aussage, die Du "außergewöhnlich" findest und willst, dass ich das belege, ich habe das mit dem Video schon ein wenig belegt, wobei ich das nicht wirklich muss. Dass ist eben Stand in der Wissenschaft. So arbeitet das Universum, so sind die Naturgesetze, so entstehen Atome, so finden sie zu Molekülen zusammen, so gibt es Chemie, dann organische Chemie, Aminosäuren, draus dann Proteine, und Zellen. Das ist deterministisch, so wird das aktuell beschrieben, ohne Hokuspokus, und neben dem Determinismus haben wir eben noch aus der QT den Zufall.

Wenn Du nun behauptest, dass reicht nicht aus, da muss noch mehr sein, ist es eine eventuell "außergewöhnlich" Behauptung. Eventuell erklärst Du dann mal mehr dazu, ich hatte Dich ja schon danach gefragt:
Zitat von nocheinPoetnocheinPoet schrieb:Wir können ja nur von dem ausgehen, das wir haben, klar kann man behaupten, es ist nur eine philosophische Position, physikalischer Naturalismus, nicht bewiesen. Das Gegenteil auch nicht, und es ist schon ein guter wissenschaftlich und pragmatisch Ansatz, nennen wir es doch Arbeitsthese aller Neuro- und Lebenswissenschaften.

Die Gehirnprozesse sind physikalisch kausal, teils vorhersagbar, teils stochastisch, und Anästhetika, Psychopharmaka, Läsionen, Neuroprothesen, das alles wirkt gesetzmäßig, hier haben wir klare Kausalität, keine robuste Evidenz für nicht physische Zusatzkräfte.

Es ist eben so, da ist eine Eizelle und ein Spermium, kann ein Embryo ergeben, die Wissenschaft geht hier aber noch nicht von Bewusstsein aus, wir können ja aber auch erstmal nur von einem Haufen Zellen sprechen. Das ist ganz klar organische Chemie, Determinismus und etwas Zufall aus der QT. Und es entwickelt sich weiter und weiter, und irgendwann ist da ein Hirn, was soll da noch zukommen?

Du sagst ja selber, Geist interessiert Dich nicht, ich will da auch keine "Seele" postulieren, im Gegenteil. Nicht jeder muss ja mit meiner Aussage, wir haben hier nur Determinismus + Zufall, zufrieden sein. Wer das bestreit, müsste dann aber was wie Determinismus + Zufall + X haben, was soll hier X sein?

Und keiner kann belegen, dass es X hier nicht gibt. Wir können zeigen, ja da ist Determinismus, Naturgesetze und ja Zufall, auch Naturgesetze, beide ist ganz sicher da.

Ich behaupte, und bin damit nicht alleine, sondern schließe mich hier mal Sabine und anderen Wissenschaftlern an, dass wir mehr nicht haben, dahingebend war ja meine Frage, darum ging es ja, ich schrieb ja "Spirituelles", X wird nie so zu belegen sein, weil das ganz klar außerhalb unserer Naturgesetze liegt. Ein ominöse Kraft, die im Hirn was bewegt, nicht deterministisch ist, also nicht der Hirnchemie unterliegt, nichts mit Quanten, ja was dann? Dann hast Du den "Geist", den Du ja selber nicht haben willst.
Ist doch schon etwas, kannst ja mal darauf eingehen, so im Rahmen einer Diskussion.


Zitat von NegevNegev schrieb:Zumal Sie eingangs schon sagt: "Ein Philosoph hat gerade argumentiert, ja. " Was will mir nun dieser Philosoph über den aktuellen Stand von Neurologie und Informatik sagen? Und wie unterscheidet sich dieser Philosoph von dem anderen Philosophen, den ich zitiert hab, dem die einfach so Grundlagenwissen abspirchst:
Zitat von nocheinPoetnocheinPoet schrieb am 19.08.2025:Es ist eine Meinung, von einem Philosophen, der schau mal wer Johannes Hartl und was er weiter schreibt. Und ja, er sollte die Grundlagen noch mal pauken, wobei mir eine seiner Aussagen gefällt, hab ich auch so schon öfter geschrieben, Descartes fängt zu spät an, er gibt die Existenz eines "Ichs" einfach voraus. Aber das geht viel tiefer in die Philosophie.
Mit welchem Recht tust du das?
Du hast ja explizit danach gefragt gehabt, ich habe das auch erklärt, seine Aussage war ja:
Wiederkehrende Frage bei solchen Gesprächen: wann wird es so weit sein, dass künstliche Intelligenz Bewusstsein entwickelt? Eine komplexe Frage, auf die es philosophisch jedoch eine klare Antwort gibt: niemals.
Quelle: https://www.herder.de/communio/kolumnen/hartl-aber-herzlich/was-der-ki-fehlt-ist-das-was-uns-menschlich-macht-kuenstliches-bewusstsein/

Er ist auch Theologe und ein wenig umstritten, aber das ist mal egal, er macht hier eine Tatsachenbehauptung, wir wissen hier inzwischen, so eine kann man nicht machen, egal ob Philosoph oder nicht. Wenn man die Grundlagen kennt, auch eben die der Philosophie, dann weiß man das, wenn man es weiß, sollte man so eine Behauptung nicht aufstellen. Entweder kennt er die Grundlagen nicht, oder behauptet etwas, von dem er weiß, man kann es so gar nicht wissen. Beides nicht so wirklich toll. Und darum eben meine Antwort. Da er auch Theologe ist, sollte er sich auch damit auskennen, dass man nicht die Unwahrheit sagt.

Hier hätte er ja auch einfach sagen können, seiner Meinung nach, niemals. Macht er aber nicht, er behauptet, es gäbe da philosophisch eine klare Antwort, die "niemals" ist.

Das ist eindeutig falsch, so eine Antwort gibt es nicht, auch nicht philosophisch, damit richtet er sich dann noch an Menschen, die wohl keine Philosophen sind und ihm das dann auch noch glauben. Und die nehmen das dann, zitieren es in Foren und erklären, sehet her, da steht es, KI kann niemals ein Bewusstsein haben, weil Johannes Hartl hat das ja behauptet.


melden

Künstliche Intelligenz

um 17:49
@CharlyPewPew

Ich habe Deinen Beitrag gelesen, Antwort später, aber zur Frage von Dir am Ende, wie das passieren könnte, da gibt es zwei Filme:
Youtube: Wie die KI-Übernahme in 2 Jahren stattfinden könnte: Ein Szenario
Wie die KI-Übernahme in 2 Jahren stattfinden könnte: Ein Szenario
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Youtube: AI 2027: A Realistic Scenario of AI Takeover
AI 2027: A Realistic Scenario of AI Takeover
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Gibt schon einige Informationen darin, so viel, dass man nicht einfach sagen kann, ach, alles Unfug, nur Fantasie. Oder?


melden

Künstliche Intelligenz

um 17:59
Zitat von CharlyPewPewCharlyPewPew schrieb:Dazu noch: Im Szenario gibt es plötzlich unbegrenzte Ressourcen.
Expertenkontrollen, Sicherheitsmaßnahmen oder politische Gegenwehr existieren praktisch nicht. Die Forschung läuft wie eine perfekt geölte Maschine. Ohne Fehlversuche, interne Konflikte, finanzielle Hürden oder gesellschaftliche und ethische Bremsen.

Wo ich wieder bei meinem Punkt lande: die Menschheit müsste aktiv und unter enormen Aufwand an ihrem eigenen Untergang mitarbeiten.
Ist doch realistisch. Wir sind in einer "arms race" (Wettrüsten) was KI angeht. Die Trump-Regierung hat real (nicht fiktives Szenario) die Regulationen drastisch runtergeschraubt und die Priorität klar kommuniziert: Erster sein. Und die Trump-Regierung hat dieses Jahr erst angefangen und ist voraussichtlich - wenn nicht alles anders kommt - bis 2029 an der Macht, was genug Zeit ist um hier technisch entsprechend weit zu kommen wenn die Prognosen Realität werden sollten.

Und China ist halt China. Wenn die Partei / Xi da sagt, wir wollen erster sein hats keine Gegenrede oder relevanten politischen Widerstände im Land dort zu geben.

Wenn es Slowdown im Westen gibt, macht China notfalls ungebremst weiter, was das Risiko nicht vollends negiert.
Zitat von CharlyPewPewCharlyPewPew schrieb:Zum zweiten Szenario:
Das ist Cyber-Terrorismus, wie er bereits existiert. Keine Machtübernahme von KI.
Was ja nicht der Punkt in dem Szenario ist. Der Punkt ist das Schadpotenzial, was dann höher ist und wo KI maßgeblichen Anteil trägt.


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Technologie: GPT3 - die erste wirklich intelligente KI?
Technologie, 22 Beiträge, am 07.07.2021 von nocheinPoet
moredread am 04.07.2021, Seite: 1 2
22
am 07.07.2021 »
Technologie: Künstliche Inteligenz !
Technologie, 15 Beiträge, am 25.09.2004 von nemo
Lightstorm am 08.02.2003
15
am 25.09.2004 »
von nemo
Technologie: Artificial General Intelligence - Synthetische Evolution der KI
Technologie, 11 Beiträge, am 08.10.2024 von Djehuty
cRAwler23 am 08.06.2024
11
am 08.10.2024 »
Technologie: Regierung und Justiz aus künstlichen Intelligenzen erstrebenswert?
Technologie, 26 Beiträge, am 27.12.2023 von Gucky87
Holdings am 25.01.2023, Seite: 1 2
26
am 27.12.2023 »
Technologie: Eine allwissende KI durch Quantencomputer?
Technologie, 9 Beiträge, am 05.04.2022 von Gucky87
Blicklight am 01.04.2022
9
am 05.04.2022 »