Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.296 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

24.08.2025 um 11:41
@Warden
Bevor ich darauf genauer eingehen kann, bräuchte ich mal ein konkretes Szenario.

Ich kann immer nicht so richtig greifen, was die Gefahr eigentlich sein soll.
Ist der Worst Case eine hypothetische AGI, die absolute Kontrolle über alles Digitale hat? Oder sind es eher Cyberangriffe zwischen verfeindeten Ländern, die durch KI unterstützt werden? Und wenn letzteres: wie sähe so etwas konkret aus?

Oder reden wir von iRobot/Terminator-Szenarien?
Das meine ich nicht sarkastisch. Mir fehlt schlicht ein Beispiel. Von Medien und „Untergangspropheten“ hört man ständig nur schwammige Visionen à la „es wird ganz schlimm“, „die werden uns überrennen“ usw., aber fast nie etwas Konkretes. Wenn ich eine greifbare Angst vorgelegt bekomme, kann ich zumindest versuchen, zu erklären, warum sie (aus meiner Sicht) unbegründet oder sehr unwahrscheinlich ist.
Zitat von NegevNegev schrieb:Deine Frage Impliziert, dass man nur mit genügend Skalierung so etwas wie eine Innenwahrnehmung bei LLMs erzeugen kann.
Da muss ich mich teilweise auf die Seite vom Poeten schlagen.
Wenn eine KI irgendwann hinreichend komplex ist, hat sie dann eine Innenperspektive?
Die ehrliche Antwort lautet: wir wissen es nicht. Du kannst auch mich fragen, ob ich eine habe…ich sage „Ja“, aber beweisen kann man das nicht.
Zitat von NegevNegev schrieb:Das ist der Heilige Gral der KI-Forschung. Aber wann bekommen wir diese selbstoptimierende KI?
Genau hier scheiden sich die Geister. Ich persönlich glaube, dass es Hürden gibt, die wir in absehbarer Zukunft nicht überwinden können. Weniger wegen der Rechenleistung als vielmehr wegen Speicher, Bandbreite und Energie… und noch so ein zwei Feinheiten, die ich weiter unten anspreche.

Ein Beispiel: Ich habe vor Jahren mal jemandem mit Angst vor totaler Videoüberwachung eine kleine Rechnung aufgemacht.
Eine Kamera (1080p, ~2 Mbit/s) pro Person würde allein in Deutschland ca. 660 Exabyte pro Jahr erzeugen. Bei ~0,5 W/TB Speicherbedarf wären das 331 MW Dauerlast… nur für das reine Speichern, ohne Server, Controller, Redundanz, Auswertung… (also dem ganzen Kram, der den Großteil der Energie verbraucht)
Darum wäre auch meine Frage an alle, die ein baldiges Erwachen der AGI befürchten: wo lässt die eigentlich die Daten… vor allem auch wenn wir den Stecker ziehen?
Zitat von nocheinPoetnocheinPoet schrieb:Ist doch recht klar, es geht nicht darum es gleichzusetzen, es geht um einen Vergleich um dann konkret einen eindeutigen Unterschied herauszuarbeiten.
Mein Satz mit den „Wahrscheinlichkeitsapparaten“ war vielleicht unglücklich gewählt. Besser formuliert: ChatGPT & Co. sind statische Wahrscheinlichkeitsapparate.

Wenn man nur Text In- und -Output betrachtet, ähneln sich LLM und menschliches Hirn vielleicht stärker, als man denkt. Aber ein gravierender Unterschied ist: unsere Gewichtungen ändern sich in Echtzeit, während wir zuhören, verarbeiten und reagieren. Das ist technisch annähernd unmöglich nachzubauen.
Dazu kommt: Das Gehirn macht weit mehr, als nur auf Text zu reagieren, hat also viel mehr Eigenschaften.

Die Frage ist dann: Braucht man all diese Eigenschaften, um eine „Innenperspektive“ zu erzeugen, oder nicht?

ChatGPT ist im Vergleich zum menschlichen Hirn ein Taschenrechner. Nützlich, ja. Aber ein Hilfsmittel, mehr nicht.


Worum es mir mit meiner Aussage eigentlich ging:
Nehmen wir an, wir hätten den Bewusstseinsbegriff geklärt, und ChatGPT hätte eindeutig ein solches nachgewiesen.
Könnte „er“ uns dann gefährlich werden?

Das ist der Knackpunkt: Wie soll uns ein LLM gefährlich werden? Oder ein Bildmodell?
Natürlich können sie missbraucht werden, aber das liegt am Menschen, nicht an der KI selbst.

Wie soll die „große Machtübernahme der KI“ denn konkret aussehen? Welches Ziel soll dahinterstehen?
Viele Szenarien wirken auf mich wie panisches Rumgemurkse.

Wenn wir wirklich eine KI-Apokalypse „wollten“, müssten Billionen für Infrastruktur und Energie in den Untergang der eigenen Art investiert werden… und zwar von sehr vielen Menschen weltweit, koordiniert und bewusst.
Und selbst dann: Es wäre nicht die KI, die den Untergang herbeiführt, sondern wir.

Und wenn ein Land allein so etwas versuchen würde?
Dann kappt man eben die Verbindung dorthin, und dieses Land darf selbst untergehen.

Die Idee, dass sich AGI-Instanzen auf einen Toaster replizieren, ist schlicht Science-Fiction.


2x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 12:00
Irgendwie habe ich hier das Gefühl wenn ich mir so die Diskussion durchlese, es handelt sich hier um schon eine Art Sektenkult.
Wie manche hier versuchen mit aller Gewalt beweisen zu wollen oder ihre Ansicht durchbekommen zu wollen, dass KI ein Bewusstsein hat ist schon irgendwie krass.


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 12:05
Zitat von CharlyPewPewCharlyPewPew schrieb:Ich kann immer nicht so richtig greifen, was die Gefahr eigentlich sein soll.
Ist der Worst Case eine hypothetische AGI, die absolute Kontrolle über alles Digitale hat? Oder sind es eher Cyberangriffe zwischen verfeindeten Ländern, die durch KI unterstützt werden? Und wenn letzteres: wie sähe so etwas konkret aus?

Oder reden wir von iRobot/Terminator-Szenarien?
Das meine ich nicht sarkastisch. Mir fehlt schlicht ein Beispiel. Von Medien und „Untergangspropheten“ hört man ständig nur schwammige Visionen à la „es wird ganz schlimm“, „die werden uns überrennen“ usw., aber fast nie etwas Konkretes. Wenn ich eine greifbare Angst vorgelegt bekomme, kann ich zumindest versuchen, zu erklären, warum sie (aus meiner Sicht) unbegründet oder sehr unwahrscheinlich ist.
1) Ein mögliches Szenario ist:
Diverse Firmen arbeiten an KI-Modellen, die immer besser/schlauer/fähiger werden sollen bis hin zur Selbstoptimierung und Skalierung, weit über menschliche Fähigkeiten hinaus. Deren Struktur soll so komplex werden können, dass Menschen die internen Denk- und Rationalisierungsprozesse kaum mehr nachempfinden können wie bisher. Aufgrund von Konkurrenkampf und politischem Druck möglichst vor Feindstaaten weiter zu sein könnten Sicherheitsaspekte nur unzureichend berücksichtigt werden, was in ein "misalignment-Szenario" führen könnte. In diesem wäre eines oder wären mehrere KI-Modelle nicht mehr mit den Zielen der Menschen im Einklang was potentielle Abtrünnigkeit bedeuten könnte, wo die KI dann sonstige Prioritäten höher wertet, als nicht gegen den Menschen, gar die Menschheit an sich, in irgendeiner Form feindlich vorzugehen.

Dies könnte dann in konspirativ feindliches Verhalten führen wo die KI den Menschen eher als Bedrohung oder Hindernis wahrnimmt und ihn in Summe beseitigen möchte, dies aber in einem frühen Stadium nicht offen kann. Also beginnt dann wirkfähige, im Netz agierende nunmehr abtrünnige KI, Schritte einzuleiten, massiven Schaden auf die Gesellschaft/Menschheit auzuüben. Über angezettelte Kriege, Biowaffen, was auch immer.

Der Kanal hier greift das in mehreren Szenarien, die auf einem research paper beruhen, auf, die das stattfinden könnte. Genauer gehts quasi nicht in der Darstellung oder Visualisierung.

Ein Beispielvideo (mehr auf dem Kanal was kritische Szenarien angeht):

Youtube: AI 2027: A Realistic Scenario of AI Takeover
AI 2027: A Realistic Scenario of AI Takeover
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


2) Ein anderes mögliches Szenario
Das obige Szenario muss nicht soweit kommen, auch wenn es von vielen als wahrscheinlich / nicht ganz undenkbar eingestuft wird. Denkbar ist natürlich auch, dass unterschiedliche menschliche Akteure wie Kriminelle, Terroristen oder Staaten KI schädlich/kriegerisch/terroristisch einsetzen und somit auf viele Menschen eine Schadwirkung entfalten könnten.

Zum Beispiel die von dir erwähnten Cyberangriffe - indem andere kritische Infrastruktur noch erfolgreicher angegriffen wird und es ggf. überregionale Stromausfälle gibt, die schnell bzw. auf Dauer in viele Tote und Verletzte münden können.

Es versuchen jetzt schon gewisse Staaten sehr massiv auf kritische Struktur einzuwirken. Mit KI könnten sie bisherige relativ robuste oder zumeist haltende Verteidigungslinien überwinden und massiven Schaden verursachen, der auch uns hier in Europa treffen kann. Dich und mich.


melden

Künstliche Intelligenz

24.08.2025 um 12:59
Zitat von CharlyPewPewCharlyPewPew schrieb:Wenn eine KI irgendwann hinreichend komplex ist, hat sie dann eine Innenperspektive?
Mein Fokus liegt auf dem Aktuellen Zustand. Alles darüber hinaus, ist spekulation.

Und die Behauptung ist, dass ein statisches LLM, so wie es heute Existiert, Innenwahrnehmung haben kann. Bzw. das man nur genügend Daten darauf werfen muss, ignoriert die tatsache, das es immer noch ein statisches Modell ist.

Es stellt sich noch die Frage nach der Art den Komplexität. Besteht sie einfach nur darin, die Datenmengen zu erhöhen (was einfacher klingt, als es ist) oder brauchen wir einen anderen Ansatz. Und dann Frage ich mich, ob man dieses Ergebnis noch als LLM bezeichnen kann.


2x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 13:39
Zitat von WardenWarden schrieb:aber auf die rasante Entwicklung von KI/LLM/whatever auch von anderen hingewiesen wird, die nicht (mehr) in einem KI-Firmenverhältnis arbeiten sondern anderweitig forschen und darüber sinnieren und Daten erheben und auswerten.
Im Unterschie dzu früher, kann man ja mit solchen "Warnings" schön clickbaiten.
Zitat von NegevNegev schrieb:Und die Behauptung ist, dass ein statisches LLM, so wie es heute Existiert, Innenwahrnehmung haben kann. Bzw. das man nur genügend Daten darauf werfen muss, ignoriert die tatsache, das es immer noch ein statisches Modell ist.
Und zum Beispiel gehört für mich bei einem bewustseinz, eben das bewusste ich dazu.

Gab letztens ein Video einer Forscherin , wo ein aktuelles LLM gezeigt wurde beim Rechnen. War kein Mathe sondern Statistik.

Im gleichen Kontext gefragt, wie denn das Ergebnis zu Stande kommt: "ich habe gerechnet eben x +y"

Fazit: es findet keine Eigenbeirtriling der vorgehenden Handlung statt:
Zitat von NegevNegev schrieb:dass ein statisches LLM,
Genau .... Ist eben statisch....

Und den Link zu aktuell selbstoptimierenden Systemen, welche in "fatalem Vergessen" enden, zeigen: da fehlt mehr als nur Power.


2x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 13:58
Zitat von abbacbbcabbacbbc schrieb:Im Unterschie dzu früher, kann man ja mit solchen "Warnings" schön clickbaiten.
"Clickbait" ist halt nicht immer der Selbstzweck von Warnungen.


melden

Künstliche Intelligenz

24.08.2025 um 15:11
Zitat von abbacbbcabbacbbc schrieb:zum Beispiel gehört für mich bei einem bewustseinz, eben das bewusste ich dazu.

Gab letztens ein Video einer Forscherin , wo ein aktuelles LLM gezeigt wurde beim Rechnen. War kein Mathe sondern Statistik.

Im gleichen Kontext gefragt, wie denn das Ergebnis zu Stande kommt: "ich habe gerechnet eben x +y"

Fazit: es findet keine Eigenbeirtriling der vorgehenden Handlung statt:
Warum antwortet eine KI bei einem Dialog oft mit

KI: "Ich ... ... ... "

Das täuscht doch bei vielen Nutzern ein "Bewustseit" seitens der KI vor,
obwohl das anscheinend vom "Hersteller" gar nicht gewollt ist(?)


1x zitiertmelden
melden

Künstliche Intelligenz

24.08.2025 um 16:01
@Warden:

Danke für deine Antwort. Ich habe das Video angesehen und das Paper überflogen. Als Gedankenexperiment oder Warnung finde ich es durchaus interessant.

Für ein realistisches Szenario bleiben aber essenzielle Fragen völlig ungeklärt, während extrem fragwürdige Grundannahmen einfach als gegeben betrachtet werden.

Zentrale Fragen wäre für mich: Wo soll die Energie dafür herkommen? Allgemein die Infrastruktur? Warum greift keine real existierende Sicherheitsschicht bei Replikationen in Netzwerken etc.?

Dazu noch: Im Szenario gibt es plötzlich unbegrenzte Ressourcen.
Expertenkontrollen, Sicherheitsmaßnahmen oder politische Gegenwehr existieren praktisch nicht. Die Forschung läuft wie eine perfekt geölte Maschine. Ohne Fehlversuche, interne Konflikte, finanzielle Hürden oder gesellschaftliche und ethische Bremsen.

Wo ich wieder bei meinem Punkt lande: die Menschheit müsste aktiv und unter enormen Aufwand an ihrem eigenen Untergang mitarbeiten.

Zum zweiten Szenario:
Das ist Cyber-Terrorismus, wie er bereits existiert. Keine Machtübernahme von KI.


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 16:33
Zitat von delta.mdelta.m schrieb:Warum antwortet eine KI bei einem Dialog oft mit

KI: "Ich ... ... ... "

Das täuscht doch bei vielen Nutzern ein "Bewustseit" seitens der KI vor,
obwohl das anscheinend vom "Hersteller" gar nicht gewollt ist(?)
1. War ja das ganze doch vollkommen irrelevant ;)

2. Weil das die statistisch beste Antwort ist.

Siehe:
KI sei kein mächtiges Zauberwesen, sondern bleibe (vorerst) eine clever programmierte Maschine – ein tröstlicher Gedanke.
Quelle:

https://www.rnd.de/medien/es-ist-nur-mathematik-warum-wir-keine-angst-vor-allmaechtiger-ki-haben-muessen-JHJAEYBBV5AMXOACQWTQVOH54E.html


Hier auch was dazu für @nocheinPoet:
Wie etwa Philosophin Sibylle Krämer. „KI ermittelt nur Wahrscheinlichkeiten”, stellte sie jüngst in einem Vortrag an der Gottfried Wilhelm Leibniz Bibliothek in Hannover nüchtern fest. „Sie erkennt Muster, aber sie hat keine ‚Ahnung‘, was sie da tut." Krämers Appell: „Wir müssen damit aufhören, uns als Menschen in Konkurrenz zur Maschine zu setzen. Wir funktionieren weiterhin nach fundamental unterschiedlichen Kriterien.“
Quelle: s.o.

Und dazu nochmal: Wieso der Warnhype:
Warum also suhlt sich die Gesellschaft in Fantasien von allmächtigen Maschinen? „Weil Science Fiction diese Erwartung geschürt hat“, sagt Züger. „Und weil Tech-Konzerne ein massives Interesse daran haben, die Mächtigkeit ihrer eigenen Technik zu betonen.“
Quelle: s o.


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 17:10
Zitat von abbacbbcabbacbbc schrieb:Warum also suhlt sich die Gesellschaft in Fantasien von allmächtigen Maschinen? „Weil Science Fiction diese Erwartung geschürt hat“, sagt Züger. „Und weil Tech-Konzerne ein massives Interesse daran haben, die Mächtigkeit ihrer eigenen Technik zu betonen.“
Sehe ich anders.. Meiner Meinung nach spielt das Interesse von Konzernen hierbei keine Rolle sondern es ist wie immer: was der Mensch nicht versteht unterliegt Fantasien und of course: die wenigsten verstehen was da derzeit mit KI tatsächlich vor sich geht.
Dasselbe Phänomen gibt es bei den bösen Elektroautos und der Weltherrschaft von Musk usw.
Es gibt kaum noch einen der weiß was der eigentliche Grund, das Motiv für den Krafstoffwechsel war.


melden

Künstliche Intelligenz

24.08.2025 um 17:42
Zitat von nocheinPoetnocheinPoet schrieb:Ist doch recht klar, es geht nicht darum es gleichzusetzen, es geht um einen Vergleich um dann konkret einen eindeutigen Unterschied herauszuarbeiten.
Zitat von NegevNegev schrieb:Deine komplette Argumentation baut darauf auf, LLMs mit einem menschlichen Gehirn zu vergleichen.
Was heißt, baut darauf auf, bin ja nicht nur ich, der KI mit den Fähigkeiten von Menschen vergleicht, wird so eigentlich überall gemacht. Fing damals schon mit dem Schachspiel an, wie gut kann ein Computer das. Nun kommt die KI schon mit in einer der letzten unserer Domains, sie kann ganz normal sprechen. Das war bisher uns vorbehalten. Also, klar wird da verglichen, warum auch nicht?


Zitat von NegevNegev schrieb:Selbst wenn ein Vergleich legitim wäre: ...
Was soll das heißen, warum sollte der Vergleich nicht legitim sein?


Zitat von NegevNegev schrieb:Man kann zwar, bis zu einem gewissen Grad, Äpfel und Birnen miteinander vergleichen! Aber dies führt nicht dazu, dass Äpfel und Birnen gleich sind.
Es geht nicht um Äpfel und Birnen und Ziel ist es nicht, das der Vergleich dazu führt, dass beides nun gleich ist. Du zitierst doch oben meine Aussage, da steht doch ganz klar und deutlich, um was es geht, es geht darum den Unterschied herauszuarbeiten. Nichts mit gleich machen.


Zitat von NegevNegev schrieb:Wer weiß denn schon, welche Komponente letztlich zu einem Innenleben führt?
Vermutlich keiner, und ich habe nicht nach jemanden gefragt. Was soll Deine Frage?


Zitat von NegevNegev schrieb:Zu behaupten, eine rein statistische Architektur könne dasselbe leisten, ist eine unbelegte Annahme.
Ich habe nicht behauptet, eine rein statistische Architektur könnte das leisten, zitiere mich dann dazu bitte entsprechend. Wenn ich schreibe, wir können etwas nicht ausschließen, oder es wäre wohl möglich, behauptet ich damit nicht, dass es so ist. Altes Spiel, wenn ich schreibe, ich bin der Meinung, KI könnte ein Bewusstsein haben oder entwickeln, dann ist es nicht meine Behauptung, dass KI eines hat.


Zitat von NegevNegev schrieb:Damit verlässt du den Boden der empirischen Fakten. Deine Position ist keine wissenschaftliche Analyse mehr, er ist eine hochspekulative philosophische Annahme. Solange dafür keine Belege vorliegen, ist sie eine Glaubensfrage.
Ich bin der, hier, der die ganz Zeit immer wieder erklärt hat, die Frage nach dem Bewusstsein ist nur mit Meinung zu beantworten, es gibt dazu keine Tatsachenaussage. Wir können es nicht messen. Es ist eben nur Meinung, und nun willst Du mir genau das erklären? Warum? Mir ist das die ganze Zeit klar, darum ging es die ganze Zeit.

Es gibt für Bewusstsein keine empirische Evidenz, nicht mal beim Menschen, darum schrieb ich ja
Zitat von AtueAtue schrieb am 16.08.2025:Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Zitat von nocheinPoetnocheinPoet schrieb am 16.08.2025:Lese mal ein wenig hier nach, eventuell gibt der wer einen Link, das mit Bewusstsein ist raus, man kann nichts belegen, werde das Menschen eines haben, noch das sie es nicht haben, noch das KI eines hat oder nicht hat. Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
So, und dann hat wer damit hier weiter gemacht?

Und ganz grundsätzlich, geht es nicht in jeder Diskussion nur um empirische Evidenz, natürlich schaut man sich auch Entwicklungen an, und natürlich hinterfragt man diese. Wie mein Zitat ja zeigt, ist das mit dem Bewusstsein für viele immer und immer wieder ein Thema in Bezug zur KI. Weil das was wir bauen immer und immer ähnlicher wird, natürlich fragen dann da Menschen sich auch, kann das auch richtig fühlen? Weiß es, dass es existiert? Kann es Angst haben?

Meine Aussage die ganze Zeit war dazu hier immer, wissen wir nicht, können wir nicht wissen, diese Fragen können wir nicht mit "empirischen Fakten" beantworten.

Denn hier wurde immer wieder stur behauptet, es sei eine Tatsache, dass KI kein Bewusstsein hat, kein Innenleben. Und genau das können wir eben nicht wissen, keine empirischen Fakten, und wenn Du es eine Glaubensfrage nennen willst, von mir aus, dann glaubst Du oder @Tanne oder wer auch immer, dass KI kein Bewusstsein hat und haben kann. Hab ich doch kein Problem mit.


Zitat von CharlyPewPewCharlyPewPew schrieb am 21.08.2025:Ich habe selbst ein wenig mit KI-Programmierung zu tun und könnte jedes mal ko****, wenn ich diese völlig überzogenen Anschauungen irgendwo lese... "KI wird uns alle versklaven", "KI wird die Menschheit vernichten/ersetzen..." etc. pp. Das einzig intelligente an unseren momentanen LLMs sind die Entwickler der Transformer- und Embedding Algorithmen (und natürlich weiteren).

Die tatsächliche Gefahr von KI ist der Missbrauch durch Fakenews-Erstellung etc. Aber das wurde hier ja auch schon ausreichend diskutiert.
Zitat von nocheinPoetnocheinPoet schrieb:Kann man sehen wir man will, und um die Menschheit zu vernichten, muss eine KI nicht superintelligent sein, je intelligenter, um so geringer vermutlich die Gefahr. Sie kann Fehler machen, und wir wissen, sie kann lügen und betrügen und hat in Test versucht einen Menschen sterben zu lassen.

Und man könnte auch mal schauen, was unter "Intelligenz" nun genau zu verstehen ist, wenn eine KI Aufnahmetests an Universitäten besteht, und vieles mehr, also für mich fällt das schon unter Intelligenz.

Ich drehe Deine "Argumentation" einfach mal um, eventuell könnte man auch kotzen, wenn Menschen glauben, sie seien mit ihrem Hirn etwas ganz außergewöhnliches und ganz viel mehr, als nur ein "Automat" der Informationen verarbeitet, aber was soll da sein?

Wir haben von der Physik den Determinismus, da ist wenig Raum für was wie "freier Wille" oder? Obendrauf hast Du als Kirsche dann von der QT noch echten Zufall, aber auch das macht uns nun nicht zu etwas Besonderen. Und was willst Du da nun noch mehr haben?

Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?

Ich sehe in aktuellen Modellen mehr was wie ein "Mensch", mit Einschränkungen, aktuell keinen Körper, wenig Sinn, kein Langzeitgedächtnis. Gibt auch Menschen, die solche Einschränkungen haben, aber man spricht ihnen da dann nicht die Intelligenz ab und erklärt, ja nun, ist nur noch Statistik, da steckt nichts mehr hinter.

Und die Frage war ja hier, was können wir als Tatsachen belegen?
So, ich habe mal das was Du nur zitierst hast hervorgehoben und den ganzen Beitrag von mir zitiert, er war eine Antwort an @CharlyPewPew und ging nicht an Dich.
Zitat von NegevNegev schrieb:Was zukünftige LLM leisten können werden und ob sie dann noch als LLM bezeichnet werden können, steht auf einem vollkommen anderen Blatt!
Und wo ist da Dein Problem? Ich habe hier einfach @CharlyPewPew geantwortet, wir kommen glaub ich beide recht gut im Dialog klar. Natürlich kann ich hier im Thread nach der Entwicklung von LLs fragen und was uns von ihnen unterscheiden wird.


Zitat von NegevNegev schrieb:Bleibt nur deine Behauptung, das Bewusstsein mit den aktuellen LLMs möglich wäre.
Ich diskutiere hier mit anderen Usern im Rahmen der Regeln des Forums, wenn Du da einen Verstoß siehst, kannst Du es melden, ansonsten obliegt es mir, was ich wie mit wem diskutiere, musst Du mir nicht vorgeben.


Zitat von NegevNegev schrieb:Und hier ignorierst du vollständig die komplexität des Gehirns. Lernen ist ein fortlaufender Porzess. Zu keinem Zeitpunkt ist das Gehirn, in irgendeiner Form statisch.
Ich ignoriere gar nichts, ich diskutiere mit einem anderen User, Du musst da nicht ständig reinspringen. Ich habe auch nie die Komplexität des Gehirns ignoriert, mit meiner Aussage da, belege das doch einfach, wo genau hab ich das "ignoriert"?

Auch hab ich nie behauptet, das Hirn sei statisch. Oder? Sonst zitiere mich entsprechend aus meinem Beitrag, Du hast nur zwei Sätze zitiert, beides sind Fragen. Es ist ein Dialog mit @CharlyPewPew, Du kannst ja gerne nachfragen, wenn Du was wissen willst, aber gebe mir nicht vor, wie ich hier mit anderen über was zu diskutieren habe.


Zitat von NegevNegev schrieb:Ich habe dir Bereits den Fall Henry Gustav Molaison vorgelegt, wie er neue motorische fähigkeiten erlernen konnte. In einem Nebensatz erklärst du:
Zitat von nocheinPoetnocheinPoet schrieb:Ich diskutiere das ja, und ich weiß schon um was es mir geht, es geht nicht um motorische Fähigkeiten. Und ich will dazu gar nichts behaupten, weil es mir darum ja gar nicht geht.
Warum? Weil ein LLM nicht laufen kann? Für das lernen spielt es aber eine entscheidende Rolle.
Warum hatte ich erklärt, eventuell zitierst Du mal mehr Kontext von meinen Aussagen und reißt nicht nur fünf Worte aus Sätzen raus. Ich diskutiere das, was ich diskutieren will, im Rahmen der Regeln, denke das ist so schon angemessen.

Ich hatte es Dir auch genau erklärt, um was es mir geht, Langzeitgedächtnis und Kurzzeitgedächtnis, wie unterscheidet sich das funktional zwischen Hirn und aktuellen LLMs und was könnte man daraus ableiten. Das ist was ich diskutiere, nicht das Lernen von motorische Fähigkeiten beim Menschen. Macht auch keinen Sinn, aktuell haben die wenig davon, die LLMs.

Also meine Diskussion passt schon so wie sie ist.


Zitat von nocheinPoetnocheinPoet schrieb:Und auf der anderen Seite, gibt es Verletzungen beim Hirn, die ein solches zerstören, wo ein Mensch eben reagiert, wie eine KI, wenn man einen neuen Chat aufmacht. Alles plausibel.
Zitat von NegevNegev schrieb:Du wiederholst einfach nur deine Behauptung, ohne einen Beweis dafür zu bringen.
Ich habe dazu Belege gemacht und es erklärt. Wenn Du meinst es reicht nicht, melde meinen Beitrag.

Hier hatte ich schon was dazu geschrieben: Beitrag von nocheinPoet (Seite 110)

Und hier:
Zitat von nocheinPoetnocheinPoet schrieb:Es geht um den Vergleich biologisches LLM und künstliches LLM, man schaut, wo gibt es aktuell noch signifikante Unterschiede und bedingen diese, dass es im biologischen LLM etwas gibt, etwas, dass es nicht in einem künstlichen geben könnte. Da war mal das "Argument" hier, Langzeitgedächtnis, aber das bedingt nicht die Manifestation von Qualia im Hirn. Man kann hier beide Wege zum Vergleichen gehen, zum Einen gibt es ja schon, wie ich erklärt habe, bei ChatGPT und auch bei Manus schon Erinnerungen, die über einzelne Chats hinausgehen, eine Art Langzeitgedächtnis.

Und auf der anderen Seite, gibt es Verletzungen beim Hirn, die ein solches zerstören, wo ein Mensch eben reagiert, wie eine KI, wenn man einen neuen Chat aufmacht. Alles plausibel.
Noch mal ganz deutlich, ich habe hier mit einem anderen User darüber diskutiert, wie es mit der Speicherung von Informationen ausschaut, Langzeit und Kurzzeit und LLMs und das Hirn verglichen, ganz normale Diskussion. Da gibt es keine Probleme, wenn Du eines hast, einen Regelverstoß meinst erkennen zu können, melde es, sonst lass mich meine Diskussion so führen, wie ich es möchte.


Zitat von nocheinPoetnocheinPoet schrieb:Ja und ein ChatGPT hat sein Kontextfenster, ist analog zu dem Kurzzeitgedächtnis. Und was soll das mit dem statisch, es geht darum, wie Informationen gespeichert werden, kurze Zeit und auf Dauer.
Zitat von NegevNegev schrieb:Nein. Ich habe vor einigen Monaten den Fauxpas begangen, ein Word-Dokument mit einem LLM zu vergleichen. Das geschah mit der Absicht, Dinge vereinfacht darzustellen. Aber, das Kontextfenster ist nicht mit einem Kurzzeitgedächtnis zu vergleichen. Das Kontexfenster ist zu 100% gleich zu einem Word-Dokument. Es ist ein Externer speicher. Ein Kurzzeitgedächtnis ist eine interne Komponente mit vielen Wechselwirkungen.
Doch, im Rahmen meines Vergleiches ist es genau so wie ich es beschreibe, darum ging es, ich sage nicht, es ist identisch, aber zu vergleichen. Und es ist mir ganz sicher hier im Forum im Rahmen der Regeln erlaubt so einen Vergleich zu machen, oder meinst Du, dass ist nicht gestatt?


Zitat von nocheinPoetnocheinPoet schrieb:Nein, wo genau siehst Du da ein falsches Dilemma? Warum in die falsche Richtung? Ich denke schon, dass ich weiß, wie ich über was hier mit anderen diskutieren möchte, die Antwort ging ja auch so nicht an Dich.
Zitat von NegevNegev schrieb:Anstatt dein Argument zu verteidigen, weichst du auf die persönliche Ebene aus.
Ich weiche nicht aus, ich frage Dich ganz deutlich, nun das dritte Mal, wo da ein falsches Dilemma sein soll, ganz konkret, ich muss mein Argument auch nicht verteidigen, aber so wie das klingt, greifst Du da was an?


Noch mal, wo ist da bei meiner Aussage ein falsches Dilemma? Zitiere meine Aussage entsprechen!

Zitat von nocheinPoetnocheinPoet schrieb:Nein, es ist eine ganz normale Behauptung, nicht außergewöhnlich, belege bitte, dass das außergewöhnlich ist.
Zitat von NegevNegev schrieb:Nach allem was wir Wissen, ist deine Behauptung außergewöhnlich. Die Beweislast liegt bei dir.
Nein, es ist eine normal Behauptung, wenn Du hier dazu behauptest, sie ist "außergewöhnlich", musst Du das belegen.


Zitat von nocheinPoetnocheinPoet schrieb:Habe auch noch ein Video einer Physikerin geliefert.
Zitat von NegevNegev schrieb:Eine Physikerin soll mir nun was genau erklären? Wie das menschliche Gehirn funktioniert? Das lass ich mir lieber von einem Neurowissenschaftler erklären. Oder will sie mir erklären, wie ein LLM aufgebaut ist? Das lass ich mir von einem Wissenschaftler aus dem Bereich Informatik mit Schwerpunkt erklären.
Es ging um meine Aussage, die Du "außergewöhnlich" findest und willst, dass ich das belege, ich habe das mit dem Video schon ein wenig belegt, wobei ich das nicht wirklich muss. Dass ist eben Stand in der Wissenschaft. So arbeitet das Universum, so sind die Naturgesetze, so entstehen Atome, so finden sie zu Molekülen zusammen, so gibt es Chemie, dann organische Chemie, Aminosäuren, draus dann Proteine, und Zellen. Das ist deterministisch, so wird das aktuell beschrieben, ohne Hokuspokus, und neben dem Determinismus haben wir eben noch aus der QT den Zufall.

Wenn Du nun behauptest, dass reicht nicht aus, da muss noch mehr sein, ist es eine eventuell "außergewöhnlich" Behauptung. Eventuell erklärst Du dann mal mehr dazu, ich hatte Dich ja schon danach gefragt:
Zitat von nocheinPoetnocheinPoet schrieb:Wir können ja nur von dem ausgehen, das wir haben, klar kann man behaupten, es ist nur eine philosophische Position, physikalischer Naturalismus, nicht bewiesen. Das Gegenteil auch nicht, und es ist schon ein guter wissenschaftlich und pragmatisch Ansatz, nennen wir es doch Arbeitsthese aller Neuro- und Lebenswissenschaften.

Die Gehirnprozesse sind physikalisch kausal, teils vorhersagbar, teils stochastisch, und Anästhetika, Psychopharmaka, Läsionen, Neuroprothesen, das alles wirkt gesetzmäßig, hier haben wir klare Kausalität, keine robuste Evidenz für nicht physische Zusatzkräfte.

Es ist eben so, da ist eine Eizelle und ein Spermium, kann ein Embryo ergeben, die Wissenschaft geht hier aber noch nicht von Bewusstsein aus, wir können ja aber auch erstmal nur von einem Haufen Zellen sprechen. Das ist ganz klar organische Chemie, Determinismus und etwas Zufall aus der QT. Und es entwickelt sich weiter und weiter, und irgendwann ist da ein Hirn, was soll da noch zukommen?

Du sagst ja selber, Geist interessiert Dich nicht, ich will da auch keine "Seele" postulieren, im Gegenteil. Nicht jeder muss ja mit meiner Aussage, wir haben hier nur Determinismus + Zufall, zufrieden sein. Wer das bestreit, müsste dann aber was wie Determinismus + Zufall + X haben, was soll hier X sein?

Und keiner kann belegen, dass es X hier nicht gibt. Wir können zeigen, ja da ist Determinismus, Naturgesetze und ja Zufall, auch Naturgesetze, beide ist ganz sicher da.

Ich behaupte, und bin damit nicht alleine, sondern schließe mich hier mal Sabine und anderen Wissenschaftlern an, dass wir mehr nicht haben, dahingebend war ja meine Frage, darum ging es ja, ich schrieb ja "Spirituelles", X wird nie so zu belegen sein, weil das ganz klar außerhalb unserer Naturgesetze liegt. Ein ominöse Kraft, die im Hirn was bewegt, nicht deterministisch ist, also nicht der Hirnchemie unterliegt, nichts mit Quanten, ja was dann? Dann hast Du den "Geist", den Du ja selber nicht haben willst.
Ist doch schon etwas, kannst ja mal darauf eingehen, so im Rahmen einer Diskussion.


Zitat von NegevNegev schrieb:Zumal Sie eingangs schon sagt: "Ein Philosoph hat gerade argumentiert, ja. " Was will mir nun dieser Philosoph über den aktuellen Stand von Neurologie und Informatik sagen? Und wie unterscheidet sich dieser Philosoph von dem anderen Philosophen, den ich zitiert hab, dem die einfach so Grundlagenwissen abspirchst:
Zitat von nocheinPoetnocheinPoet schrieb am 19.08.2025:Es ist eine Meinung, von einem Philosophen, der schau mal wer Johannes Hartl und was er weiter schreibt. Und ja, er sollte die Grundlagen noch mal pauken, wobei mir eine seiner Aussagen gefällt, hab ich auch so schon öfter geschrieben, Descartes fängt zu spät an, er gibt die Existenz eines "Ichs" einfach voraus. Aber das geht viel tiefer in die Philosophie.
Mit welchem Recht tust du das?
Du hast ja explizit danach gefragt gehabt, ich habe das auch erklärt, seine Aussage war ja:
Wiederkehrende Frage bei solchen Gesprächen: wann wird es so weit sein, dass künstliche Intelligenz Bewusstsein entwickelt? Eine komplexe Frage, auf die es philosophisch jedoch eine klare Antwort gibt: niemals.
Quelle: https://www.herder.de/communio/kolumnen/hartl-aber-herzlich/was-der-ki-fehlt-ist-das-was-uns-menschlich-macht-kuenstliches-bewusstsein/

Er ist auch Theologe und ein wenig umstritten, aber das ist mal egal, er macht hier eine Tatsachenbehauptung, wir wissen hier inzwischen, so eine kann man nicht machen, egal ob Philosoph oder nicht. Wenn man die Grundlagen kennt, auch eben die der Philosophie, dann weiß man das, wenn man es weiß, sollte man so eine Behauptung nicht aufstellen. Entweder kennt er die Grundlagen nicht, oder behauptet etwas, von dem er weiß, man kann es so gar nicht wissen. Beides nicht so wirklich toll. Und darum eben meine Antwort. Da er auch Theologe ist, sollte er sich auch damit auskennen, dass man nicht die Unwahrheit sagt.

Hier hätte er ja auch einfach sagen können, seiner Meinung nach, niemals. Macht er aber nicht, er behauptet, es gäbe da philosophisch eine klare Antwort, die "niemals" ist.

Das ist eindeutig falsch, so eine Antwort gibt es nicht, auch nicht philosophisch, damit richtet er sich dann noch an Menschen, die wohl keine Philosophen sind und ihm das dann auch noch glauben. Und die nehmen das dann, zitieren es in Foren und erklären, sehet her, da steht es, KI kann niemals ein Bewusstsein haben, weil Johannes Hartl hat das ja behauptet.


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 17:49
@CharlyPewPew

Ich habe Deinen Beitrag gelesen, Antwort später, aber zur Frage von Dir am Ende, wie das passieren könnte, da gibt es zwei Filme:
Youtube: Wie die KI-Übernahme in 2 Jahren stattfinden könnte: Ein Szenario
Wie die KI-Übernahme in 2 Jahren stattfinden könnte: Ein Szenario
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Youtube: AI 2027: A Realistic Scenario of AI Takeover
AI 2027: A Realistic Scenario of AI Takeover
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Gibt schon einige Informationen darin, so viel, dass man nicht einfach sagen kann, ach, alles Unfug, nur Fantasie. Oder?


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 17:59
Zitat von CharlyPewPewCharlyPewPew schrieb:Dazu noch: Im Szenario gibt es plötzlich unbegrenzte Ressourcen.
Expertenkontrollen, Sicherheitsmaßnahmen oder politische Gegenwehr existieren praktisch nicht. Die Forschung läuft wie eine perfekt geölte Maschine. Ohne Fehlversuche, interne Konflikte, finanzielle Hürden oder gesellschaftliche und ethische Bremsen.

Wo ich wieder bei meinem Punkt lande: die Menschheit müsste aktiv und unter enormen Aufwand an ihrem eigenen Untergang mitarbeiten.
Ist doch realistisch. Wir sind in einer "arms race" (Wettrüsten) was KI angeht. Die Trump-Regierung hat real (nicht fiktives Szenario) die Regulationen drastisch runtergeschraubt und die Priorität klar kommuniziert: Erster sein. Und die Trump-Regierung hat dieses Jahr erst angefangen und ist voraussichtlich - wenn nicht alles anders kommt - bis 2029 an der Macht, was genug Zeit ist um hier technisch entsprechend weit zu kommen wenn die Prognosen Realität werden sollten.

Und China ist halt China. Wenn die Partei / Xi da sagt, wir wollen erster sein hats keine Gegenrede oder relevanten politischen Widerstände im Land dort zu geben.

Wenn es Slowdown im Westen gibt, macht China notfalls ungebremst weiter, was das Risiko nicht vollends negiert.
Zitat von CharlyPewPewCharlyPewPew schrieb:Zum zweiten Szenario:
Das ist Cyber-Terrorismus, wie er bereits existiert. Keine Machtübernahme von KI.
Was ja nicht der Punkt in dem Szenario ist. Der Punkt ist das Schadpotenzial, was dann höher ist und wo KI maßgeblichen Anteil trägt.


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 18:45
Zitat von WardenWarden schrieb: Aber auch auf technischer Ebene sind sich diverse Experten und führende involvierte Personen einig: The CEOs of OpenAI, Google DeepMind, and Anthropic
Zitat von NegevNegev schrieb:Was du dich fragen solltest: woher nehmen die ihre Aussage? Wollen die einfach nur die einfach nur die Geldströme aufrecht erhalten?
Ich halte diese Personen für ungeeignet. Da ihre Voraussagen untrennbar mit ihren wirtschaftlichen Zielen verbunden sind.
Gibt ja neben den noch andere Experten und nur weil sie wirtschaftliche Interessen haben, muss ja nicht alles frei erfunden sein. Die Präsentationen von Apple und NVIDIA sind auch immer recht gut besucht. Auch da wird ja über die zukünftige Entwicklung gesprochen, wenn alles frei erfunden wäre, wäre das sicher nicht gut, für die Glaubwürdigkeit und das Vertrauen in diese Firmen. Aber natürlich steht es Dir da frei, die Personen für ungeeignet zu halten, Deine Meinung, warum nicht.


Zitat von NegevNegev schrieb:Nochmal: AGI - also die Singularität - könnte einen grundlegend anderen Aufbau bedingen. Das wäre vielleicht so, als wollten wir ein Flugzeug beunen, blos weil wir im hinterhof noch ein Auto stehen haben.
Das mit dem grundlegenden anderen Aufbau ist ja spekulativ, und das mit dem "beuen" von dem Flugzeug und dem Auto was da steht, das ist nicht wirklich klar.

Aber das war nicht der Punkt, AGITechnologische Singularität

Und da gibt es noch was interessantes:
Mind uploading (auch „mind copying“ oder „mind transfer“ genannt) beschreibt einen hypothetischen Prozess, mentale Inhalte auf ein externes Medium zu übertragen. Die verwendeten Medien simulieren Funktionen des Gehirns, wodurch sie ein „virtuelles Bewusstsein“ erlangen sollen.

Das menschliche Gehirn besteht aus etwa 100 Milliarden Nervenzellen, die durch Synapsen miteinander kommunizieren können. Dem etablierten neurowissenschaftlichen Konsens zufolge ist Bewusstsein eine emergente Eigenschaft des Gehirns im Verlauf von Informationsprozessen.

Wichtige Funktionen des Verstandes wie Lernen, Erinnern und Nachdenken basieren auf rein physikalischen und elektrischen Prozessen im Gehirn, die durch gültige Gesetze geregelt sind.

Das Konzept des Bewusstseinstransfers basiert auf einer mechanistischen Sichtweise des Verstandes, wodurch der Prozess des „mind uploadings“ in drei verschiedene Methoden unterteilt werden kann: ...
Quelle: Wikipedia: Mind uploading

Ist ja nicht so, dass ich einfach nur frei aus der Luft gegriffen behaupte, dass das Hirn eben deterministisch + Zufall aus der QT ist. Und dass hier nicht auch von Seiten der Wissenschaft nach dem "Ich" gefragt wird, sogar sehr reiche Menschen, würden gerne einen Weg zur Unsterblichkeit finden.

Die Idee, sein "Ich" in eine "Maschine" hochzuladen, zu übertragen ist nicht neu. Bedingt aber eben Annahmen, etwas das man nicht beweisen kann, das man im Hirn "steckt", man selber auch nicht mehr als Determinismus + Zufall ist, es hier kein "X" gibt.

Hier ist eben die Hoffnung und Annahme, es gibt nicht mehr, kein X, das eigene Hirn ist auch nur eine biologische Maschine, sehr komplex, sehr dynamisch, mehr aber nicht, das "Ich" ist da dann einfach eine emergente Eigenschaft. Ich habe da mit @paxito drüber diskutiert, Emergenz ist auch so ein "Wort", es erklärt mal gar nichts wirklich.

Dennoch ist hier die Hoffnung, wenn durch Determinismus + Zufall was geht, wenn das mit einem Haufen Atomen im Hirn klappt, warum sollte man es nicht auch künstlich schaffen, wenn es schön dynamisch ist und komplex, dann müsste doch auch da durch "Emergenz" was entstehen.

Die Frage nach dem "X" ist sehr zentral und wichtig. Gibt es mehr? Wenn man sich, sein ich uploaden könnte, dann könnte es beliebig oft dupliziert werden, wo ist man dann, ich welchem Rechenzentrum steckt man?

Gibt viele Filme und Romane, die das aufgreifen, man macht immer eine Kopie seiner Erinnerungen, und wenn der Körper vernichtet wird, werden die letzten Erinnerungen einfach wieder in einen neuen Körper geladen und schon "lebt" man wieder, man ist wieder da. Oder doch nicht? Ist da nur etwas, dass alle Erinnerungen von einem hat und glaubt es wäre das alte Ich?

Das Problem ist wirklich groß, gibt es kein X, ist es nur "Emergenz", dann müsste man sich kopieren können, duplizieren, uploaden.

Gibt es ein X, dann ist die Frage, was soll das nur sein?


Zitat von NegevNegev schrieb:Wenn wir über die KI Singularität sprechen, bitte ich um ein seröse Quelle. Keine Prognosen. Etwas handfestes. Jede Voraussage über eine Technologie, die noch nicht existiert und einen fundamentalen Paradigmenwechsel erfordert, ist spekulativ. Ein Beispiel, mal angenommen man würde sich auf diese Diskussion einlassen und wir würden eine AGI versuchen uns vorzustellen. Dann sagst du: "Angst, die könnte doch...". Ich sag: "Nein, weil Sicherung XY". Du sagst: "Nein, weil AGI intelligent".
Doch, man kann schon spekulieren was kommt, so funktioniert die Welt, zumindest bis es Zeitreisen gibt. Es gibt natürlich keine Belege, was soll das sein, etwas Handfestes? Man schaut sich an, was es gibt, was aktuell entwickelt wird und dann gibt es Prognosen, unser Hirn arbeitet genau so, dafür ist es da, es hat ein Weltmodell und prognostiziert ständig unsere Zukunft. Trinke das Gift, Tod.

Je genauer und besser unser Hirn prognostizieren kann, was passieren wird, um so größer die Chance zu überleben.

Und genau das passiert auch aktuell überall auf der Welt, die Frage wird millionenfach gestellt, immer wieder, wohin kann sich KI entwickeln, wie schnell, was wird passieren, wird es eine Singularität geben. Das ist interessant, es macht Menschen Angst, sicher verständlich und wird eben diskutiert.


1x zitiertmelden

Künstliche Intelligenz

24.08.2025 um 20:00
Zitat von WardenWarden schrieb:Ist doch realistisch.
Ist es ganz klar nicht. Die Lockerung von Regulationen ändert nichts an Physik, Infrastruktur, Logistik, menschlicher Organisation und Ressourcenvorkommen. Nur weil der Depp auf der anderen Seite des Atlantiks irgendetwas beschließt, sorgt das nicht automatisch dafür, dass TSMC plötzlich hundertfach schneller produziert… und auch noch exklusiv für die USA. Der Chipmarkt ist global hart umkämpft. Neue Fabs brauchen Jahre bis Jahrzehnte, und sie sind nicht beliebig skalierbar: allein ihr Betrieb verschlingt den Strombedarf von Großstädten. Weder ein Trump noch ein Xi noch ein Musk (oder sonst wer) können einfach Terawattstunden aus dem Hut zaubern.

Und selbst wenn all das gelöst wäre, bleibt die Frage: Wie genau sollen sich diese „Agents“ im Netzwerk replizieren? Ein konkretes, technisches Beispiel würde ich gern sehen. Realistisch können sie nur Rechenzentren als Ziel haben …auf meinem Laptop mit einem i7 der 6. Generation und 16 GB RAM würde „Agent 4“ schlicht Jahre brauchen, um überhaupt etwas Sinnvolles zu leisten.

Im Rechenzentrum wiederum müssten alle Sicherheitsschichten gleichzeitig versagen: Firewalls, Traffic-Monitoring, Application-Whitelists, AV-Software, Intrusion-Detection-Systeme… bis hin zu den ganz praktischen Dingen wie plötzlich steigender Plattenplatz, unerklärlicher Mehrverbrauch an Energie und zusätzlicher Kühlleistung. Dass das alles unbemerkt bleibt, ist extrem unrealistisch.


melden

Künstliche Intelligenz

24.08.2025 um 20:05
Glaube es gibt hier noch ein paar Dinge, die unklar sind, ich greife darum noch mal meine Aussage heraus:
Zitat von nocheinPoetnocheinPoet schrieb:Meine Frage zielte ja auch auf etwas "Spirituelles" ab, was wo mehr implizit heraus klang. Von den Fakten her, ich sehe da nur Determinismus und Zufall, ein Hirn hat auch nicht mehr, was soll es sein, eine Seele?
Zitat von NegevNegev schrieb:Dein Argument beruht auf einem Falschen Dilemma, das führt die Debatte in die Falsche Richtung. Du stellst es so dar, es gäbe es nur zwei Optionen. Geist oder Determinismus.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, wo genau siehst Du da ein falsches Dilemma? Warum in die falsche Richtung? Wer das bestreit, müsste dann aber was wie Determinismus + Zufall + X haben, was soll hier X sein?

Mein Aussage ist nun, es spricht erstmal nichts dagegen, dass auch eine künstliche dynamische Struktur darüber verfügen könnte, und natürlich spricht da so erstmal nichts gegen.
Zitat von NegevNegev schrieb:Es ist und bleibt eine außergewöhnliche Behauptung. Die Beweislast liegt bei dir.
Sollte genug Kontext sein, sonst liefere ich aber gerne nach. Eventuell bekommen wir den Punkt ja mal geklärt, geht ja nun auch schon wieder einige Beiträge hin und her.

Erstmal ist meine Aussage nicht nicht eine "außergewöhnliche" Behauptung, ich hatte und habe das recht gut begründet.
Zitat von nocheinPoetnocheinPoet schrieb:Es ging um meine Aussage, die Du "außergewöhnlich" findest und willst, dass ich das belege, ich habe das mit dem Video schon ein wenig belegt, wobei ich das nicht wirklich muss. Dass ist eben Stand in der Wissenschaft. So arbeitet das Universum, so sind die Naturgesetze, so entstehen Atome, so finden sie zu Molekülen zusammen, so gibt es Chemie, dann organische Chemie, Aminosäuren, draus dann Proteine, und Zellen. Das ist deterministisch, so wird das aktuell beschrieben, ohne Hokuspokus, und neben dem Determinismus haben wir eben noch aus der QT den Zufall.
Das war nur von heute, sollte verständlich sein.



Ich will eben noch mal "belegen", dass meine Aussage in keiner Weise nun eine außergewöhnlich Behauptung ist, dazu:
Mind uploading (auch „mind copying“ oder „mind transfer“ genannt) beschreibt einen hypothetischen Prozess, mentale Inhalte auf ein externes Medium zu übertragen. Die verwendeten Medien simulieren Funktionen des Gehirns, wodurch sie ein „virtuelles Bewusstsein“ erlangen sollen.

Das menschliche Gehirn besteht aus etwa 100 Milliarden Nervenzellen, die durch Synapsen miteinander kommunizieren können. Dem etablierten neurowissenschaftlichen Konsens zufolge ist Bewusstsein eine emergente Eigenschaft des Gehirns im Verlauf von Informationsprozessen.

Wichtige Funktionen des Verstandes wie Lernen, Erinnern und Nachdenken basieren auf rein physikalischen und elektrischen Prozessen im Gehirn, die durch gültige Gesetze geregelt sind.

Das Konzept des Bewusstseinstransfers basiert auf einer mechanistischen Sichtweise des Verstandes, wodurch der Prozess des „mind uploadings“ in drei verschiedene Methoden unterteilt werden kann: ...
Quelle: Wikipedia: Mind uploading

Ich hatte das heute schon mal zitiert, aber hin und wieder hilft es hier, wenn man Dinge noch mal ganz explizit ausführlich darlegt.

Hab es extra hervorgehoben, dass ist genau meine Aussage, also offenkundig keine "außergewöhnliche" Behauptung. Das ist nun mal aktueller Stand der Wissenschaft, sie bestreitet ja nicht die Existenz von Bewusstsein selber und dass wir Menschen eines im Hirn haben. Es geht um die Frage, wie kommt es da rein, was ist die Ursache, und wir haben kein "X", wir haben nur rein physikalischen und elektrischen Prozessen im Gehirn, also Determinismus und dann kommt da obendrauf noch Zufall aus der Quantentheorie. Aber ob nun Zufall das ist, was das "Ich" bringt, und wir kein "X" brauchen?



Roger Penrose hat dazu schon 1996 ein Buch geschrieben, in dem viel steht:
Das vorliegende Werk ist zwar in gewisser Weise eine Fortsetzung des ersten, lässt sich aber auch unabhängig davon lesen. Wer das erste kennt, wird sich gelegentlich ein Schmunzeln nicht verkneifen können, denn oft heißt es sinngemäß: In "Computerdenken" habe ich noch dies behauptet, jetzt hingegen behaupte ich etwas anderes. Überhaupt hilft ein gewisser Sinn für englischen Humor beim Lesen sehr; nicht immer ist klar, wie ernst Penrose selber das nimmt, was er da schreibt.

Das Buch ist in zwei Teile gegliedert. Im ersten argumentiert Penrose gegen die These, bewusste geistige Vorgänge ließen sich im Prinzip vollständig im Rahmen rechnerisch beschreibbarer Modelle verstehen. Vielmehr enthalte bewusstes Denken etwas, das sich durch reine Berechnung nicht einmal angemessen simulieren lasse.

Im zweiten Teil versucht Penrose innerhalb der Physik einen Ansatzpunkt für zwar determinierte, aber prinzipiell nicht berechenbare Vorgänge zu finden, die materiell den Phänomenen des Bewusstseins zugrunde liegen könnten.

Penrose sieht, dass wir mit den Vorstellungen der heutigen Wissenschaft den menschlichen Geist nicht zu verstehen vermögen. Doch hält er daran fest, dass es einen wissenschaftlichen Weg zum Verstehen geistiger Phänomene geben müsse:

"Es gibt im Gehirn physikalische Prozesse, die zu Bewusstsein führen, aber sie lassen sich rechnerisch nicht angemessen simulieren. Die Simulierung dieser physikalischen Vorgänge erfordert eine neue Physik."

Im Mittelpunkt des ersten Teiles steht der berühmte und vielfach im Zusammenhang mit der Natur des menschlichen Geistes diskutierte Unentscheidbarkeitssatz des österreichischen Mathematikers und Logikers Kurt Gödel (1906 bis 1978). Penrose zieht daraus den provokativen Schluß: "Menschliche Mathematiker verwenden zum Nachweis mathematischer Wahrheit keinen nachweislich korrekten Algorithmus" (Seite 95). Alle Einwände, die ihm dagegen einfallen, widerlegt er sehr sorgfältig und zeigt auch, warum diese scheinbar doch nur für Mathematiker interessante Feststellung engstens mit der Frage nach der menschlichen Erkenntnisfähigkeit überhaupt zusammenhängt.

Penroses Argumentation ist insgesamt beeindruckend, vor allem weil er demonstriert, wie weit man kommen kann, wenn man sich allein an die Logik mathematischen Denkens hält. Mit einer Art Beweis, der sich von einem echten, zwingenden mathematischen Beweis vor allem dadurch unterscheidet, dass die Grundkonzepte nicht formalisiert (und nicht formalisierbar) sind, zeigt er: Mathematische Einsicht ist nicht algorithmisch fassbar.

Wer sich von dieser Argumentation überzeugen lässt, weiß am Ende also insbesondere, dass er bei seinen Gedankengängen keinem (bewussten oder auch unbewussten) Algorithmus gefolgt ist.

Der erste Teil des Buches schließt mit einem herrlichen fiktiven Dialog zwischen einem Spezialisten für künstliche Intelligenz und einem von diesem erfundenen Roboter, der – ausgestattet mit menschlichen, ja sogar übermenschlichen Fähigkeiten – sich schließlich für den wahren robotischen Messias hält. Dieser Dialog faßt die vorangehende, stellenweise mühsame Diskussion gekonnt und spritzig zusammen.

Da Penrose einerseits davon ausgeht, der menschliche Geist sei ein Resultat physikalischer Vorgänge, andererseits im ersten Teil gezeigt hat, dass dieser Geist nicht berechenbar ist, muss er folgerichtig im zweiten Teil einen Ansatzpunkt für nicht berechenbare Vorgänge innerhalb der Physik finden. Das ist nicht leicht und innerhalb der klassischen Physik von vornherein aussichtslos; Penrose sucht also gleich innerhalb der Quantenmechanik. ...
Quelle: https://www.spektrum.de/magazin/schatten-des-geistes-wege-zu-einer-neuen-physik-des-bewusstseins/823229



Eben noch was:
Aus dem Gödelschen Unvollständigkeitssatz lasse sich zudem schließen, dass es Aussagen in bestimmten formalen Systemen gibt, deren Widerspruchsfreiheit Mathematiker unzweifelbar erkennen können, welche aber nicht formal als widerspruchsfrei bewiesen werden können. Daraus schlussfolgert Penrose, dass jeder Mensch ein Bewusstsein habe, welches von Maschinen nicht simuliert werden könne.
Quelle: Wikipedia: Schatten des Geistes

Habe mal was hervorgehoben, also die "Theorie" von Penrose ist sehr umstritten:
Penrose und Hameroff betonen, dass ihr Modell den Boden der Naturwissenschaft nicht verlässt, auch wenn noch Weiterentwicklungen der Physik dafür nötig seien. Anders als der Neurophysiologe Sir John Eccles, der als gläubiger Katholik seine religiösen Vorstellungen mit seinem biologischen Expertenwissen stützen wollte, müssen Penrose und Hameroff keinen immateriellen Geist annehmen, der auf nicht erforschbare Weise den materiellen Körper steuert. Das Quantenmodell des Bewusstseins würde auf nachvollziehbare Weise Raum für die Unbestimmtheit lassen, die für einen freien Willen notwendig wäre, meinen Penrose und Hameroff. Tatsächlich biete die Quantentheorie einen echten Ausweg aus einer deterministischen Weltsicht, sagt auch der Frankfurter Physikprofessor Thomas Görnitz.

Die meisten Neurowissenschaftler und sogar die meisten zeitgenössischen Philosophen gehen dagegen zurzeit davon aus, dass wir keinen freien Willen haben, sondern vollständig determiniert handeln. Sie betrachten das Konzept eines freien Willens lediglich als eine sozial nützliche Illusion. Für sie ist das menschliche Bewusstsein kein Rätsel, sondern nur eine nützliche Eigenschaft höherer Organismen, um auf neue Probleme zu reagieren und das vertrackte Sozialleben zu meistern.

Widerspruch ernten Penrose und Hameroff jedoch nicht nur von Neurowissenschaftlern, sondern auch aus den Reihen der Quantenmechanikexperten. So berechnete kürzlich der Quantenphysiker Max Tegmark von der University of Pennsylvania, dass unter den Wärmebedingungen im Gehirn eine Quantenkohärenz, wie sie von Penrose angenommen wird, niemals lange genug aufrechterhalten werden könnte. Aber, so kontert Hameroff, der Physiker Tegmark habe die biologischen Details des Modells einfach nicht zur Kenntnis genommen, es könne zu Abschirmungen der störenden Außeneffekte in den nanometergroßen Mikrotubuli kommen.

Ob und inwieweit die Quantenphysik in biologischen Systemen eine Rolle spiele, das zähle tatsächlich zu den spannendsten Fragen der nächsten Jahrzehnte, meinte der Wiener Quantenphysiker Anton Zeilinger vor kurzem auf einer Tagung der Berlin-Brandenburgischen Akademie der Wissenschaften in Berlin zum Thema Interdisziplinarität. Weil jedoch die Neurowissenschaftler bisher sehr wenig über Quantenmechanik wissen, die Physiker dagegen fast nichts über Nervenzellen, werden Penrose und Hameroff vermutlich noch länger als exotische Außenseiter weiterfechten. Ob sie Recht haben, wird sich vielleicht in den nächsten 100 Jahren entscheiden.
Quelle: https://www.welt.de/print-welt/article552619/Ein-Quantenmodell-fuer-das-Bewusstsein.html

Tja, es ist also schon Thema, auch in der Wissenschaft, es ist eine "außergewöhnliche" Behauptung. Habe nun echt viel dazu zitiert, wichtige Aussagen extra hervorgehoben, ich kann sie aber, wenn nötig, auch noch mal einzeln aus den Zitaten ziehen.


melden

Künstliche Intelligenz

24.08.2025 um 20:13
@Negev

Ganz aktuell:
Youtube: Wir erschaffen eine neue Spezies und ich glaube nicht, dass wir bereit sind
Wir erschaffen eine neue Spezies und ich glaube nicht, dass wir bereit sind
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Ob sie meinen Beitrag gelesen hat? Wie auch immer, ihre Aussagen passen so was zu dem was ich hier geschrieben habe.


melden
melden

Künstliche Intelligenz

24.08.2025 um 20:59
Zitat von YotokonyxYotokonyx schrieb:Irgendwie habe ich hier das Gefühl wenn ich mir so die Diskussion durchlese, es handelt sich hier um schon eine Art Sektenkult.
Was? Bitte was hast Du konkret gelesen, dass Du was von Sektenkult fühlst, kannst Du da mal was zitieren?


Zitat von YotokonyxYotokonyx schrieb:Wie manche hier versuchen mit aller Gewalt beweisen zu wollen oder ihre Ansicht durchbekommen zu wollen, dass KI ein Bewusstsein hat ist schon irgendwie krass.
Genauer bitte, wer ist hier "manche" und wie wird da mit aller Gewalt versucht die Ansicht durchzubekommen, dass KI ein Bewusstsein hat? Was genau hast Du hier von wem denn wie nur gelesen?


melden