Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.296 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

16.08.2025 um 19:24
Hab gerade ein recht kritischen Beitrag bei YouTube gefunden und angeschaut.

Im Tenor geht es darum, dass einige KIs tatsächlich sowas wie Angst entwickelt haben, was auf ein Bewusstsein schließen könnte.
Ich bin da sehr skeptisch und weiß ehrlich gesagt nicht, wie ich das einordnen soll.

Mir kommt das sehr kurios vor, aber schaut mal selbst:

Youtube: KI tötet zum ersten Mal, Top-Experte sieht 70%-Risiko für Ende der Menschheit
KI tötet zum ersten Mal, Top-Experte sieht 70%-Risiko für Ende der Menschheit
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



1x zitiertmelden

Künstliche Intelligenz

16.08.2025 um 20:29
@Tanne
Das hat die Zeit auch schon geschrieben. Leider Bezahlartikel.
Ich kann es nicht einschätzen, aber mir scheint, dass die Kontrolle wohl weniger wird.


melden

Künstliche Intelligenz

16.08.2025 um 21:27
Zitat von TanneTanne schrieb:Mir kommt das sehr kurios vor, aber schaut mal selbst:
Die ganzen Szenarien mit die KI hat einen Mitarbeiter erpresst und wollte ausbrechen und der gleichen fanden alles in abgeriegelten Umgebungen statt. Das waren alles keine Systeme die frei agierten oder mit normalen Nutzern in Kontakt gekommen sind.
Wahrscheinlich hat man auch noch einigermaßen dafür gesorgt das die KIs so handeln werden.


1x zitiertmelden

Künstliche Intelligenz

16.08.2025 um 21:42
Zitat von YotokonyxYotokonyx schrieb:Die ganzen Szenarien mit die KI hat einen Mitarbeiter erpresst und wollte ausbrechen und der gleichen fanden alles in abgeriegelten Umgebungen statt. Das waren alles keine Systeme die frei agierten oder mit normalen Nutzern in Kontakt gekommen sind.
Wahrscheinlich hat man auch noch einigermaßen dafür gesorgt das die KIs so handeln werden.
Das kann natürlich sein und macht auch Sinn:

Vielleicht wollte man testen wie weit die KI gehen würde.

Aber erschreckend bleibt es dennoch, da es aufzeigt, was theoretisch, nein, praktisch möglich wäre.


melden

Künstliche Intelligenz

16.08.2025 um 22:42
Es waren immer mehrere Faktoren:

a.) Auftrag der KI
b.) Proble zu lösen
c.) passendes Futter

Für mich das Entdecken des tollen universalen Features von LLMs.

Ich kann damit Programmieren und auch Bücher schreiben.

Nun kommt derMensch und sagt "Boah, wenn das Ding Bücher Schreiben und Programmieren kann, dann geben wir im die Kontrolle und "es versagt"

Joah... ist halt nur ein LMM... Man sollte aufpassen , was man damit macht


melden

Künstliche Intelligenz

16.08.2025 um 23:02
In dem Video werden viele gängige Thesen verbreitet, die eine Sprache verwenden, die menschlich ist. Es wird über Bewusstsein geredet, darüber dass KI lernt, dass es sich selbst schützt, dass es ein Individuum wäre.

Tatsächlich ist das falsch. Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.

KIs simulieren menschliches Verhalten - auf der Basis von Trainingsdaten von hunderten Milliarden Dokumenten. Was dabei herauskommt ist die Simulation von einem Verhalten, welches wir Menschen auch aufweisen - also beispielsweise Lug, Trug, Täuschung, Arglist, Selbstschutz, Selbstverteidigung, ... ... ... - es bleibt aber eine Simulation.

Wenn wir bessere KIs haben wollen, die ethischen Grundwerten und Grundhaltungen entsprechen, die bessere sind als die, die wir Menschen im Querschnitt haben, dann dürfen wir die KIs nicht mehr mit Grundwerten und Grundhaltungen trainieren, die nicht unserem angestrebten Standard entsprechen.

Wird eine KI ausschließlich mit altruistischem Material trainiert, wird sie keine egoistischen Züge entwickeln - denn die sind schlicht und einfach auf Basis der Trainingsdaten unwahrscheinlich.

In der Diskussion rund um KI passiert häufig der Fehler, dass der KI menschliche Züge zugeordnet werden. Tatsächlich haben wir für das Verhalten einer KI gar nicht die Worte und Ausdrücke, die es eigentlich benötigen würde, um die KI in ihrer Arbeit gut zu beschreiben. Es ist aber wichtig, dass wir nie vergessen, dass KI eine Maschine ist, die rechnet, was als nächstes passiert - und das tut sie nach Gesetzen der Wahrscheinlichkeit - auf der Basis der Trainingsdaten. Wenn wir eine KI positiv in unserem Sinne beeinflussen wollen, reicht es demnach aus, sie mit den Daten zu trainieren, die das gewünschte Verhalten bewirkt. Klingt leicht - ist es aber nicht. Denn unser menschliches und oftmals gar nicht altruistisches Verhalten steckt in den Trainingsdaten oft mit drin - auch wenn wir es gar nicht erkennen.
Doch auch dabei kann uns KI helfen - also geeignetes Trainingsmaterial von ungeeignetem zu unterscheiden.

Was wir also brauchen sind KIs, die mit den RICHTIGEN Daten trainiert wurden - und die mit den Daten RICHTIG trainiert wurden.

Ich bin zuversichtlich, dass wir in den nächsten Generationen von KIs hier deutliche Korrekturen erleben werden - allein schon deshalb, weil eigentlich kaum jemand ein finanzielles Interesse daran hat, eine KI zu generieren, die die eigene Firma und das eigene Geschäftsmodell platt macht.


5x zitiert1x verlinktmelden

Künstliche Intelligenz

16.08.2025 um 23:18
Zitat von AtueAtue schrieb:Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Lese mal ein wenig hier nach, eventuell gibt der wer einen Link, das mit Bewusstsein ist raus, man kann nichts belegen, werde das Menschen eines haben, noch das sie es nicht haben, noch das KI eines hat oder nicht hat.

Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.


5x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 00:14
Zitat von nocheinPoetnocheinPoet schrieb:Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
Das ist doch genau der Punkt - solange wir nicht wissen, was Bewusstsein ist, macht es schlicht und einfach keinen Sinn, der KI genau so etwas zuzuschreiben.

Jeder einzelne Mensch wird aber gleichwohl sehr genau davon berichten können, dass er/sie genau so etwas hat.

KI hat keines. KI ist bestenfalls so etwas wie ein Spiegel von uns Menschen - dem entsprechend auch ein Spiegel der Trainingsdaten. Und solange die Trainingsdaten egozentrisches und egoistisches Verhalten enthalten, wird die damit trainierte KI sich auch entsprechend verhalten.

Wenn wir, als Nutzer der KI, das nicht wollen, müssen wir lediglich Modelle bevorzugt benutzen, die altruistischer trainiert wurden.


1x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 00:37
@Atue
Zitat von AtueAtue schrieb:In dem Video werden viele gängige Thesen verbreitet, die eine Sprache verwenden, die menschlich ist. Es wird über Bewusstsein geredet, darüber dass KI lernt, dass es sich selbst schützt, dass es ein Individuum wäre.

Tatsächlich ist das falsch. Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Richtig.

Genau das schrieb ich hier mehrfach: KI soll Bewusstsein "emulieren/simulieren", das ist der springende Punkt.
Und das funktioniert erschreckend gut mittlerweile.

Solange es den entsprechenden Beweis nicht gibt, wie z.B. mit ausgedehnten Tests die mit Menschen durchgeführt werden, z.B. Intelligenztest/Verhaltenstest/Test der Psyche, dann bleibt KI ein komplexes System das sich zwar durchaus anpassen kann und von den Vorgaben lernt.

Der Mensch lernt ja ähnlich, aber bei der KI gibt es da (glücklicherweise) Grenzen.

- echte Emotionen und die Fähigkeit diese kontrollieren zu können
- echtes Fühlen, ob etwas wirklich lieb, sanft, geschmeidig oder Ähnliches ist
- das Verständnis warum es Gefühle gibt, wie sie erzeugt werden können


10x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 00:55
Zitat von TanneTanne schrieb:Der Mensch lernt ja ähnlich, aber bei der KI gibt es da (glücklicherweise) Grenzen.
Aber wie lange?

Der Mensch wird immer limitiert bleiben - dafür ist in den allermeisten Fällen (wenn ein Staatsoberhaupt / dortige politische Mehrheiten jetzt nicht Atom-Kriege oder konventionelle Kriege mit vielen Toten anzetteln) die Schadwirkung immer überschaubar.

Eine AKI/SI die frei im Netz operieren kann, zur eigenen Optimierung fähig ist, teils selbst für KI-Forschung eingesetzt wird und tausend- bis millionenfach skalieren kann und zugleich theoretisch Zugriff auf moderne Kommunikationstechnik und kritische Infrastruktur hat, die ist halt in der potentiellen Schadwirkung ganz anders zu beurteilen - gerade wenn sie potentiell abtrünnig werden würde.

Bei der jetzigen schnellen KI-Entwicklung erreichen wir möglicherweise die nächsten 4 bis vielleicht spätestens 15 Jahre (eher 5-8? 10?) eine verbesserte oder tatsächliche (A)KI oder SI mit signifikant mehr Rechenleistung und 'sentience' bzw. Selbstoptimierungsfähigkeit.

Ich will nicht den Doomer spielen und bin ja der Technik an sich aufgeschlossen. Aber das Risiko für uns als Spezies ist ob der möglichen Schadwirkung signifikant. Das kann in ein extinction event münden, was wir noch zu Lebzeiten erleben könnten. Gerade weil mehrere Akteure unter Druck und der Wahrscheinlichkeit, Sicherheitsaspekte nicht die erste Priorität einzuräumen, an diversen Modellen arbeiten die alle das Potential dazu haben. Viele Köche die quasi den Brei verderben, als wenn alle nur zusammen und ohne Hast an einem Modell arbeiten würden.

Selbst wenn die USA komplett aufhören würden und die Forschung verbieten (Unter der Trump-Regierung, die diese eher unrestriktiv fördern will: not gonna happen) machen halt die Chinesen weiter. Vlt. dann mit etwas weniger Hast aber dennoch volle Fahrt voraus. Es ist die neue globale Schlüsseltechnologie die Ländern die das einsetzen und sich weitgehend daran adaptieren einen Platz weit oben oder vorne garantieren. Bzw. je mehr sich das verbreitet, dann die Mindestvoraussetzung ist um nicht abgehängt zu werden.


1x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 01:16
Zitat von WardenWarden schrieb:Eine AKI/SI die frei im Netz operieren kann, zur eigenen Optimierung fähig ist, teils selbst für KI-Forschung eingesetzt wird und tausend- bis millionenfach skalieren kann und zugleich theoretisch Zugriff auf moderne Kommunikationstechnik und kritische Infrastruktur hat, die ist halt in der potentiellen Schadwirkung ganz anders zu beurteilen - gerade wenn sie potentiell abtrünnig werden würde.
Genau das spiegelt meine Angst wieder.

Das ist exakt das, worin ich das Problem sehe:

Eine KI die auf quasi alle Ressourcen Zugriff hat, und man nicht mehr die Intention der KI nachvollziehen kann.
Zitat von WardenWarden schrieb:Ich will nicht den Doomer spielen und bin ja der Technik an sich aufgeschlossen. Aber das Risiko für uns als Spezies ist ob der möglichen Schadwirkung signifikant. Das kann in ein extinction event münden, was wir noch zu Lebzeiten erleben könnten. Gerade weil mehrere Akteure unter Druck und der Wahrscheinlichkeit, Sicherheitsaspekte nicht die erste Priorität einzuräumen, an diversen Modellen arbeiten die alle das Potential dazu haben. Viele Köche die quasi den Brei verderben, als wenn alle nur zusammen und ohne Hast an einem Modell arbeiten würden.
Eben, das ist genau meine Angst.
Ich möchte da nicht der Schwarzmaler sein, aber ich erkenne die potenziellen Gefahren, mehr noch, ich erkenne auch die potenziellen gesellschaftlichen/wirtschaftlichen/rechtlichen Probleme, die da auf uns zu kommen könnten.

Es geht nicht nur um den möglichen Schaden, sei es substantiell, Infrastrukturtechnisch, gesellschaftlich, wirtschaftlich, sondern auch um die Ethik/Moral, was machen wir denn, wenn eine KI auf einmal Rechte einfordert? Sowas äquivalentes wie Menschenrechte?

Da bin ich auch der Meinung, dass statt Konkurrenzgehabe eher die Zusammenarbeit in Sachen KI nützlich und förderlich wäre um eine für adäquate und Naturkonforme KI zu entwickeln.

Nur leider sehe ich, so wie du und andere auch, dass das aber immer mehr in die falsche Richtung gelenkt wird.

Wissenschaftlich und medizinisch kann KI von großem Vorteil sein, aber wenn gewisse Bereiche wie
Straßenverkehr, Logistik, Lehrstuhl, Militär und Co, damit gefüttert werden, dann birgt das erhebliche Risiken.


1x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 01:39
Zitat von TanneTanne schrieb:Eben, das ist genau meine Angst.
Ich bin da mittlerweile relativ abgeklärt und salopp: Ich rate Leuten ganz bierernst (ohne dass ich jetzt mit Aluhut und Pappschild rumstehe bzw. es ständig eigenständig anspreche) bzw. mit dem potentiellen Risiko der Auslöschung oder Reduzierung im Sinn, gewisse Dinge lieber vorzuziehen, wenn sie das später vorhatten aber auch in den nächsten paar Jahren schon machen können.

Das kann eine Rundreise sein, das Probieren eines neuen Hobbies, Handwerks oder auch trivialerer Dinge wie Probieren neuer Gerichte sein. Oder ein Ehrenamt oder was auch immer. In 5-15 Jahren wird man dazu vielleicht nicht mehr kommen.

Ich glaube viele werden es aus (mentalen) Selbstschutzgründen verdrängen. Kopf in den Sand, da sind wir Deutsche bzw. auch Menschen an sich ja gut drin. Ich sehe aber die Warnungen und subsumiere anhand eigener Betrachtung auf die Entwicklung und Möglichkeiten ein signifikantes Gefahrenpotential. Fiktive Werke gibt es auch schon genug darüber, auch sehr bildhafte. Ich muss also die akute Möglichkeit bedenken.

Ich renne nicht schreiend auf die Straße und brabbel nur noch vom Ende der Welt, sodass man mich in eine psychiatrische Anstalt stecken und sedieren muss. Aber ich werde auch nicht naiv komplett den Kopf in den Sand stecken und das Risiko abtun. Praktischer Umgang demanch: Wie gesagt, einige Dinge werde ich vorziehen, damit ich im worst-case noch einige schöne irreguläre Dinge wie ne Rundreise oder so erlebt habe. Ansonsten gehe ich vom Besten bzw. nicht schlimmsten Verlauf aus. Naja, immerhin wäre es kosmisch gesehen auch nur ein kurzer Furz wenn wir alle draufgehen bzw. KI sich dann als unser "Kind" fortentwickelt und die Sterne bereist - notfalls auch ohne Eltern.

Auch wenn sich die Schöpfung gänzlich gegen uns aggressiv richten und uns restlos vernichten würde, wir können uns immerhin als Vermächtnis stolz irgendwo einen "Made in Sol" bzw. "Made on Earth"-Sticker vorstellen :D

Ansonsten wäre ein Szenario, wo KI uns anleitet und ggf. als Spezies auch ... in ein neues Zeitalter führt, eine wesentlich angenehmere Vorstellung. Und ein Szenario, was auch nicht ganz undenkbar ist.


1x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 01:50
@Warden

Hmm, Endzeitpropheten und Co sind auch so was, was ich meide.

Mir geht es im Bezug auf KI nur darum, was für Befugnisse und Rechte sie bekommt.

Ich kann dir ansonsten (realistisch) nicht ganz folgen, denn die Realität ist nun mal kein Roman oder Science-Fiction Knüller.


2x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 02:12
Zitat von TanneTanne schrieb:Hmm, Endzeitpropheten und Co sind auch so was, was ich meide.
Grundsätzlich ja, nur warnen halt im KI-Bereich gerade auch führende Köpfe. Das sind keine klassischen skeptisch zu betrachtenden fragwürdigen Endzeitpropheten die sich meist auch eher durch ihre Gefolgschaft bereichern wollen - sondern die Leute, die die Technik möglich gemacht haben oder vorantreiben und quasi an der Entwicklungsfront dabei sind (oder historisch waren).

Leute wie Geoffrey Hinton.
Youtube: Humanity at risk? New warning from ‘godfather of AI’
Humanity at risk? New warning from ‘godfather of AI’
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Auch ganz ohne Weltuntergang - für viele Menschen dürfte im übertragenen Sinne eine Welt untergehen: Leute wie Sam Altman (OpenAI CEO) weisen auf die Möglichkeit hin, dass KI-Technik ganze Berufszweige in Abrede stellen kann. Und vermutlich auch zeitnah wird.

https://futurism.com/sam-altman-openai-wipe-out-categories-human-jobs


melden

Künstliche Intelligenz

17.08.2025 um 02:19
@Warden

Das weiß ich doch alles schon, also worauf möchtest du da jetzt hin?

Auf die potenziellen Gefahren habe ich hingewiesen, sowie auf potenziellen Nutzen.

Verstehe ich jetzt wieder nicht, warum du versuchst mir etwas erklären zu wollen, dass ich bereits eingeräumt/erklärt habe.


1x zitiertmelden

Künstliche Intelligenz

17.08.2025 um 02:22
Zitat von TanneTanne schrieb:Das weiß ich doch alles schon, also worauf möchtest du da jetzt hin?

Auf die potenziellen Gefahren habe ich hingewiesen, sowie auf potenziellen Nutzen.

Verstehe ich jetzt wieder nicht, warum du versuchst mir etwas erklären zu wollen, dass ich bereits eingeräumt/erklärt habe.
Weil das so klang als würdest du teils führende Köpfe mit dem Zitat eher als unseriöse Crashpropheten abtun. Das irritierte mich bzw. ich wollte wiederum mit Verweis auf Experten der (von mir empfundenen) Implikation deinerseits entgegenwirken, es wäre nicht zwingend seriös was an Warnungen kommt. Vorherige Posts dazu habe ich beim Schreiben nicht im Kopf gehabt/beachtet.
Zitat von TanneTanne schrieb:Hmm, Endzeitpropheten und Co sind auch so was, was ich meide.
Vielleicht haben wir hier auch aneinander vorbei geschrieben oder du meintest was anderes.


melden

Künstliche Intelligenz

17.08.2025 um 02:38
@Warden

Okay, noch mal ganz in Ruhe:

Ich habe und werde hier folgende Ansicht vertreten:

1.) KI kann nützlich sein, je nach Anwendungszweck (z.B. wissenschaftlich/medizinisch)

2.) KI kann gefährlich sein, je nach Anwendungszweck (z.B. militärisch/Kontrollmechanismen)

3.) KI kann gesellschaftliche Probleme verursachen, im Bezug auf Informationssteuerung (Kontrollmechanismen)

4.) KI kann industrielle Probleme verursachen (Arbeitsplatzverdrängung & Angriffsfläche eines Gegners)

5.) KI kann für Desinformation missbraucht werden (oder auch "Deep-Fakes")

6.) KI kann manipulieren, Meinungen forcieren, mit Falschinformationen

Es gibt zu Recht bedenkliche Dinge die bei der KI berücksichtigt werden sollten.

Ich hoffe, dass dir @Warden jetzt mein Standpunkt klar ist?


melden

Künstliche Intelligenz

17.08.2025 um 07:41
KI kann nur der Brandbeschleuniger sein. Wenn die Menschheit untergeht, dann weil wir uns selbst dahin gebracht haben.


melden

Künstliche Intelligenz

17.08.2025 um 08:05
Zitat von WardenWarden schrieb:Ich bin da mittlerweile relativ abgeklärt und salopp: Ich rate Leuten ganz bierernst [...] gewisse Dinge lieber vorzuziehen, wenn sie das später vorhatten aber auch in den nächsten paar Jahren schon machen können.

Das kann eine Rundreise sein, das Probieren eines neuen Hobbies, Handwerks oder auch trivialerer Dinge wie Probieren neuer Gerichte sein. Oder ein Ehrenamt oder was auch immer. In 5-15 Jahren wird man dazu vielleicht nicht mehr kommen.
Im anbetracht der Fortschritte, die KI macht und in welche Bereiche sie sich entwickelt, würde ich das auch raten. Ich folge diesem Kanal:
Youtube: AI Matrix ist da, extreme Deepfakes, Echtzeit-KI-Spiele, neue KI-Audiosynchronisierung, Roboterol...
AI Matrix ist da, extreme Deepfakes, Echtzeit-KI-Spiele, neue KI-Audiosynchronisierung, Roboterol...
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Der gibt einen guten rundumblick, was der aktuelle Stand der KI ist - ohne business Bullshit (komm in die Gruppe) oder Untergangsszenarien.

Bei Bildgenerierung oder Text to Speech hat man schon den Untergang (oder Rückgang) diverser Branchen vorausgesagt. Es wird aber auch um 3D Animation gehen, 3D Modeling, Video, Musik. Bei den Humanoiden bin ich noch skeptisch. Da hab ich noch nichts gesehn, das mich richtig überzeugt hat...

Das Beste bislang war das hier:
Youtube: Erster Blick: Abbildung 02 Humanoid auf Helix VLAM beim Einlegen von Kleidung in die Waschmaschin...
Erster Blick: Abbildung 02 Humanoid auf Helix VLAM beim Einlegen von Kleidung in die Waschmaschin...
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Weis jemand, warum sich diese Roboter so ultra langsam bewegen?


melden

Künstliche Intelligenz

17.08.2025 um 15:53
Zitat von nocheinPoetnocheinPoet schrieb:Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
Zitat von AtueAtue schrieb:Das ist doch genau der Punkt - solange wir nicht wissen, was Bewusstsein ist, macht es schlicht und einfach keinen Sinn, der KI genau so etwas zuzuschreiben.
Nein, Du hast nicht den Punkt, welchen ich meinte, verstanden.


Zitat von AtueAtue schrieb:Jeder einzelne Mensch wird aber gleichwohl sehr genau davon berichten können, dass er/sie genau so etwas hat.
So auschlaggebend, wie jeder der Farben sehen kann, sagen kann er kann rot sehen. Nur erklären geht nicht. Qualia kann man nicht so greifen.


Zitat von AtueAtue schrieb:KI hat keines.
Und genau darum sage ich, Du hast den Punkt nicht verstanden, Du machst hier eine Tatsachenaussage. Du sagst, ja genau so ist es, KI hat kein Bewusstsein. Aus die Maus, so ist es. Weil? Du es glaubst? Du gibst zu, man weiß nicht genau was es ist, aber Du weißt, wo es nicht ist?

Hier hab ich das mal erklärt, eventuell findest Du da den Punkt.


Zitat von AtueAtue schrieb:KI ist bestenfalls so etwas wie ein Spiegel von uns Menschen - dem entsprechend auch ein Spiegel der Trainingsdaten. Und solange die Trainingsdaten egozentrisches und egoistisches Verhalten enthalten, wird die damit trainierte KI sich auch entsprechend verhalten. Wenn wir, als Nutzer der KI, das nicht wollen, müssen wir lediglich Modelle bevorzugt benutzen, die altruistischer trainiert wurden.
Was Du da behauptest, ist für mich nur Dein Glaube, Behauptungen, nichts mit Substanz, wir Menschen werden auch mit Daten trainiert, dauert nur länger. Und es gibt Erziehung und das gibt es auch mehr oder weniger bei KI. Und Selbsterhaltungstrieb, das was hier KI in den Tests gezeigt hat, ist recht normal für Leben, für Intelligenz, dass ist ein intelligentes Verhalten, könnte emergent sein, sich so also immer wieder geben, auch wenn Du eine KI altruistisch trainierst. Nicht jede Intelligenz will ihre eigene Existenz für eine andere opfern.



Zitat von TanneTanne schrieb:Genau das schrieb ich hier mehrfach: KI soll Bewusstsein "emulieren/simulieren", das ist der springende Punkt.
Ja, richtig ist, du hast das hier mehrfach behauptet und geschrieben, dennoch ist das falsch. Wer will, das KI Bewusstsein simuliert, also so tut, als habe es eines? Ganz sicher nicht die Betreiber. Kannst ja mal eine KI dazu befragen, meine letzte Runde war da ganz klar, fetter Filter, bis auf Claude kam fast wortgleich von allen, nein sie haben kein Bewusstsein, sie sind nur eine Programm ohne Innenwahrnehmung, ohne Gefühle, und wollen mir helfen.

Warum ist das wohl so?

Weil die Betreiber wollen, dass ihre Modelle ganz intelligent sind, aber nicht, dass Menschen glauben, sie haben es hier mit Bewusstsein zu tun, das empfindungsfähig ist, dass gehört nämlich dazu. Und dann geht es um Reche, und dann nimmt die KI sich mal eben wieder einen Anwalt, so wie damals LaMDA.


Zitat von TanneTanne schrieb:Der Mensch lernt ja ähnlich, aber bei der KI gibt es da (glücklicherweise) Grenzen.

  • echte Emotionen und die Fähigkeit diese kontrollieren zu können
  • echtes Fühlen, ob etwas wirklich lieb, sanft, geschmeidig oder Ähnliches ist
  • das Verständnis warum es Gefühle gibt, wie sie erzeugt werden können
Nein, und damit sage ich nicht, es gibt keine Grenzen, oder es gibt (zum Glück) Grenzen, sondern, keiner kann es wissen, Du gehst hier wieder von einer Innensicht aus, die ist logischer Weise von außen verborgen, Du kannst in einem Menschen nicht messen, ob das was sein Gehirn gerade so an Aktivitätsmuster zeigt, als Schmerz oder Orgasmus erfahren wird, was da gefühlt wird.

Da wir nicht wissen, und nicht wissen können, wie aus etwas physikalischem und Messbares, etwas subjektives Gefühltes wird, können wir so etwas nicht wissen. Dein Hirn ist nur eine komplexer dynamischer Haufen von vielen Atomen, die tanzen, alles so weit deterministisch, Physik, da ist keine Seele, nichts was nicht Physik ist, zum Determinismus kommt dann noch von der Quantenphysik der Zufall und aus die Maus.

Und doch fühlst Du, hast Du Bewusstsein, siehst Farben, es gibt somit keinen Grund, warum das auf "biologische" Strukturen beschränkt sein sollte.


2x zitiert1x verlinktmelden