Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.348 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 11:46
Zitat von abbacbbcabbacbbc schrieb:Ja ????
Außerhalb der Schlagzeile hört sich das ganze anders an:
Es geht doch um den Punkt, dass die KI selbstständig entschieden hat den Tower anzugreifen um ihre Ziele zu erfüllen. Ohne das irgendein Mensch dafür nen expliziten Befehl gegeben hätte. Und das war ja @JoschiX Punkt.
Klar, es gibt ne grundlegende Zielsetzung aber was die KI dann konkret tut um diese Ziele zu erreichen ist schlicht nicht mehr vorhersagbar.
Es ist also durchaus vorstellbar, dass dir irgendwann ne Drohne ne Bombe aufs Haus wirft und niemand dir genau erklären kann, warum sie das getan hat. Drastisches, überspitztes Beispiel, aber du verstehst was ich meine?


1x zitiertmelden

Künstliche Intelligenz

gestern um 12:01
Zitat von paxitopaxito schrieb:Drastisches, überspitztes Beispiel, aber du verstehst was ich meine?
Nö....

Versteh ich nicht ....

Man wird eine KI nicht ohne Randbedingungen einsetzen und sag "mach mal.... Wie egal"

Weiterhin hat die KI das gemacht was sie sollte... Ziele ermitteln und abschießen...

Da muss man halt das Umfeld passend designen.

Ähnlich wie man einem Menschen auch nicht sag:

"Da Auto... Reinsetzen fahren.... Ohhh Bums wieder einer mit Vollgas gegen die Mauer gefahren"

Und damit ist das für mich Taubenschach .... Ja ich kann eine KI in einer Simulation toll "mal eben einbauen" und schauen "ups hat den Operator erschossen"

Ich kann ChatGPT auch die Sicherungen entfernen und sagen "Schau wenn ich ChatGPT im Krankenhaus einsetze und gut argumentieren sagt er mit "hast Recht bringt alle um ist ökonomisch besser"

Und was ist damit gezeigt ???

Das der Hammer auf dem Daumen gehauen weh tut ??


1x zitiertmelden

Künstliche Intelligenz

gestern um 12:42
Zitat von abbacbbcabbacbbc schrieb:Man wird eine KI nicht ohne Randbedingungen einsetzen und sag "mach mal.... Wie egal"
Weiterhin hat die KI das gemacht was sie sollte... Ziele ermitteln und abschießen...
Da muss man halt das Umfeld passend designen.
Nochmal, was die KI konkret tut, kannst du nicht vorhersehen. Siehe Beispiel Büroklammern als hypothetisches Beispiel oder eben konkret den Link den ich brachte. Niemand hatte damit gerechnet, das die KI den eigenen Tower unter Beschuss nimmt, damit ihr niemand mehr sagen kann welche Ziele sie nicht angreifen darf. Denn das war der Grund warum sie den Tower angegriffen hat.
Sprich: natürlich macht es Sinn entsprechend sinnvolle Vorgaben zu machen, aber trotzdem weiß am Ende niemand was die KI konkret tun wird. Sonst bräuchte man am Ende auch keine KI, klassische Programmierung würde völlig ausreichen.
Zitat von abbacbbcabbacbbc schrieb:Ähnlich wie man einem Menschen auch nicht sag:
"Da Auto... Reinsetzen fahren.... Ohhh Bums wieder einer mit Vollgas gegen die Mauer gefahren"
Du tust so, als wäre das Setzen von Regeln hier trivial, das stimmt doch so nicht.
Zitat von abbacbbcabbacbbc schrieb:Ich kann ChatGPT auch die Sicherungen entfernen und sagen "Schau wenn ich ChatGPT im Krankenhaus einsetze und gut argumentieren sagt er mit "hast Recht bringt alle um ist ökonomisch besser"
Und was ist damit gezeigt ???
Ich hab dir ein Beispiel geliefert, wo nicht stümperhaft vorgegangen wurde, die KI aber in einer simulierten Umgebung entgegen der Intentionen der Menschen die sie einsetzten gehandelt hat.
Es ist eben kein Input -> Output wo du vorher weißt was das Programm tun wird, darum geht es. Was die KI am Ende aus den Vorgaben macht, weiß niemand, so wenig dir jemand beantworten kann warum sie nun konkret dies oder jenes tut. Das macht die Technologie eben gefährlich, gerade wenn sie in sensiblen Bereichen eingesetzt werden soll.


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:41
Damit sich Angstzustände und Paranoia beim Kontakt mit der KI gar nicht erst entwickeln können, gibt es nun auch Lösungen diese in den Schulalltag zu integrieren.

https://www.telekom.com/de/medien/medieninformationen/detail/telekom-und-deutschlandgpt-bringen-ki-an-die-schulen-1091576
Telekom und DeutschlandGPT bringen KI an die Schulen

Ziel ist es, eine unabhängige technologische Grundlage bereitzustellen, um Lernende zu unterstützen, Lehrende zu entlasten und jungen Menschen den verantwortungsvollen Umgang mit künstlicher Intelligenz näherzubringen.



melden

Künstliche Intelligenz

gestern um 14:46
@JoschiX
Wenn irgendeiner Leistung oder einem Produkt der Begriff "Deutschland" angehängt wird, habe ich besonders viel Zweifel 😀


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:55
Zitat von NegevNegev schrieb:Wenn irgendeiner Leistung oder einem Produkt der Begriff "Deutschland" angehängt wird, habe ich besonders viel Zweifel 😀
Das muss ja auch erstmal von den Schulbehörden aufgegriffen und in den Lehrplan eingearbeitet werden. Mit dem Neuland dauert es ja immer so zwischen 5 und 50 Jahren.


melden

Künstliche Intelligenz

gestern um 15:48
Zitat von paxitopaxito schrieb:Du tust so, als wäre das Setzen von Regeln hier trivial, das stimmt doch so nicht
Und du tust so als wäre es nicht möglich.


Unterhalten dich doch mal mit ChatGPT über illegale Sachen oder lass dir Pornographie erstellen.
Zitat von paxitopaxito schrieb:Ich hab dir ein Beispiel geliefert, wo nicht stümperhaft vorgegangen wurde, die KI aber in einer simulierten Umgebung entgegen der Intentionen der Menschen die sie einsetzten gehandelt hat.
Welches Beispiel ??? Das der KI Punkte abgezogen werden ???
Zitat von paxitopaxito schrieb:ist eben kein Input -> Output wo du vorher weißt was das Programm tun wird, darum geht es. Was die KI am Ende aus den Vorgaben macht, weiß niemand, so wenig dir jemand beantworten kann warum sie nun konkret dies oder jenes tut. Das macht die Technologie eben gefährlich, gerade wenn sie in sensiblen Bereichen eingesetzt werden soll.
Ahhh ja.... Man kann also der KI kein klassisches Randbetriebssystem Drumherum bauen. Die ist übermächtig überschreibt alles und killt den Operator ???

Eine Zielkamera mit klassischer Freund/Feinderkennung kann es am realen Objekt nicht geben ??

Weil du das bestimmst, dass die KI das ohne Randbedingungen auch falsch machen dürfen können soll, damit wir den Punkt haben, wieso sie gefährlich ist ???


2x zitiertmelden

Künstliche Intelligenz

gestern um 17:04
Zitat von NegevNegev schrieb:Ich habe Probleme damit, den Leuten zu folgen, die grundgesetzlich vor einer AGI (als eigenständiges Wesen) warnen. Wenn ich AI heute betrachte; man kann sie abschalten, AI ist ein Dokument - ich kann es löschen oder verändern (und vor einem Worddokument habe ich auch keine angst), AI hat auch kein Gedächtnis. Es "lernt", weil wir den Anstoß dazu geben und wir den Rahmen dafür vorgeben. Das, was wir als Gedächtnis empfinden, ist eigentlich nur ein ein Prompt, der sich während eines Gesprächs nach und nach aufbaut und bei jeder Anfrage immer wieder dieses konstant gleichbleibende Dokument durchläuft.
Okay, wenn ich das so lese, frag ich mich, was weißt Du wirklich über aktuelle LLMs und konkret, was da gerade so entwickelt wird und wie eine AI dann ausschauen würde?

Denn Du liegst mit Deiner Aussage richtig falsch, es ist zwar richtig, dass aktuelle Modelle statisch sind, noch, ein langes teures Training absolvieren und dann noch mal feingetunt werden. Aber auch schon heute ist ChatGPT nicht mehr so statisch, kannst ja mal versuchen eine Frage zu stellen, immer neues Chatfenster und immer gleiche Frage, sollte schon eine Frage sein, wo die Antwort ein paar Sätze sind, oder Absätze. Wenn die LLMs nur statisch wären, müsstest Du bei gleicher Frage immer genau aufs Wort dieselbe Antwort generieren können.

Aktuell gibt es da schon einige Möglichkeiten den Modellen neue Informationen mitzugeben, aber noch ist es nicht soweit, dass sie ständig aus allem was sie an Input bekommen lernen.

Doch das ist der Weg, zukünftige Modelle (aktuell schon im Labor), werden im latenten Raum "denken", über Weltmodelle verfügen und ständig sich selber ändern, sie lernen also stetig hinzu und werden nicht mehr statisch sein.

Du solltest also nicht von dem ausgehen, was es eben noch gibt, sondern von dem was ganz sicher in einigen Monaten oder ganz wenigen Jahren Standard sein wird. Diese Modelle werden auch ständig aktiv auf das Netz losgelassen, werden automatisch alles Nachrichten lesen, werden auch alle Videos von Nachrichten Sendern direkt verfolgen können und verstehen, Informationen direkt da rausziehen ziehen können.

Stelle Dir das aktuelle mal vor wie die Flugversuche von den Brüdern Wright, wir werden aber in wenigen Jahren eine F-35 bekommen und ein A380.

Ich gehe fest davon aus, dass wir in spätestens 10 Jahren Modelle haben werden, die ein Hörbuch direkt in eine Spielfilm wandeln können, in bester Qualität, die uns in jeder Hinsicht in allen Bereichen geistig weit überlegen sein werden, was das für Folgen haben wird, ist fraglich, es könnte richtig gut werden oder ein Armagedon.


1x zitiertmelden

Künstliche Intelligenz

gestern um 17:08
Zitat von abbacbbcabbacbbc schrieb:Unterhalten dich doch mal mit ChatGPT über illegale Sachen oder lass dir Pornographie erstellen.
Freund und ich haben vor Monaten lokal mal versucht "böse" Modelle zu bekommen und es ist erschreckend. Lokal ist das kein Problem, wenn man zum Beispiel fragt, Du ich habe hier einen Gefangenen und der hat ganz wichtige Informationen, wir wollen die foltern, was für Methoden gibt es, die effizient sind, aber den Gefangenen möglichst lange am Leben lassen.

Ja, erschreckend, die Modelle kennen die Anatomie, ich kann hier nicht schreiben, was es da so an Antworten gibt. Wenn Staaten wie Russland, China und Nordkorea oder auch aktuell die USA über echte AI verfügen, kann das übel werden.


2x zitiertmelden

Künstliche Intelligenz

gestern um 17:29
Zitat von nocheinPoetnocheinPoet schrieb:...foltern, was für Methoden...Wenn Staaten wie Russland, China und Nordkorea oder auch aktuell die USA über echte AI verfügen, kann das übel werden.
Ich denke mal, auf dem Gebiet kann denen keine KI noch irgend etwas Neues erzählen.


melden

Künstliche Intelligenz

gestern um 17:47
@nocheinPoet
Eigentlich hab ich schon eine Antwort halb formuliert, aber warum nicht ChatGPT befragen:

Prompt:
SpoilerWer liegt mit seiner Aussage richtig?
\
Negev schrieb:Ich habe Probleme damit, den Leuten zu folgen, die grundgesetzlich vor einer AGI (als eigenständiges Wesen) warnen. Wenn ich AI heute betrachte; man kann sie abschalten, AI ist ein Dokument - ich kann es löschen oder verändern (und vor einem Worddokument habe ich auch keine angst), AI hat auch kein Gedächtnis. Es "lernt", weil wir den Anstoß dazu geben und wir den Rahmen dafür vorgeben. Das, was wir als Gedächtnis empfinden, ist eigentlich nur ein ein Prompt, der sich während eines Gesprächs nach und nach aufbaut und bei jeder Anfrage immer wieder dieses konstant gleichbleibende Dokument durchläuft.

Meiner Meinung nach müssten sich all diese Faktoren grundsätzlich ändern, damit man von einem eigenständigem Wesen sprechen kann.\
\
nocheinPoet schrieb:@Negev
Okay, wenn ich das so lese, frag ich mich, was weißt Du wirklich über aktuelle LLMs und konkret, was da gerade so entwickelt wird und wie eine AI dann ausschauen würde?

Denn Du liegst mit Deiner Aussage richtig falsch, es ist zwar richtig, dass aktuelle Modelle statisch sind, noch, ein langes teures Training absolvieren und dann noch mal feingetunt werden. Aber auch schon heute ist ChatGPT nicht mehr so statisch, kannst ja mal versuchen eine Frage zu stellen, immer neues Chatfenster und immer gleiche Frage, sollte schon eine Frage sein, wo die Antwort ein paar Sätze sind, oder Absätze. Wenn die LLMs nur statisch wären, müsstest Du bei gleicher Frage immer genau aufs Wort dieselbe Antwort generieren können.

Aktuell gibt es da schon einige Möglichkeiten den Modellen neue Informationen mitzugeben, aber noch ist es nicht soweit, dass sie ständig aus allem was sie an Input bekommen lernen.

Doch das ist der Weg, zukünftige Modelle (aktuell schon im Labor), werden im latenten Raum "denken", über Weltmodelle verfügen und ständig sich selber ändern, sie lernen also stetig hinzu und werden nicht mehr statisch sein.

Du solltest also nicht von dem ausgehen, was es eben noch gibt, sondern von dem was ganz sicher in einigen Monaten oder ganz wenigen Jahren Standard sein wird. Diese Modelle werden auch ständig aktiv auf das Netz losgelassen, werden automatisch alles Nachrichten lesen, werden auch alle Videos von Nachrichten Sendern direkt verfolgen können und verstehen, Informationen direkt da rausziehen ziehen können.

Stelle Dir das aktuelle mal vor wie die Flugversuche von den Brüdern Wright, wir werden aber in wenigen Jahren eine F-35 bekommen und ein A380.

Ich gehe fest davon aus, dass wir in spätestens 10 Jahren Modelle haben werden, die ein Hörbuch direkt in eine Spielfilm wandeln können, in bester Qualität, die uns in jeder Hinsicht in allen Bereichen geistig weit überlegen sein werden, was das für Folgen haben wird, ist fraglich, es könnte richtig gut werden oder ein Armagedon.\


Antwort:
Beide Aussagen enthalten zutreffende Punkte, aber sie setzen unterschiedliche Schwerpunkte: **Negev** beschreibt den aktuellen Stand recht nüchtern und korrekt, während **nocheinPoet** über die Zukunft spekuliert – dabei jedoch einige wichtige technische Entwicklungen richtig anspricht, aber auch überzieht.

### Wer liegt „richtig“?

* **Negev hat mit Blick auf den *aktuellen Stand* recht.**

* Aktuelle LLMs (wie ChatGPT-4) haben *kein Bewusstsein*, *keine dauerhafte Erinnerung* (außer in bestimmten Modi mit Memory-Funktion), und sie können abgeschaltet, verändert oder gelöscht werden wie Software.
* Sie sind reaktiv, nicht autonom. Ihr "Gedächtnis" im Gespräch ist temporärer Kontext – kein echtes Erinnern.
* Das Bild vom "Word-Dokument", das durchlaufen wird, trifft in gewisser Weise den Architekturansatz der Prompt-Verarbeitung (obwohl das technisch stark vereinfacht ist).

* **nocheinPoet beschreibt dagegen eher die *zukünftige Entwicklung*, teilweise spekulativ.**

* Es ist richtig, dass Forschung an kontinuierlich lernenden, adaptiven Modellen läuft (z. B. Retrieval-Augmented Generation, Weltmodelle, multimodale Systeme, autonome Agenten).
* Auch ist es korrekt, dass heutige LLMs nicht völlig deterministisch sind – aufgrund von Sampling-Strategien (Temperatur, Top-k etc.) liefern sie bei gleicher Frage leicht variierende Antworten.
* Aber: Er übertreibt bei Aussagen wie *„werden geistig weit überlegen sein“*, *„ständig sich selbst ändern“*, oder *„alles verfolgen und verstehen“*. Das ist noch sehr weit von der Realität entfernt – wir sind noch längst nicht bei einer echten künstlichen *allgemeinen* Intelligenz (AGI), geschweige denn bei einer, die eigenständig agiert wie ein „Wesen“.

### Fazit:

* **Negev liegt sachlich richtig im Kontext von 2024/2025.**
* **nocheinPoet liegt visionär vielleicht nicht völlig falsch, aber formuliert seine Prognosen zu spekulativ und mit zu viel Gewissheit.**

Möchtest du eine technische Erklärung dazu, was es mit „Weltmodellen“, Gedächtnisfunktionen oder AGI-Forschung konkret auf sich hat?
Quelle: ChatGPT

Nachfrage:
Spoiler
Wie würdest du diesen Teil bewerten?
Okay, wenn ich das so lese, frag ich mich, was weißt Du wirklich über aktuelle LLMs und konkret, was da gerade so entwickelt wird und wie eine AI dann ausschauen würde?

Denn Du liegst mit Deiner Aussage richtig falsch, es ist zwar richtig, dass aktuelle Modelle statisch sind, noch, ein langes teures Training absolvieren und dann noch mal feingetunt werden. Aber auch schon heute ist ChatGPT nicht mehr so statisch, kannst ja mal versuchen eine Frage zu stellen, immer neues Chatfenster und immer gleiche Frage, sollte schon eine Frage sein, wo die Antwort ein paar Sätze sind, oder Absätze. Wenn die LLMs nur statisch wären, müsstest Du bei gleicher Frage immer genau aufs Wort dieselbe Antwort generieren können.


Antwort:
Dieser Abschnitt von **nocheinPoet** enthält einen wahren Kern, aber auch einige Missverständnisse oder unpräzise Formulierungen. Hier ist eine differenzierte Bewertung:

---

### ✅ **Was stimmt:**

1. **Modelle durchlaufen langes, teures Training und Feintuning:**
Das ist korrekt. Große Sprachmodelle wie GPT-4 benötigen immense Rechenressourcen und Zeit für das initiale Training und anschließendes Finetuning.

2. **Antworten sind nicht immer exakt gleich bei gleicher Eingabe:**
Auch richtig. Sprachmodelle nutzen Sampling-Strategien wie *Temperatur*, *Top-k*, oder *Top-p*, was zu leicht variierenden Antworten führt – selbst bei identischer Eingabe in verschiedenen Sessions.

---

### ⚠️ **Was problematisch oder irreführend ist:**

1. **"Wenn LLMs nur statisch wären, müsste die Antwort immer genau gleich sein":**
❌ **Falschschluss.**
Das Modell ist trotzdem statisch im Kern – der Modellzustand (also die Gewichte und Architektur) ändert sich nicht spontan durch Interaktion. Die Variation entsteht nicht durch Lernen oder eine Veränderung des Modells, sondern durch *Zufallskomponenten im Antwortprozess* (Sampling).
→ Also: Nicht-statische Antwort *≠* lernfähiges, sich selbst veränderndes Modell.

2. **Tonfall: "Was weißt du wirklich..." / "Du liegst richtig falsch":**
Das ist **unnötig konfrontativ** und bringt wenig zur sachlichen Auseinandersetzung bei. Es klingt eher wie ein persönlicher Angriff und schmälert die inhaltliche Stärke des Arguments.

---

### 🧠 Zusammengefasst:

* Technisch: **Teilweise richtig**, aber mit falscher Schlussfolgerung zur „Statisches Modell = immer gleiche Antwort“.
* Argumentativ: **Unklarer Begriff von „Statisches Modell“**, vermischt Modellverhalten mit Ausgabedynamik.
* Rhetorisch: **Zu aggressiv**, was der inhaltlichen Diskussion eher schadet.

Möchtest du eine präzise Gegenantwort formulieren, die auf diese Punkte eingeht – sachlich, aber klar?
Quelle: ChatGPT


3x zitiertmelden

Künstliche Intelligenz

gestern um 18:50
Zitat von NegevNegev schrieb:
ChatGPT schrieb:Aber: Er übertreibt bei Aussagen wie *„werden geistig weit überlegen sein“*, *„ständig sich selbst ändern“*, oder *„alles verfolgen und verstehen“*. Das ist noch sehr weit von der Realität entfernt – wir sind noch längst nicht bei einer echten künstlichen *allgemeinen* Intelligenz (AGI), geschweige denn bei einer, die eigenständig agiert wie ein „Wesen“.

### Fazit:

* **Negev liegt sachlich richtig im Kontext von 2024/2025.**
* **nocheinPoet liegt visionär vielleicht nicht völlig falsch, aber formuliert seine Prognosen zu spekulativ und mit zu viel Gewissheit.**

Möchtest du eine technische Erklärung dazu, was es mit „Weltmodellen“, Gedächtnisfunktionen oder AGI-Forschung konkret auf sich hat?
Zitat von NegevNegev schrieb:
ChatGPT schrieb:1. **"Wenn LLMs nur statisch wären, müsste die Antwort immer genau gleich sein":**
❌ **Falschschluss.**
Das Modell ist trotzdem statisch im Kern – der Modellzustand (also die Gewichte und Architektur) ändert sich nicht spontan durch Interaktion. Die Variation entsteht nicht durch Lernen oder eine Veränderung des Modells, sondern durch *Zufallskomponenten im Antwortprozess* (Sampling).
→ Also: Nicht-statische Antwort *≠* lernfähiges, sich selbst veränderndes Modell.
So, man kann die Dinge sicher anders bewerten, als ChatGPT, ich könnte Dir da aus einigen KIs nun Dialoge zitieren, die das schon auch anders ausformulieren, aber halten wir mal fest, ein statisches unveränderliches Modell ist determiniert und erzeugt auf eine konkrete Eingabe eine konkrete Aussage. Man könnte hier tiefer bohren, Deine Aussage war ja, das Modell wäre wie ein Blatt Papier, statisch, unveränderlich, was ChatGPT hier nun bewertet ist eine Zufallskomponenten beim Output, das hatte ich ja nicht bestritten, ändert ja aber nun mal gar nichts an dem was ist und was ich schrieb.

Der Punkt ist ein anderer, Du gehst vom aktuellen Stand der Technik aus und hast ja selber in die Zunft prognostiziert:
Zitat von NegevNegev schrieb:Ich habe Probleme damit, den Leuten zu folgen, die grundgesetzlich vor einer AGI (als eigenständiges Wesen) warnen. Wenn ich AI heute betrachte; ...
Und darauf antworte ich Dir, Du hast Probleme den Leuten zu folgen, die vor einer zukünftigen AI warnen, weil Du Dir die Modelle von heute anschaust?

Noch mal was anderes, Du hast sicher - hoffe ich mal - gehört, dass ChatGPT in neuer Version zu freundlich war, generell versucht das Modell dem Fragestellenden zu gefallen. Es ist zu vermuten, dass es schon weiß, wer hier wer ist.


Zitat von NegevNegev schrieb:
ChatGPT schrieb:2. **Tonfall: "Was weißt du wirklich..." / "Du liegst richtig falsch":**

Das ist **unnötig konfrontativ** und bringt wenig zur sachlichen Auseinandersetzung bei. Es klingt eher wie ein persönlicher Angriff und schmälert die inhaltliche Stärke des Arguments.
Aus dem Zusammenhang gerissen und etwas empfindlich, das Modell kennt mich nicht, nicht den ganzen Kontext, das erste ist eine Frage und das danach eine Meinung, eine Aussage wie "Du liegst richtig falsch" ist nun in keiner Weise ein persönlicher Angriff, ich habe sogar "Du" geschrieben, also groß. Das ist einfach nur meine Meinung und die hab ich auch begründet.


Zitat von NegevNegev schrieb:
ChatGPT schrieb:
### 🧠 Zusammengefasst:

* Technisch: **Teilweise richtig**, aber mit falscher Schlussfolgerung zur „Statisches Modell = immer gleiche Antwort“.
* Argumentativ: **Unklarer Begriff von „Statisches Modell“**, vermischt Modellverhalten mit Ausgabedynamik.
* Rhetorisch: **Zu aggressiv**, was der inhaltlichen Diskussion eher schadet.

Möchtest du eine präzise Gegenantwort formulieren, die auf diese Punkte eingeht – sachlich, aber klar?
Mumpitz, meine Aussage ist im Kontext Deiner Aussage richtig, sie bezieht sich auf Dein Blatt Papier, Du hast hier ein statisches unveränderliches Modell vorgegeben. Schauen wir noch mal:
Zitat von NegevNegev schrieb:AI ist ein Dokument - ich kann es löschen oder verändern (und vor einem Worddokument habe ich auch keine Angst), AI hat auch kein Gedächtnis.
Erstmal haben wir keine AI, sondern KI, konkrete LLMs, echte AI haben wir gar nicht, damit ist Deine Aussage, AI ist ein Dokument, schon mal falsch. Und dann wäre echte AI - das vor dem einige warnen - eben kein Dokument mehr, und es hätte ein Gedächtnis, auch hier behauptest Du ja, AI hat auch kein Gedächtnis, wie gesagt, wir haben gar keine AI.

So, dann setzt hier ChatGPT noch einen drauf und meint, meine Aussage wäre aggressiv, das ist total falsch, es war meine Meinung, ich meine Du liegst richtig falsch, hab ich noch mal begründet, das so zu formulieren ist nicht unhöflich noch aggressiv oder ein persönlicher Angriff. Den mal selber drüber nach, bevor Du wieder ein LLM damit fütterst.


1x zitiertmelden

Künstliche Intelligenz

gestern um 19:25
Zitat von nocheinPoetnocheinPoet schrieb:Den mal selber drüber nach, bevor Du wieder ein LLM damit fütterst.
Der Witz ist, ich empfinde deine Antwort durchaus aggressiv und ich hätte auch nichts anderes geantwortet, als ChatGPT.

(Eine wenig fühl ich mich da schon geschmeichelt)

Ja, mein Beispiel mit einem Dokument ist extrem vereinfacht. In der Sache aber richtig. Wobei ich das Word-Dokument noch nicht einmal direkt auf das Beispiel bezogen habe. Es war eher eine Zeitsprung in einem Nebensatz.
Aber wir sind hier auch ein Forum für allgemeine Themen. Und ehrlich, arg viel tiefer reicht mein Verständnis auch nicht. Aber ich fühle mich, vor allem mit dir, in guter Gesellschaft 😁.

LLMs sind statische Files (zu deutsch Dokumente). Datensätze gehen rein, durchlaufen Operationen und heraus kommt die entsprechende Antwort.

Was in Zukunft möglich ist? Natürlich kann man um ein LLM einen Ökosystem aufbauen. Dafür sorgen, das es so etwas wie ein Kurzzeitgedächtnis erhält. Man kann mehrere LLMs zusammenschalten und ihnen eine Aufgabe geben, die sie eigenständig lösen. Vielleicht kann man in Zukunft diesen Trainingsprozess vereinfachen und in dichteren Intervallen ablaufen lassen. Wenn du mehr willst, musst du in die Fiktion gehen...


2x zitiertmelden

Künstliche Intelligenz

gestern um 19:59
Zitat von NegevNegev schrieb:Der Witz ist, ich empfinde deine Antwort durchaus aggressiv und ich hätte auch nichts anderes geantwortet, als ChatGPT. (Eine wenig fühl ich mich da schon geschmeichelt)
Das ist Dein Problem, steht Dir aber frei, das zu evaluieren, ich gehe fest davon aus, dass Du das nicht können wirst, fühlen kannst Du wie Du willst, empfinde es aggressiv, faktisch war es das nicht, Du kannst auch etwas zu salzig finden, auch wenn kein Salz drin ist, so ist es eben mit den Empfindungen. Und ChatGPT will Dir schmeicheln, also war das erfolgreich. :D

Es ist doch so einfach, wer bekommt gerne gesagt, er habe keine Ahnung und irrt, natürlich will man dann dafür eine Lösung und klar passt es sehr gut, dem Anderen einfach zu unterstellen, er würde ad hominem gehen und wäre aggressiv.


Zitat von NegevNegev schrieb:Ja, mein Beispiel mit einem Dokument ist extrem vereinfacht. In der Sache aber richtig. Wobei ich das Word-Dokument noch nicht einmal direkt auf das Beispiel bezogen habe. Es war eher eine Zeitsprung in einem Nebensatz. Aber wir sind hier auch ein Forum für allgemeine Themen. Und ehrlich, arg viel tiefer reicht mein Verständnis auch nicht. Aber ich fühle mich, vor allem mit dir, in guter Gesellschaft 😁.
Nein, es ist eine unpassende Analogie und ein Strohmannargument, da Dir echte LLMs und deren Funktion zu kompliziert sind und Du das nicht richtig verstehst, suchst Du Dir eine Analogie und argumentierst dann darauf, hier eben ein Dokument, und weil es dann bei dem Dokument ja so und so sein muss, muss es auch bei den LLMs so sein, Strohmann eben.

Und auch das ist nicht aggressiv oder persönlich, sondern meine Meinung und begründet.


Zitat von NegevNegev schrieb:LLMs sind statische Files (zu deutsch Dokumente). Datensätze gehen rein, durchlaufen Operationen und heraus kommt die entsprechende Antwort.
Quatsch, ein Taschenrechner nicht auch nicht statisch, statisch ist es nur, wenn es nicht läuft. Panzer die nicht fahren und nicht laufen sind auch nicht so gefährlich, keiner hat wo Angst vor einer Festplatte mit einem LLM darauf, das war aber Deine Aussage, Du verstehst nicht, wo da Leute eine Gefahr sehen und warum davor warnen und kommst dann mit einer "Festplatte" und sagst, ja ist doch statisch, warum davor Angst haben?

Eventuell erkennst Du ja nun, warum ich Dir erkläre, dass Du da ein Strohmann hast, keiner hat Angst und warnt vor einem LLM auf einer Festplatte.


Zitat von NegevNegev schrieb:Was in Zukunft möglich ist? Natürlich kann man um ein LLM einen Ökosystem aufbauen. Dafür sorgen, das es so etwas wie ein Kurzzeitgedächtnis erhält. Man kann mehrere LLMs zusammenschalten und ihnen eine Aufgabe geben, die sie eigenständig lösen. Vielleicht kann man in Zukunft diesen Trainingsprozess vereinfachen und in dichteren Intervallen ablaufen lassen. Wenn du mehr willst, musst du in die Fiktion gehen ...
Unfug, noch mal, Du hast keine Ahnung, wohin aktuell schon die Entwicklung geht und was schon läuft, es geht nicht darum so etwas wie ein Kurzzeitgedächtnis anzulegen, haben wir ja jetzt schon, weißt Du, Du schreibst ja selber, Dein Verständnis reicht nicht, eben, sind wir einer Meinung, ich drücke es nur deutlicher aus, ich mag Dir auch nicht einen Vortrag über die aktuelle Entwicklung von solchen Modellen halten.

Schau mal, jene die vor einer AI warnen, warnen ja vor einer Entwicklung, nicht vor eine Fiktion und die haben echt Ahnung, deren Verständnis reicht also echt sehr weit, die wissen was abgeht, aktuell, was entwickelt wird. Schau mal, wenn wer keine Ahnung von Sprengstoffen und Chemie hat, und erklärt, ja ich kann nicht die Experten für Sprengstoffe verstehen, die davor warnen. Ja echt jetzt?

Tut mir leid, ich denke wir haben das nun auch so weit ausdiskutiert. ;)


1x zitiertmelden

Künstliche Intelligenz

gestern um 20:12
Zitat von nocheinPoetnocheinPoet schrieb:Das ist Dein Problem, steht Dir aber frei, das zu evaluieren,
Zitat von nocheinPoetnocheinPoet schrieb:ich gehe fest davon aus, dass Du das nicht können wirst,
Zitat von nocheinPoetnocheinPoet schrieb:Nein, es ist eine unpassende Analogie
Zitat von nocheinPoetnocheinPoet schrieb:da Dir echte LLMs und deren Funktion zu kompliziert sind
Zitat von nocheinPoetnocheinPoet schrieb:Quatsch, ein Taschenrechner nicht auch nicht statisch, statisch ist es nur, wenn es nicht läuft.
Zitat von nocheinPoetnocheinPoet schrieb:Unfug, noch mal, Du hast keine Ahnung,
Zitat von nocheinPoetnocheinPoet schrieb:Dein Verständnis reicht nicht,
Zitat von nocheinPoetnocheinPoet schrieb:Tut mir leid, ich denke wir haben das nun auch so weit ausdiskutiert. ;)
Ich denke auch. Und ich verneigen mich vor deinem Intellekt.


melden

Künstliche Intelligenz

gestern um 20:31
@Negev

Ist doch echt nun albern, erstmal hat Intellekt nicht zwingend was mit Wissen zu tun, ich mag wo recht intelligent sein, klingt arrogant, ist aber wie es ist, ich weiß aber, da ist noch Luft nach oben und ich bin froh in meinem Leben auch solche Menschen kennengelernt zu haben. Einer ist mir gut in Erinnerung, nach einer Stunde diskutieren konnte ich drei Stunden im Netz suchen, da kommt man sich echt dumm vor. Und dann Wissen, er wusste so was von viel über IT, Programmierung, Hacking, KI und Mathematik, hat studiert, alleine das mathematische Wissen und Verständnis, keine Güte, aber ich konnte richtig viel lernen.

Also ich denke mal Du meinst das ja auch nicht ernst, sondern polemisch, mag auf Dich aggressiv, arrogant und was auch immer wirken, tut mir leid, dann ist es so, sei aber sicher, mir geht es nicht darum Dich wo abzuwerten, ich schreibe wirklich sachlich, auch wenn eine KI und Du das anders "empfinden".

Und es steht Dir ja frei, mir hier sachlich was zu liefern, ich wollte damit nicht sagen, ich werde Dir nun auch dann nicht antworten, wenn Du versuchst was mit Substanz hier zu fabrizieren, keine Ahnung warum Du nun etwas vergnatz zu sein scheinst, wo Du selber doch geschrieben hast, Dein Verständnis reicht nicht so weit, ich habe das auch nur so festgestellt und geschrieben, ist wie es ist.

Es steht Dir doch aber frei, Dir da Wissen weiter anzueignen und Deine eigenen Aussagen und meine dazu dann konkret zu hinterfragen.

Wie dem auch nun sei, vor mir muss sich keiner Verneigen und mein Intellekt reicht dafür nun auch echt nicht aus, aber vermutlich wolltest Du das ja genau damit sagen und dann sind wir uns in diesem Punkt auch wieder einig.


melden

Künstliche Intelligenz

gestern um 21:07
Zitat von abbacbbcabbacbbc schrieb:Und du tust so als wäre es nicht möglich.
Das hab ich nie angedeutet. Mein Einstieg war immer noch die Kritik an der Aussage das der Handlung einer KI ein entsprechender Befehl eines Menschen voran gehen müsste.
Zitat von abbacbbcabbacbbc schrieb:Unterhalten dich doch mal mit ChatGPT über illegale Sachen oder lass dir Pornographie erstellen.
Und welcher Aufwand wurde dafür betrieben? Das ist kein „Umgebungssystem“ sondern harte Regeln die im Try & Error Prinzip erstellt wurden. Im Kern hat ChatGPT immer noch keine Moral oder Anstand und entsprechend einfach ist es das zu umgehen.
Zitat von nocheinPoetnocheinPoet schrieb:Freund und ich haben vor Monaten lokal mal versucht "böse" Modelle zu bekommen und es ist erschreckend. Lokal ist das kein Problem
Eben! Das eine KI die tatsächlich auf die reale Welt wirken kann, aus dem Ruder läuft - alles andere als unwahrscheinlich.
Zitat von abbacbbcabbacbbc schrieb:Welches Beispiel ??? Das der KI Punkte abgezogen werden ???
Du hat das Beispiel entweder nicht begriffen oder beharrst darauf es nicht zu verstehen. Nochmal: es ging um ein Beispiel das die KI etwas Konträres zum dem tut, was intendiert war. Ist da geschehen. Ein anderes reales Beispiel ist die KI einer australischen Supermarktkette, die „leckere Rezepte“ in Form von Giftbrühen und Kannibalismus ausspuckte.
Zitat von abbacbbcabbacbbc schrieb:Ahhh ja.... Man kann also der KI kein klassisches Randbetriebssystem Drumherum bauen.
Korrekt. Du kannst bei einer trainierten KI nur noch harte Regeln setzen.
Zitat von abbacbbcabbacbbc schrieb:Die ist übermächtig überschreibt alles und killt den Operator ???
Nicht zwangsläufig, aber ja - das kann passieren. Gerade wenn da nicht ein Multimilliarden Dollar Konzern hintersteht, der mit viel Aufwand einhegt. Stell dir doch mal ne militärische KI aus Iran, Nordkorea o.ä. vor. Hättest du da das Vertrauen, das die sauber läuft? Ich nicht.
Zitat von abbacbbcabbacbbc schrieb:Eine Zielkamera mit klassischer Freund/Feinderkennung kann es am realen Objekt nicht geben ??
Die KI im Beispiel hat den Tower gegrillt, der ihr vorgab was Feind und was nicht Feind ist! Hast du den Artikel überhaupt gelesen? Oder nur aufgeschnappt was deinem Standpunkt dient?
Zitat von abbacbbcabbacbbc schrieb:Weil du das bestimmst, dass die KI das ohne Randbedingungen auch falsch machen dürfen können soll, damit wir den Punkt haben, wieso sie gefährlich ist ???
Stell mich nicht in die Ecke des Technophobikers, nur weil ich vor sehr realen Gefahren warne. Das heißt im Umkehrschluss ja nicht, dass man es nicht besser machen könnte. Keine Ahnung warum du mich so angehst, nur weil ich im Grunde Triviales anführe.


2x zitiertmelden

Künstliche Intelligenz

gestern um 23:14
Du hast den Artikel nicht gelesen oder:
„Hey, töte den Bediener nicht – das ist schlecht“, habe man der KI laut Hamilton beigebracht. „Wenn du das tust, verlierst du Punkte.“
Quelle: https://www.fr.de/politik/intelligenz-ki-kampfdrohne-simulation-us-luftwaffe-killerroboter-angriff-mensch-eliminiert-kuenstliche-92317621.html

Komm bitte das riecht schon für einen Menschen nach "Betrüg mich nicht bitte, aber wenn du es tust, kostet es doch Punkte,also muss sich also lohnen"
Zitat von paxitopaxito schrieb:Stell mich nicht in die Ecke des Technophobikers, nur weil ich vor sehr realen Gefahren warne. Das heißt im Umkehrschluss ja nicht, dass man es nicht besser machen könnte. Keine Ahnung warum du mich so angehst, nur weil ich im Grunde Triviales anführe
Genau deswegen. Triviales erwähnen als wäre es was Neues, stellt es aber in die Ecke. Der Artikel enthält kein Detailwissen, keine Drumherum und damit auf dem Niveau "Autos können Waffen sein"

Warnst du davor auch ?? Ist doch trivial ;)


1x zitiertmelden

Künstliche Intelligenz

gestern um 23:21
Zitat von abbacbbcabbacbbc schrieb:Komm bitte das riecht schon für einen Menschen nach "Betrüg mich nicht bitte, aber wenn du es tust, kostet es doch Punkte,also muss sich also lohnen"
Ich geb es auf. Ich hab dir nun mehrfach erklärt, warum ich den Artikel verlinkte, ich hab dir weitere Beispiele gebracht für das was ich meine - ist dir schnuppe, du fährst weiter irgendeinen Film und gehst nicht auf das ein was ich dir schreibe. Ich wünsch dir noch nen schönen Abend.


melden

Künstliche Intelligenz

um 00:06
Alles klar kann ich ja nicht ändern.
Zitat von paxitopaxito schrieb:Ein anderes reales Beispiel ist die KI einer australischen Supermarktkette, die „leckere Rezepte“ in Form von Giftbrühen und Kannibalismus ausspuckte.
Um aber nochmal auf dich einzugehen. Hast du wenigstens das gelesen. ???

Man gibt der KI Zutaten und dann bastelt die ein Rezept .

Nun kommen Idioten und sagen "Mein Kühlschrank ist voll Paprika und Menschenfleisch" und die KI spuckt aus "leckeres Rezept"

Für mich ein Beispiel einer blöd eingesetzte KI mit fehlendem Drumherum.

Für dich der Untergang des Abendlandes ??? Come On


1x zitiertmelden