Negev schrieb:Der Witz ist, ich empfinde deine Antwort durchaus aggressiv und ich hätte auch nichts anderes geantwortet, als ChatGPT. (Eine wenig fühl ich mich da schon geschmeichelt)
Das ist Dein Problem, steht Dir aber frei, das zu evaluieren, ich gehe fest davon aus, dass Du das nicht können wirst, fühlen kannst Du wie Du willst, empfinde es aggressiv, faktisch war es das nicht, Du kannst auch etwas zu salzig finden, auch wenn kein Salz drin ist, so ist es eben mit den Empfindungen. Und ChatGPT will Dir schmeicheln, also war das erfolgreich.
:DEs ist doch so einfach, wer bekommt gerne gesagt, er habe keine Ahnung und irrt, natürlich will man dann dafür eine Lösung und klar passt es sehr gut, dem Anderen einfach zu unterstellen, er würde ad hominem gehen und wäre aggressiv.
Negev schrieb:Ja, mein Beispiel mit einem Dokument ist extrem vereinfacht. In der Sache aber richtig. Wobei ich das Word-Dokument noch nicht einmal direkt auf das Beispiel bezogen habe. Es war eher eine Zeitsprung in einem Nebensatz. Aber wir sind hier auch ein Forum für allgemeine Themen. Und ehrlich, arg viel tiefer reicht mein Verständnis auch nicht. Aber ich fühle mich, vor allem mit dir, in guter Gesellschaft 😁.
Nein, es ist eine unpassende Analogie und ein Strohmannargument, da Dir echte LLMs und deren Funktion zu kompliziert sind und Du das nicht richtig verstehst, suchst Du Dir eine Analogie und argumentierst dann darauf, hier eben ein Dokument, und weil es dann bei dem Dokument ja so und so sein muss, muss es auch bei den LLMs so sein, Strohmann eben.
Und auch das ist nicht aggressiv oder persönlich, sondern meine Meinung und begründet.
Negev schrieb:LLMs sind statische Files (zu deutsch Dokumente). Datensätze gehen rein, durchlaufen Operationen und heraus kommt die entsprechende Antwort.
Quatsch, ein Taschenrechner nicht auch nicht statisch, statisch ist es nur, wenn es nicht läuft. Panzer die nicht fahren und nicht laufen sind auch nicht so gefährlich, keiner hat wo Angst vor einer Festplatte mit einem LLM darauf, das war aber Deine Aussage, Du verstehst nicht, wo da Leute eine Gefahr sehen und warum davor warnen und kommst dann mit einer "Festplatte" und sagst, ja ist doch statisch, warum davor Angst haben?
Eventuell erkennst Du ja nun, warum ich Dir erkläre, dass Du da ein Strohmann hast, keiner hat Angst und warnt vor einem LLM auf einer Festplatte.
Negev schrieb:Was in Zukunft möglich ist? Natürlich kann man um ein LLM einen Ökosystem aufbauen. Dafür sorgen, das es so etwas wie ein Kurzzeitgedächtnis erhält. Man kann mehrere LLMs zusammenschalten und ihnen eine Aufgabe geben, die sie eigenständig lösen. Vielleicht kann man in Zukunft diesen Trainingsprozess vereinfachen und in dichteren Intervallen ablaufen lassen. Wenn du mehr willst, musst du in die Fiktion gehen ...
Unfug, noch mal, Du hast keine Ahnung, wohin aktuell schon die Entwicklung geht und was schon läuft, es geht nicht darum so etwas wie ein Kurzzeitgedächtnis anzulegen, haben wir ja jetzt schon, weißt Du, Du schreibst ja selber, Dein Verständnis reicht nicht, eben, sind wir einer Meinung, ich drücke es nur deutlicher aus, ich mag Dir auch nicht einen Vortrag über die aktuelle Entwicklung von solchen Modellen halten.
Schau mal, jene die vor einer AI warnen, warnen ja vor einer Entwicklung, nicht vor eine Fiktion und die haben echt Ahnung, deren Verständnis reicht also echt sehr weit, die wissen was abgeht, aktuell, was entwickelt wird. Schau mal, wenn wer keine Ahnung von Sprengstoffen und Chemie hat, und erklärt, ja ich kann nicht die Experten für Sprengstoffe verstehen, die davor warnen. Ja echt jetzt?
Tut mir leid, ich denke wir haben das nun auch so weit ausdiskutiert.
;)