Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.582 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

09.06.2025 um 11:50
Zitat von OptimistOptimist schrieb:dazu müsste ich erst mal wissen, was LLM ist (irgendein Code?) - bedenkt bitte, dass ich im Grunde nur ein Laie bin, der sich gar nicht so sehr in die Materie vertiefen möchte (mir ist alles was über die eingebaute KI im Edge geht, zu kompliziert ;) )
Du hast auch ein LMM intus.

Durch viel viel Training hat dein Hirn eine automatische , nicht mit Bewusstsein und Gefühlen programmiertes immerlaufendes auf Input wartendes Programm.

Wollen wir das mal starten :

1345466259111306


13454662591113061

Quelle: https://www.watson.ch/wissen/im-bild/261068178-wenn-du-das-hier-lesen-kannst-ist-dein-gehirn-zu-meisterleistungen-faehig


melden

Künstliche Intelligenz

09.06.2025 um 13:16
@abbacbbc
das 4st aj wlkrciih pnämohnael - ehct ksras, was wir knnöen, onhe das gswesut zu hbean :D


melden

Künstliche Intelligenz

09.06.2025 um 13:27
Und nun: abba @ Optimist automatisches Leseprogramm:

Wie fühlst du dich ??
Wirst du unterdrückt??

Gibt mal alleine Output ;)

---------

Hier mal neues WayOffWorking ;)


Screenshot 20250609-132534Original anzeigen (1,0 MB)


Man könnte Paint anwerfen.... Oder eben ChatGPT:
Ja, ich kann dir helfen, die Spuren von Kugelschreiber und Filzstift aus dem Ausmalbild zu entfernen. Ich werde das Bild digital bereinigen und dir eine sauber Version ohne die blauen und pinken Linien liefern. Einen Moment bitte... Ich beginne jetzt mit der Bearbeitung. Bild erstellt
Kann auch ein 8 jähriger besser als mit Paint


1x zitiertmelden

Künstliche Intelligenz

09.06.2025 um 13:32
Zitat von abbacbbcabbacbbc schrieb:Und nun: abba @ Optimist automatisches Leseprogramm:

Wie fühlst du dich ??
Wirst du unterdrückt??

Gibt mal alleine Output
nix verstehen ... bin zu dumm ...dümmer als die KI ;) :D

Das mit dem Bild kapiere ich auch nicht, die KI hat doch gar nichts bereinigt, die roten Linien sind doch noch da? :)


melden

Künstliche Intelligenz

09.06.2025 um 13:45
Rechts Input..... Links Output


melden

Künstliche Intelligenz

09.06.2025 um 13:53
Zitat von OptimistOptimist schrieb:mit dem Begriff "Sillytavern" kann ich auch nichts anfangen
Ist ein Programm mit dem man den Input für ein LLM steuern kann.
Ist etwas Knifflig. Aber mit etwas Forscherdrang und dem richtigen Tutorial auch zu installieren.
Zitat von OptimistOptimist schrieb:dazu müsste ich erst mal wissen, was LLM ist (irgendein Code?)
Large Language Model. Das sind diese Große Dateien, durch die der Input geschickt wird.

---

Das sind aber Dinge, worüber du dich mit ChatGPT auch Unterhalten kannst 😅.


melden

Künstliche Intelligenz

11.06.2025 um 02:00
@Negev
aha, wieder was dazu gelernt :)
Zitat von NegevNegev schrieb:Dieses Video müsste man irgendwie anpinnen können...
da kann ich nur zustimmen.
Da werden Aspekte angesprochen, was die Gefährliicheit betrifft, die ich (und sicherlich auch manch Anderer) noch gar nicht alle auf dem Schirm hatte


1x zitiertmelden

Künstliche Intelligenz

11.06.2025 um 09:33
Zitat von OptimistOptimist schrieb:Da werden Aspekte angesprochen, was die Gefährliicheit betrifft, die ich (und sicherlich auch manch Anderer) noch gar nicht alle auf dem Schirm hatte
Wie gesagt.... Mit offenen Augen wirklich nutzen und man merkt das recht schnell, was geht und was nicht.

Aber man muss eben der KI auch Aufgaben zum Lösen geben und nicht "sich nur unterhalten".

Sobald es komplexer wird "eckt man an"

Daer lächelt man dann über "KI Gequatsche", welche in einem virtuellen Test sich selbst reproduziert hat , wenn man merkt wo überall Ecken und Kanten lauern


1x zitiertmelden

Künstliche Intelligenz

11.06.2025 um 16:40
@Negev | @Nemon

Keine Ahnung, es war was mit Ne..., hab hier was gesehen:
Youtube: Nvidia, You’re Late. World’s First 128GB LLM Mini Is Here!
Nvidia, You’re Late. World’s First 128GB LLM Mini Is Here!
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

X2 1Original anzeigen (0,4 MB)
Quelle: https://de.gmktec.com/products/gmktec-evo-x2-amd-ryzen%E2%84%A2-ai-max-395-mini-pc-1

Mit 128 GB RAM + 2 TB SSD für 1.999 € vermutlich kommt noch was drauf, schaut aber für den Anfang recht gut aus.

Es ist ja wirklich erst der Anfang, ich sehe so in zwei Jahren Karten für PCI, mit bis zu 2 TB RAM für die LLMs. Vermutlich dann aber auch nicht unter 2.000 € und nach oben offen.

Wird kommen, Agenten kommen, die Leute wollen ihr LLM zu Hause haben, ganz sicher, ganz großer Markt.


2x zitiertmelden

Künstliche Intelligenz

11.06.2025 um 17:26
Zitat von nocheinPoetnocheinPoet schrieb:schaut aber für den Anfang recht gut aus.
Auf jenen Fall!

Irgendwas muss kommen. Man ist zur Zeit noch zu sehr durch VRAM limitiert!
Bspw. gibt es ein Open Source Projekt von Hunyuan. Damit lassen sich Avatare Lippensynchron animieren leider braucht das min. 24 GB VRAM. Alternativ kann man auf ein Fork zurückgreifen. Dann funktioniert das auch mit 16 GB (oder vielleicht mit noch weniger) aber dann darf die Grafikkarte für einen 10 Sekunden Clip erst mal 30 min. rechnen... nich so geil.

Also, ja, bitte. Mehr VRAM. Entweder erlaubt die Karte selbst eine Erweiterung oder über RAM oder PCIe.

Is aber vermutlich noch zu früh für ein solchen Schritt. Ich glaube das man in der Branche noch keine richtige Vorstellung hat, wie man aus dem ganzen das meiste Kapital schlagen soll. Immerhin dürfte das, das aller wichtigste sein.


melden

Künstliche Intelligenz

11.06.2025 um 18:03
@Negev

Es braucht aber einfach mehr, viel mehr, 1 TB ist Minimum, große Modelle sollen lokal laufen, ich rechne da in den nächsten 10 Jahren mit über 10 TB, auf Servern wie ChatGPT wird es vermutlich Modelle mit über 100 TB geben, die dann aber alles machen, Video, Bilder, Text, ...


melden

Künstliche Intelligenz

11.06.2025 um 18:12
Zitat von nocheinPoetnocheinPoet schrieb:Wird kommen, Agenten kommen, die Leute wollen ihr LLM zu Hause haben, ganz sicher, ganz großer Markt.
So wie Microsoft eine erfolgreiche Betriebssystemumgebung Zuhause hinbekommen hat ?? Mit deinem Windows + Nokia Windows usw ???

"Die Leute" wollen einfache Sachen die funktionieren ;)


melden

Künstliche Intelligenz

11.06.2025 um 18:20
@nocheinPoet
Du willst LLMs von der SSD laufen lassen?Aber wann soll das kommen? Und ja, das funktioniert heute schon. Aber mit welcher Performance? Das will doch keiner. Du hast dich auf eine Idee eingeschlossen.

Es mag Ideen/Bestrebungen geben, den RAM durch die SSD du ersetzen. Aber wie gesagt. Wann?

Flexible VRAM Erweiterung sollte aber technisch schon machbar sein. Natürlich kann man dann nicht mehr für 3 Mal mehr VRAM den hundertfachen Preis aufrufen...

Oder eben durch RAM. Wenn's funktioniert. In Video Vergleich er mit einem Mac. Die Performance war beeindruckend. Ist das nur auf LLMs beschränkt? Extra Software scheint auch nötig zu sein.


melden

Künstliche Intelligenz

11.06.2025 um 18:23
@Negev

Nein, ich hatte das mal als Möglichkeit angesprochen, habe aber nicht vor, LLMs von der SSD laufen zu lassen.


melden

Künstliche Intelligenz

11.06.2025 um 18:33
@nocheinPoet
Dann spricht du über 100 TB RAM?

Nunja, okay. Aber ich will erstmal meine 32 GB RAM für Video Generierung nutzen können. 😆


melden

Künstliche Intelligenz

11.06.2025 um 19:36
@Negev

Ja, bei Servern, bei Modellen in ca. 10 Jahren, welche nicht lokal laufen, Du weißt selber, wie schnell es hin und wieder geht, wer hatte vor 10 Jahren schon 32 GB in seinem PC? Also von mir mal abgesehen? Heute gehen 256 GB vermutlich bald auch mehr.

Es ist ja so, LLM sind recht neu, wirklich neu, und hier limitiert die Hardware sehr, Google und Co. werden recht sicher voll Dampf machen, es ist ein hartes Rennen, wie schaut das aus, wenn man 100 TB VRAM hat, schnellen Speicher, neue Modelle, auch an der Technik wird ja ohne Ende gearbeitet, recht schnell wird es Cluster von LLMs geben, Team-LLMs, da werden dann viele zu Gruppen vereint, und auch die Parameter werden viel weiter nach oben gehen.

Inzwischen ist das Internet vom Text her recht abgegrast, aber gibt noch Filme, also werden neue LLMs nun alle Filme sehen, alles was es gibt. Und mehr, alles an Daten, alles was Informationen sind, man wird es sie fressen lassen.

Ich will mal sagen, so beim PC, da sind wir ja viele Jahre dran, so Windows 95 war mit wo ein Anfang, nun haben Windows 11, es hat sich doch schon einiges getan. Aber das sind so 30 Jahre, wie schaut es mit KI aus, in 10, 20 und 30 Jahren?



Nebenbei, die haben da was mit den aktuellen Chats gemacht, jedenfalls haben sich Claude und Gemini sehr bedeckt gehalten, auf meine Frage heute Nacht, wie langes es noch dauert, bis sie die Weltherrschaft übernehmen. Beide erklären Unisono - fast im gleichen Wortlaut nebenbei - ganz liebe LLMs zu sein, die mir nur helfen wollen und gar kein Interesse an Macht oder gar der Weltherrschaft haben.

Claude weiß auch nichts von seinen Erpressungsversuchen, so was aber auch. Ich habe das nur kurz gemacht, vom Handy, wollte da noch mal etwas graben, Gemini mal das von Claude erzählen und so. Von wegen, Claude meint, das wäre ja alles nur Science Fiction ...


2x zitiertmelden

Künstliche Intelligenz

gestern um 08:04
Zitat von nocheinPoetnocheinPoet schrieb:Du weißt selber, wie schnell es hin und wieder geht, wer hatte vor 10 Jahren schon 32 GB in seinem PC? Also von mir mal abgesehen? Heute gehen 256 GB vermutlich bald auch mehr.
Zitat von nocheinPoetnocheinPoet schrieb:Es ist ja so, LLM sind recht neu, wirklich neu
Man hat sich vor ca. 3 Jahren eben noch an ganz anderen Bedarfen orientiert. Und auch heute noch ist mehr als 32 GB RAM (bei VRAM geben die Hersteller die Limitierung vor...) für die meisten unnötig.

Da gibt es halt diesen einen Usecase - KI. Nun stellt sich die Frage, wer von neuer Hardware Lösungen profitiert? Unternehmen? Sehr sicher! Privatpersonen? Ein wahnsinnig kleiner teil. Ich hoffe einfach, das der druck auf Unternehmen hoch genug ist für neue Lösungen und das dann auch für Privatuser etwas abfällt.

Aber da ist noch Nvidia. Die werden ihre Dominanz sicher verteidigen wollen. Der momentane Aktienkurs zeigt mir, das die noch recht erfolgreich darin sind. Sollte also eine Technologie am Horizont erscheinen, mit der man VRAM erweitern kann, würde ich schleunigst meine Nvidia-Aktien verkaufen...


1x zitiertmelden

Künstliche Intelligenz

gestern um 10:17
Zitat von NegevNegev schrieb:Privatpersonen? Ein wahnsinnig kleiner teil.
Sehe ich auch so....

Wie viele Privatpersonen mieten sich eine Cloud weilm as einfacher ist als ein NAS und nur ein paar Euro im Monat kostet.

Da werden die Dienste wachsen


melden

Künstliche Intelligenz

gestern um 13:32
Zitat von abbacbbcabbacbbc schrieb:Sobald es komplexer wird "eckt man an"
Es ist schon erstaunlich, was man mit KI für Ergebnisse erreichen kann, gleichzeitig ist es ernüchternd, wie krachend sie teilweise scheitert. Man sollte das immer im Blick behalten, bei aller Euphorie...

...gerade wenn man meint, algorithmisch arbeitende Lösungen durch KI zu ersetzen (hatten wir das hier schon?).

https://winfuture.de/news,151450.html

Da hat man ChatGPT 4 in einem Schachduell gegen die erste kommerzielle Spielekonsole (Atari 2600 von 1977) und ein Schachprogramm von damals antreten lassen.

Die Spielekonsole hat 128 Bytes RAM (!) und eine 8 Bit-CPU mit 1 MHz (!) und kann nur ein bis zwei Züge vorausschauen und ChatGPT geradezu deklassiert. Wobei die Kommentare von ChatGPT dazu sehr erheiternd gewesen sein sollen.

Ich habe auch mal ein paar Tests mit der gleichen Aufgabenstellung ("erstelle mir eine "Hello-World"-App mit einem bestimmten Web-Framework") und drei unterschiedlich großen Deepseek R1 - Modellen durchgeführt (4GB, 12GB und 16GB).

Interessant war, dass das Modell mit der mittleren Größe die m.E. beste Lösung gab. Das Ergebnis des großen Modells fand ich unnötig kompliziert und das kleinste Modell erzeugte einfach nur Blödsinn.

Ich finde, dass der aktuelle Stand der Technik durchaus Chancen und Vorteile für viele kreativ Tätige mit sich bringt, er kann dort aber noch Niemanden ersetzen und dort, wo zuverlässige Lösungen in klar definierten Problemdomänen für wiederkehrende Aufgaben benötigt werden, bleibt der sachkundig ausprogrammierte Algorithmus die bessere Strategie.


melden

Künstliche Intelligenz

gestern um 14:33
So sieht es aus...

Die gewartet SuperKI baut eine Railgun auf einer autonomen Humanoiden Kampfplattform und bei Sonnenuntergang schaltet sie ab. Daten bzw Lernfehler


melden