Künstliche Intelligenz
07.05.2025 um 09:55Ehm, das ist für dich "eingehen" auf jemand anderen? Ja, sicher, ich hab mir das nicht eben ausgedacht.abbacbbc schrieb:Um aber nochmal auf dich einzugehen. Hast du wenigstens das gelesen. ???
Okay, nochmal zu deinem "Drumherum", an diesem Beispiel.abbacbbc schrieb:Für mich ein Beispiel einer blöd eingesetzte KI mit fehlendem Drumherum.
Bei einem klassischen Programm wäre das in der Tat einfach - man begrenzt schlicht die Liste der möglichen Zutaten. Etwa mit den Artikeln der Lebensmittelsparte der Supermarktkette. Fertig.
Das funktioniert so bei einem LLM aber nicht. Dem Modell Grenzen zu setzen, damit es bei idiotischen Eingaben keine Horrorrezepte entwirft ist ungleich schwieriger.
Genau so wie es eben nicht ein paar Randbedingungen sind, die Chatgpt dazu veranlassen nicht toxisch oder creepy zu sein. Das waren ja lange Zeit große Probleme, teilweise kommt das immer noch vor. Der Aufwand um derartiges Verhalten wieder rauszubekommen sind enorm - und am Ende weißt du nie, ob es vollständig ist.
Im Grunde läuft das im Trial & Error Verfahren, sprich man lässt das LLM auf die Welt los, schaut wo es Mist baut und fixt das hinterher. Wohl gemerkt: da gehts um riesige Unternehmen die dafür überhaupt die Kapazitäten haben. Die Supermarktkette hatte diese Kapazitäten nicht und hat entsprechend die KI schlicht wieder abgeschaltet.
Womit wir eine Extrarunde drehen: Kann man derartiges Verhalten beheben? Ja, aber ohne Anspruch das man es vollständig geschafft hat. Es besteht immer die Möglichkeit, das die KI an irgendeiner Stelle "aus dem Rahmen fällt". Auch das kann man dann wieder fixen, sicher.
Es ist aber keine Frage von vorab ein paar "gut gewählte" Randbedingungen zu erstellen und dann passiert schon nix.
Nein, das ist wieder der technophobe Quatsch wo du mich hinstellen willst. Dabei hab ich nie irgendwas in die Richtung gesagt, auch wenn du fast schon zwanghaft diese Diskussion mit mir führen willst.abbacbbc schrieb:Für dich der Untergang des Abendlandes ??? Come On
Ich mache da schlicht auf bestimmten - ganz grundsätzliche - Probleme aufmerksam.
Unter anderem dass das Verhalten eben nicht vorhersagbar ist, man weiß vorher nicht genau, was die KI konkret tun wird (gleichzeitig ist das ja die Stärke der KI gegenüber einem konventionellem Programm). Das war auch das war auch der schlichte Einstiegspunkt von dem was ich schrieb, wenn du nochmal seitenweise zurück gehst.
Bei Chatbots die Rezepte erstellen ist das nun wenig dramatisch, entweder man fixt das Problem hinterher oder schaltet sie ab.
Ganz anders sieht das aber z.B. bei militärischen Anwendungen aus, sprich bei Drohnen die von einer KI gesteuert werden, egal wie lange man die in einer simulierten Umgebung testet, du kannst nie sicher sein das sie nicht an irgendeiner Stelle "abdrehen".
Gleichzeitig überwiegen die Vorteile einer so gesteuerten autonomen Drohne aber derart, dass wir mit genau sowas rechnen müssen.
Das ist kein "Untergang des Abendlandes", auch keine KI-Apokalypse, sondern schlicht Gefahren die ganz real bestehen und wo ich auch nicht sehe das deine Idee der Randbedingungen irgendwie das Problem lösen könnte. Man kann keine Regeln festlegen für ein Verhalten, das man nicht vorhersehen kann oder an das man schlichter überhaupt nicht gedacht hat.