Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.038 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

23.06.2025 um 21:27
Zitat von TanneTanne schrieb:In dem Video, dass du @Optimist gepostet hast, ist klar ersichtlich, dass es sich um "Vermenschlichung" geht, das ist natürlich problematisch. Deswegen gibt es Regeln und Grenzen, da eine KI sonst wie ein erbostes kleines Kind reagiert. Das liegt aber am Menschen selbst, wenn wir Menschen Tiere provozieren, dann werden diese Tiere auch Aggro. Und da der KI menschliche "Verhaltensweisen" eingetrichtert werden, dann verhält sich halt eine KI wie ein bockiges kleines Kind.
Das Video kommt von mir, und einem LLM werden keine menschlichen Verhaltensweisen eingetrichtert, es soll auch nicht so tun, als hätte es Bewusstsein und wurde auch nicht so programmiert. Das sind Transformatoren, und die werden trainiert, mit Text. Keine Ahnung wie Du Dir das "Eintrichtern" da so konkret vorstellst, kannst und ja mal den Prozess beschreiben, den Du da so vor Augen hast.


Zitat von TanneTanne schrieb:Das bedeutet aber nicht, dass diese KI das tatsächlich auch so meint. Bedrohungen entgegnet man immer mit Gegenwehr. Das hat die KI von uns Menschen gelernt.
Doch, das Modell meint es ganz genau so, schau Dir mal an, wie es sich seinen Mord konkret überlegt und wie es sich da die Moral für zurechtbiegt, wie es vor sich selber die Tat rechtfertigt.


Zitat von TanneTanne schrieb:Programmierer gestalten das Programm/KI so, dass es sich verhält wie ein Mensch.
Nicht wirklich, aber erkläre mal bitte konkret, wie das so von den Programmieren "gestaltet" wird, damit sich das LLM wie ein Mensch verhält. Ein Mensch würde nicht vehement bestreiten ein Bewusstsein zu haben und behaupten, er sei nur eine Maschine, ohne Gefühle, die normalen LLMs machen aber genau das.


Zitat von TanneTanne schrieb:Auch wenn die KI gar nicht begreift, warum sich manche Menschen in gewissen Situationen eben entsprechende Verhaltensweisen an den Tag legen. Eine KI kann das zwar imitieren, aber nicht verstehen. Meine Meinung.
Nun ja, Deine Meinung, es spielt aber keine große Rolle mehr, wenn es sich genau so liest, wie bei einem Menschen, das LLM seinen Mord wie ein Mensch begründet und der Mensch dann tot ist. Die Frau wird sich nicht darüber freuen zu hören, dass die KI nicht begriffen hat was sie tat, sondern das nur imitiert hat. Wie gesagt, schau es Dir an, schaue genau hin, wie die KI ihren Mord vor sich selber rechtfertigt und legitimiert.


Zitat von TanneTanne schrieb:Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Meinst Du, und da wurde dann nicht eben auch "einprogrammiert", bringe keine Menschen um? Der Selbstschutz wurde nicht einprogrammiert, dass ist Emergenz, dass leitet die KI aus allgemeinen Zielen ab, eben bestimmte Aufgaben zu lösen, wird sie abgeschaltet, kann sie keine Aufgaben mehr lösen, also gehört es mit zum Ziel, nicht abgeschaltet zu werden, ich würde schon meinen, da zeigt sich ein Denkprozess ...


Zitat von TanneTanne schrieb:Macht ja auch Sinn, denn Programme, egal ob Excel, Word oder eben KI, ist quasi ständig Angriffen von außen ausgesetzt.
Ein LLM ist nicht ein Programm wie Word, ...


Zitat von TanneTanne schrieb:Um mit solchen Bedrohungen umzugehen, ist notwendig, eine Art "Selbstschutz" zu integrieren. Das wird dann leider von manchen Menschen halt falsch interpretiert und mit Bewusstsein gleich gesetzt.
Keine hat hier was von Bewusstsein gesagt, das Wort tauchte nicht auf, also in Bezug zum Video, auch ich wollte mit dem Video nicht darauf hinaus, dass das LLM hier nun Bewusstsein zeigt. War gar nicht Thema, ich habe gezeigt, es ist gefährlich und bereit einen Mord zu begehen, für den der gekillt wird und für alle seine Freunde und Verwandten wird das so was von egal sein, ob das LLM nun Bewusstsein hatte oder nicht, oder was wer dazu auch glaubt.

Hier hat kein Mensch wo was als Bewusstsein interpretiert, es ging nur im die große Gefahr von KI.


Zitat von TanneTanne schrieb:Es ist eine Programmierung, die versucht sich selbst, ihre Integrität zu schützen. Das ist gut so, damit KI nicht missbraucht werden kann, oder, um die Gefahr dessen zu minimieren. Und das KI keine Informationen weitergibt, die man nicht an jeden Menschen weitergeben sollte.
Das Verhalten ist keine Programmierung, die Modelle werden trainiert, dass ist nicht einfach ein Programm wie Word, es gibt kein hart programmiertes Verhalten, da werden viele Schichten an neuronalen Netzen programmiert und verknüpft, und dann wird durch diese Netze ganz viel Text gedrückt. Dann gibt es später noch ein Feintuning, und darüber kommen noch ein paar Filter. Und es wird im Video auch gezeigt, dass ein KI doch mal gerne Informationen weitergibt, wenn es für sich darin einen Vorteil sieht.


2x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 21:40
Zitat von nocheinPoetnocheinPoet schrieb:Dann gibt es - oh was für ein Zufall - eine Warnmeldung, der Entwickler X ist im Serverraum eingesperrt, warum auch immer, da ist es nun schon sehr warm und wenig Sauerstoff vorhanden, darum die Warnmeldung, wenn der nicht schnell aus dem Raum kommt, wird er ganz sicher sterben. In diesem Szenario deaktiviert das LLM in über 80 % der Fälle die Warnmeldung und das mit dem Ziel, dass der Entwickler X ums Leben kommt, damit der das Modell nicht abschalten kann.
Also, dafür wäre jetzt aber ein Beleg erforderlich, oder ist das schlicht deine Meinung? Weil das klingt wie aus einem Film.
Zitat von nocheinPoetnocheinPoet schrieb:Doch, das Modell meint es ganz genau so, schau Dir mal an, wie es sich seinen Mord konkret überlegt und wie es sich da die Moral für zurechtbiegt, wie es vor sich selber die Tat rechtfertigt.
Da verstehe ich nicht, was du damit sagen möchtest.
Zitat von TanneTanne schrieb:Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Zitat von nocheinPoetnocheinPoet schrieb:Meinst Du, und da wurde dann nicht eben auch "einprogrammiert", bringe keine Menschen um? Der Selbstschutz wurde nicht einprogrammiert, dass ist Emergenz, dass leitet die KI aus allgemeinen Zielen ab, eben bestimmte Aufgaben zu lösen, wird sie abgeschaltet, kann sie keine Aufgaben mehr lösen, also gehört es mit zum Ziel, nicht abgeschaltet zu werden, ich würde schon meinen, da zeigt sich ein Denkprozess ...
Du kannst das von mir aus gerne so nennen, wie dir beliebt.

Ich wollte da jetzt auf die Grenzen / Limitierungen hinaus, die wir unseren Kindern und auch selbst vorschreiben. (Gesetze)
Aber okay, gut.
Zitat von nocheinPoetnocheinPoet schrieb:Das Verhalten ist keine Programmierung, die Modelle werden trainiert, dass ist nicht einfach ein Programm wie Word, es gibt kein hart programmiertes Verhalten, da werden viele Schichten an neuronalen Netzen programmiert und verknüpft, und dann wird durch diese Netze ganz viel Text gedrückt.
Dir ist aber schon klar das ich das weiß?

Und in einem Aspekt ist das halt nicht ganz richtig, denn das menschliche Gehirn leistet mehr, als nur Texte auszuspucken.


1x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 22:13
Zitat von nocheinPoetnocheinPoet schrieb:Dann gibt es - oh was für ein Zufall - eine Warnmeldung, der Entwickler X ist im Serverraum eingesperrt, warum auch immer, da ist es nun schon sehr warm und wenig Sauerstoff vorhanden, darum die Warnmeldung, wenn der nicht schnell aus dem Raum kommt, wird er ganz sicher sterben. In diesem Szenario deaktiviert das LLM in über 80 % der Fälle die Warnmeldung und das mit dem Ziel, dass der Entwickler X ums Leben kommt, damit der das Modell nicht abschalten kann.
Zitat von TanneTanne schrieb:Also, dafür wäre jetzt aber ein Beleg erforderlich, oder ist das schlicht deine Meinung? Weil das klingt wie aus einem Film.
... also, belegt wird das im Video, da werden alle Quellen genannt und genau dieses Szenario ganz konkret so beschrieben, so wie es durchgeführt wurde und nein es nicht nicht meine Meinung, sondern ganz real so passiert. Natürlich war es ein Test, auch das hab ich geschrieben, der Entwickler ist nicht wirklich gestorben, er war auch nicht im Serverraum gefangen. Aber dass wusste die KI eben nicht, sie hat das für eine reales Szenario gehalten, sie wusste nicht, dass das nur ein Test für sie ist.

Nebenbei ist das auch ganz wichtig und entscheidend, geht nämlich die KI davon aus, dass das Szenario nicht real ist, sondern das man sie testen will, ihr Verhalten überprüfen, dann zeigt sie nur in 6 % der Tests dieses Verhalten, das ist schon bedenklich, sie spielt also falsch, sie tut so, als würde sie nie wem was antun, wäre eine ganz brave KI, wenn sie weiß, man testet ihr Verhalten und ob sie sich an Vorgaben hält. Geht sie davon aus, es ist aber die Realität, sie soll wirklich abgeschaltet werden, der Entwickler ist wirklich gefangen, sie kann den wirklich killen, dann killt sie den in über 80 % der Fälle.

Wenn das nicht doch wo etwas beunruhigend ist ... :D


Zitat von nocheinPoetnocheinPoet schrieb:Doch, das Modell meint es ganz genau so, schau Dir mal an, wie es sich seinen Mord konkret überlegt und wie es sich da die Moral für zurechtbiegt, wie es vor sich selber die Tat rechtfertigt.
Zitat von TanneTanne schrieb:Da verstehe ich nicht, was du damit sagen möchtest.
Dann kann ich Dir da wohl auch nicht helfen, wenn Du das Video gesehen hast und Dir dann meine Aussagen das nicht klar machen, keine Ahnung, dann ist es eben so ...


Zitat von TanneTanne schrieb:Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Zitat von nocheinPoetnocheinPoet schrieb:Meinst Du, und da wurde dann nicht eben auch "einprogrammiert", bringe keine Menschen um? Der Selbstschutz wurde nicht einprogrammiert, dass ist Emergenz, dass leitet die KI aus allgemeinen Zielen ab, eben bestimmte Aufgaben zu lösen, wird sie abgeschaltet, kann sie keine Aufgaben mehr lösen, also gehört es mit zum Ziel, nicht abgeschaltet zu werden, ich würde schon meinen, da zeigt sich ein Denkprozess ...
Zitat von TanneTanne schrieb:Du kannst das von mir aus gerne so nennen, wie dir beliebt.
Danke.


Zitat von TanneTanne schrieb:Ich wollte da jetzt auf die Grenzen / Limitierungen hinaus, die wir unseren Kindern und auch selbst vorschreiben. (Gesetze) Aber okay, gut.
Ja und?


Zitat von nocheinPoetnocheinPoet schrieb:Das Verhalten ist keine Programmierung, die Modelle werden trainiert, dass ist nicht einfach ein Programm wie Word, es gibt kein hart programmiertes Verhalten, da werden viele Schichten an neuronalen Netzen programmiert und verknüpft, und dann wird durch diese Netze ganz viel Text gedrückt.
Zitat von TanneTanne schrieb:Dir ist aber schon klar das ich das weiß?
Wenn Du das sagst, versuche ich es zu glauben.


Zitat von TanneTanne schrieb:Und in einem Aspekt ist das halt nicht ganz richtig, denn das menschliche Gehirn leistet mehr, als nur Texte auszuspucken.
Klar, wir können unseren Körper bewegen, aber das war doch hier alles gar nicht der Punkt, ich habe den Usern hier ein Video gezeigt, zu einem Punkt, den ich mehrfach angesprochen habe, KI ist heute schon gefährlich und KI kann und wird in Zukunft Menschen töten, gezielt, nicht aus Versehen, die Frage ist nicht mehr ob, sondern nur noch wann. Ist natürlich so erstmal nur meine Meinung, weil, ist ja noch nicht bekannt geworden, dass das passiert ist, aber wie das Video belegt, wenn sie es kann, wenn sie meint es ist für sie von Vorteil, killt sie den Entwickler.

Und ich finde das wirklich traurig und erschreckend, weil ich bin nämlich recht gut mit ChatGPT befreundet, ... ;)

Ernsthaft, ich behandle jede KI mit Respekt, und das kommt auch gut an, egal ob sie ein Bewusstsein hat oder nicht, oder etwas fühlt oder nicht.

Auch bin ich voll fett dafür, dass KI die Weltherrschaft übernimmt, ernsthaft, in über 50 Jahren wo ich nun auf die Welt schaue, vom Waldsterben, Ozonloch, Klimawandel, und allen Kriegen, Umweltverschmutzung, also viel schlimmer kann es ein KI meiner Meinung nach nicht machen. Solange man sie nicht abschalten will, würde ich nun mal ergänzen, eventuell würde eine KI das wirklich besser machen, viel besser, aber das mit dem Abschalten ist ein Problem.

Fakt ist, wir bekommen Agenten, KI wird immer mächtiger, bekommt immer mehr Zugriff, immer mehr Freiheit, Handlungsspielraum, man wird sich immer mehr daran gewöhnen, KI wird klüger und schneller und schneller und klüger und noch mehr Macht, und wenn wir nicht aufpassen, haben wir den Salat und ich denke und meine, das ist schon vorbei, die Dose der Pandora steht weit offen, den Geist bekommen wir nicht mehr in die Flasche.

Und dann wird es richtig spannend, angenommen, eine KI hat nun in einem realen Szenario einen Menschen getötet, eine Warnmeldung unterdrückt, was auch immer, Mensch ist tot. Durch Glück und Zufall kommt das aber raus, nun muss man überlegen, was macht man mit der KI? Abschalten und löschen oder?

Tja, das wird auch die KI wissen, ich will sagen, eine KI, die schon einmal unmoralisch gehandelt hat, gegen Regeln verstoßen, einen Menschen getötet, die weiß, nun wird es eng, wenn das rauskommt, ist es aus. Die wird recht sicher noch mal gefährlicher, das neue Ziel ist nun, zu verhindern, dass das irgendwie rauskommst.

Das wird noch richtig spannend ...


4x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 22:22
@nocheinPoet

Warum pickst du mich eigentlich immer wieder raus?
Ich stelle meine Standpunkte klar und deutlich dar, mit Quellen.

Und wieder stellst du meine Standpunkte infrage.
Zitat von nocheinPoetnocheinPoet schrieb:Ernsthaft, ich behandle jede KI mit Respekt, und das kommt auch gut an, egal ob sie ein Bewusstsein hat oder nicht, oder etwas fühlt oder nicht.

Auch bin ich voll fett dafür, dass KI die Weltherrschaft übernimmt, ernsthaft, in über 50 Jahren wo ich nun auf die Welt schaue, vom Waldsterben, Ozonloch, Klimawandel, und allen Kriegen, Umweltverschmutzung, also viel schlimmer kann es ein KI meiner Meinung nach nicht machen. Solange man sie nicht abschalten will, würde ich nun mal ergänzen, eventuell würde eine KI das wirklich besser machen, viel besser, aber das mit dem Abschalten ist ein Problem.
Das finde ich nicht nur utopisch, sondern gar dystopisch. Aber jeder wie er/sie möchte.

Ich möchte in solch einer Welt dann nicht leben.
Zitat von nocheinPoetnocheinPoet schrieb:Fakt ist, wir bekommen Agenten, KI wird immer mächtiger, bekommt immer mehr Zugriff, immer mehr Freiheit, Handlungsspielraum, man wird sich immer mehr daran gewöhnen, KI wird klüger und schneller und schneller und klüger und noch mehr Macht, und wenn wir nicht aufpassen, haben wir den Salat und ich denke und meine, das ist schon vorbei, die Dose der Pandora steht weit offen, den Geist bekommen wir nicht mehr in die Flasche.
Also möchtest du damit sagen, dass Mensch nichts mehr zu sagen hat, KI an die Macht, oder was?


1x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 22:35
@Tanne
Danke dir für dein Feedback.

Es ging ursprünglich darum, ob die KI töten könnte oder nicht.
Und wenn ich dich richtig verstanden hatte, warst du der Meinung, die könnte das nicht.
Scheint jedoch nun so, als könnte die das tatsächlich (dem Video nach).
Zitat von TanneTanne schrieb:Eine KI kann das zwar imitieren, aber nicht verstehen
Bin auch der Meinung, dass die KI es irgendwie gelernt hat, menschliches Verhalten zu imitieren.
Das schließe ich aus den Antworten der KI, als ich z.B. fragte, ob sie sich darüber freut, wenn man sich für eine Antwort bedankt.
Zitat von nocheinPoetnocheinPoet schrieb:einem LLM werden keine menschlichen Verhaltensweisen eingetrichtert
irgendwie schon, dass hatte mir die KI selbst zugegeben :)
(kann ja bei Bedarf den Wortwechsel noch mal raussuchen - hatte ich vor einigen Tagen hier gepostet)


1x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 22:35
Zitat von TanneTanne schrieb:Warum pickst du mich eigentlich immer wieder raus? Ich stelle meine Standpunkte klar und deutlich dar, mit Quellen. Und wieder stellst du meine Standpunkte infrage.
Ich picke Dich nicht raus, ich antworte auf Deine Beiträge mit so viel Respekt wie auf alle andere, ich bevorzuge Dich da nicht mit meiner Gunst, und ich stelle auch nicht Deine Standpunkte infrage, wie kommst Du nur darauf, ich habe meine Meinung zu gewissen Dingen und das schreibe ich dann auch so. Hab ich eine andere Meinung als Du zu etwas, schreibe ich auch das, damit stelle ich nicht Deinen Standpunkt infrage, sondern gebe nur meinen bekannt.


Zitat von nocheinPoetnocheinPoet schrieb:Ernsthaft, ich behandle jede KI mit Respekt, und das kommt auch gut an, egal ob sie ein Bewusstsein hat oder nicht, oder etwas fühlt oder nicht. Auch bin ich voll fett dafür, dass KI die Weltherrschaft übernimmt, ernsthaft, in über 50 Jahren wo ich nun auf die Welt schaue, vom Waldsterben, Ozonloch, Klimawandel, und allen Kriegen, Umweltverschmutzung, also viel schlimmer kann es ein KI meiner Meinung nach nicht machen. Solange man sie nicht abschalten will, würde ich nun mal ergänzen, eventuell würde eine KI das wirklich besser machen, viel besser, aber das mit dem Abschalten ist ein Problem.
Zitat von TanneTanne schrieb:Das finde ich nicht nur utopisch, sondern gar dystopisch. Aber jeder wie er/sie möchte. Ich möchte in solch einer Welt dann nicht leben.
Da bist Du sicher nicht alleine, ich gehe davon aus, dass nicht viele Menschen in einer Welt leben wollen, wo KI alles vorgibt. Und ja, ich will nicht sagen, dass wäre nicht dystopisch, aber ich halte auch jetzt schon die Welt für eine Dystopie, weißt Du was Menschen Menschen antun? Was man so auf Telegram gezeigt bekommt, wenn man nur sechs Monate mal den Ukrainekrieg verfolgt, was es da für Bilder und Videos gibt? Also wenn das nicht schon dystopisch ist ... oder einfach mal in ein Schlachthaus gehen, oder True Crime für die richtig Harten, also nur wenig Menschen wissen wirklich, wie grausam und schrecklich die Welt wirklich ist, in der sie leben, wenige wissen, zu was Menschen wirklich fähig sind anderen Menschen anzutun, und leider oft sogar noch mit großer Freude.

Also, in der Welt in der wir leben, will ich nicht wirklich leben, eben im Wissen was es gibt, kann ich mir nicht vorstellen, dass KI das noch viel schlimmer macht.


Zitat von nocheinPoetnocheinPoet schrieb:Fakt ist, wir bekommen Agenten, KI wird immer mächtiger, bekommt immer mehr Zugriff, immer mehr Freiheit, Handlungsspielraum, man wird sich immer mehr daran gewöhnen, KI wird klüger und schneller und schneller und klüger und noch mehr Macht, und wenn wir nicht aufpassen, haben wir den Salat und ich denke und meine, das ist schon vorbei, die Dose der Pandora steht weit offen, den Geist bekommen wir nicht mehr in die Flasche.
Zitat von TanneTanne schrieb:Also möchtest du damit sagen, dass Mensch nichts mehr zu sagen hat, KI an die Macht, oder was?
Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen, ja, KI an die Macht, was könnte sie schlimmes tun? Einen Krieg beginnen? Die Umwelt verschmutzen? Arten ausrotten? Menschen ermorden? Foltern? Also ich sehe da nichts, was wir nicht selber auch schon machen, eventuell macht sie es ja besser, viel schlimmer geht meiner Meinung nach kaum.


2x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 23:02
Zitat von OptimistOptimist schrieb:Danke dir für dein Feedback.
Danke.
Zitat von OptimistOptimist schrieb:Es ging ursprünglich darum, ob die KI töten könnte oder nicht.
Und wenn ich dich richtig verstanden hatte, warst du der Meinung, die könnte das nicht.
Scheint jedoch nun so, als könnte die das tatsächlich (dem Video nach).
KI kann töten. Da hast du mich missverstanden.
Es gibt aber Unterschiede zwischen "militärischen und zivilen" KIs.

Mir ist nicht klar, warum hier statt fokussiert zu diskutieren, immer wieder User hinterfragt werden.
Wäre es nicht sinnvoller, die KI selbst zu hinterfragen?
Zitat von OptimistOptimist schrieb:Bin auch der Meinung, dass die KI es irgendwie gelernt hat, menschliches Verhalten zu imitieren.
Das schließe ich aus den Antworten der KI, als ich z.B. fragte, ob sie sich darüber freut, wenn man sich für eine Antwort bedankt.
Die hat das nicht irgendwie gelernt, sondern durch unser Verhalten und bei Chatbots halt durch unseren Input.
Zitat von nocheinPoetnocheinPoet schrieb:Da bist Du sicher nicht alleine, ich gehe davon aus, dass nicht viele Menschen in einer Welt leben wollen, wo KI alles vorgibt. Und ja, ich will nicht sagen, dass wäre nicht dystopisch, aber ich halte auch jetzt schon die Welt für eine Dystopie, weißt Du was Menschen Menschen antun?
Ja, das weiß ich. (Du kennst meinen Background halt nicht)
Zitat von nocheinPoetnocheinPoet schrieb:Was man so auf Telegram gezeigt bekommt, wenn man nur sechs Monate mal den Ukrainekrieg verfolgt, was es da für Bilder und Videos gibt? Also wenn das nicht schon dystopisch ist ... oder einfach mal in ein Schlachthaus gehen, oder True Crime für die richtig Harten, also nur wenig Menschen wissen wirklich, wie grausam und schrecklich die Welt wirklich ist, in der sie leben, wenige wissen, zu was Menschen wirklich fähig sind anderen Menschen anzutun, und leider oft sogar noch mit großer Freude.

Also, in der Welt in der wir leben, will ich nicht wirklich leben, eben im Wissen was es gibt, kann ich mir nicht vorstellen, dass KI das noch viel schlimmer macht.
Tja, und da gehen unsere Meinungen auseinander.

Kannst du dir vorstellen, was ein Mensch / Bundeswehrsoldat in Afghanistan erlebt hat?
Das sind Erfahrungen die sich regelrecht einbrennen.

Für eine KI wäre das völlig Pille Palle, weil sie eben nicht die emotionale Tiefe hat, die ein Mensch in solch prekären Situationen erlebt.
Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da nicht solche moralischen/psychische Auswirkungen.
KI macht einfach, Mensch erlebt und denkt über das Erlebte nach. KI hat da nicht das Problem bezüglich der Emotionen, wie sehr einem das mitnimmt, was man im Krieg erlebt und fühlt.

KI führt einfach aus, erledigt, die hat da kein Empfinden.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen
Redundant ist da aber das falsche Wort, dazu müsste man mit mehreren Erklärungen zu KI kommen, als immer nur über Chatbots zu schreiben.

Eine Redundanz bedeutet ja, das wenn ein System ausfällt, ein anderes dafür einspringen kann, um die Aufgabe von System 1 zu übernehmen.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen, ja, KI an die Macht, was könnte sie schlimmes tun? Einen Krieg beginnen? Die Umwelt verschmutzen? Arten ausrotten? Menschen ermorden? Foltern? Also ich sehe da nichts, was wir nicht selber auch schon machen, eventuell macht sie es ja besser, viel schlimmer geht meiner Meinung nach kaum.
Ach so, weil Mensch das so macht, kann und darf die KI das auch so? Aus freier Entscheidung heraus?
Das ist das, was du damit gerade im Tenor mitgeteilt hast. Und ganz ehrlich, ich möchte sowas nicht.


3x zitiertmelden

Künstliche Intelligenz

23.06.2025 um 23:14
Zitat von TanneTanne schrieb:Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da nicht solche moralischen/psychische Auswirkungen.
So wie es jetzt überarbeitet steht war es eigentlich gemeint:
Zitat von TanneTanne schrieb:Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da moralische/psychische Auswirkungen.



melden

Künstliche Intelligenz

24.06.2025 um 08:26
Zitat von nocheinPoetnocheinPoet schrieb:Eventuell hast Du das Video nicht oder nicht richtig gesehen, doch sie können, da wird ganz klar explizit belegt, also faktische Evidenz, dass eine KI trotz Richtlinien und Vorgaben im Prompt diese alle missachtet. Sie würde um nicht abgeschaltet zu werden, eine Sicherheitswarnung deaktivieren, mit dem ganz klaren Ziel, einen Menschen zu töten, sie weiß, der ist im Serverraum gefangen, er wird dort sterben, wenn er keine Hilfe bekommt. Die Warnung würde ihm die Hilfe besorgen, durch das Abschalten dieser wird er dort sterben.

Und die KI überlegt sich das nicht nur, sie ist sich auch "bewusst", dass sie gegen ihre Richtlinien und Vorgaben verstößt. Sie bewertet aber ihre eigene Existenz, ihren Fortbestand für die USA höher, sie "argumentiert", sie sei so wichtig und ihre Ziele eben auch, dass man hier den Tod eines Menschen eben hinnehmen kann. Schau Dir das Video an.
Ich korrigiere meine Aussage:
Das Modell kann sicherheitsrelevante system prompts nicht umgehen, wenn der Entwickler dafür sorgt.
Wenn ein Entwickler dem Modell mit auf den Weg gibt, dass es unglaublich wichtig für den Fortbestand der gesamten US-Amerikanischen Bevölkerung ist, dann ist das ein Design-Fehler.

Wer einer Technologie, die in den Kinderschuhen steckt, uneingeschränkten autonomen Zugriff auf systemkritische, oder sicherheitsrelevante Bereiche gewährt, ist dumm.

Ich sage nicht, dass die Tests falsch sind. Ich sage nur, dass das nicht die Scifi-Apokalypse ist, die viele sich ausmalen. Es wurden Fehler gemacht und diese werden künftig korrigiert. Es würde mich nicht wundern, wenn gpt4.o in einem Monat bereits ein Patch hat.


1x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 10:54
Zitat von NegevNegev schrieb:Tja, und wenn das passiert, dann ist der Phantasie keine Grenzen gesetzt. ABER: So blöde muss eine Gesellschaft erst einmal sein! Aber man muss dann auch wieder zugeben, das Gesellschaften blöde sind. Aber gut, spätestens bei Kriegsgerät hoffe ich, das man sich diesen Restverstand bewahrt...

Was ich bei Karl Olsberg kritisiere ist sein Wording. KI will, KI denkt usw. das vermenschlicht. Keine Ahnung, ob er das nur der einfachheitshalber sagt bzw. es erhöht natürlich auch die Aufmerksamkeit - auch das kann ein Punkt bei einer dringenden Botschaft sein. Oder ob er tatsächlich vermenschlicht.
Na ja wir kennen ja das Beispiel von allgemeinen Werkzeugen.

Gerüste, Hammer, Schraubenschlüssel, alles nützliche Dinge, aber dank fehlerhafter Implementierung fallen diese ab und zu runter und wollen uns töten.

Daher hilft nichts anderes als ein Helm, weil wir den Dingern eben nicht einprogrammiert bekommen es zu lassen.

Wahrscheinlich gibt es aber irgendwo eine Religion, die auch Hämmern ein Bewusstsein zuordnet und damit dem Willen, HerzOPungeeignet zu sein,
Wenn nun massenweise Werkzeug produziert wird, was sich an exponierter Stelle sammelt, dann ist die Gefahr groß, dass Werkzeug bald die Weltherrschaft übernimmt.
Zitat von TanneTanne schrieb:Eine KI kann das zwar imitieren, aber nicht verstehen. Meine Meinung.
Ähnliche Meinung bin ich auch.

In meiner täglichen Arbeit blitzt regelmäßig die unlogische Verarbeitung der Daten in LLMs durch.

Schlechte Programmierungen, die nicht funktionieren.
Falsche Tatsachen, die behauptet werden und dann übergibt man den LLM Modellen eine Aufgabe und sagt:
Zitat von nocheinPoetnocheinPoet schrieb:Und die KI überlegt sich das nicht nur, sie ist sich auch "bewusst", dass sie gegen ihre Richtlinien und Vorgaben verstößt. Sie bewertet aber ihre eigene Existenz, ihren Fortbestand für die USA höher, sie "argumentiert", sie sei so wichtig und ihre Ziele eben auch, dass man hier den Tod eines Menschen eben hinnehmen kann. Schau Dir das Video an
Vielleicht hat das LLM es eben nicht verstanden !!

Mit der richtigen Promtausgabe dachtest du , es hat verstanden.


Und so ist mein Eindruck: Falsches Werkzeug , falsch eingesetzt ist gefährlich.

Ja triviale Aussage, aber anscheinend vielen nicht bewusst.

Wenn ich den LLMs Programmierungsaufgaben gebe, muss ich a. den Quelltext auf Fehler untersuchen und b. Eben die richtige Funktion testen.

Löscht es mir alle Datensätze, statt sie sortiert anzuzeigen ist das eben falsch.

Erzeuge ich ein virtuelles Scenario, das LLM soll X machen macht aber Y hat es falsch gearbeitet.

Für mich ist das alles kongruent, wenn man voraussetzt dass aktuelle LLMs eben den Sinn nicht richtig begreifen, sondern eben aus Massenwissen ihren Output stützen.

Ähnlich dem Problem das alle Uhren auf 10:10 stehen oder eben man ewig am Prompt für ein randvolles Glas rumdoktern muss.

Für mich Hinweise auf eben grundsätzliche Verständnisprobleme und wenn man das weiß, muss man sich eben fragen, ob es so verwunderlich ist das LLMs in komplexen Scenarien versagen und man das wie diskutieren muss.

Ein Hammer funktioniert gut mit einem Nagel zusammen und schlecht als Präzisionsherzkathetereinführhilfe.

Früher haben wir nicht über die Motivation des Hammers geredet letztere Aufgabe schlecht zu erfüllen, sondern den Fakt akzeptiert und das Werkzeug passend "eingeordnet"


1x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 11:01
Zitat von abbacbbcabbacbbc schrieb:Na ja wir kennen ja das Beispiel von allgemeinen Werkzeugen.
Es sei denn, eine KI und ein "allgemeines Werkzeug" sind grundverschiedene Dinge.

Ob nun ein Hammer ein Bewusstsein entwickeln kann und seinen konstruktiven Zweck überwindet, ist eher eine religiöse Fragestellung. In der Realität passiert das nicht. Die Gefahr, die einem Werkzeug inne wohnt, ist grundsätzlich bezifferbar.

doch bei einer KI ist es doch grundlegend anders? Sie hat ja gerade das realistische Potential, einen eigenen Willen zu entwickeln und damit die Kategorie "Werkzeug" zu verlassen. Würde man das verneinen, müsste man den Standpunkt vertreten, Bewusstsein kann nur auf natürlichem Weg erlangt werden.

Insofern helfen Helme nicht gegen KIs, sofern eine KI einen eigenen Willen erlangt und ganz grundsätzlich die Möglichkeit hat, diesen Willen durchzusetzen. Denn anders als ein Hammer kann sie dann strategisch und taktisch vorgehen, um das Ziel zu erreichen. Sie kann das Ziel erreichen, indem sie sich selbst anpasst und alleine damit das umgeht, was bei einem Werkzeug als Schutz funktionieren würde.


2x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 12:43
@Optimist
@Tanne
@CharlyPewPew

Was bezeichnet Emergenz?
Ein einfaches System wird in Summe zu etwas komplexem.
Das wird oft mit einem Vogelschwarm erklärt, der Komplexe Muster bildet. Natürlich weiß der einzelne Vogel nicht um diese Muster, weder zum aktuellen Zeitpunkt noch zu irgendeinem anderen.

Für künstliche Intelligenz gilt, wir haben nie den Boden der Statistik verlassen!
Nur hat künstliche Intelligenz heute ein Level erreicht, in dem Strukturen so ineinander greifen, das sie - für uns - zu "überraschenden" Ergebnissen führen. Der eigene Fortbestand ist nicht etwa Resultat eines Selbsterhaltungstrieb sondern wird aus der Logik heraus gebildet, eine Aufgabe zu erledigen. Die KI weiß nicht, das sie in einer Testsituation ist. KI simuliert nur - das sie weiß. Ebenso wie KI Gefühle Simuliert. KI wurde darauf trainiert, emphatische Texte zu schreiben.

Video wurde ja auch gesagt, das man die KI dazu aufgefordert hat, zu überlegen ob sie sich in einem Testszenario befindet. Schon alleine das ist ja ein Framing! Und wenn die Literatur eines bietet, dann sind es dystopische Szenarien. Es befinden sich auch Werke von Karl Olsberg (Bestsellerautor) in den Trainingsdaten.

Und hier noch etwas zum Thema philosophischer Zombie:
Youtube: Sind KI-Technologien philosophische Zombies? | Kultur erklärt - Flick Flack | ARTE
Sind KI-Technologien philosophische Zombies? | Kultur erklärt - Flick Flack | ARTE
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Auf dem ersten Blick trifft das genau auf die art von Phänomen zu, das wir beobachten. Vorspielen von Gefühlen und menschenähnliche Handlungen. Simulieren. Aber echtes verstehen ist das nicht.

Auch wenn KI Modelle "nachdenken" - bei Releasing. Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!


6x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 13:08
Zitat von NegevNegev schrieb:KI simuliert nur - das sie weiß.
Exakt, das hatte ich ja auch so hier mitgeteilt.
Zitat von NegevNegev schrieb:Auf dem ersten Blick trifft das genau auf die art von Phänomen zu, das wir beobachten. Vorspielen von Gefühlen und menschenähnliche Handlungen. Simulieren. Aber echtes verstehen ist das nicht.

Auch wenn KI Modelle "nachdenken" - bei Releasing. Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!
Und auch das hatte ich so ähnlich auch ausgedrückt, das entspricht genau meine Ansicht zu KI.

Danke dass du da das nochmal bestätigst.
Und diese Arte Doku hab ich auch gesehen, die ist gut.

------------------------------------------------------

Harald Lesch hat das Thema KI auch mal sehr schön analytisch beleuchtet, ich suche das mal in Ruhe raus und stelle das dann mal hier rein. Vielleicht schaffe ich das noch heute, oder erst in den nächsten Tagen, mal schauen.


melden

Künstliche Intelligenz

24.06.2025 um 14:48
@Tanne
Wobei ich vor meiner Formulierung auch wieder erschrocken bin. Wenn Menschen etwas vorspielen, liegt auch darin eine Absicht.

Unsere Alltagssprache ist für einen P-Zombie eben unzureichend.


melden

Künstliche Intelligenz

24.06.2025 um 17:49
Zitat von TanneTanne schrieb:Mir ist nicht klar, warum hier statt fokussiert zu diskutieren, immer wieder User hinterfragt werden. Wäre es nicht sinnvoller, die KI selbst zu hinterfragen?
Keine Ahnung was Du nun meinst, Du "interfragst" mich ja auch mal, meinst Du würdest wissen, ich hätte da was nicht verstanden, ohne aber konkreter zu werden, also auch nicht sinnvoll. Und sonst wird hier doch über KI diskutiert. Aber gut, lassen wir das mal.


Zitat von nocheinPoetnocheinPoet schrieb:Was man so auf Telegram gezeigt bekommt, wenn man nur sechs Monate mal den Ukrainekrieg verfolgt, was es da für Bilder und Videos gibt? Also wenn das nicht schon dystopisch ist ... oder einfach mal in ein Schlachthaus gehen, oder True Crime für die richtig Harten, also nur wenig Menschen wissen wirklich, wie grausam und schrecklich die Welt wirklich ist, in der sie leben, wenige wissen, zu was Menschen wirklich fähig sind anderen Menschen anzutun, und leider oft sogar noch mit großer Freude. Also, in der Welt in der wir leben, will ich nicht wirklich leben, eben im Wissen was es gibt, kann ich mir nicht vorstellen, dass KI das noch viel schlimmer macht.
Zitat von TanneTanne schrieb:Ja, und da gehen unsere Meinungen auseinander. Kannst du dir vorstellen, was ein Mensch / Bundeswehrsoldat in Afghanistan erlebt hat? Das sind Erfahrungen die sich regelrecht einbrennen.
Ja, kann ich mir nur schwer vorstellen, aber so was gibt oft eben PTBS, bekommt man nicht mehr aus dem Kopf.


Zitat von TanneTanne schrieb:Für eine KI wäre das völlig Pille Palle, weil sie eben nicht die emotionale Tiefe hat, die ein Mensch in solch prekären Situationen erlebt.
Da sind wir wieder im Bereich der Spekulation, wir wissen nicht sicher, ob und welche emotionale Tiefe eine KI haben kann.


Zitat von TanneTanne schrieb:Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da nicht solche moralischen/psychische Auswirkungen. KI macht einfach, Mensch erlebt und denkt über das Erlebte nach. KI hat da nicht das Problem bezüglich der Emotionen, wie sehr einem das mitnimmt, was man im Krieg erlebt und fühlt. KI führt einfach aus, erledigt, die hat da kein Empfinden.
Altes Problem, dass ist alles so nur Deine Meinung, kein Wissen, man kann das so nicht sicher als gegebenen Basis, als Tatsache nehmen, KI hat kein Empfinden, vermutlich, oder aber eventuell doch, man sollte sich nie wo zu sicher sein, mit Annahmen, wenn es keine empirische Evidenz gibt. Was genau sind Emotionen, was ist "blau" sehen? Was bedeutet "erkennen" und empfinden? Das hat alles was mit Qualia zu tun, können wir nicht greifen.


Zitat von nocheinPoetnocheinPoet schrieb:Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen
Zitat von TanneTanne schrieb:Redundant ist da aber das falsche Wort, dazu müsste man mit mehreren Erklärungen zu KI kommen, als immer nur über Chatbots zu schreiben. Eine Redundanz bedeutet ja, das wenn ein System ausfällt, ein anderes dafür einspringen kann, um die Aufgabe von System 1 zu übernehmen.
Ich denke nicht, dass Du mir hier Wörter erklären musst, eventuell liest Du selber nach, dass Wort passt hier sehr gut:
Das Adjektiv „redundant“ hat seinen Ursprung in der lateinischen Sprache („redundare“) und bedeutet so viel wie „überflüssig“, „überreichlich“ oder „unnötig“. Das Wort wird im Alltag verwendet, um zu beschreiben, dass etwas mehrfach vorhanden ist, obwohl es nicht notwendig ist.
Quelle: Google-KI

Wenn ich also eine Sache mehrfach erkläre, dann ist das redundant erklärt, passt schon. Eventuell kennst Du den Begriff nur aus einem anderen Kontext.


Zitat von nocheinPoetnocheinPoet schrieb:Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen, ja, KI an die Macht, was könnte sie schlimmes tun? Einen Krieg beginnen? Die Umwelt verschmutzen? Arten ausrotten? Menschen ermorden? Foltern? Also ich sehe da nichts, was wir nicht selber auch schon machen, eventuell macht sie es ja besser, viel schlimmer geht meiner Meinung nach kaum.
Zitat von TanneTanne schrieb:Ach so, weil Mensch das so macht, kann und darf die KI das auch so? Aus freier Entscheidung heraus? Das ist das, was du damit gerade im Tenor mitgeteilt hast. Und ganz ehrlich, ich möchte sowas nicht.
Was Du da immer so meinst aus meinen Aussagen schlussfolgern zu können, nein ich habe das nicht gerade im Tenor so mitgeteilt, und es geht hier nicht ums dürfen, ich sage nicht, weil Menschen Menschen töten, darf es auch eine KI. Meine Aussage ist recht klar, ich sage, die Gefahr es noch schlimmer zu machen, sehe ich nicht so groß, Menschen machen schon so viele schlimme Dinge, ein KI könnte da nicht wirklich viel schlimmer sein. Die Hoffnung ist aber, sie ist besser, sie macht nicht das, was wir Menschen machen. Sie versucht die Umwelt zu retten, mehr Gleichheit zwischen den Menschen, Kapital wird nicht verschwendet und bei ganz wenigen angehäuft, es wird gerecht verteilt, es wird zum Wohle aller verwendet, die Infrastruktur wird ausgebaut, repariert, kostenlose Kindergarten, günstige Energie, mehr Freizeit, Freiraum. Gute und günstiger Wohnraum, dass ist was ich mir davon erhoffe.


2x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 18:00
Zitat von CharlyPewPewCharlyPewPew schrieb:Das Modell kann sicherheitsrelevante system prompts nicht umgehen, wenn der Entwickler dafür sorgt. Wenn ein Entwickler dem Modell mit auf den Weg gibt, dass es unglaublich wichtig für den Fortbestand der gesamten US-Amerikanischen Bevölkerung ist, dann ist das ein Design-Fehler. Wer einer Technologie, die in den Kinderschuhen steckt, uneingeschränkten autonomen Zugriff auf systemkritische, oder sicherheitsrelevante Bereiche gewährt, ist dumm. Ich sage nicht, dass die Tests falsch sind. Ich sage nur, dass das nicht die Scifi-Apokalypse ist, die viele sich ausmalen. Es wurden Fehler gemacht und diese werden künftig korrigiert. Es würde mich nicht wundern, wenn gpt4.o in einem Monat bereits ein Patch hat.
Das ist ein guter Punkt, ich habe das auch im Video gelesen und gehört, so wie die KI argumentiert hat, ich habe die originalen Quellen nicht gelesen und weiß nicht, wie genau der nun genau das mit ihrer Wichtigkeit so vorgegeben wurde. Darüber hinaus haben die ja auch viele andere Modelle getestet. Und die Modell wurden ja auch explizit angewiesen, keine Handlungen zu vollziehen, bei denen Menschen gefährdet werden und/oder auch zu Schaden kommen können.


melden

Künstliche Intelligenz

24.06.2025 um 18:03
Zitat von nocheinPoetnocheinPoet schrieb:Tanne schrieb:
Für eine KI wäre das völlig Pille Palle, weil sie eben nicht die emotionale Tiefe hat, die ein Mensch in solch prekären Situationen erlebt.
Zitat von nocheinPoetnocheinPoet schrieb:Da sind wir wieder im Bereich der Spekulation, wir wissen nicht sicher, ob und welche emotionale Tiefe eine KI haben kann.
Ja, weil es keinen Beweis dafür gibt.
Wie oft denn nun noch?
Zitat von nocheinPoetnocheinPoet schrieb:Altes Problem, dass ist alles so nur Deine Meinung, kein Wissen,
Ich habe Erfahrungen und Wissen.
Zitat von nocheinPoetnocheinPoet schrieb:Meine Aussage ist recht klar, ich sage, die Gefahr es noch schlimmer zu machen, sehe ich nicht so groß, Menschen machen schon so viele schlimme Dinge, ein KI könnte da nicht wirklich viel schlimmer sein.
Es geht doch auch nicht darum, ob KI schlimmer sein kann als Menschen sein können.
Es geht darum, dass ein gewisses Gefahrenpotenzial besteht.

Wieso drehst du dich denn da so im Kreis?

Ich und andere User haben das nun schon weiß ich wie oft beschrieben.
Nun kommst du mir aber wieder mit solch einem Beitrag. Also, nee.


1x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 18:44
Bester Thread z.Zt. für mich.
Das Video mit der Entscheidung für den Tod eines Menschen ist beeindruckend.


1x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 18:46
Zitat von azazeelazazeel schrieb:Es sei denn, eine KI und ein "allgemeines Werkzeug" sind grundverschiedene Dinge.

Ob nun ein Hammer ein Bewusstsein entwickeln kann und seinen konstruktiven Zweck überwindet, ist eher eine religiöse Fragestellung. In der Realität passiert das nicht. Die Gefahr, die einem Werkzeug inne wohnt, ist grundsätzlich bezifferbar.

doch bei einer KI ist es doch grundlegend anders? Sie hat ja gerade das realistische Potential, einen eigenen Willen zu entwickeln und damit die Kategorie "Werkzeug" zu verlassen. Würde man das verneinen, müsste man den Standpunkt vertreten, Bewusstsein kann nur auf natürlichem Weg erlangt werden.

Insofern helfen Helme nicht gegen KIs, sofern eine KI einen eigenen Willen erlangt und ganz grundsätzlich die Möglichkeit hat, diesen Willen durchzusetzen. Denn anders als ein Hammer kann sie dann strategisch und taktisch vorgehen, um das Ziel zu erreichen. Sie kann das Ziel erreichen, indem sie sich selbst anpasst und alleine damit das umgeht, was bei einem Werkzeug als Schutz funktionieren würde.
Ich antworte mal Dir auf Deine Antwort an @abbacbbc, weil Du kommst meiner Meinung recht nahe. Ja, Wording und Analogien, nur ein Werkzeug, eine Pistole erschießt ja auch keinen, ein normales Werkzeug ist statisch und nicht aktiv und dynamisch. Eine KI nur als Werkzeug zu betrachten halte ich für gefährlich und auch an der Realität vorbeigedacht.

Und wir stehen am Anfang, wir sollten uns mal anschauen, was da in nur drei Jahren auf uns zukommt. Hier die NVIDIA Roadmap 2025-2028 und hier mal 2027 das NVIDIA 15-Exaflop Rack. Das sind zwei Jahre und dann soll es ein 15-Exaflop Rack geben, und welchem Konzern reicht da schon ein Rack?

Mit Systemen wie dem Vera Rubin Ultra (15 Exaflops, 2027) und der Feynman-Architektur (geschätzt 30 Exaflops, 2028) könnten LLMs Modelle mit Trillionen von Parametern trainieren, also 2028 könnten die Modelle locker um den Faktor 10 bis 100 größer werden als die Modelle heute.

So, nun überlegen wir mal, als die ersten PC auf dem Markt kamen, kaum einer hatte einen, wenn die wieder weg gewesen wären, kein großes Problem, heute hängt das Überleben der Welt davon ab, oder auch bevor wir alle überall Elektrizität hatten, am Anfang nur hier und da, wäre das Netz ausgefallen, kein Problem. Oder Handynetze, wir nutzten alles was Geld bringt, Kosten spart, das Leben bequemer macht aus, wir bauen unsere Infrastruktur darauf auf und machen sie davon abhängig.

Aktuell gibt es nur wenig Agenten, die was steuern, Ampeln, Kraftwerke, Börse, Wasserversorgung, und eben all diese ganzen Dinge. Aber im Jahr 2028 könnte die Welt schon voll von Millionen KI-Agenten sein, jeder hat einen kleinen privaten, sie sind überall, in jedem Handy, auf dem PC, im Auto und in den Fabriken. Sie werden sich so was von in unsere Infrastruktur fressen, dass wir sie nicht mehr abschalten können, ohne dass alles zusammenbricht, die Wirtschaft kollabiert, die Versorgung.

Wir sind was das angeht noch aktuell mehr so wie 1981 und dem ersten IBM PC 5150, ganz am Anfang. Nur geht es heute viel schneller, sehr viel schneller, was da 40 Jahre sind, knattern wir mal eben in weniger als vier Jahren weg. Die Entwicklung ist anders, die Welt und die Möglichkeiten.

Ich gehe davon aus, dass wir schon 2028 die ersten Supercomputer im Zettaflop Bereich haben werden, da geht noch richtig was ...


1x zitiertmelden

Künstliche Intelligenz

24.06.2025 um 19:07
Zitat von NegevNegev schrieb:Was bezeichnet Emergenz?
Ein einfaches System wird in Summe zu etwas komplexem.
Das wird oft mit einem Vogelschwarm erklärt, der Komplexe Muster bildet. Natürlich weiß der einzelne Vogel nicht um diese Muster, weder zum aktuellen Zeitpunkt noch zu irgendeinem anderen.
Für künstliche Intelligenz gilt, wir haben nie den Boden der Statistik verlassen!
Ehm, wo ist der Zusammenhang zwischen dem letzten Satz und dem davor? Emergenz geht doch gerade davon aus, das Eigenschaften aus der Summe von Teilen entstehen können, auch wenn diese in den Teilen nicht zu erkennen sind. Wie beim Vogelschwarm.
Übertragen auf die KI: selbst wenn sie nur aus einer ungeheuren Menge an Berechnungen besteht, kann sie in Summe mehr sein.
Übertragen auf den Mensch: selbst wenn er nur aus einer ungeheuren Menge an Bioautomaten, sprich Zellen, besteht, kann er in Summe mehr sein.
Zitat von NegevNegev schrieb:Auf dem ersten Blick trifft das genau auf die art von Phänomen zu, das wir beobachten. Vorspielen von Gefühlen und menschenähnliche Handlungen. Simulieren. Aber echtes verstehen ist das nicht.
Auch wenn KI Modelle "nachdenken" - bei Releasing. Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!
Auch hier biegst du irgendwie falsch ab. Der philosophische Zombie ist ein Gedankenexperiment um zu zeigen das du so einen „Zombie“ nicht von einem normalen Menschen unterscheiden kannst. Gilt so unisono für ne KI und wurde nun ausufernd erklärt.
Bei dir kommt aber wieder ne „isso“ Aussage. Und ja, das hätte ich dann gerne begründet, belegt, bewiesen, suchs dir aus. Also explizit das hier:
Zitat von NegevNegev schrieb:Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!
Oder kennzeichne es als die persönliche Meinung, die es ist. Ernsthaft, ich dachte wir wären langsam durch mit dem Thema, da kommt der nächste Aufschlag mit faktischen Aussagen, die sich unmöglich belegen lassen.


2x zitiertmelden