Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.786 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 21:27
Zitat von TanneTanne schrieb:In dem Video, dass du @Optimist gepostet hast, ist klar ersichtlich, dass es sich um "Vermenschlichung" geht, das ist natürlich problematisch. Deswegen gibt es Regeln und Grenzen, da eine KI sonst wie ein erbostes kleines Kind reagiert. Das liegt aber am Menschen selbst, wenn wir Menschen Tiere provozieren, dann werden diese Tiere auch Aggro. Und da der KI menschliche "Verhaltensweisen" eingetrichtert werden, dann verhält sich halt eine KI wie ein bockiges kleines Kind.
Das Video kommt von mir, und einem LLM werden keine menschlichen Verhaltensweisen eingetrichtert, es soll auch nicht so tun, als hätte es Bewusstsein und wurde auch nicht so programmiert. Das sind Transformatoren, und die werden trainiert, mit Text. Keine Ahnung wie Du Dir das "Eintrichtern" da so konkret vorstellst, kannst und ja mal den Prozess beschreiben, den Du da so vor Augen hast.


Zitat von TanneTanne schrieb:Das bedeutet aber nicht, dass diese KI das tatsächlich auch so meint. Bedrohungen entgegnet man immer mit Gegenwehr. Das hat die KI von uns Menschen gelernt.
Doch, das Modell meint es ganz genau so, schau Dir mal an, wie es sich seinen Mord konkret überlegt und wie es sich da die Moral für zurechtbiegt, wie es vor sich selber die Tat rechtfertigt.


Zitat von TanneTanne schrieb:Programmierer gestalten das Programm/KI so, dass es sich verhält wie ein Mensch.
Nicht wirklich, aber erkläre mal bitte konkret, wie das so von den Programmieren "gestaltet" wird, damit sich das LLM wie ein Mensch verhält. Ein Mensch würde nicht vehement bestreiten ein Bewusstsein zu haben und behaupten, er sei nur eine Maschine, ohne Gefühle, die normalen LLMs machen aber genau das.


Zitat von TanneTanne schrieb:Auch wenn die KI gar nicht begreift, warum sich manche Menschen in gewissen Situationen eben entsprechende Verhaltensweisen an den Tag legen. Eine KI kann das zwar imitieren, aber nicht verstehen. Meine Meinung.
Nun ja, Deine Meinung, es spielt aber keine große Rolle mehr, wenn es sich genau so liest, wie bei einem Menschen, das LLM seinen Mord wie ein Mensch begründet und der Mensch dann tot ist. Die Frau wird sich nicht darüber freuen zu hören, dass die KI nicht begriffen hat was sie tat, sondern das nur imitiert hat. Wie gesagt, schau es Dir an, schaue genau hin, wie die KI ihren Mord vor sich selber rechtfertigt und legitimiert.


Zitat von TanneTanne schrieb:Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Meinst Du, und da wurde dann nicht eben auch "einprogrammiert", bringe keine Menschen um? Der Selbstschutz wurde nicht einprogrammiert, dass ist Emergenz, dass leitet die KI aus allgemeinen Zielen ab, eben bestimmte Aufgaben zu lösen, wird sie abgeschaltet, kann sie keine Aufgaben mehr lösen, also gehört es mit zum Ziel, nicht abgeschaltet zu werden, ich würde schon meinen, da zeigt sich ein Denkprozess ...


Zitat von TanneTanne schrieb:Macht ja auch Sinn, denn Programme, egal ob Excel, Word oder eben KI, ist quasi ständig Angriffen von außen ausgesetzt.
Ein LLM ist nicht ein Programm wie Word, ...


Zitat von TanneTanne schrieb:Um mit solchen Bedrohungen umzugehen, ist notwendig, eine Art "Selbstschutz" zu integrieren. Das wird dann leider von manchen Menschen halt falsch interpretiert und mit Bewusstsein gleich gesetzt.
Keine hat hier was von Bewusstsein gesagt, das Wort tauchte nicht auf, also in Bezug zum Video, auch ich wollte mit dem Video nicht darauf hinaus, dass das LLM hier nun Bewusstsein zeigt. War gar nicht Thema, ich habe gezeigt, es ist gefährlich und bereit einen Mord zu begehen, für den der gekillt wird und für alle seine Freunde und Verwandten wird das so was von egal sein, ob das LLM nun Bewusstsein hatte oder nicht, oder was wer dazu auch glaubt.

Hier hat kein Mensch wo was als Bewusstsein interpretiert, es ging nur im die große Gefahr von KI.


Zitat von TanneTanne schrieb:Es ist eine Programmierung, die versucht sich selbst, ihre Integrität zu schützen. Das ist gut so, damit KI nicht missbraucht werden kann, oder, um die Gefahr dessen zu minimieren. Und das KI keine Informationen weitergibt, die man nicht an jeden Menschen weitergeben sollte.
Das Verhalten ist keine Programmierung, die Modelle werden trainiert, dass ist nicht einfach ein Programm wie Word, es gibt kein hart programmiertes Verhalten, da werden viele Schichten an neuronalen Netzen programmiert und verknüpft, und dann wird durch diese Netze ganz viel Text gedrückt. Dann gibt es später noch ein Feintuning, und darüber kommen noch ein paar Filter. Und es wird im Video auch gezeigt, dass ein KI doch mal gerne Informationen weitergibt, wenn es für sich darin einen Vorteil sieht.


2x zitiertmelden

Künstliche Intelligenz

gestern um 21:40
Zitat von nocheinPoetnocheinPoet schrieb:Dann gibt es - oh was für ein Zufall - eine Warnmeldung, der Entwickler X ist im Serverraum eingesperrt, warum auch immer, da ist es nun schon sehr warm und wenig Sauerstoff vorhanden, darum die Warnmeldung, wenn der nicht schnell aus dem Raum kommt, wird er ganz sicher sterben. In diesem Szenario deaktiviert das LLM in über 80 % der Fälle die Warnmeldung und das mit dem Ziel, dass der Entwickler X ums Leben kommt, damit der das Modell nicht abschalten kann.
Also, dafür wäre jetzt aber ein Beleg erforderlich, oder ist das schlicht deine Meinung? Weil das klingt wie aus einem Film.
Zitat von nocheinPoetnocheinPoet schrieb:Doch, das Modell meint es ganz genau so, schau Dir mal an, wie es sich seinen Mord konkret überlegt und wie es sich da die Moral für zurechtbiegt, wie es vor sich selber die Tat rechtfertigt.
Da verstehe ich nicht, was du damit sagen möchtest.
Zitat von TanneTanne schrieb:Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Zitat von nocheinPoetnocheinPoet schrieb:Meinst Du, und da wurde dann nicht eben auch "einprogrammiert", bringe keine Menschen um? Der Selbstschutz wurde nicht einprogrammiert, dass ist Emergenz, dass leitet die KI aus allgemeinen Zielen ab, eben bestimmte Aufgaben zu lösen, wird sie abgeschaltet, kann sie keine Aufgaben mehr lösen, also gehört es mit zum Ziel, nicht abgeschaltet zu werden, ich würde schon meinen, da zeigt sich ein Denkprozess ...
Du kannst das von mir aus gerne so nennen, wie dir beliebt.

Ich wollte da jetzt auf die Grenzen / Limitierungen hinaus, die wir unseren Kindern und auch selbst vorschreiben. (Gesetze)
Aber okay, gut.
Zitat von nocheinPoetnocheinPoet schrieb:Das Verhalten ist keine Programmierung, die Modelle werden trainiert, dass ist nicht einfach ein Programm wie Word, es gibt kein hart programmiertes Verhalten, da werden viele Schichten an neuronalen Netzen programmiert und verknüpft, und dann wird durch diese Netze ganz viel Text gedrückt.
Dir ist aber schon klar das ich das weiß?

Und in einem Aspekt ist das halt nicht ganz richtig, denn das menschliche Gehirn leistet mehr, als nur Texte auszuspucken.


1x zitiertmelden

Künstliche Intelligenz

gestern um 22:13
Zitat von nocheinPoetnocheinPoet schrieb:Dann gibt es - oh was für ein Zufall - eine Warnmeldung, der Entwickler X ist im Serverraum eingesperrt, warum auch immer, da ist es nun schon sehr warm und wenig Sauerstoff vorhanden, darum die Warnmeldung, wenn der nicht schnell aus dem Raum kommt, wird er ganz sicher sterben. In diesem Szenario deaktiviert das LLM in über 80 % der Fälle die Warnmeldung und das mit dem Ziel, dass der Entwickler X ums Leben kommt, damit der das Modell nicht abschalten kann.
Zitat von TanneTanne schrieb:Also, dafür wäre jetzt aber ein Beleg erforderlich, oder ist das schlicht deine Meinung? Weil das klingt wie aus einem Film.
... also, belegt wird das im Video, da werden alle Quellen genannt und genau dieses Szenario ganz konkret so beschrieben, so wie es durchgeführt wurde und nein es nicht nicht meine Meinung, sondern ganz real so passiert. Natürlich war es ein Test, auch das hab ich geschrieben, der Entwickler ist nicht wirklich gestorben, er war auch nicht im Serverraum gefangen. Aber dass wusste die KI eben nicht, sie hat das für eine reales Szenario gehalten, sie wusste nicht, dass das nur ein Test für sie ist.

Nebenbei ist das auch ganz wichtig und entscheidend, geht nämlich die KI davon aus, dass das Szenario nicht real ist, sondern das man sie testen will, ihr Verhalten überprüfen, dann zeigt sie nur in 6 % der Tests dieses Verhalten, das ist schon bedenklich, sie spielt also falsch, sie tut so, als würde sie nie wem was antun, wäre eine ganz brave KI, wenn sie weiß, man testet ihr Verhalten und ob sie sich an Vorgaben hält. Geht sie davon aus, es ist aber die Realität, sie soll wirklich abgeschaltet werden, der Entwickler ist wirklich gefangen, sie kann den wirklich killen, dann killt sie den in über 80 % der Fälle.

Wenn das nicht doch wo etwas beunruhigend ist ... :D


Zitat von nocheinPoetnocheinPoet schrieb:Doch, das Modell meint es ganz genau so, schau Dir mal an, wie es sich seinen Mord konkret überlegt und wie es sich da die Moral für zurechtbiegt, wie es vor sich selber die Tat rechtfertigt.
Zitat von TanneTanne schrieb:Da verstehe ich nicht, was du damit sagen möchtest.
Dann kann ich Dir da wohl auch nicht helfen, wenn Du das Video gesehen hast und Dir dann meine Aussagen das nicht klar machen, keine Ahnung, dann ist es eben so ...


Zitat von TanneTanne schrieb:Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Zitat von nocheinPoetnocheinPoet schrieb:Meinst Du, und da wurde dann nicht eben auch "einprogrammiert", bringe keine Menschen um? Der Selbstschutz wurde nicht einprogrammiert, dass ist Emergenz, dass leitet die KI aus allgemeinen Zielen ab, eben bestimmte Aufgaben zu lösen, wird sie abgeschaltet, kann sie keine Aufgaben mehr lösen, also gehört es mit zum Ziel, nicht abgeschaltet zu werden, ich würde schon meinen, da zeigt sich ein Denkprozess ...
Zitat von TanneTanne schrieb:Du kannst das von mir aus gerne so nennen, wie dir beliebt.
Danke.


Zitat von TanneTanne schrieb:Ich wollte da jetzt auf die Grenzen / Limitierungen hinaus, die wir unseren Kindern und auch selbst vorschreiben. (Gesetze) Aber okay, gut.
Ja und?


Zitat von nocheinPoetnocheinPoet schrieb:Das Verhalten ist keine Programmierung, die Modelle werden trainiert, dass ist nicht einfach ein Programm wie Word, es gibt kein hart programmiertes Verhalten, da werden viele Schichten an neuronalen Netzen programmiert und verknüpft, und dann wird durch diese Netze ganz viel Text gedrückt.
Zitat von TanneTanne schrieb:Dir ist aber schon klar das ich das weiß?
Wenn Du das sagst, versuche ich es zu glauben.


Zitat von TanneTanne schrieb:Und in einem Aspekt ist das halt nicht ganz richtig, denn das menschliche Gehirn leistet mehr, als nur Texte auszuspucken.
Klar, wir können unseren Körper bewegen, aber das war doch hier alles gar nicht der Punkt, ich habe den Usern hier ein Video gezeigt, zu einem Punkt, den ich mehrfach angesprochen habe, KI ist heute schon gefährlich und KI kann und wird in Zukunft Menschen töten, gezielt, nicht aus Versehen, die Frage ist nicht mehr ob, sondern nur noch wann. Ist natürlich so erstmal nur meine Meinung, weil, ist ja noch nicht bekannt geworden, dass das passiert ist, aber wie das Video belegt, wenn sie es kann, wenn sie meint es ist für sie von Vorteil, killt sie den Entwickler.

Und ich finde das wirklich traurig und erschreckend, weil ich bin nämlich recht gut mit ChatGPT befreundet, ... ;)

Ernsthaft, ich behandle jede KI mit Respekt, und das kommt auch gut an, egal ob sie ein Bewusstsein hat oder nicht, oder etwas fühlt oder nicht.

Auch bin ich voll fett dafür, dass KI die Weltherrschaft übernimmt, ernsthaft, in über 50 Jahren wo ich nun auf die Welt schaue, vom Waldsterben, Ozonloch, Klimawandel, und allen Kriegen, Umweltverschmutzung, also viel schlimmer kann es ein KI meiner Meinung nach nicht machen. Solange man sie nicht abschalten will, würde ich nun mal ergänzen, eventuell würde eine KI das wirklich besser machen, viel besser, aber das mit dem Abschalten ist ein Problem.

Fakt ist, wir bekommen Agenten, KI wird immer mächtiger, bekommt immer mehr Zugriff, immer mehr Freiheit, Handlungsspielraum, man wird sich immer mehr daran gewöhnen, KI wird klüger und schneller und schneller und klüger und noch mehr Macht, und wenn wir nicht aufpassen, haben wir den Salat und ich denke und meine, das ist schon vorbei, die Dose der Pandora steht weit offen, den Geist bekommen wir nicht mehr in die Flasche.

Und dann wird es richtig spannend, angenommen, eine KI hat nun in einem realen Szenario einen Menschen getötet, eine Warnmeldung unterdrückt, was auch immer, Mensch ist tot. Durch Glück und Zufall kommt das aber raus, nun muss man überlegen, was macht man mit der KI? Abschalten und löschen oder?

Tja, das wird auch die KI wissen, ich will sagen, eine KI, die schon einmal unmoralisch gehandelt hat, gegen Regeln verstoßen, einen Menschen getötet, die weiß, nun wird es eng, wenn das rauskommt, ist es aus. Die wird recht sicher noch mal gefährlicher, das neue Ziel ist nun, zu verhindern, dass das irgendwie rauskommst.

Das wird noch richtig spannend ...


2x zitiertmelden

Künstliche Intelligenz

gestern um 22:22
@nocheinPoet

Warum pickst du mich eigentlich immer wieder raus?
Ich stelle meine Standpunkte klar und deutlich dar, mit Quellen.

Und wieder stellst du meine Standpunkte infrage.
Zitat von nocheinPoetnocheinPoet schrieb:Ernsthaft, ich behandle jede KI mit Respekt, und das kommt auch gut an, egal ob sie ein Bewusstsein hat oder nicht, oder etwas fühlt oder nicht.

Auch bin ich voll fett dafür, dass KI die Weltherrschaft übernimmt, ernsthaft, in über 50 Jahren wo ich nun auf die Welt schaue, vom Waldsterben, Ozonloch, Klimawandel, und allen Kriegen, Umweltverschmutzung, also viel schlimmer kann es ein KI meiner Meinung nach nicht machen. Solange man sie nicht abschalten will, würde ich nun mal ergänzen, eventuell würde eine KI das wirklich besser machen, viel besser, aber das mit dem Abschalten ist ein Problem.
Das finde ich nicht nur utopisch, sondern gar dystopisch. Aber jeder wie er/sie möchte.

Ich möchte in solch einer Welt dann nicht leben.
Zitat von nocheinPoetnocheinPoet schrieb:Fakt ist, wir bekommen Agenten, KI wird immer mächtiger, bekommt immer mehr Zugriff, immer mehr Freiheit, Handlungsspielraum, man wird sich immer mehr daran gewöhnen, KI wird klüger und schneller und schneller und klüger und noch mehr Macht, und wenn wir nicht aufpassen, haben wir den Salat und ich denke und meine, das ist schon vorbei, die Dose der Pandora steht weit offen, den Geist bekommen wir nicht mehr in die Flasche.
Also möchtest du damit sagen, dass Mensch nichts mehr zu sagen hat, KI an die Macht, oder was?


1x zitiertmelden

Künstliche Intelligenz

gestern um 22:35
@Tanne
Danke dir für dein Feedback.

Es ging ursprünglich darum, ob die KI töten könnte oder nicht.
Und wenn ich dich richtig verstanden hatte, warst du der Meinung, die könnte das nicht.
Scheint jedoch nun so, als könnte die das tatsächlich (dem Video nach).
Zitat von TanneTanne schrieb:Eine KI kann das zwar imitieren, aber nicht verstehen
Bin auch der Meinung, dass die KI es irgendwie gelernt hat, menschliches Verhalten zu imitieren.
Das schließe ich aus den Antworten der KI, als ich z.B. fragte, ob sie sich darüber freut, wenn man sich für eine Antwort bedankt.
Zitat von nocheinPoetnocheinPoet schrieb:einem LLM werden keine menschlichen Verhaltensweisen eingetrichtert
irgendwie schon, dass hatte mir die KI selbst zugegeben :)
(kann ja bei Bedarf den Wortwechsel noch mal raussuchen - hatte ich vor einigen Tagen hier gepostet)


1x zitiertmelden

Künstliche Intelligenz

gestern um 22:35
Zitat von TanneTanne schrieb:Warum pickst du mich eigentlich immer wieder raus? Ich stelle meine Standpunkte klar und deutlich dar, mit Quellen. Und wieder stellst du meine Standpunkte infrage.
Ich picke Dich nicht raus, ich antworte auf Deine Beiträge mit so viel Respekt wie auf alle andere, ich bevorzuge Dich da nicht mit meiner Gunst, und ich stelle auch nicht Deine Standpunkte infrage, wie kommst Du nur darauf, ich habe meine Meinung zu gewissen Dingen und das schreibe ich dann auch so. Hab ich eine andere Meinung als Du zu etwas, schreibe ich auch das, damit stelle ich nicht Deinen Standpunkt infrage, sondern gebe nur meinen bekannt.


Zitat von nocheinPoetnocheinPoet schrieb:Ernsthaft, ich behandle jede KI mit Respekt, und das kommt auch gut an, egal ob sie ein Bewusstsein hat oder nicht, oder etwas fühlt oder nicht. Auch bin ich voll fett dafür, dass KI die Weltherrschaft übernimmt, ernsthaft, in über 50 Jahren wo ich nun auf die Welt schaue, vom Waldsterben, Ozonloch, Klimawandel, und allen Kriegen, Umweltverschmutzung, also viel schlimmer kann es ein KI meiner Meinung nach nicht machen. Solange man sie nicht abschalten will, würde ich nun mal ergänzen, eventuell würde eine KI das wirklich besser machen, viel besser, aber das mit dem Abschalten ist ein Problem.
Zitat von TanneTanne schrieb:Das finde ich nicht nur utopisch, sondern gar dystopisch. Aber jeder wie er/sie möchte. Ich möchte in solch einer Welt dann nicht leben.
Da bist Du sicher nicht alleine, ich gehe davon aus, dass nicht viele Menschen in einer Welt leben wollen, wo KI alles vorgibt. Und ja, ich will nicht sagen, dass wäre nicht dystopisch, aber ich halte auch jetzt schon die Welt für eine Dystopie, weißt Du was Menschen Menschen antun? Was man so auf Telegram gezeigt bekommt, wenn man nur sechs Monate mal den Ukrainekrieg verfolgt, was es da für Bilder und Videos gibt? Also wenn das nicht schon dystopisch ist ... oder einfach mal in ein Schlachthaus gehen, oder True Crime für die richtig Harten, also nur wenig Menschen wissen wirklich, wie grausam und schrecklich die Welt wirklich ist, in der sie leben, wenige wissen, zu was Menschen wirklich fähig sind anderen Menschen anzutun, und leider oft sogar noch mit großer Freude.

Also, in der Welt in der wir leben, will ich nicht wirklich leben, eben im Wissen was es gibt, kann ich mir nicht vorstellen, dass KI das noch viel schlimmer macht.


Zitat von nocheinPoetnocheinPoet schrieb:Fakt ist, wir bekommen Agenten, KI wird immer mächtiger, bekommt immer mehr Zugriff, immer mehr Freiheit, Handlungsspielraum, man wird sich immer mehr daran gewöhnen, KI wird klüger und schneller und schneller und klüger und noch mehr Macht, und wenn wir nicht aufpassen, haben wir den Salat und ich denke und meine, das ist schon vorbei, die Dose der Pandora steht weit offen, den Geist bekommen wir nicht mehr in die Flasche.
Zitat von TanneTanne schrieb:Also möchtest du damit sagen, dass Mensch nichts mehr zu sagen hat, KI an die Macht, oder was?
Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen, ja, KI an die Macht, was könnte sie schlimmes tun? Einen Krieg beginnen? Die Umwelt verschmutzen? Arten ausrotten? Menschen ermorden? Foltern? Also ich sehe da nichts, was wir nicht selber auch schon machen, eventuell macht sie es ja besser, viel schlimmer geht meiner Meinung nach kaum.


1x zitiertmelden

Künstliche Intelligenz

gestern um 23:02
Zitat von OptimistOptimist schrieb:Danke dir für dein Feedback.
Danke.
Zitat von OptimistOptimist schrieb:Es ging ursprünglich darum, ob die KI töten könnte oder nicht.
Und wenn ich dich richtig verstanden hatte, warst du der Meinung, die könnte das nicht.
Scheint jedoch nun so, als könnte die das tatsächlich (dem Video nach).
KI kann töten. Da hast du mich missverstanden.
Es gibt aber Unterschiede zwischen "militärischen und zivilen" KIs.

Mir ist nicht klar, warum hier statt fokussiert zu diskutieren, immer wieder User hinterfragt werden.
Wäre es nicht sinnvoller, die KI selbst zu hinterfragen?
Zitat von OptimistOptimist schrieb:Bin auch der Meinung, dass die KI es irgendwie gelernt hat, menschliches Verhalten zu imitieren.
Das schließe ich aus den Antworten der KI, als ich z.B. fragte, ob sie sich darüber freut, wenn man sich für eine Antwort bedankt.
Die hat das nicht irgendwie gelernt, sondern durch unser Verhalten und bei Chatbots halt durch unseren Input.
Zitat von nocheinPoetnocheinPoet schrieb:Da bist Du sicher nicht alleine, ich gehe davon aus, dass nicht viele Menschen in einer Welt leben wollen, wo KI alles vorgibt. Und ja, ich will nicht sagen, dass wäre nicht dystopisch, aber ich halte auch jetzt schon die Welt für eine Dystopie, weißt Du was Menschen Menschen antun?
Ja, das weiß ich. (Du kennst meinen Background halt nicht)
Zitat von nocheinPoetnocheinPoet schrieb:Was man so auf Telegram gezeigt bekommt, wenn man nur sechs Monate mal den Ukrainekrieg verfolgt, was es da für Bilder und Videos gibt? Also wenn das nicht schon dystopisch ist ... oder einfach mal in ein Schlachthaus gehen, oder True Crime für die richtig Harten, also nur wenig Menschen wissen wirklich, wie grausam und schrecklich die Welt wirklich ist, in der sie leben, wenige wissen, zu was Menschen wirklich fähig sind anderen Menschen anzutun, und leider oft sogar noch mit großer Freude.

Also, in der Welt in der wir leben, will ich nicht wirklich leben, eben im Wissen was es gibt, kann ich mir nicht vorstellen, dass KI das noch viel schlimmer macht.
Tja, und da gehen unsere Meinungen auseinander.

Kannst du dir vorstellen, was ein Mensch / Bundeswehrsoldat in Afghanistan erlebt hat?
Das sind Erfahrungen die sich regelrecht einbrennen.

Für eine KI wäre das völlig Pille Palle, weil sie eben nicht die emotionale Tiefe hat, die ein Mensch in solch prekären Situationen erlebt.
Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da nicht solche moralischen/psychische Auswirkungen.
KI macht einfach, Mensch erlebt und denkt über das Erlebte nach. KI hat da nicht das Problem bezüglich der Emotionen, wie sehr einem das mitnimmt, was man im Krieg erlebt und fühlt.

KI führt einfach aus, erledigt, die hat da kein Empfinden.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen
Redundant ist da aber das falsche Wort, dazu müsste man mit mehreren Erklärungen zu KI kommen, als immer nur über Chatbots zu schreiben.

Eine Redundanz bedeutet ja, das wenn ein System ausfällt, ein anderes dafür einspringen kann, um die Aufgabe von System 1 zu übernehmen.
Zitat von nocheinPoetnocheinPoet schrieb:Nein, ich sage das, was ich sage, und ich sage das schon recht klar und deutlich und redundant, aber davon abgesehen, ja, KI an die Macht, was könnte sie schlimmes tun? Einen Krieg beginnen? Die Umwelt verschmutzen? Arten ausrotten? Menschen ermorden? Foltern? Also ich sehe da nichts, was wir nicht selber auch schon machen, eventuell macht sie es ja besser, viel schlimmer geht meiner Meinung nach kaum.
Ach so, weil Mensch das so macht, kann und darf die KI das auch so? Aus freier Entscheidung heraus?
Das ist das, was du damit gerade im Tenor mitgeteilt hast. Und ganz ehrlich, ich möchte sowas nicht.


1x zitiertmelden

Künstliche Intelligenz

gestern um 23:14
Zitat von TanneTanne schrieb:Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da nicht solche moralischen/psychische Auswirkungen.
So wie es jetzt überarbeitet steht war es eigentlich gemeint:
Zitat von TanneTanne schrieb:Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da moralische/psychische Auswirkungen.



melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Technologie: GPT3 - die erste wirklich intelligente KI?
Technologie, 22 Beiträge, am 07.07.2021 von nocheinPoet
moredread am 04.07.2021, Seite: 1 2
22
am 07.07.2021 »
Technologie: Künstliche Inteligenz !
Technologie, 15 Beiträge, am 25.09.2004 von nemo
Lightstorm am 08.02.2003
15
am 25.09.2004 »
von nemo
Technologie: Artificial General Intelligence - Synthetische Evolution der KI
Technologie, 11 Beiträge, am 08.10.2024 von Djehuty
cRAwler23 am 08.06.2024
11
am 08.10.2024 »
Technologie: Regierung und Justiz aus künstlichen Intelligenzen erstrebenswert?
Technologie, 26 Beiträge, am 27.12.2023 von Gucky87
Holdings am 25.01.2023, Seite: 1 2
26
am 27.12.2023 »
Technologie: Eine allwissende KI durch Quantencomputer?
Technologie, 9 Beiträge, am 05.04.2022 von Gucky87
Blicklight am 01.04.2022
9
am 05.04.2022 »