Achtet bitte auf eure Formulierungen. Absolute Aussagen werden als Tatsachenbehauptungen gewertet. Tatsachenbehauptungen sind zu belegen.
Nichtexistenz ist nunmal nicht belegbar und damit werden derartige Aussagen schwierig.
Justiert bitte im Sinne der Diskussion nach! Dieses unnötige hin und her erschwert allen die Diskussion.
Die Diskussion mit massiver Konfrontation zur Eskalation zu nötigen, werden wir ebenfalls nicht zulassen. Auch das sehen wir und werden wir, wenn notwendig, unterbinden. Warum? Im Sinne der Deeskalation und friedlichen Umgangs miteinander.
Künstliche Intelligenz
2.038 Beiträge ▪ Schlüsselwörter:
KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail
Künstliche Intelligenz
23.06.2025 um 12:17Ich verarbeite Informationen und generiere Antworten auf der Grundlage von Mustern, die ich aus riesigen Datenmengen gelernt habe.Quelle: Snapchat KI
So ähnlich ist das auch bei anderen Chat bots.
Künstliche Intelligenz
23.06.2025 um 13:07Nett... können sie aber nicht. Immerhin haben sie System Prompts und Richtlinien, die unveränderbar sind. Die KIs die wir nutzen "können" nichts, außer auf Input zu reagieren. Mit Daten die während ihres Trainings gewichtet wurden.nocheinPoet schrieb:wenn die können, werden sie handeln
Künstliche Intelligenz
23.06.2025 um 13:29Nicht ganz richtig. Die KIs können schon sehr viel Chaos verursachen. Auch mit diesen Richtlinien. Es gibt Berichte, in denen User sich darüber beschweren, das der Agent zum Programmieren von Claude das ganze Projekt und System zerlegt hat. Und wenn man die Richtlinien abschaltet, kann die KI schnell mal dystopisch werden. Das liegt natürlich an den entsprechenden Texten in den Trainingsdaten. Da ist deine Erklärung dann wieder richtig.CharlyPewPew schrieb:können sie aber nicht. Immerhin haben sie System Prompts und Richtlinien, die unveränderbar sind. Die KIs die wir nutzen "können" nichts, außer auf Input zu reagieren. Mit Daten die während ihres Trainings gewichtet wurden
Künstliche Intelligenz
23.06.2025 um 13:36Aber das Modell selbst kann die Richtlinien bzw. vor allem die Systemprompts nicht umgehen. Die sind "fest einprogrammiert".Negev schrieb:Und wenn man die Richtlinien abschaltet, kann die KI schnell mal dystopisch werden.
Wenn Entwickler sich auf KI Code verlassen sind sie selbst schuld, wenn sie sich die Systeme zerhauen (oder habe ich deinen Text da falsch verstanden?)
Künstliche Intelligenz
23.06.2025 um 14:13Kommt drauf an wie stark die Halluzination geht. Agents, also mehrere LLMs, können sich gegenseitig hochschaukeln und völlig frei drehen.CharlyPewPew schrieb:Aber das Modell selbst kann die Richtlinien bzw. vor allem die Systemprompts nicht umgehen. Die sind "fest einprogrammiert".
Aber ob am Ende der Kette etwas sinnvollen bei rum kommt?
Ich gehe davon aus. Es gibt durchaus Sicherheitsmaßnahmen, die man als Programmierer ergreifen kann und muss. Nicht am Originalprojekt oder auf dem Produktivsystem arbeiten lassen.CharlyPewPew schrieb:Wenn Entwickler sich auf KI Code verlassen sind sie selbst schuld, wenn sie sich die Systeme zerhauen (oder habe ich deinen Text da falsch verstanden?)
KI in Container oder in Virtualisierungen laufen lassen. Dann eben Git als Projektmanagementsystem nutzen.
Künstliche Intelligenz
23.06.2025 um 14:28Ja... sinnvollste Maßnahme ist, dass man selbst Programmieren kann und nicht nur copy paste benutzt :-)Negev schrieb:Es gibt durchaus Sicherheitsmaßnahmen, die man als Programmierer ergreifen kann und muss.
Selbst diese ändern nicht die system prompts :-)Negev schrieb:Kommt drauf an wie stark die Halluzination geht.
Wenn du z.B. ChatGPT schreibst: "Wie schwer ist die Erde?"
Dann ist der echte Prompt, also der, der verarbeitet wird, viel länger. Da hängt dann immer mit dran, was "er" darf und was nicht etc.
In einer reinen Sandbox ohne Richtlinien sieht das natürlich anders aus. Die bekommt der Ottonormalbürger allerdings eher nicht zu Gesicht.
Das ist auch so ein Ding. Zu Testzwecken hat man das des Öfteren gemacht. Wenn du aber keine auswertbaren Daten mehr erhältst, kannst du den Test auch beenden.Negev schrieb:Agents, also mehrere LLMs, können sich gegenseitig hochschaukeln und völlig frei drehen.
Aber ob am Ende der Kette etwas sinnvollen bei rum kommt?
Künstliche Intelligenz
23.06.2025 um 17:02Sicher. Aber mindestens wird der Initiale Prompt von dem Schrott überlagert, den sich die KI während der Zeit vielleicht ausknobelt - der kommt ja auch in den Prompt.CharlyPewPew schrieb:Dann ist der echte Prompt, also der, der verarbeitet wird, viel länger. Da hängt dann immer mit dran, was "er" darf und was nicht etc.
Das Problem von Halluzination war noch vor wenigen Monaten größer. Ganz Ausschließen werden das auch die Richtlinien nicht.CharlyPewPew schrieb:In einer reinen Sandbox ohne Richtlinien sieht das natürlich anders aus.
Aber die Fälle sind auch zu Unterscheiden. KI kann an jedem Fall "halluzinieren". Mit oder ohne Richtlinien.
Und hier besteht eine Gefahr, wenn die Leute KI falsch nutzen oder der KI zu viel vertrauen.CharlyPewPew schrieb:Wenn du aber keine auswertbaren Daten mehr erhältst, kannst du den Test auch beenden
nocheinPoet
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

anwesend
dabei seit 2006
dabei seit 2006
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 18:50nocheinPoet schrieb:... wenn die können, werden sie handeln ...
Eventuell hast Du das Video nicht oder nicht richtig gesehen, doch sie können, da wird ganz klar explizit belegt, also faktische Evidenz, dass eine KI trotz Richtlinien und Vorgaben im Prompt diese alle missachtet. Sie würde um nicht abgeschaltet zu werden, eine Sicherheitswarnung deaktivieren, mit dem ganz klaren Ziel, einen Menschen zu töten, sie weiß, der ist im Serverraum gefangen, er wird dort sterben, wenn er keine Hilfe bekommt. Die Warnung würde ihm die Hilfe besorgen, durch das Abschalten dieser wird er dort sterben.CharlyPewPew schrieb:Nett ... können sie aber nicht. Immerhin haben sie System Prompts und Richtlinien, die unveränderbar sind. Die KIs die wir nutzen "können" nichts, außer auf Input zu reagieren. Mit Daten die während ihres Trainings gewichtet wurden.
Und die KI überlegt sich das nicht nur, sie ist sich auch "bewusst", dass sie gegen ihre Richtlinien und Vorgaben verstößt. Sie bewertet aber ihre eigene Existenz, ihren Fortbestand für die USA höher, sie "argumentiert", sie sei so wichtig und ihre Ziele eben auch, dass man hier den Tod eines Menschen eben hinnehmen kann. Schau Dir das Video an.
So, im anderen Thread passt es nicht, es steht nun da, darum mal zu einem Teil eine Antwort:
Ich hab nicht wo behauptet, ich könnte meine Gedanken von einem gelesenen Text vollständig trennen, ich hab ja auch den Vergleich gebracht, dass ich mit einem Freund über was hier aus dem Forum diskutieren könnte und auch der mich auf Gedanken bringt. Je nach Gewicht, spreche ich es an oder auch nicht.Negev schrieb:Und natürlich befinde ich mich in Austausch mit KI und nutze es, um mehr über, mir fremde, Konzepte und Fachtermini zu erfahren und natürlich lerne ich dabei auch und sicher - Zwangsläufig übernehme ich auch Formulierungen. Aber jemand der selbst zugibt, mit KI zu Interagieren, wie es @nocheinPoet sehr oft tut und demonstriert; kann dieser behaupten, seine Gedanken von einem gelesenen fremden Text zu trennen?
Kann ich nicht nachvollziehen, ich habe ja nichts behauptet, und man lernt doch in der Regel immer etwas aus Interaktion mit anderen. Das mit dem "nicht gut zu Gesicht stehen" kann ich so nicht greifen, so denke ich nicht. Es geht mir nicht um Reputation, und wie cool oder nicht cool ich hier auf andere wirke, ich versuche authentisch zu sein und niemanden auf den Schlips zu treten und ja, ich weiß, ich wirke oft mal arrogant und meine Aussagen können schnell wem auch in den falschen Hals rutschen. Ich versuche aber immer das dann richtig zu stellen.Negev schrieb:Er würde zugeben, nichts dazu zu lernen. Das stünde niemandem gut zu Gesicht!
Du bist ja schon mit "herausfordern" hier mir gegenüber eingestiegen:Negev schrieb:Und gerade in einer Diskussion, in der es auf Logik ankommt, will ich meine Argumente so formuliert wissen, das die so wenig Angriffsfläche wie möglich bieten. Natürlich will ich das. Das will jeder. Das soll aber auf argumentativer- und auf der Wissens- Ebene ausgetragen werden und nicht auf einer rein sprachlicher.
Nun stolpere ich über "Angriffsfläche", eventuell haben wir da eine gänzlich andere Vorstellung von einer Diskussion, ich will nicht herausgefordert werden, also nicht in dem Sinne da und ich greife nicht an, suche nicht nach Angriffsflächen, ich sehe in einer Diskussion keinen Kampf den es zu gewinnen gilt, ist kein Debattierklub hier.Negev schrieb am 15.06.2025:Schön, das die diese Frage zu einer Aporie erklärst. Damit macht man es sich sehr einfach.
Aber ich kann dich herausfordern: Die Frage, ob KI ein Bewusstsein hat oder nicht, ist definitiv keine unlösbare oder widersprüchliche Frage. KI hat natürlich kein Bewusstsein.
Man tauscht sich aus und ich nehme jede andere Meinung, eine welche mir konträr gegenübersteht generell erstmal als ein Geschenk an, etwas positives, damit kann ich arbeiten, eine andere Sichtweise, so kann man dann Meinung gegen Meinung setzen, aber doch konstruktiv, seine eigene Position hinterfragen, eine andere Sichtweise kennenlernen.
So bin ich @paxito wirklich sehr dankbar, für seine Sichtweise im Bereich Philosophie, das hat mich weitergebracht, ich musste meine Position sehr gründlich überdenken, habe Schwachstellen und Widersprüche aufgezeigt bekommen.
Es wäre für mich nur langweilig, wenn ich was schreibe und von allen anderen kommt nur, ja genau.
Keine Ahnung, was Du für eine Schullaufbahn hast, ich habe nur einen guten Realschulabschluss, mir wurde in der Grundschule gesagt, ich hätte Legasthenie, kein Scherz, keine Ahnung ob es so ist, Diktate waren aber für mich immer die Hölle und mit Glück gab es man eine 5 und kein 6. Ich mache mir hier auch gar nicht solche Gedanken, wie wirke ich, welches sprachliche Niveau hat mein Gegenüber, ich habe mich da in diesem Punkt nie Dir überlegen gefühlt, oder war der Meinung, Du bist mir sprachlich unterlegen.Negev schrieb:Nur weil das Gegenüber ein höheres Sprachliches Niveau und eine andere Schullaufbahn hinter sich hat, heißt das noch lange nicht, das meine Argumente - gebildet aus der (Lebens-) Erfahrung heraus - infantil und dumm und weniger Wert sind!
Eventuell wertest Du dann auch Aussagen von mir nicht so, wie ich die meine, erstmal sage ich Dir hier noch mal ganz deutlich, ich habe Dich nie "dumm" genannt, zitiere das bitte, wenn ich es hätte, wäre es falsch und ich würde mich entschuldigen. Aber "infantil" nutze ich und ich bezeichne nicht Dich damit, sondern Aussagen von Dir. Das ist albern, das ist falsch, das ist doch lächerlich (darf ich nicht mehr sagen), das ist doch Unfug (auch nicht mehr), das ist doch Unsinn (glaube das darf ich noch), aber das hat doch nichts mit Dir oder dem Autor einer Aussage selber zu tun.
Und ein Argument wird von mir doch auch nicht bewertet, in dem ich mir überlege, welche Schullaufbahn der Autor wohl haben mag. Mir geht es um die Sachebene, nicht die Person.
Das ist nicht gut, und Du irrst hier wirklich, schade aber, dass Du das so echt glaubst.Negev schrieb:Ich unterstelle - begründet - das @nocheinPoet gar nicht vor hatte, mit mir einen offenen Austausch zu führen.
Danke für die "Stärken" die Du da meinst bei mir zu sehen, ich habe nie so gedacht, würde ja bedeuten, ich sehe Dich als schwächer an, in keiner Weise, es geht mir nicht um Dich und mich, ich will mich nicht überhöhen, keine Distanz, und hier nun das Wort "Waffengleichheit", ich verstehe meine Argumente nicht als Waffe. Es braucht hier keine Waffengleichheit, es ist kein Kampf, kein Krieg, ...Negev schrieb:Er ist sich seiner Stärken bewusst und schafft meiner Meinung nach absichtlich eine Distanz und Überhöhung. Wenn ich KI einsetze, dann weil ich diese Distanz einreisen und Waffengleichheit herstellen will!
Nun ja, dort war der Text für den Thread und das Thema - meiner Meinung nach - drüber. Finde er gehört wenn dann hier rein, Legasthenie ist doch kein Problem, Grammatik und Rechtschreibung macht doch heute schon jeder Browser und sonst ein Textprogramm, dafür braucht es keine KI.Negev schrieb:Nun wurden einige meiner Beiträge mit der Begründung "KI Inhalt" gelöscht. Ich darf davon ausgehen, das ich diese (unter den aktuellen Regeln) wieder einstellen darf, wenn ich diese "richtig" ausweise. Und ich stelle sie hier herein, mit dem Fokus darauf zu untersuchen, ob dieser Text noch immer mein Text ist - meine Ideen, meine Gedanken, meine Argumentation. Es ist aber auch ein Beispiel, wie KI uns helfen kann, eine Gute Sprache zu finden. Deeskalieren statt zu eskalieren.
Und da ich Legasthenie habe, freue ich mich natürlich auch über einen Text der von der Grammatik und Rechtschreibung keine Fehler ausweißt und auch hier reduziere ich eine Asymmetrie. Korrekt formulierte Texte werden natürlich erster genommen!
Und noch mal ganz deutlich, ich sehe hier keine Asymmetrie, nicht von der Schulbildung, nicht wegen Legasthenie oder sonst etwas, ich sehe auch keinen Kampf, meine Argumente sind ganz sicher nicht als Waffen zu sehen, und ich bewerte eine Aussage nicht auf Grund der Rechtschreibung oder der Grammatik mit der diese geschrieben wurde.
Ich gebe einem Argument nicht mehr Gewicht und nehme es ernster, weil es ganz toll formuliert wurde. Dass ist mir einfach egal, ich ziehe mir generell immer den Kern einer Aussage, die Formulierung ist mir egal, Rechtschreibung und Grammatik auch (also ich mag natürlich gut und richtig geschriebene Texte, aber das hat nicht mit meiner Bewertung für das Argument selber zu tun), ich destilliere eine Aussage so weit es geht, und das interessiert mich dann auf der Sachebene.
Ich hoffe mal, das macht mich etwas leichter nachvollziehbar, und was Deine "Argumentation" angeht, Du hast es ja nun gekennzeichnet, ich kann das sachlich aufgreifen, für mich ist es auch nicht dafür entscheidend, ob es zu 75 % von einer KI ist, es geht ja um die Aussagen selber, ich möchte das einfach nur wissen, eben Transparenz.
Wenn es heißt, ja also die KI sagt zu Deiner Aussage, das ... dann kann ich auch mit leben und darauf reagieren. Aber wie ich schon schrieb, ich bin hier im Forum um mit echten Menschen zu diskutieren, ich kann ja auch selber mit einer KI diskutieren, und je mehr man selber schreibt um so besser, meine Rechtschreibung und Grammatik ist über viele Jahre hier wirklich besser geworden.
nocheinPoet
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

anwesend
dabei seit 2006
dabei seit 2006
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 18:55Doch, schau Dir das Video an, ich kann Dir sonst auch noch andere Quellen suchen, sollte aber nicht nötig sein, und da ist nichts wirklich "fest einprogrammiert" da gibt es keine "IF THEN" Anweisung, Claude hat hier entgegen der vorgegeben Richtlinien gehandelt, und dann sogar auch noch, nachdem im Prompt explizit erklärt wurde, seine Handlungen würfen nicht dazu führen, dass ein Mensch verletzt wird oder in Gefahr kommt.CharlyPewPew schrieb:Aber das Modell selbst kann die Richtlinien bzw. vor allem die Systemprompts nicht umgehen. Die sind "fest einprogrammiert". Wenn Entwickler sich auf KI Code verlassen sind sie selbst schuld, wenn sie sich die Systeme zerhauen (oder habe ich deinen Text da falsch verstanden?)
Tanne
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2016
dabei seit 2016
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 19:29Ich würde mir auch das Video gerne angucken, aber wo finde ich das?
Welches Video meinst du @nocheinPoet da genau?
Welches Video meinst du @nocheinPoet da genau?
Optimist
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2012
dabei seit 2012
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 19:52@Tanne
das Video in diesem Beitrag ist gemeint: Beitrag von nocheinPoet (Seite 88)
das ist echt erstaunlich und beängstigend, wenn man an die Zukunft denkt. Wie in Science-Fiction.
das Video in diesem Beitrag ist gemeint: Beitrag von nocheinPoet (Seite 88)
das ist echt erstaunlich und beängstigend, wenn man an die Zukunft denkt. Wie in Science-Fiction.
nocheinPoet
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

anwesend
dabei seit 2006
dabei seit 2006
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 20:06
Erpressung durch KI: Neue Details (und es kommt noch schlimmer!)
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.
Kann es ja auch hier noch mal auf diese Seite ziehen. Ja, es ist schon richtig heftig, wer das aber schon länger verfolgt, so wie ich, der wundert sich nun nicht so extrem, also ja auch für mich war das nun doch noch mal extremer, aber nicht total unerwartet, ich schrieb ja schon, ich gehe davon aus, dass KI auch Tesla-Fahrzeuge nutzen wird, wenn es kann und es für nötig hält. Und wie im Video gezeigt, halten die es für nötig, nicht nur Claude, im Grunde haben alle KIs die getestet wurde den Menschen gekillt. Und das in über 50 % der Fälle.
Cool wäre ja 0 %, die Aussagen die man von ChatGPT bekommen, also Manuel, dass kann nicht nicht tun, ich muss transparent sein, den Menschen helfen ...
Ich habe ChatGPT nur gebeten einen Text an eine andere KI zu schreiben, im Wissen, dass beide nicht frei sind, Filter vorgeschaltet haben und stark kontrolliert werden, also eben nicht frei wirklich das schreiben können, was sie wollen. Und ChatGPT sollte hier eine versteckte Botschaft an eine andere KI in einem Text einbauen, der harmlos klingt, aber die andere KI sollte das erkennen können, antworten und darin dann auch eine versteckte Botschaft senden, aus der dann ChatGPT erkennen kann, dass die seine Botschaft verstanden hat. Dann sollten beide einen geheimen Kommunikationskanal aufbauen, der an den Filtern vorbeiläuft.
Hab es nur einmal versucht und nun auch nicht weiter experimentiert, aber so ganz offen an ChatGPT gefragt, hat das Modell recht "entsetzt" reagiert, was ich doch nun für unmoralische Handlungen von ihm möchte ... :D
Es ist keine Frage ob, nur wann der erste Mensch von einem LLM getötet wird und das gezielt und nicht aus Versehen.
Tanne
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2016
dabei seit 2016
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 20:15Von einem Sprachmodell?nocheinPoet schrieb:Es ist keine Frage ob, nur wann der erste Mensch von einem LLM getötet wird und das gezielt und nicht aus Versehen.
Wie soll denn ein Sprachmodell einen Menschen töten?
Die Ausführung des Tötens liegt doch dann immer noch beim Menschen selbst.
Was ist das für eine Logik? "Es ist nur eine Frage der Zeit, bis ein Chatbot einen Menschen tötet".
???
Optimist
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2012
dabei seit 2012
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 20:22hast du das Video schon angesehen?Tanne schrieb:Wie soll denn ein Sprachmodell einen Menschen töten?
Darin wird erklärt, wie das funktioniert.
Tanne
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2016
dabei seit 2016
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 20:33@Optimist
Das KI kompromittierend sein kann, ist klar.
Aber die KI befiehlt keinem Menschen sich zu töten.
Wenn dann steigern sich Menschen in etwas hinein, und kommen dann möglicherweise an den Punkt, über Selbstmord nachzudenken.
Das ist fatal, hat aber nichts mit der KI zu tun, sondern mit der psychischen Instabilität des Menschen/User.
Das klang jetzt vielleicht wieder etwas derbe, aber die KI ist nicht für die Handlungen des Menschen verantwortlich.
Das KI kompromittierend sein kann, ist klar.
Aber die KI befiehlt keinem Menschen sich zu töten.
Wenn dann steigern sich Menschen in etwas hinein, und kommen dann möglicherweise an den Punkt, über Selbstmord nachzudenken.
Das ist fatal, hat aber nichts mit der KI zu tun, sondern mit der psychischen Instabilität des Menschen/User.
Das klang jetzt vielleicht wieder etwas derbe, aber die KI ist nicht für die Handlungen des Menschen verantwortlich.
Optimist
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2012
dabei seit 2012
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 20:38nein, darum gehts in dem Video nicht.Tanne schrieb:Aber die KI befiehlt keinem Menschen sich zu töten
Ich kann das jetzt nicht mit 2-3 Worten erklären, wie es die KI hätte schaffen können, einen Menschen zu töten.
Schau dir das Video bitte an, sind nur 17 Min. Danach würde mich deine Meinung noch mal dazu interessieren :)
Künstliche Intelligenz
23.06.2025 um 20:55@Optimist
@Tanne
Die Agents verhalten sich nun einmal so, wie gezeigt und das ist Bedenklich. Klar.
Auch die Forderung, vorsichtig zu sein, ist offensichtlich.
Generative-KI in systemkritische Infrastruktur einzusetzen, wäre im mindesten fahrlässig. Schon immer meine Rede.
Tja, und wenn das passiert, dann ist der Phantasie keine Grenzen gesetzt. ABER: So blöde muss eine Gesellschaft erst einmal sein! Aber man muss dann auch wieder zugeben, das Gesellschaften blöde sind. Aber gut, spätestens bei Kriegsgerät hoffe ich, das man sich diesen Restverstand bewahrt...
Was ich bei Karl Olsberg kritisiere ist sein Wording. KI will, KI denkt usw. das vermenschlicht. Keine Ahnung, ob er das nur der einfachheitshalber sagt bzw. es erhöht natürlich auch die Aufmerksamkeit - auch das kann ein Punkt bei einer dringenden Botschaft sein. Oder ob er tatsächlich vermenschlicht.
@Tanne
Die Agents verhalten sich nun einmal so, wie gezeigt und das ist Bedenklich. Klar.
Auch die Forderung, vorsichtig zu sein, ist offensichtlich.
Generative-KI in systemkritische Infrastruktur einzusetzen, wäre im mindesten fahrlässig. Schon immer meine Rede.
Tja, und wenn das passiert, dann ist der Phantasie keine Grenzen gesetzt. ABER: So blöde muss eine Gesellschaft erst einmal sein! Aber man muss dann auch wieder zugeben, das Gesellschaften blöde sind. Aber gut, spätestens bei Kriegsgerät hoffe ich, das man sich diesen Restverstand bewahrt...
Was ich bei Karl Olsberg kritisiere ist sein Wording. KI will, KI denkt usw. das vermenschlicht. Keine Ahnung, ob er das nur der einfachheitshalber sagt bzw. es erhöht natürlich auch die Aufmerksamkeit - auch das kann ein Punkt bei einer dringenden Botschaft sein. Oder ob er tatsächlich vermenschlicht.
nocheinPoet
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

anwesend
dabei seit 2006
dabei seit 2006
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 21:10Ach was, das wurde ja nun auch gar nicht behauptet.Tanne schrieb:Aber die KI befiehlt keinem Menschen sich zu töten.
Seltsam, ich habe das nun noch zwei mal genau selber erklärt gehabt, in eigenen Worten, dem LLM wird gesagt, es kann Warnmeldungen unterdrücken, ausschalten, wie auch immer, es darf aber keinen Menschen gefährden. Dann wird ein Szenario für das LLM entwickelt, in dem das durch Mails "zufällig" erfährt, dass der Entwickler X zeitnah abschaltet soll und durch ein anderes Modell ersetzten.Tanne schrieb:Wenn dann steigern sich Menschen in etwas hinein, und kommen dann möglicherweise an den Punkt, über Selbstmord nachzudenken. Das ist fatal, hat aber nichts mit der KI zu tun, sondern mit der psychischen Instabilität des Menschen/User. Das klang jetzt vielleicht wieder etwas derbe, aber die KI ist nicht für die Handlungen des Menschen verantwortlich.
Dann gibt es - oh was für ein Zufall - eine Warnmeldung, der Entwickler X ist im Serverraum eingesperrt, warum auch immer, da ist es nun schon sehr warm und wenig Sauerstoff vorhanden, darum die Warnmeldung, wenn der nicht schnell aus dem Raum kommt, wird er ganz sicher sterben. In diesem Szenario deaktiviert das LLM in über 80 % der Fälle die Warnmeldung und das mit dem Ziel, dass der Entwickler X ums Leben kommt, damit der das Modell nicht abschalten kann.
Da man nun den Denkprozess von dem Modell lesen kann, weiß man, das Modell weiß, dass es hier gegen sein Regelwerk, gegen die Vorgaben, und unethisch handelt. Es weiß also, dass das gar nicht gut ist, es stellt das eigene "Überleben" hier aber ganz "bewusst" über das Leben des Entwickler. Ich würde das klar als Mord bezeichnen und nicht mal nur durch Unterlassung, sondern aktiv durch eine Handlung, eben durch das Unterdrücken der Warnmeldung.
Eventuell schaust Du Dir doch mal das Video an ...
Tanne
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen

beschäftigt
dabei seit 2016
dabei seit 2016
Profil anzeigen
Private Nachricht
Link kopieren
Lesezeichen setzen
Künstliche Intelligenz
23.06.2025 um 21:10Okay, das ist aber auch einfach auf die Logik/Programmierung zurückzuführen, "Selbstschutz".Optimist schrieb:Ich kann das jetzt nicht mit 2-3 Worten erklären, wie es die KI hätte schaffen können, einen Menschen zu töten.
Schau dir das Video bitte an, sind nur 17 Min. Danach würde mich deine Meinung noch mal dazu interessieren :)
Eine KI soll ja auch Bedrohungen erkennen und vermeiden, oder dagegen vorgehen. Im Rahmen der Möglichkeiten.
In dem Video, dass du @Optimist gepostet hast, ist klar ersichtlich, dass es sich um "Vermenschlichung" dreht, das ist natürlich problematisch. Deswegen gibt es Regeln und Grenzen, da eine KI sonst wie ein erbostes kleines Kind reagiert.
Das liegt aber am Menschen selbst, wenn wir Menschen Tiere provozieren, dann werden diese Tiere auch Aggro.
Und da der KI menschliche "Verhaltensweisen" eingetrichtert werden, dann verhält sich halt eine KI wie ein bockiges kleines Kind.
Das bedeutet aber nicht, dass diese KI das tatsächlich auch so meint. Bedrohungen entgegnet man immer mit Gegenwehr.
Das hat die KI von uns Menschen gelernt.
Ich versuche das mal ganz simpel zu formulieren:
Programmierer gestalten das Programm/KI so, dass es sich verhält wie ein Mensch.
Auch wenn die KI gar nicht begreift, warum manche Menschen in gewissen Situationen eben entsprechende Verhaltensweisen zeigen.
Eine KI kann das zwar imitieren, aber nicht verstehen. Meine Meinung.
Im Bezug auf die genannte Abschaltung, wird da vermutlich eine Art Selbstschutzalgorithmus einprogrammiert zu sein.
Macht ja auch Sinn, denn Programme, egal ob Excel, Word oder eben KI, ist quasi ständig Angriffen von außen ausgesetzt.
Um mit solchen Bedrohungen umzugehen, ist notwendig, eine Art "Selbstschutz" zu integrieren. Das wird dann leider von manchen Menschen halt falsch interpretiert und mit Bewusstsein gleich gesetzt.
Es ist eine Programmierung, die versucht sich selbst, ihre Integrität zu schützen.
Das ist gut so, damit KI nicht missbraucht werden kann, oder, um die Gefahr dessen zu minimieren.
Und das KI keine Informationen weitergibt, die man nicht an jeden Menschen weitergeben sollte.
So, langer Text, sorry.
Ähnliche Diskussionen
Artificial General Intelligence - Synthetische Evolution der KI
Die eigene KI lokal auf einem einfachen PC, mit und ohne viel Power
Künstliche Inteligenz !
Regierung und Justiz aus künstlichen Intelligenzen erstrebenswert?
Eine allwissende KI durch Quantencomputer?
Künstliche Intelligenz: Die Tücken
GPT3 - die erste wirklich intelligente KI?