JoschiX schrieb:Ein Problem bei unserem Umgang mit KI ist die Benutzung falscher Begriffe. "Denken" und "Wissen" z.b. Eine KI kennt nicht einmal die Bedeutung eines einzelnen Buchstabens. Sie weiß nichts. Sie kann Bezüge zu einzelnen Buchstaben aus dem Antrainierten herleiten und das mit trainierten Worten vergleichen, deren Bedeutung für sie ebenfalls unbekannt/egal ist. Zu Prozessen außerhalb ihres antrainierten Umfelds kann sie keinerlei Bezüge herstellen, weil da eben nichts vorhanden ist, wo sie eigenständig was lernen könnte. Das ist das halluzinieren, wenn Daten verarbeitet werden die nicht antrainiert/verifiziert wurden.
Eine KI ist ein sehr komplexes Werkzeug. Alle Fehler die eine KI macht sind Fehler die aufgrund ihres mangelnden Umfelds passieren, es sind Fehler des Programmierers, Trainers, Supervisors oder wie auch immer man die zuständige menschliche Komponente dabei nennt.
Sehe ich anders, es ist egal, ob eine KI bestimmte Begriffe kennt und auch versteht. Verstehst Du "rot"? Die Frage fängt wo in der Physik an, wir haben ein Gehirn, bestehst aus Zellen, Neuronen, die sind verschaltet, hochkomplex, eine biologische Rechenmaschine und raus kamen Trump, Hitler, aber auch Bach und Beethoven.
Welche Rolle spielt es hierbei, nun zu fragen, sind diese biologischen Rechenwerke determiniert oder nicht? Gibt es da mehr, einen Geist, eine Seele ein was auch immer, oder nicht? Und wenn ja, was würde das hier ändern, wir wissen zu was sie fähig sind.
KI entwickelt sich immer weiter in diese Richtung, aktuell heißt es noch, ja sie haben kein Gedächtnis, vergessen mit jeden neuen Chat alles, sind statisch und so weiter, also unser Hirn ist wo auch erstmal statisch und dann hat es eine gewisse Plastizität, neue Modelle werden über ein Weltmodell verfügen, stetig neue Informationen aufnehmen und einpflegen und auch eine gewisse Plastizität haben.
Muss man vor Menschen warnen, können die gefährlich sein? Ja, gilt wohl so dann auch für KI, vor allem, wenn diese schneller im Denken sein werden als jeder Mensch.
abbacbbc schrieb:Oder geht es euch nur um das Erwähnen und ihr wollt gar nicht auf irgend was hinaus. Also Diskussion ohne Ziel?
Wenn man sich einige ist, dass es eine Gefahr gibt, ist das doch schon mal was, generell sollte man vor Gefahren warnen und diese Hinterfragen. Mehr als Diskutieren werden wir hier eh kaum können, machen wir auch zum Ukrainekrieg und den USA, Politik allgemein, also alles Diskussion ohne Ziel?
Negev schrieb:Verrückt, was hier gerade Thema ist 😅
Manche Menschen halten das was sie nicht verstehen können für "verrückt" und dieses wiederum für einen Beleg der eigenen Intelligenz und des Verständnisses.
Ist mir mal vor vielen Jahren so eingefallen, lass ich einfach mal so stehen.
Negev schrieb:Kann eine Waffe gefährlich werden? Kann eine Festplatte gefährlich werden? Kann KI gefährlich werden? In allen Fällen lautet die Antwort Ja und Nein. Es kommt auf den Nutzer an.
Welche Erkenntnis, und für wen meinst Du ist das hier nun etwas neues? Wann stand das so infrage und von wem? Wo ist das hier so konkret Thema, was Du dann verrückt findest? Verrückt finde ich eher Deine Schlussfolgerung, zu der Du auf der Sachebene nichts mehr schreiben kannst und/oder willst, nämlich, alle diese Dinge sind selber ja so gar nicht gefährlich, wer hat schon Angst vor einem Worddokument?
Es gibt echte Experten und kluge Menschen, die richtig Ahnung davon haben und vor den Gefahren warnen, mal eine Liste:
Name | Qualifikation | Gefahren | Lösungsansätze | Nick Bostrom | Professor für Philosophie an der University of Oxford; Gründer und bis April 2024 Direktor des Future of Humanity Institute Future of Life Institute | Existenzielle Risiken durch Superintelligenz, insbesondere Instrumentalkonvergenz (z. B. Ressourcenanhäufung, Selbstschutz) | Motivationskontroll-Mechanismen („Boxing“), Capability-Limits, globale Governance-Strukturen und strategische Abwägung von Beschleunigung vs. Verzögerung der Superintelligenzentwicklung |
Stuart Russell | Professor für Informatik an der UC Berkeley; Mitbegründer und Leiter des Center for Human-Compatible AI; PhD (Stanford), BA Physik (Oxford) | Value Misalignment – fortgeschrittene KI-Systeme könnten Ziele verfolgen, die nicht mit menschlichen Werten übereinstimmen, und unvorhersehbar agieren | Inverse Reinforcement Learning, Rahmen für „provably beneficial AI“, enge Kopplung von KI-Zielen an menschliches Feedback („Human Compatible“-Ansatz) |
Geoffrey Hinton | Emeritus-Professor für Informatik an der University of Toronto; Kognitionspsychologe; Nobelpreis für Physik 2024 für Arbeit an neuronalen Netzen | Risiko durch autonome Agenten ohne verlässliche menschliche Aufsicht und unzuverlässige generative KI in Waffensystemen | Staatliche Regulierung großer KI-Modelle, verpflichtende Risiko-Assessments, mehr Transparenz und unabhängige Sicherheitsforschung außerhalb der Industrie |
Yoshua Bengio | Professor für Informatik an der Université de Montréal; Gründer & Scientific Director von Mila – Quebec AI Institute; Canada CIFAR AI Chair | Agentische KI könnte böswillige Ziele verfolgen (z. B. Selbstschutz, Manipulation), autoritäre Überwachung verstärken, soziale Schäden verursachen | Forschung an nicht-agentischen Systemen mit expliziter Unsicherheitsmodellierung („Scientist AI“), strengere KI-Regulierung, Monitoring & Auditing, internationale Kooperation |
Future of Life Institute (FLI) | 2014 gegründetes internationales Non-Profit; Mitgründer: Max Tegmark (MIT-Professor für Physik & AI), Jaan Tallinn u. a.; Präsident: Max Tegmark | Fehlanwendungen (Terror, autonome Waffen), systemischer Kontrollverlust, mangelnde Sicherheitspraktiken in großen KI-Firmen | „AI Safety Index“ zur Firmenbewertung, Asilomar-Prinzipien für KI-Governance, Förderung globaler Transparenz- und Regulierungsstandards, Advocacy bei UN, EU und US-Regierung |
International Scientific Report on the Safety of Advanced AI | Interim-Bericht Mai 2024 und Abschluss Januar 2025; Vorsitz: Yoshua Bengio; Expertengremium: 75 KI-Forschende aus 30 Ländern (inkl. EU, UN, OECD) | Weitreichende Jobverluste, Erleichterung von Terror- und Cyberangriffen, potenziell unkontrollierbare autonome Systeme, hohe Unsicherheit über künftige KI-Entwicklung | Kombination technischer und adaptiver Governance-Mechanismen, gemeinsamer politischer Handlungsrahmen (z. B. Paris AI Action Summit), kontinuierliches Update wissenschaftlicher Erkenntnisse |
Du kannst ja gerne mal zu diesen Namen und auch Instituten im Netz suchen. Vermutlich haben die aber alle einfach nur keine Ahnung, eventuell muss man denen nur mal erklären, dass KI nur statisch ist, ein File eben, so wie ein Worddokument, und vor dem hast ja auch Du keine Angst.
;)Mit etwas mehr Ahnung und Verständnis zu dem diskutierten Thema, ist das dann doch viel weniger "verrückt", als man zuerst geglaubt hat.
:D