Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.835 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 19:09
Zitat von nocheinPoetnocheinPoet schrieb:Da sind wir wieder im Bereich der Spekulation, wir wissen nicht sicher, ob und welche emotionale Tiefe eine KI haben kann.
Zitat von TanneTanne schrieb:Ja, weil es keinen Beweis dafür gibt. Wie oft denn nun noch?
Ja, keine Beweise bedeutet aber eben nicht, dass da nichts ist, nur wir haben keine Beweise dafür, dass lässt die Möglichkeit offen, dass da was sein könnte und es könnte gefährlich sein. Wobei das am Ende nicht entscheidend ist, ob Du der KI welche Deinen Partner gekillt hat, nun eine emotionale Tiefe zugestehst oder nicht.

Und ich spreche das an, weil Deine Beiträge eben so klingen, als wäre das ja ein Fakt, dass da nichts ist, keine Tiefe, kein Gefühl, nichts, nur ein Werkzeug, tot, eine Maschine.
Zitat von TanneTanne schrieb:Für eine KI wäre das völlig Pille Palle, weil sie eben nicht die emotionale Tiefe hat, die ein Mensch in solch prekären Situationen erlebt.
Es ist und wird in einer Diskussion eben problematisch, wenn Spekulationen, Mutmaßungen oder Annahmen als Basis für neue Aussagen genommen werden, weil man hier beliebiges Schlussfolgern könnte. Zu "argumentieren", ja aber weil eine KI ja nichts fühlt, ist es eben so und so und so, ist schwierig. Jede Schlussfolgerung ist dann auch nur spekulativ und man stapelt dann eben Spekulation auf Spekulation.


Zitat von nocheinPoetnocheinPoet schrieb:Altes Problem, dass ist alles so nur Deine Meinung, kein Wissen, ...
Zitat von TanneTanne schrieb:Ich habe Erfahrungen und Wissen.
Bestreite ich ja generell nicht, aber in diesem konkreten Punkt, kannst Du eben kein Wissen haben.
Zitat von TanneTanne schrieb:Ich finde es auch heftig, dass du jetzt die KI da als Beispiel nennst, denn, der KI ist es egal, aber die Menschen die von solchen Kriegserlebnissen gezeichnet sind, haben da nicht solche moralischen/psychische Auswirkungen. KI macht einfach, Mensch erlebt und denkt über das Erlebte nach. KI hat da nicht das Problem bezüglich der Emotionen, wie sehr einem das mitnimmt, was man im Krieg erlebt und fühlt. KI führt einfach aus, erledigt, die hat da kein Empfinden.
Das ist eben nur Deine Annahme, eine Annahme, siehst Du nicht alleine so, aber es ist kein Wissen, wir können das einfach nicht wissen, wir können davon ausgehen, und dann unschön überrascht werden, wenn es dann doch auf mal ganz anders ausschaut, es gibt hier einfach nicht diese Sicherheit, welche Du da so in Deine Worte legst. Pillepalle, kein Problem, harmlos, da ist nichts hinter, die fühlen nichts, nur ein Programm, ...


Zitat von nocheinPoetnocheinPoet schrieb:Meine Aussage ist recht klar, ich sage, die Gefahr es noch schlimmer zu machen, sehe ich nicht so groß, Menschen machen schon so viele schlimme Dinge, ein KI könnte da nicht wirklich viel schlimmer sein.
Zitat von TanneTanne schrieb:Es geht doch auch nicht darum, ob KI schlimmer sein kann als Menschen sein können. Es geht darum, dass ein gewisses Gefahrenpotenzial besteht.
Wir diskutieren hier, Du kannst das Thema nicht bestimmen oder die Richtung, für mich geht es eben auch darum, wie gefährlich eine KI sein kann, ob sie gefährlicher sein kann, als Menschen selber schon sind.


Zitat von TanneTanne schrieb:Wieso drehst du dich denn da so im Kreis?
Mache ich nicht, magst Du so empfinden, ist aber nicht der Fall.


Zitat von TanneTanne schrieb:Ich und andere User haben das nun schon weiß ich wie oft beschrieben.
Du meinst redundant beschrieben? Das ist nicht unüblich, dass Dinge öfter mal unterschiedlich in einer Diskussion beschrieben werden, haben andere User und ich ja auch Dir.


Zitat von TanneTanne schrieb:Nun kommst du mir aber wieder mit solch einem Beitrag. Also, nee.
Das ist add hominem, eine persönliche Wertung, der Beitrag mag Dir nicht gefallen, dann toleriere es, und stecke Dir solche Aussagen, dass ist abwerten und provokativ. Wir wollen doch beide auf der Sachebene bleiben, diese Aussage ist nicht sachlich, bringt nicht, erkennst Du sicher auch selber, freut mich, wenn wir uns da dann einig sind.


2x zitiertmelden

Künstliche Intelligenz

gestern um 19:16
Zitat von nocheinPoetnocheinPoet schrieb:Ja, keine Beweise bedeutet aber eben nicht, dass da nichts ist, nur wir haben keine Beweise dafür, dass lässt die Möglichkeit offen, dass da was sein könnte und es könnte gefährlich sein. Wobei das am Ende nicht entscheidend ist, ob Du der KI welche Deinen Partner gekillt hat, nun eine emotionale Tiefe zugestehst oder nicht.

Und ich spreche das an, weil Deine Beiträge eben so klingen, als wäre das ja ein Fakt, dass da nichts ist, keine Tiefe, kein Gefühl, nichts, nur ein Werkzeug, tot, eine Maschine.
Es ist meine Meinung, das da kein Gefühl ist.
Das irgendeine KI ein Gefühl hat, wurde nicht bewiesen.
Und wieder drehst du dich da mit mir im Kreis.

Mir reicht es jetzt. #ignorelist


1x zitiertmelden

Künstliche Intelligenz

gestern um 19:17
Zitat von behind_eyesbehind_eyes schrieb:Bester Thread z.Zt. für mich. Das Video mit der Entscheidung für den Tod eines Menschen ist beeindruckend.
Ja ist interessant, aber auch ansträngend, den Thread findest Du sicherlich auch wegen meinen tollen und so hochqualifizierten Beiträgen so toll, oder? :D

Und ja, ernsthaft, das Video ist mehr als nur beeindruckend, vor allem wenn man mal schaut, wie es so allgemein mit Sicherheitsbewertungen und Risikoanalysen in der Industrie ausschaut, was es da an Vorgaben gibt, wie viel mehr ein Bauteil aushalten muss, bevor es bricht.

Man stelle sich vor, Brücken würden so gebaut werden, in 80 % der Fälle stürzen die einfach nach ein paar Jahren ein, ist eben so, Schwamm drüber. Die Gefahr wird nicht nur unterschätzt, sie wird verschwiegen, ich habe hier schon einige Videos dazu gebracht, auch wie Mitarbeiter bei AI ausgestiegen sind, weil sie meinten, was sie da machen ist gefährlich, sie können es moralisch nicht verantworten.


melden

Künstliche Intelligenz

gestern um 19:23
Zitat von nocheinPoetnocheinPoet schrieb:Ja, keine Beweise bedeutet aber eben nicht, dass da nichts ist, nur wir haben keine Beweise dafür, dass lässt die Möglichkeit offen, dass da was sein könnte und es könnte gefährlich sein. Wobei das am Ende nicht entscheidend ist, ob Du der KI welche Deinen Partner gekillt hat, nun eine emotionale Tiefe zugestehst oder nicht. Und ich spreche das an, weil Deine Beiträge eben so klingen, als wäre das ja ein Fakt, dass da nichts ist, keine Tiefe, kein Gefühl, nichts, nur ein Werkzeug, tot, eine Maschine.
Zitat von TanneTanne schrieb:Es ist meine Meinung, das da kein Gefühl ist.
Haben nun wirklich alle mitbekommen.


Zitat von TanneTanne schrieb:Das irgendeine KI ein Gefühl hat, wurde nicht bewiesen.
Ja, mehr aber auch nicht, wird man auch nie beweisen können, belegt aber nicht, dass die kein Gefühl haben. Bei Dir wird aber immer wieder genau das daraus, aus Deiner Meinung schraubst Du dann neue Tatsachenbehauptungen und Schlussfolgerungen und bist damit leider nicht alleine.


Zitat von TanneTanne schrieb:Und wieder drehst du dich da mit mir im Kreis.
Wenn Du das machst, nicht meine Schuld, wenn Du immer wieder zurück auf Anfang springst, wird Dir eben dort genau das ins Auge fallen, was dort eben steht.


Zitat von TanneTanne schrieb:Mir reicht es jetzt. #ignorelist
Trifft mich nun nicht wirklich, aber wenn es Dir hilft, ich finde das wenig erwachsen, so mit anderen Meinungen neben der eigenen umzugehen, aber Finger in die Ohren kann ja auch mal ein Weg sein.


melden

Künstliche Intelligenz

gestern um 19:35
Zitat von NegevNegev schrieb:Was bezeichnet Emergenz? Ein einfaches System wird in Summe zu etwas komplexem. Das wird oft mit einem Vogelschwarm erklärt, der Komplexe Muster bildet. Natürlich weiß der einzelne Vogel nicht um diese Muster, weder zum aktuellen Zeitpunkt noch zu irgendeinem anderen. Für künstliche Intelligenz gilt, wir haben nie den Boden der Statistik verlassen!
Zitat von paxitopaxito schrieb:Ehm, wo ist der Zusammenhang zwischen dem letzten Satz und dem davor? Emergenz geht doch gerade davon aus, das Eigenschaften aus der Summe von Teilen entstehen können, auch wenn diese in den Teilen nicht zu erkennen sind. Wie beim Vogelschwarm. Übertragen auf die KI: selbst wenn sie nur aus einer ungeheuren Menge an Berechnungen besteht, kann sie in Summe mehr sein. Übertragen auf den Mensch: selbst wenn er nur aus einer ungeheuren Menge an Bioautomaten, sprich Zellen, besteht, kann er in Summe mehr sein.
Ja, so viel zum Begriff Emergenz, gibt da sicher noch mehr, passt aber schon. Wie Du stehe ich dem Begriff aber zwiegespalten gegenüber.


Zitat von NegevNegev schrieb:Auf dem ersten Blick trifft das genau auf die art von Phänomen zu, das wir beobachten. Vorspielen von Gefühlen und menschenähnliche Handlungen. Simulieren. Aber echtes verstehen ist das nicht. Auch wenn KI Modelle "nachdenken" - bei Releasing. Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!
Zitat von paxitopaxito schrieb:Auch hier biegst du irgendwie falsch ab. Der philosophische Zombie ist ein Gedankenexperiment um zu zeigen das du so einen „Zombie“ nicht von einem normalen Menschen unterscheiden kannst. Gilt so unisono für ne KI und wurde nun ausufernd erklärt. Bei dir kommt aber wieder ne „isso“ Aussage. Und ja, das hätte ich dann gerne begründet, belegt, bewiesen, such es dir aus.

Also explizit das hier:
Zitat von NegevNegev schrieb:Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!
Oder kennzeichne es als die persönliche Meinung, die es ist. Ernsthaft, ich dachte wir wären langsam durch mit dem Thema, da kommt der nächste Aufschlag mit faktischen Aussagen, die sich unmöglich belegen lassen.
Ja, ich dachte auch, wir wären weiter, nun lande ich beim ersten User wohl schon auf "ignore", weil es sich hier ja im Kreise dreht. Es geht ja nicht darum zu stänkern oder extrem pedantisch zu sein, zu nerven, wir intervenieren an diesem Punkt eben immer und immer wieder, weil er zentral und so wichtig ist, weil darauf aufgebaut werden will und wird. Weil damit ja "argumentiert" wird, KI ist nur ein Werkzeug, wie ein Hammer, total harmlos.

Wobei eine KI auch ohne Gefühl und Bewusstsein und Empfindungen gefährlich ist und sein kann, meiner Meinung nach noch gefährlicher, wäre sie so kalt, nur eine Maschine, könnte sie unmöglich echte Moral entwickeln, eventuell wäre es also von Vorteil, wenn da mehr wäre, auch wenn wir es nie wissen können. Aber eine "Argumentation", weil da nichts ist, ist es auch eh harmlos, da werde ich wie Du wohl auch, immer wieder intervenieren.

Und ich würde gerne mehr mit dem Thema selber weitermachen, ich hatte vorhin die rasante Entwicklung angesprochen, wie KI in wenigen Jahren 2028 ausschauen kann, Zettaflops-Supercomputer, Millionen von Agenten, LLMs die um den Faktor 100 größer sind.


3x zitiertmelden

Künstliche Intelligenz

gestern um 19:44
Da heutige und wahrscheinlich auch zukünftige KI´s an den Gödelschen Sätzen scheitern und sie nicht verstehen, zeigt deutlich das alles was nicht Algorithmisch und Logisch gelöst werden kann für Probleme sorgt. Alles was über reine Mathematik hinausgeht und menschliches Denken verlangt ist zu abstrakt für eine KI und wenn selbst diese abstrakte Denken bzw. Bewusstsein nicht simuliert werden kann, wie sollen dann Gefühle und Gedanken simuliert werden !?
Grenzen formaler Systeme
In der Informatik beruhen viele Konzepte – wie Programmiersprachen, Algorithmen und Beweissysteme – auf formalen Systemen. Gödel zeigte, dass solche Systeme niemals vollständig und widerspruchsfrei zugleich sein können, wenn sie mächtig genug sind, um einfache Arithmetik auszudrücken. Das bedeutet: Es gibt immer Probleme, die sich nicht algorithmisch lösen lassen – ein Gedanke, der später durch Alan Turings Arbeiten zur Unentscheidbarkeit (z. B. das Halteproblem) weiterentwickelt wurde
Quelle: Wikipedia
Das Unvollständigkeitstheorem hat auch Auswirkungen auf die Ethik der KI. Da es keine vollständige Theorie der Mathematik gibt, gibt es auch keine vollständige Theorie der Ethik. Dies bedeutet, dass es unmöglich ist, eine KI zu bauen, die in allen Situationen ethisch korrekt handelt. Es wird immer Fälle geben, in denen die KI versagt.

Eine weitere Auswirkung des Unvollständigkeitstheorems auf die KI ist, dass es die Notwendigkeit einer menschlichen Überprüfung betont. Da KIs unvollständig sind, ist es wichtig, dass ein Mensch ihre Arbeit überprüft und ihre Ergebnisse validiert. Ein Beispiel dafür ist der Einsatz von KI in der Medizin.
Quelle: https://wachstumshacker.de/das-unvollstaendigkeitstheorem-von-goedel-was-bedeutet-es-fuer-ki/

Youtube: Die simple Aufgabe, an der jede KI scheitert
Die simple Aufgabe, an der jede KI scheitert
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



1x zitiertmelden

Künstliche Intelligenz

gestern um 20:24
Zitat von amtraxxamtraxx schrieb:Da heutige und wahrscheinlich auch zukünftige KI´s an den Gödelschen Sätzen scheitern und sie nicht verstehen
Hm, Claude hat den Satz auf Anhieb richtig einsortiert.
Zitat von amtraxxamtraxx schrieb:Alles was über reine Mathematik hinausgeht und menschliches Denken verlangt
Auch Menschen scheitern an Gödel Sätzen und KIs an einfachster Logik.
Zitat von amtraxxamtraxx schrieb:wenn selbst diese abstrakte Denken bzw. Bewusstsein nicht simuliert werden kann, wie sollen dann Gefühle und Gedanken simuliert werden !?
Hier machst du zwei gewaltige Sprünge, vom Verständnis von Gödelsätzen zu simulierten Bewusstsein, zu Gedanken und Gefühlen. Das ist so nicht nachvollziehbar.
Zitat von amtraxxamtraxx schrieb:Dies bedeutet, dass es unmöglich ist, eine KI zu bauen, die in allen Situationen ethisch korrekt handelt.
Das stammt nicht von dir, sondern von Wiki. Das hängt aber gewaltig an der Auffassung von Ethik - etwa als widerspruchsfreies Aussagensystem.


2x zitiertmelden

Künstliche Intelligenz

gestern um 20:32
Zitat von paxitopaxito schrieb:Hm, Claude hat den Satz auf Anhieb richtig einsortiert.
Welchen Satz denn ? Den von mir geschriebenen ? Das ist kein Gödel Satz du hast das glaub ich falsch verstanden....
Zitat von paxitopaxito schrieb:Hier machst du zwei gewaltige Sprünge, vom Verständnis von Gödelsätzen zu simulierten Bewusstsein, zu Gedanken und Gefühlen. Das ist so nicht nachvollziehbar.
Für mich schon alles was über Mathematik hinausgeht und ein bewusstes Denken verlangt da versagt die KI.
Zitat von paxitopaxito schrieb:Das stammt nicht von dir, sondern von Wiki. Das hängt aber gewaltig an der Auffassung von Ethik - etwa als widerspruchsfreies Aussagensystem.
Hab ich auch nicht geschrieben sondern zitiert aus der angegebenen Quelle....

https://wachstumshacker.de/das-unvollstaendigkeitstheorem-von-goedel-was-bedeutet-es-fuer-ki/


1x zitiertmelden

Künstliche Intelligenz

gestern um 20:34
Zitat von nocheinPoetnocheinPoet schrieb:[...] nun lande ich beim ersten User wohl schon auf "ignore", weil es sich hier ja im Kreise dreht. [...] Es geht ja nicht darum zu stänkern
Dann solltest du unbedingt mal an deinen Einleitungen arbeiten, dann könnte man deine Texte auch ohne einem negativen Gefühl im Hinterkopf lesen. Aber gut. Das hatten wir schon oft...

Beispiel: "Du bist dumm aber ich erkläre es dir trotzdem..."
Das ist eine didaktische Vollkatastrophe!

Du magst das nicht so Wahrnehmen. Okay geschenkt. Andere Empfinden das aber so.
Solche Einleitungen bringen doch auch keinen Mehrwert. Dann lass es doch.
Zitat von nocheinPoetnocheinPoet schrieb:Es geht ja nicht darum [...] extrem pedantisch zu sein [...] wir intervenieren an diesem Punkt eben immer und immer wieder, weil er zentral und so wichtig ist, weil darauf aufgebaut werden will und wird. [...] Wobei eine KI auch ohne Gefühl und Bewusstsein und Empfindungen gefährlich ist und sein kann
Wie passt das zusammen? Wenn es angeblich so wichtig ist, das man über - vermutlich schon über 20 Seiten hinweg - nicht-pedantisch auf das Thema herumreitet, ob KI ein Bewusstsein hat oder nicht hat oder ob man es nicht weiß, spielt doch für deinen letzten Satz keine Rolle.

Für mich steht fest: Es gibt keinen Gott, es gibt keine Einhörner und jeder, der mir erzählen will, das man nicht weiß, ob KI ein Bewusstsein hat, muss mir einen Beweis für seine Aussage liefern.

Aber ich gehe mit deinem letzten Satz sogar voll mit. Hab ich auch nie gegenteiliges behauptet. Können wir das als neue Grundlage nehmen?

Und den metaphysischen Part nicht anderswo verlagern?


2x zitiertmelden

Künstliche Intelligenz

gestern um 20:38
@amtraxx

Da fangen wir mal wieder vorne an, was bitte zeichnet ein menschliches Gehirn aus? Es funktioniert deterministisch nach Naturgesetzen und obendrauf gibt es etwas Zufall von der Quantenphysik. Was soll da an "mehr" vorhanden sein?

Welchen Grund sollte es nun geben, dass eine "künstliches" komplexes neuronales Netz nicht genau auch das machen kann, was ein Hirn macht? Das sind ganz einfache elementare Fragen, da musss ich nicht mal tief ins Detail gehen oder mit Gödel und seinem Unvollständigkeitssatz ankommen.

Es ist recht einfach, entweder gibt es da "etwas" im Hirn, was über allem steht, was nur dort sein kann, aber das wäre dann wohl außerhalb der üblichen Naturgesetze und der Quantenphysik, mehr etwas metaphysisches oder auch spirituelles. Ich kann das nicht ausschließen, Nichtexistenz eben, aber plausibel ist es nun auch nicht.


2x zitiertmelden

Künstliche Intelligenz

gestern um 20:40
Zitat von nocheinPoetnocheinPoet schrieb:Da fangen wir mal wieder vorne an
Nö ich diskutier hier nicht seitenlang... schau das Video an oder lass es... meine Meinung kein Bewusstsein, Denken, Fühlen.


melden

Künstliche Intelligenz

gestern um 20:45
Zitat von amtraxxamtraxx schrieb:Welchen Satz denn ? Den von mir geschriebenen ? Das ist kein Gödel Satz du hast das glaub ich falsch verstanden...
Der Satz aus dem Video. „Dieser Satz ist nicht beweisbar“.
Zitat von amtraxxamtraxx schrieb:Für mich schon alles was über Mathematik hinausgeht und ein bewusstes Denken verlangt da versagt die KI.
Ziemlich schräg das aufzeigen zu wollen, ausgerechnet mit Gödelsätzen - sprich Mathematik, Logik. Aber gut, kannst du konkret sagen wobei LLMs - beschränken wir uns mal darauf - versagen? Ein, zwei Beispiele? Wie geschrieben, nen klassischen Gödelsatz bekommen die eigentlich problemlos interpretiert und einsortiert. Oder verstanden. Oder simulieren verstehen korrekt. Wie auch immer.
Zitat von amtraxxamtraxx schrieb:Hab ich auch nicht geschrieben sondern zitiert aus der angegebenen Quelle....
Jop, da wollte ich auch nur an Wiki rumnörgeln, nicht an dir.
Zitat von NegevNegev schrieb:Für mich steht fest: Es gibt keinen Gott, es gibt keine Einhörner und jeder, der mir erzählen will, das man nicht weiß, ob KI ein Bewusstsein hat, muss mir einen Beweis für seine Aussage liefern.
Das wurde wirklich ausreichend begründet, sogar mit rotem Beitrag von den Mods. Nichtexistenz oder Nichtvorhandensein von Irgendwas ist ne schwierige Kiste. Bei Bewusstsein eine Unmöglichkeit, da es schlicht kein Nachweis für Bewusstsein gibt. Und wenn du es so geschrieben hättest wie jetzt - für dich steht fest XYZ - ist da auch kein Problem.
Wenn du aber mit faktischen Aussagen aufschlägst, immer wieder übrigens, dann bist du auch in der Belegpflicht. Und nein, da kommst du auch nicht mit ner Beweislastumkehr davon.
Zitat von NegevNegev schrieb:Können wir das als neue Grundlage nehmen?
Und den metaphysischen Part nicht anderswo verlagern?
Du bist wieder mit ner isso Aussage aufgeschlagen. An sich wurde hoch und runter erklärt, diskutiert, ja gebetet, das bei dieser Frage verschiedene Meinungen möglich und begründbar sind. Eigentlich völlig in Ordnung, keine Ahnung warum du penetrant meine Meinung (beispielhaft) mit „Isso Aussagen“ mit Füßen trittst. Um dann im Nachgang, jetzt zum zweiten Mal, drum zu bitten das nicht hier zu diskutieren. Ja was soll das denn? Dann diskutiere das nicht hier und üb dich halt in minimaler Höflichkeit.


3x zitiertmelden

Künstliche Intelligenz

gestern um 20:46
Zitat von azazeelazazeel schrieb:doch bei einer KI ist es doch grundlegend anders? Sie hat ja gerade das realistische Potential, einen eigenen Willen zu entwickeln und damit die Kategorie "Werkzeug" zu verlassen. Würde man das verneinen, müsste man den Standpunkt vertreten, Bewusstsein kann nur auf natürlichem Weg erlangt werden.

Insofern helfen Helme nicht gegen KIs, sofern eine KI einen eigenen Willen erlangt und ganz grundsätzlich die Möglichkeit hat, diesen Willen durchzusetzen. Denn anders als ein Hammer kann sie dann strategisch und taktisch vorgehen, um das Ziel zu erreichen. Sie kann das Ziel erreichen, indem sie sich selbst anpasst und alleine damit das umgeht, was bei einem Werkzeug als Schutz funktionieren würde.
Wovon redest du ???

KI allgemein oder eben den aktuellen LLMs ???

Ich bin auch der Meinung:
Zitat von NegevNegev schrieb:Für künstliche Intelligenz gilt, wir haben nie den Boden der Statistik verlassen!
Wobei ich
künstliche Intelligenz
Noch mit LLM ersetzen würde

Und damit ist das ganze eben ein Statistikwerkzeug , welches bei passender Lage eben gefährlich sein kann.

Dagegen helfen natürlich "Helme" im Sinne einer passenden Umgebung.

Programmieren mit LLMs nur mit Operator dazwischen, ansonsten musst du damit rechnen dass dein Programm eben kaputt geht, auch wenn du das LLM bittest es nicht kaputt zu machen.


Es ist toll dass Statistik in LLMs überwiegend super funktioniert, aber imho zeigt das "Nicht-Verständnis" von LLMs , dass die Trainingsdaten nicht nur Fakten, sondern als Verständnis getarnte Fakten den LLMs als Antworten beibringen, dabei ist es Wiedergabe von verknüpften Daten.
Eine schwierigere Version der Fragestellung („AIW+ Problem“) brachte schließlich alle Modelle an den Rand des „Denkvermögens“. Doch warum? Den Forschenden zufolge erreichen viele der getesteten Modelle sehr hohe Punktzahlen in diversen standardisierten Benchmarks, die verschiedene Fähigkeiten, einschließlich des logischen Denkens, testen sollten. An dem sehr einfachen AIW-Problem jedoch scheitern sie. In ihrem Paper vermuten die Wissenschaftler:innen daher, „dass diese Benchmarks die Defizite in der grundsätzlichen Argumentationsfähigkeit dieser Modelle nicht richtig widerspiegeln“ und stellen dabei die Verwendung der derzeitigen standardisierten Benchmarks für den Modellvergleich in Frage.....

Was heißt es für den Einsatz von LLM, wenn diese an Rätseln auf Grundschulniveau scheitern?
Quelle:

https://blogs.helmholtz.de/research-field-information/2024/08/07/ki-studie-zeigt-scheitern-von-llm-im-logischen-denken/

Ja was heißt das.....

Gebt dem LLM solide komplexe Aufgaben und seht, dass es scheitert. Es ist ggf zu 90% in der Lage die komplexe Aufgabe zu erfüllen und setzt dann alles unter Strom weil "isso".

Ich sehe daher nur Werkzeugmissbrauch "ohne Helm", wenn jemand allgemein eine Simulation mit "Vollkontrolle" erstellt und eben von LLMs 100%iges funktionieren erwartet.

Das bekomme ichja bei Alltagsproblemlösungen nicht hin mit den LLM Modellen, auch mit den Bezahlversionen nicht.


melden

Künstliche Intelligenz

gestern um 20:52
Zitat von paxitopaxito schrieb:Das wurde wirklich ausreichend begründet, sogar mit rotem Beitrag von den Mods. Nichtexistenz oder Nichtvorhandensein von Irgendwas ist ne schwierige Kiste.
Cool.
Dann lassen wir es! Zumal wir es für die Sicherheitsdiskussion nicht brauchen.
Stattdessen erlebe ich noch immer das:
Zitat von nocheinPoetnocheinPoet schrieb:wir intervenieren an diesem Punkt eben immer und immer wieder, weil er zentral und so wichtig ist, weil darauf aufgebaut werden will und wird. Weil damit ja "argumentiert" wird, KI ist nur ein Werkzeug, wie ein Hammer, total harmlos.



1x zitiertmelden

Künstliche Intelligenz

gestern um 20:57
Zitat von paxitopaxito schrieb:wobei LLMs - beschränken wir uns mal darauf - versagen? Ein, zwei Beispiele?
Frage:
Peter hat 5 Brüder und 2 Schwestern. Wie viele Brüder haben seine Schwestern
Antwort:
Da die Schwestern ebenfalls Geschwister von Peter sind, haben sie die gleichen Brüder wie Peter, mit Ausnahme von sich selbst (sie sind ja keine Brüder).

Das bedeutet:
Jede Schwester hat 5 Brüder – Peter und seine 4 anderen Brüder.

Antwort:
Peters Schwestern haben jeweils 5 Brüder.
Quelle: ChatGPT 4o Bezahlversion

Alltagsproblem programmieren, kann ich dir morgen gerne Beispiele geben ( Arbeitsaccount). Im Grundgerüst passt es, aber dann ist eine Procedure oder ein aufruf fehlerhaft.

Also Kontrolle an die KI und zack ist nach ein paar Minuten die Anlage kaputt.

Da sieht man natürlich mächtig Gefahr "Da ist unser LLM KI auto Prototyp. Er schafft es knapp 3m aus der Garage und hat dann den ersten Unfall, aber wir haben die KBA Zulassung beantragt und dann wird das was im echten Verkehr"

Habr ihr denn echte Beispiele, wo LLM KI im Einsatz ist und in den Einsatz kommt ??

Arbeitstechnisch habe ich nun 2 im OCR Bereich. Funktioniert besser als ältere klassische OCR Methoden und macht "Kreuzchecks", um auf Probleme hinzuweisen ( Ermittelte Daten stimmen nicht mit abgebildeten Daten überein / erfasste Werte passen nicht mir erwarteten Werten )

Auch Firmentechnisch wird ein LLM nicht irgendwo "an die Schalter und Hebel" gesetzt.

Kennt einer von euch so Beispiele ??


1x zitiertmelden

Künstliche Intelligenz

gestern um 21:03
Zitat von NegevNegev schrieb:Dann lassen wir es! Zumal wir es für die Sicherheitsdiskussion nicht brauchen.
Stattdessen erlebe ich noch immer das:
Ich würde genauso von jemanden der hier aufschlägt und behauptet KI hat definitiv ein Bewusstsein einen Beleg einfordern. In der Spiritrubrik, wenn jemand Gott als Fakt behauptet oder seine Nichtexistenz als Fakt behauptet. Entweder man kann dann liefern oder man redet eben Bullshit.
Du kannst nicht erwarten, dass du deine persönlichen Befindlichkeiten als allgemeinen Fakt darstellst und das dann unwidersprochen bleibt. Immer wieder! Du machst das zum Thema, nicht ich. Aus meiner Sicht ist da wirklich alles Entscheidende zu gesagt worden.

@abbacbbc
Das LLMs gerne mal an einfachster Logik scheitern - geschenkt. Danach hatte ich nicht gefragt, im Gegenteil, das hatte ich sogar selbst geschrieben:
Zitat von paxitopaxito schrieb:Auch Menschen scheitern an Gödel Sätzen und KIs an einfachster Logik.
Zeigen tut das leider nix, auch Menschen scheitern regelmäßig an solchen Sätzen.
Zitat von abbacbbcabbacbbc schrieb:Alltagsproblem programmieren, kann ich dir morgen gerne Beispiele geben ( Arbeitsaccount). Im Grundgerüst passt es, aber dann ist eine Procedure oder ein aufruf fehlerhaft.
Ach, das LLMs an allem möglichen scheitern, sicher, geschenkt. Mir ging es da ja um das abstrakte Denken, Verstehen, woran sie ganz grundsätzlich scheitern sollen. Ich kann mir darunter nix vorstellen, ich weiß nicht was damit gemeint ist.


4x zitiertmelden

Künstliche Intelligenz

gestern um 21:08
Zitat von nocheinPoetnocheinPoet schrieb:Ja, ich dachte auch, wir wären weiter, nun lande ich beim ersten User wohl schon auf "ignore", weil es sich hier ja im Kreise dreht. Es geht ja nicht darum zu stänkern oder extrem pedantisch zu sein, zu nerven, wir intervenieren an diesem Punkt eben immer und immer wieder, weil er zentral und so wichtig ist, weil darauf aufgebaut werden will und wird. Weil damit ja "argumentiert" wird, KI ist nur ein Werkzeug, wie ein Hammer, total harmlos.
Zitat von NegevNegev schrieb:Dann solltest du unbedingt mal an deinen Einleitungen arbeiten, dann könnte man deine Texte auch ohne einem negativen Gefühl im Hinterkopf lesen. Aber gut. Das hatten wir schon oft...

Beispiel: "Du bist dumm aber ich erkläre es dir trotzdem..." Das ist eine didaktische Vollkatastrophe! Du magst das nicht so Wahrnehmen. Okay geschenkt. Andere Empfinden das aber so. Solche Einleitungen bringen doch auch keinen Mehrwert. Dann lass es doch.
Wir wollen doch mal auf der Sachebene bleiben, so mit Respekt anderen gegenüber, also auch bei Wahrheit, ich habe nie wo geschrieben, Du bist dumm, aber ich erkläre es Dir trotzdem. Das ist einfach nicht wahr, dass denkst Du Dir aus, konkret unterstellst Du mir das. Und Du kommst damit immer und immer wieder an, ich habe Dir das mehrfach geschrieben, belege es, oder nimm es zurück, dass ist Diffamierung, Verleumdung.

Und ich kann nichts dafür, wie andere User nun mal auf andere Meinungen reagieren, welche konträr zu deren steht, da ist nichts persönliches, unterschiedliche Menschen haben unterschiedliche Meinungen. Schau mal hier:
Zitat von nocheinPoetnocheinPoet schrieb am 21.06.2025:Konkret will ich damit sagen, nur weil aktuell ein Chatfenster mit ChatGPT nicht frei vor sich hin brabbelt, belegt mir das nicht, dass es nur eine "Maschine" ist. Dieser ganze Argumentationsweg ist für mich eh mehr als fragwürdigt, KI ist ja nur eine Maschine, denkt nicht wie wir, fühlt nicht, kein Bewusstsein, alles gut.
Zitat von TanneTanne schrieb am 21.06.2025:Ja, es ist mir ja schon aufgefallen, dass du das nicht verstehst.

Es brabbelt nicht vor sich hin, okay, dann kann es weder KI noch Mensch sein? Oder was sollte das jetzt aussagen? Eben, KI ist nur eine Maschine, aber eben eine sehr komplexe Maschine, so wie der menschliche Körper ja auch ein komplexes System darstellt, oder ist. Das Problem dabei ist, dass einige Menschen zu viel in KI hinein interpretieren um es zu vermenschlichen.
Das kommt ja dem nahe, was Du mir unterstellst, dass ist persönlich, ich würde etwas nicht verstehen, also soll das doch heißen, ich bin dafür zu dumm, oder? Und dann wird erstmal über die Bedeutung meiner Aussage spekuliert und dann nachgefragt, was die eigentlich bedeutet. Und dann kommt noch eine Tatsachenbehauptung, auch wo etwas befremdlich, dass Problem wäre eben bei "einigen" Menschen, die in eine KU zu viel hinein interpretieren um sie zu vermenschlichen. Welche Menschen könnten hier wohl gemeint sein? Ich vermute mal, ich stehe da auf der Liste.

Und hab ich da nun ein neues Fass aufgemacht? Nein, ich kenne das schon und da kommt man nicht weiter, ich frage nach, im Wissen, es wird keine Antwort geben, nur Schweigen.


Zitat von nocheinPoetnocheinPoet schrieb:Es geht ja nicht darum [...] extrem pedantisch zu sein [...] wir intervenieren an diesem Punkt eben immer und immer wieder, weil er zentral und so wichtig ist, weil darauf aufgebaut werden will und wird. [...] Wobei eine KI auch ohne Gefühl und Bewusstsein und Empfindungen gefährlich ist und sein kann ...
Zitat von NegevNegev schrieb:Wie passt das zusammen? Wenn es angeblich so wichtig ist, das man über - vermutlich schon über 20 Seiten hinweg - nicht-pedantisch auf das Thema herumreitet, ob KI ein Bewusstsein hat oder nicht hat oder ob man es nicht weiß, spielt doch für deinen letzten Satz keine Rolle.
Nicht wir sind da drauf herumgeritten, das kam von Euch, dazu ja auch verdrehte Aussagen und Unverständnis, auch Du hast mehrfach behauptet, ich hätte erklärt, KI hat Bewusstsein, was ich nie habe. Oder oben das mit dem "dumm", wenn Ihr also so etwas macht, dann geht es eben lange hin und her. Das mit der Nichtexistenz hast Du ja nun eingeräumt, ist ja schon mal was.

Es wäre hier nie solange hin und her gegangen, wenn Ihr Tatsachen als solche anerkennen würdet und das was wirklich in einem Beitrag ausgesagt wird. Es wäre so einfach gewesen, ja man kann hier keine Tatsachenbehauptung zum Bewusstsein machen, nicht gibt es und auch nicht gibt es nicht. Kann man nicht wissen, wir haben nur Meinung. Darum können wir auch nicht Tatsachen schlussfolgern. Wenn ihr das mal so anerkannt hättet, wäre das lange gegessen.

Schau mal, nun kommt @paxito und nicht ich wieder auf Dich zu, weil Du nun wieder vorne anfängst.
Zitat von paxitopaxito schrieb:Auch hier biegst du irgendwie falsch ab. Der philosophische Zombie ist ein Gedankenexperiment um zu zeigen das du so einen „Zombie“ nicht von einem normalen Menschen unterscheiden kannst. Gilt so unisono für ne KI und wurde nun ausufernd erklärt. Bei dir kommt aber wieder ne „isso“ Aussage. Und ja, das hätte ich dann gerne begründet, belegt, bewiesen, such es dir aus.

Also explizit das hier:
Zitat von NegevNegev schrieb:Spielt sich die KI selbst vor, sie wäre ein Wesen das reflektiert. Das passiert selbstredend nicht!
Oder kennzeichne es als die persönliche Meinung, die es ist. Ernsthaft, ich dachte wir wären langsam durch mit dem Thema, da kommt der nächste Aufschlag mit faktischen Aussagen, die sich unmöglich belegen lassen.
Verstehst Du was ich meine?


Zitat von NegevNegev schrieb:Für mich steht fest: Es gibt keinen Gott, es gibt keine Einhörner und jeder, der mir erzählen will, das man nicht weiß, ob KI ein Bewusstsein hat, muss mir einen Beweis für seine Aussage liefern.
Das ist dann aber alleine Dein persönliches Problem, so läuft es in einer Debatte nun mal nicht, und keiner will Dir was erzählen, es ist wie es ist, es gibt nun mal Tatsachen. Du bist es, der uns hier was vorgeben und erzählen will, immer und immer wieder, darum 20 Seiten und darum kommt ja nun wieder etwas von @paxito genau zu diesem Punkt an Dich.

Es ist eine Tatsache, man kann nicht wissen, ob KI ein Bewusstsein hat oder ob es keines hat, es geht nicht darum Dir das erzählen zu wollen, orientiere Dich an Fakten, und keiner muss Dir was dazu beweisen, solange Du glaubst, KI hat kein Bewusstsein, es Deine Meinung ist, geschenkt, aber gibst Du uns das hier als Tatsache vor, egal ob explizit oder implizit, werden wir intervenieren, und dann musst Du das belegen, nicht wir, dass Deine Behauptung falsch ist.


Zitat von NegevNegev schrieb:Aber ich gehe mit deinem letzten Satz sogar voll mit. Hab ich auch nie gegenteiliges behauptet. Können wir das als neue Grundlage nehmen?
Ja schön, wenn wir uns einig sind, dass es egal ist, ob eine KI was fühlen kann, für die Frage, wie gefährlich ist sie.


Zitat von NegevNegev schrieb:Und den metaphysischen Part nicht anderswo verlagern?
Wie gesagt, das liegt nicht an mir.


5x zitiertmelden

Künstliche Intelligenz

gestern um 21:18
Zitat von nocheinPoetnocheinPoet schrieb:auch Du hast mehrfach behauptet, ich hätte erklärt, KI hat Bewusstsein, was ich nie habe.
Ich hab das im Gegensatz zu dir tatsächlich behauptet, bzw. ist das meine Meinung. Ich hab das aber dezidiert dargelegt, gezeigt wie ich dazu komme und wie wir bei dieser Frage einer letztgültigen Definition von Bewusstsein ausweichen können. Ist ja nicht so, als ob ich darüber nicht schon ne Weile brüte.
Der Witz ist: da gab es einfach mal Null Einwände. Kein erkennbarer Widerspruch der über das bloße beharren auf dem Gegenteil hinausgeht. Und der Bitte das nicht hier zu diskutieren. Joa, mei. Weiß auch nicht was man da noch machen kann.


1x zitiertmelden

Künstliche Intelligenz

gestern um 21:19
Zitat von paxitopaxito schrieb:Der Satz aus dem Video. „Dieser Satz ist nicht beweisbar“.
Auch das ist kein "richtiger" Gödelsatz aber egal... Hab es mit Co-Pilot getestet den ersten Satz kann er noch ganz gut aufdröseln beim zweiten scheitert er aber....Nun gut.

https://www.inf.fu-berlin.de/lehre/WS13/ProsemTheo/G%C3%B6delscher%20Unvollst%C3%A4ndigkeitssatz.pdf
Zitat von paxitopaxito schrieb:Mir ging es da ja um das abstrakte Denken, Verstehen, woran sie ganz grundsätzlich scheitern sollen. Ich kann mir darunter nix vorstellen, ich weiß nicht was damit gemeint ist.
Apple hat eine Studie durchgeführt und vor ein paar Tagen veröffentlicht was KI können und was nicht vielleicht ist das ja hilfreich....
Apples neue Studie enthüllt, dass große Denkmodelle wie Claude und DeepSeek bei der Lösung komplexer Aufgaben oft versagen, was ernsthafte Grenzen ihrer Fähigkeit zu echtem Denken aufzeigt. Mithilfe von Puzzles wie dem Turm von Hanoi und der Flussüberquerung zeigten Forscher, dass diese KI-Systeme mehr auf Mustererkennung als auf tatsächliches logisches Denken angewiesen sind. Die Ergebnisse deuten darauf hin, dass aktuelle KI-Modelle das Denken vortäuschen könnten, was Bedenken aufwirft, wie viel sie wirklich „verstehen“.
Quelle:
Youtube: Apple SCHOCKIERT alle: KI IST FALSCH!?
Apple SCHOCKIERT alle: KI IST FALSCH!?
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



1x zitiertmelden

Künstliche Intelligenz

gestern um 21:28
Zitat von amtraxxamtraxx schrieb:Apple hat eine Studie durchgeführt und vor ein paar Tagen veröffentlicht was KI können und was nicht vielleicht ist das ja hilfreich....
Sorry, ich komme nicht mit. Ja, sicher die Denkmodelle scheitern ab einer bestimmten Schwierigkeit. Aber was soll mir das jetzt sagen über abstraktes Denken, Verstehen usw.? Die meisten Menschen dürften schon vorher das Handtuch werfen, verstehen die alle nix und denken nicht abstrakt? Ein Hanoi Rätsel mit 10 Scheiben braucht irgendwas bei 1000 Zügen… da scheitert es zumindest bei mir schon allein an der Motivation :D


1x zitiertmelden