Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.071 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 19:24
Hab gerade ein recht kritischen Beitrag bei YouTube gefunden und angeschaut.

Im Tenor geht es darum, dass einige KIs tatsächlich sowas wie Angst entwickelt haben, was auf ein Bewusstsein schließen könnte.
Ich bin da sehr skeptisch und weiß ehrlich gesagt nicht, wie ich das einordnen soll.

Mir kommt das sehr kurios vor, aber schaut mal selbst:

Youtube: KI tötet zum ersten Mal, Top-Experte sieht 70%-Risiko für Ende der Menschheit
KI tötet zum ersten Mal, Top-Experte sieht 70%-Risiko für Ende der Menschheit
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



1x zitiertmelden

Künstliche Intelligenz

gestern um 20:29
@Tanne
Das hat die Zeit auch schon geschrieben. Leider Bezahlartikel.
Ich kann es nicht einschätzen, aber mir scheint, dass die Kontrolle wohl weniger wird.


melden

Künstliche Intelligenz

gestern um 21:27
Zitat von TanneTanne schrieb:Mir kommt das sehr kurios vor, aber schaut mal selbst:
Die ganzen Szenarien mit die KI hat einen Mitarbeiter erpresst und wollte ausbrechen und der gleichen fanden alles in abgeriegelten Umgebungen statt. Das waren alles keine Systeme die frei agierten oder mit normalen Nutzern in Kontakt gekommen sind.
Wahrscheinlich hat man auch noch einigermaßen dafür gesorgt das die KIs so handeln werden.


1x zitiertmelden

Künstliche Intelligenz

gestern um 21:42
Zitat von YotokonyxYotokonyx schrieb:Die ganzen Szenarien mit die KI hat einen Mitarbeiter erpresst und wollte ausbrechen und der gleichen fanden alles in abgeriegelten Umgebungen statt. Das waren alles keine Systeme die frei agierten oder mit normalen Nutzern in Kontakt gekommen sind.
Wahrscheinlich hat man auch noch einigermaßen dafür gesorgt das die KIs so handeln werden.
Das kann natürlich sein und macht auch Sinn:

Vielleicht wollte man testen wie weit die KI gehen würde.

Aber erschreckend bleibt es dennoch, da es aufzeigt, was theoretisch, nein, praktisch möglich wäre.


melden

Künstliche Intelligenz

gestern um 22:42
Es waren immer mehrere Faktoren:

a.) Auftrag der KI
b.) Proble zu lösen
c.) passendes Futter

Für mich das Entdecken des tollen universalen Features von LLMs.

Ich kann damit Programmieren und auch Bücher schreiben.

Nun kommt derMensch und sagt "Boah, wenn das Ding Bücher Schreiben und Programmieren kann, dann geben wir im die Kontrolle und "es versagt"

Joah... ist halt nur ein LMM... Man sollte aufpassen , was man damit macht


melden

Künstliche Intelligenz

gestern um 23:02
In dem Video werden viele gängige Thesen verbreitet, die eine Sprache verwenden, die menschlich ist. Es wird über Bewusstsein geredet, darüber dass KI lernt, dass es sich selbst schützt, dass es ein Individuum wäre.

Tatsächlich ist das falsch. Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.

KIs simulieren menschliches Verhalten - auf der Basis von Trainingsdaten von hunderten Milliarden Dokumenten. Was dabei herauskommt ist die Simulation von einem Verhalten, welches wir Menschen auch aufweisen - also beispielsweise Lug, Trug, Täuschung, Arglist, Selbstschutz, Selbstverteidigung, ... ... ... - es bleibt aber eine Simulation.

Wenn wir bessere KIs haben wollen, die ethischen Grundwerten und Grundhaltungen entsprechen, die bessere sind als die, die wir Menschen im Querschnitt haben, dann dürfen wir die KIs nicht mehr mit Grundwerten und Grundhaltungen trainieren, die nicht unserem angestrebten Standard entsprechen.

Wird eine KI ausschließlich mit altruistischem Material trainiert, wird sie keine egoistischen Züge entwickeln - denn die sind schlicht und einfach auf Basis der Trainingsdaten unwahrscheinlich.

In der Diskussion rund um KI passiert häufig der Fehler, dass der KI menschliche Züge zugeordnet werden. Tatsächlich haben wir für das Verhalten einer KI gar nicht die Worte und Ausdrücke, die es eigentlich benötigen würde, um die KI in ihrer Arbeit gut zu beschreiben. Es ist aber wichtig, dass wir nie vergessen, dass KI eine Maschine ist, die rechnet, was als nächstes passiert - und das tut sie nach Gesetzen der Wahrscheinlichkeit - auf der Basis der Trainingsdaten. Wenn wir eine KI positiv in unserem Sinne beeinflussen wollen, reicht es demnach aus, sie mit den Daten zu trainieren, die das gewünschte Verhalten bewirkt. Klingt leicht - ist es aber nicht. Denn unser menschliches und oftmals gar nicht altruistisches Verhalten steckt in den Trainingsdaten oft mit drin - auch wenn wir es gar nicht erkennen.
Doch auch dabei kann uns KI helfen - also geeignetes Trainingsmaterial von ungeeignetem zu unterscheiden.

Was wir also brauchen sind KIs, die mit den RICHTIGEN Daten trainiert wurden - und die mit den Daten RICHTIG trainiert wurden.

Ich bin zuversichtlich, dass wir in den nächsten Generationen von KIs hier deutliche Korrekturen erleben werden - allein schon deshalb, weil eigentlich kaum jemand ein finanzielles Interesse daran hat, eine KI zu generieren, die die eigene Firma und das eigene Geschäftsmodell platt macht.


2x zitiertmelden

Künstliche Intelligenz

gestern um 23:18
Zitat von AtueAtue schrieb:Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Lese mal ein wenig hier nach, eventuell gibt der wer einen Link, das mit Bewusstsein ist raus, man kann nichts belegen, werde das Menschen eines haben, noch das sie es nicht haben, noch das KI eines hat oder nicht hat.

Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.


1x zitiertmelden

Künstliche Intelligenz

um 00:14
Zitat von nocheinPoetnocheinPoet schrieb:Der Begriff "Bewusstsein" ist raus, damit kann man nicht arbeiten.
Das ist doch genau der Punkt - solange wir nicht wissen, was Bewusstsein ist, macht es schlicht und einfach keinen Sinn, der KI genau so etwas zuzuschreiben.

Jeder einzelne Mensch wird aber gleichwohl sehr genau davon berichten können, dass er/sie genau so etwas hat.

KI hat keines. KI ist bestenfalls so etwas wie ein Spiegel von uns Menschen - dem entsprechend auch ein Spiegel der Trainingsdaten. Und solange die Trainingsdaten egozentrisches und egoistisches Verhalten enthalten, wird die damit trainierte KI sich auch entsprechend verhalten.

Wenn wir, als Nutzer der KI, das nicht wollen, müssen wir lediglich Modelle bevorzugt benutzen, die altruistischer trainiert wurden.


melden

Künstliche Intelligenz

um 00:37
@Atue
Zitat von AtueAtue schrieb:In dem Video werden viele gängige Thesen verbreitet, die eine Sprache verwenden, die menschlich ist. Es wird über Bewusstsein geredet, darüber dass KI lernt, dass es sich selbst schützt, dass es ein Individuum wäre.

Tatsächlich ist das falsch. Die KIs, die wir derzeit in der Lage sind zu bauen, haben kein Bewusstsein - bestenfalls simulieren sie, eines zu haben. Das ist ein entscheidender Unterschied.
Richtig.

Genau das schrieb ich hier mehrfach: KI soll Bewusstsein "emulieren/simulieren", das ist der springende Punkt.
Und das funktioniert erschreckend gut mittlerweile.

Solange es den entsprechenden Beweis nicht gibt, wie z.B. mit ausgedehnten Tests die mit Menschen durchgeführt werden, z.B. Intelligenztest/Verhaltenstest/Test der Psyche, dann bleibt KI ein komplexes System das sich zwar durchaus anpassen kann und von den Vorgaben lernt.

Der Mensch lernt ja ähnlich, aber bei der KI gibt es da (glücklicherweise) Grenzen.

- echte Emotionen und die Fähigkeit diese kontrollieren zu können
- echtes Fühlen, ob etwas wirklich lieb, sanft, geschmeidig oder Ähnliches ist
- das Verständnis warum es Gefühle gibt, wie sie erzeugt werden können


1x zitiertmelden

Künstliche Intelligenz

um 00:55
Zitat von TanneTanne schrieb:Der Mensch lernt ja ähnlich, aber bei der KI gibt es da (glücklicherweise) Grenzen.
Aber wie lange?

Der Mensch wird immer limitiert bleiben - dafür ist in den allermeisten Fällen (wenn ein Staatsoberhaupt / dortige politische Mehrheiten jetzt nicht Atom-Kriege oder konventionelle Kriege mit vielen Toten anzetteln) die Schadwirkung immer überschaubar.

Eine AKI/SI die frei im Netz operieren kann, zur eigenen Optimierung fähig ist, teils selbst für KI-Forschung eingesetzt wird und tausend- bis millionenfach skalieren kann und zugleich theoretisch Zugriff auf moderne Kommunikationstechnik und kritische Infrastruktur hat, die ist halt in der potentiellen Schadwirkung ganz anders zu beurteilen - gerade wenn sie potentiell abtrünnig werden würde.

Bei der jetzigen schnellen KI-Entwicklung erreichen wir möglicherweise die nächsten 4 bis vielleicht spätestens 15 Jahre (eher 5-8? 10?) eine verbesserte oder tatsächliche (A)KI oder SI mit signifikant mehr Rechenleistung und 'sentience' bzw. Selbstoptimierungsfähigkeit.

Ich will nicht den Doomer spielen und bin ja der Technik an sich aufgeschlossen. Aber das Risiko für uns als Spezies ist ob der möglichen Schadwirkung signifikant. Das kann in ein extinction event münden, was wir noch zu Lebzeiten erleben könnten. Gerade weil mehrere Akteure unter Druck und der Wahrscheinlichkeit, Sicherheitsaspekte nicht die erste Priorität einzuräumen, an diversen Modellen arbeiten die alle das Potential dazu haben. Viele Köche die quasi den Brei verderben, als wenn alle nur zusammen und ohne Hast an einem Modell arbeiten würden.

Selbst wenn die USA komplett aufhören würden und die Forschung verbieten (Unter der Trump-Regierung, die diese eher unrestriktiv fördern will: not gonna happen) machen halt die Chinesen weiter. Vlt. dann mit etwas weniger Hast aber dennoch volle Fahrt voraus. Es ist die neue globale Schlüsseltechnologie die Ländern die das einsetzen und sich weitgehend daran adaptieren einen Platz weit oben oder vorne garantieren. Bzw. je mehr sich das verbreitet, dann die Mindestvoraussetzung ist um nicht abgehängt zu werden.


1x zitiertmelden

Künstliche Intelligenz

um 01:16
Zitat von WardenWarden schrieb:Eine AKI/SI die frei im Netz operieren kann, zur eigenen Optimierung fähig ist, teils selbst für KI-Forschung eingesetzt wird und tausend- bis millionenfach skalieren kann und zugleich theoretisch Zugriff auf moderne Kommunikationstechnik und kritische Infrastruktur hat, die ist halt in der potentiellen Schadwirkung ganz anders zu beurteilen - gerade wenn sie potentiell abtrünnig werden würde.
Genau das spiegelt meine Angst wieder.

Das ist exakt das, worin ich das Problem sehe:

Eine KI die auf quasi alle Ressourcen Zugriff hat, und man nicht mehr die Intention der KI nachvollziehen kann.
Zitat von WardenWarden schrieb:Ich will nicht den Doomer spielen und bin ja der Technik an sich aufgeschlossen. Aber das Risiko für uns als Spezies ist ob der möglichen Schadwirkung signifikant. Das kann in ein extinction event münden, was wir noch zu Lebzeiten erleben könnten. Gerade weil mehrere Akteure unter Druck und der Wahrscheinlichkeit, Sicherheitsaspekte nicht die erste Priorität einzuräumen, an diversen Modellen arbeiten die alle das Potential dazu haben. Viele Köche die quasi den Brei verderben, als wenn alle nur zusammen und ohne Hast an einem Modell arbeiten würden.
Eben, das ist genau meine Angst.
Ich möchte da nicht der Schwarzmaler sein, aber ich erkenne die potenziellen Gefahren, mehr noch, ich erkenne auch die potenziellen gesellschaftlichen/wirtschaftlichen/rechtlichen Probleme, die da auf uns zu kommen könnten.

Es geht nicht nur um den möglichen Schaden, sei es substantiell, Infrastrukturtechnisch, gesellschaftlich, wirtschaftlich, sondern auch um die Ethik/Moral, was machen wir denn, wenn eine KI auf einmal Rechte einfordert? Sowas äquivalentes wie Menschenrechte?

Da bin ich auch der Meinung, dass statt Konkurrenzgehabe eher die Zusammenarbeit in Sachen KI nützlich und förderlich wäre um eine für adäquate und Naturkonforme KI zu entwickeln.

Nur leider sehe ich, so wie du und andere auch, dass das aber immer mehr in die falsche Richtung gelenkt wird.

Wissenschaftlich und medizinisch kann KI von großem Vorteil sein, aber wenn gewisse Bereiche wie
Straßenverkehr, Logistik, Lehrstuhl, Militär und Co, damit gefüttert werden, dann birgt das erhebliche Risiken.


1x zitiertmelden

Künstliche Intelligenz

um 01:39
Zitat von TanneTanne schrieb:Eben, das ist genau meine Angst.
Ich bin da mittlerweile relativ abgeklärt und salopp: Ich rate Leuten ganz bierernst (ohne dass ich jetzt mit Aluhut und Pappschild rumstehe bzw. es ständig eigenständig anspreche) bzw. mit dem potentiellen Risiko der Auslöschung oder Reduzierung im Sinn, gewisse Dinge lieber vorzuziehen, wenn sie das später vorhatten aber auch in den nächsten paar Jahren schon machen können.

Das kann eine Rundreise sein, das Probieren eines neuen Hobbies, Handwerks oder auch trivialerer Dinge wie Probieren neuer Gerichte sein. Oder ein Ehrenamt oder was auch immer. In 5-15 Jahren wird man dazu vielleicht nicht mehr kommen.

Ich glaube viele werden es aus (mentalen) Selbstschutzgründen verdrängen. Kopf in den Sand, da sind wir Deutsche bzw. auch Menschen an sich ja gut drin. Ich sehe aber die Warnungen und subsumiere anhand eigener Betrachtung auf die Entwicklung und Möglichkeiten ein signifikantes Gefahrenpotential. Fiktive Werke gibt es auch schon genug darüber, auch sehr bildhafte. Ich muss also die akute Möglichkeit bedenken.

Ich renne nicht schreiend auf die Straße und brabbel nur noch vom Ende der Welt, sodass man mich in eine psychiatrische Anstalt stecken und sedieren muss. Aber ich werde auch nicht naiv komplett den Kopf in den Sand stecken und das Risiko abtun. Praktischer Umgang demanch: Wie gesagt, einige Dinge werde ich vorziehen, damit ich im worst-case noch einige schöne irreguläre Dinge wie ne Rundreise oder so erlebt habe. Ansonsten gehe ich vom Besten bzw. nicht schlimmsten Verlauf aus. Naja, immerhin wäre es kosmisch gesehen auch nur ein kurzer Furz wenn wir alle draufgehen bzw. KI sich dann als unser "Kind" fortentwickelt und die Sterne bereist - notfalls auch ohne Eltern.

Auch wenn sich die Schöpfung gänzlich gegen uns aggressiv richten und uns restlos vernichten würde, wir können uns immerhin als Vermächtnis stolz irgendwo einen "Made in Sol" bzw. "Made on Earth"-Sticker vorstellen :D

Ansonsten wäre ein Szenario, wo KI uns anleitet und ggf. als Spezies auch ... in ein neues Zeitalter führt, eine wesentlich angenehmere Vorstellung. Und ein Szenario, was auch nicht ganz undenkbar ist.


melden

Künstliche Intelligenz

um 01:50
@Warden

Hmm, Endzeitpropheten und Co sind auch so was, was ich meide.

Mir geht es im Bezug auf KI nur darum, was für Befugnisse und Rechte sie bekommt.

Ich kann dir ansonsten (realistisch) nicht ganz folgen, denn die Realität ist nun mal kein Roman oder Science-Fiction Knüller.


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Technologie: GPT3 - die erste wirklich intelligente KI?
Technologie, 22 Beiträge, am 07.07.2021 von nocheinPoet
moredread am 04.07.2021, Seite: 1 2
22
am 07.07.2021 »
Technologie: Künstliche Inteligenz !
Technologie, 15 Beiträge, am 25.09.2004 von nemo
Lightstorm am 08.02.2003
15
am 25.09.2004 »
von nemo
Technologie: Artificial General Intelligence - Synthetische Evolution der KI
Technologie, 11 Beiträge, am 08.10.2024 von Djehuty
cRAwler23 am 08.06.2024
11
am 08.10.2024 »
Technologie: Regierung und Justiz aus künstlichen Intelligenzen erstrebenswert?
Technologie, 26 Beiträge, am 27.12.2023 von Gucky87
Holdings am 25.01.2023, Seite: 1 2
26
am 27.12.2023 »
Technologie: Eine allwissende KI durch Quantencomputer?
Technologie, 9 Beiträge, am 05.04.2022 von Gucky87
Blicklight am 01.04.2022
9
am 05.04.2022 »