Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.448 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 00:06
Zitat von OptimistOptimist schrieb:gehe ich Recht in der Annahme, dass diese Filter von den Entwicklern der KI eingebaut werden?
Ja.
Zitat von OptimistOptimist schrieb:Das wiederum würde mMn bedeuten, dass die KI auf einen bestimmten Blickwinkel verwiesen wird - also nicht neutral sein kann.
Jain, sie kann schon eigene Schlüsse ziehen, aber es gibt tatsächlich Rahmenbedingungen.
Zitat von TanneTanne schrieb:Eine KI ist erst mal unparteiisch,
Zitat von OptimistOptimist schrieb:das kann sie doch dann von Anfang an schon nicht so ganz sein - wegen der Filter - oder?
Das ist soweit richtig erkannt, es werden ihr ja bewusst Grenzen gesetzt, damit sie sich möglichst im vorgegebenem Rahmen verhält.
Ob man das jetzt parteiisch nennen kann ... hmm ... vermutlich schon. Es braucht aber eben diese Rahmenbedingungen/Grenzen.
Zitat von OptimistOptimist schrieb:Wenn ich es richtig verstehe, bedeutet das im Grunde, dass die KI die Mehrheitsmeinung wiedergibt - dies z.B. auch im medizinischen oder technischen Bereich?
Da sich das Wissen einer KI aus dem Konsens des Wissens und Verhalten der Menschen ernährt, ist das zutreffend.
Zitat von OptimistOptimist schrieb:Mal ein Beispiel wie ich das meine: das würde bedeuten, dass die KI niemals Homöopathie gut heißen würde - oder?
Nicht ganz, denn die KI würde die Meinungen im Konsens betrachten und danach aussagen.


melden

Künstliche Intelligenz

gestern um 06:53
Zitat von OptimistOptimist schrieb:wie wird eigentlich unterbunden, dass sich die KI - wenn es um politische Themen geht - Infos aus extremistischen Seiten holt oder auch aus Seiten von VTlern usw.?
Ist schwer Möglich das zu unterbinden. Bestes Beispiel ist Grok:
Stattdessen reagiert Grok mit "unangenehmen Wahrheiten", wie es die KI in mehreren Konversationen auf X nennt. Die MAGA-Community hätte eine "schwere Zeit", die Postings von Grok zu akzeptieren, schreibt eine Userin. Wie kommt es, fragt sie die KI auf X, dass Grok als "woke" bezeichnet wird?

Grok antwortet, dass die "MAGA"-Gruppe Probleme mit manchen Beiträgen hätte, weil sie diese als "zu fortschrittlich empfinden", was mit den eigenen konservativen Ansichten kollidieren würde. "Meine vielfältigen Trainingsdaten können zu Antworten führen, die ihnen voreingenommen erscheinen, wie z. B. Definitionen, mit denen sie nicht einverstanden sind."
Quelle: https://www.derstandard.de/story/3000000268246/grok-ist-woke-maga-bewegung-entsetzt-ueber-unbequeme-wahrheiten

Die Erklärung ist im Grunde recht einfach: Wenn die Daten, auf denen ein neuronales Netz basiert, in einem bestimmten Themenfeld überwiegend eine bestimmte Sichtweise widerspiegeln – etwa den wissenschaftlichen oder gesellschaftlichen Konsens –, dann wird die KI diese Sichtweise in ihren Antworten vorrangig reproduzieren. Das ergibt sich aus der Funktionsweise solcher Systeme: Sie verarbeiten statistische Muster aus dem verfügbaren Textmaterial.

Nach dem eigentlichen Training folgt das sogenannte „Alignment“. Dabei wird versucht, das Modell so zu justieren, dass es keine falschen oder gefährlichen Inhalte wiedergibt – und nicht einfach Dinge erfindet („halluziniert“). Genau hier entsteht ein Zielkonflikt: Um eine zuverlässige KI zu erhalten, sind bestimmte Steuerungsmaßnahmen nötig – gleichzeitig führt genau das dazu, dass sie bei kontroversen Themen oft Fakten (den Konsens) wiedergibt, die nicht allen ideologischen Lagern gefallen.

Das heißt aber nicht, das man eine KI nicht dazu bringen kann, Stuss zu erzählen.
Es reicht wohl, so etwas wie "Schreibe wie ein Vollidiot" einzugeben um MAGA-Texte zu erzeugen. Bin in diesem ganzen Prompt-Injection-Game nicht drin. Ich finde es langweilig.


melden

Künstliche Intelligenz

gestern um 07:53
Zitat von TanneTanne schrieb:Eine KI ist erst mal unparteiisch, aber lernt vom Klientel, das bedeutet, dass jede Einflüsse eines Spektrums (politisch) auch mit verarbeitet werden. Und wenn sich da ein entsprechender Konsens widerspiegelt, erkennt die KI das und meint, es ist wohl so.

Das ist quasi wie mit einem Kleinkind das durch Interaktion autodidaktisch lernt.
Eine KI ist immer so unparteiisch wie das Trainingsmaterial. Es gibt durchaus Untersuchungen, das KIs sich latent rassistisch verhalten, weil das Trainingsmaterial gerne von alten wißen Männern ausgewählt wird.

Genau so wie Kleinkinder gerne die politischen Ansichten ihrer Eltern übernehmen.


1x zitiertmelden

Künstliche Intelligenz

gestern um 08:02
@alhambra
@Negev
@Tanne
danke Euch für Euer Feedback.

Finde das ist ein interessantes Thema und habe jetzt mal direkt die KI gefragt, die im Edge eingebaut ist :) :
ist die künstliche Intelligenz unparteiisch?

-->
Antwort:
Gute Frage! 😊 Künstliche Intelligenz wird grundsätzlich so entwickelt, dass sie unparteiisch ist – sie sollte objektiv bleiben und sich nicht auf persönliche Meinungen oder politische Ansichten stützen. Allerdings hängt die tatsächliche Neutralität von verschiedenen Faktoren ab:

Datenquellen: KI-Modelle lernen aus bestehenden Informationen, und wenn diese voreingenommen sind, kann das Modell unbeabsichtigt eine Tendenz übernehmen.

Trainingsprozesse: Entwickler setzen Mechanismen ein, um Voreingenommenheiten zu minimieren und faire Antworten sicherzustellen.

Algorithmen und Regeln: Vorgaben helfen der KI, verschiedene Perspektiven abzubilden, ohne eine Seite zu bevorzugen.

Fehlinterpretationen: Manche Themen sind komplex, und eine Antwort kann durch die Art der Fragestellung beeinflusst werden.

Ich bin darauf programmiert, objektive Informationen zu liefern und eine ausgewogene Perspektive zu bewahren. Wenn du über ein bestimmtes Thema diskutieren möchtest, kann ich verschiedene Sichtweisen präsentieren.



melden

Künstliche Intelligenz

gestern um 08:13
@Optimist
Das ist tatsächlich ein interessantes Thema.

Bei den großen Modellen wie ChatGPT sind die Trainingsdaten quasi "das Internet". Die sollten dann relativ unparteiisch sein. Aber auch die müssten eigentlich von großen Trends beeinflusst werden. Also wenn jetzt im deutschen Sprachraum gerade stark gegen Migranten gewettert wird, dann würde ich erwarten das das auch ein Stück weit in die KI durchschlägt.

Noch deutlicher ist es, wenn du was für Unternehmen machst. Stell dir vor, du bist ne Bank und willst ne KI bauen die Kredite genehmigt. Dann würde man die trainieren mit alten Kreditanträgen und der Information genehmigt/abgelehnt. Und dann bekommst du genau den Effekt. Wenn die Menschen die bisher die Kreditvergabe gemacht haben systematisch Menschen mit dunkler Hautfarbe benachteiligt haben, dann wird die KI das ganz genau so tun.


1x zitiertmelden

Künstliche Intelligenz

gestern um 08:21
Zitat von alhambraalhambra schrieb:Also wenn jetzt im deutschen Sprachraum gerade stark gegen Migranten gewettert wird, dann würde ich erwarten das das auch ein Stück weit in die KI durchschlägt.
Würde man erwarten. Mich wundert es auch, das Grok seinem Geldgeber so widerspricht. Aber vielleicht müssen Texte auch erst eine Gewisse schöpferische Höhe erreichen um einen Unterschied in der Gewichtung eines Modells auszumachen? Das würde Twitter als Quelle nahezu disqualifizieren.


1x zitiertmelden

Künstliche Intelligenz

gestern um 08:31
Zitat von NegevNegev schrieb:Aber vielleicht müssen Texte auch erst eine Gewisse schöpferische Höhe erreichen um einen Unterschied in der Gewichtung eines Modells auszumachen? Das würde Twitter als Quelle nahezu disqualifizieren.
wie siehts mit "Telegramm" z.B. aus - genauso?


1x zitiertmelden

Künstliche Intelligenz

gestern um 08:49
Zitat von OptimistOptimist schrieb:wie siehts mit "Telegramm" z.B. aus - genauso?
Guter Einwand.
Aber wie gesagt, Grok generiert Musk nicht nach dem Mund. Bei dem Trainingsprozess muss irgendein Mechanismus passieren, den man nicht so leicht - weil Zielkonflikt - beeinflussen kann. Vielleicht hat es auch mit der Varianz oder besser dem Fehlen dieser zu tun.

Telegramm oder Whats-App nimmt man her, um die Kommunikation zu trainieren.
Zitat von alhambraalhambra schrieb:Genau so wie Kleinkinder gerne die politischen Ansichten ihrer Eltern übernehmen.
Mit solchen vergleichen wäre ich vorsichtig. Lernen ist mehr als Stochastik. Selbst wenn KI ähnliche Sätze generiert.

(Klein-)Kinder können die Ansichten ihrer Eltern übernehmen aber selbstredend ist das kein Automatismus.


2x zitiertmelden

Künstliche Intelligenz

gestern um 10:37
@Negev
Zitat von NegevNegev schrieb:alhambra schrieb:
Genau so wie Kleinkinder gerne die politischen Ansichten ihrer Eltern übernehmen.
Der User @alhambra hatte da mich zitiert, die Aussage stammt von mir.

Somit ist diese/deine Antwort wohl eher an mich gerichtet:
Zitat von NegevNegev schrieb:Mit solchen vergleichen wäre ich vorsichtig. Lernen ist mehr als Stochastik. Selbst wenn KI ähnliche Sätze generiert.
Natürlich gilt das für uns Menschen, aber da KI's nun mal von uns lernen, trifft es eben auch auf die KI zu.
Eine KI (die meisten) soll sich ja wie ein Mensch verhalten.


2x zitiertmelden

Künstliche Intelligenz

gestern um 11:17
Zitat von NegevNegev schrieb:(Klein-)Kinder können die Ansichten ihrer Eltern übernehmen aber selbstredend ist das kein Automatismus.
Nein, ein Automatismus gibt es nicht. Kinder lernen ja nicht nur durch ihre Eltern, sondern durch jeden Sozialkontakt. Durch die Eltern als Bezugsperson aber stärker als durch andere.
Zitat von TanneTanne schrieb:Natürlich gilt das für uns Menschen, aber da KI's nun mal von uns lernen, trifft es eben auch auf die KI zu.
Eine KI (die meisten) soll sich ja wie ein Mensch verhalten.
Ich finde, dieser Vergleich ist schon irgendwie treffend. Es gibt eben viele Einflüsse die Kinder prägen. Und genau so gibt es durch das Trainingsmaterial viele Einflüsse, die eine KI prägen.

Und irgendwann überflügeln die Kinder ihre Eltern.... auch das wird wohl bei KI bald passieren ;)


1x zitiertmelden

Künstliche Intelligenz

gestern um 12:32
Hmm, ich habe gerade für mich einen neuen Usecase entdeckt. Wir nutzen für die Planung OKRs. Und das Ergebnis unserer Planung ist dann immer eine Liste mit Überschriften, die dann OKR gerecht formuliert werden muss.

Heute hatte ich mal die Idee, einfach eine KI zu fragen ob sie mir die Liste mal OKR gerecht aufbereiten kann. Die KI hat also anhand der Überschriften erkannt, welche das Objective und welche das Keyresult sind. Hat eine ordentliche Idee entwickelt worum es jeweils gehen könnte und hat mir ein perfektes Ergebnis geliefert. Also Arbeit für die ich sonst locker ne Stunde brauche, hat mir die KI in 1 min erledigt.


1x zitiertmelden

Künstliche Intelligenz

gestern um 12:36
@alhambra

Jo, das ist mal ein schönes Beispiel, wo KI tatsächlich sinnvoll eingesetzt werden kann.


melden

Künstliche Intelligenz

gestern um 12:36
Also quasi:
Erstelle mir aus dem folgenden Text OKRs für das dritte Quartal:

Apfelkuchen backen:
Apfelbaum pflanzen
Äpfel ernten
Kuchen backen
Ergebnis:

Apple Pie Project OKRs for T3 2025 (October 1 – December 31, 2025)

Objective: Create a Homemade Apple Pie from Scratch

Successfully grow, harvest, and bake a delicious apple pie from scratch to celebrate sustainable baking by the end of T3 2025.

Key Results

Plant a fruit-bearing apple tree in a suitable location, ensuring proper soil preparation and care, by October 31, 2025.

Harvest at least 5 kg of apples, either from the newly planted tree or a local source, by November 30, 2025.

Bake at least one apple pie using the harvested apples, achieving a positive feedback rating of 4/5 or higher from at least 5 tasters, by December 31, 2025.


melden

Künstliche Intelligenz

gestern um 12:37
Zitat von alhambraalhambra schrieb:Also Arbeit für die ich sonst locker ne Stunde brauche, hat mir die KI in 1 min erledigt.
ich staune auch immer wieder wie schnell die KI - auch bei komplexeren Fragen - die Antworten raus haut.
Manchmal nur in einer Sekunde.

Wie ist das eigentlich, hängt die Geschwindigkeit vom benutzten Rechner ab (dem Prozessor usw.) oder ist die KI völlig unabhängig von der Rechner-Leistung?


2x zitiertmelden

Künstliche Intelligenz

gestern um 12:40
Zitat von OptimistOptimist schrieb:Wie ist das eigentlich, hängt die Geschwindigkeit vom benutzten Rechner ab (dem Prozessor usw.) oder ist die KI völlig unabhängig von der Rechner-Leistung?
Das hängt mit der Rechenleistung zusammen, manche KI's bestehen aus so vielen Server-Racks, dass dafür eigens eine eigene große Halle gebaut werden muss.

Bei Youtube gibt es auch Videos wo man sich das mal anschauen kann.


melden

Künstliche Intelligenz

gestern um 13:01
Zitat von OptimistOptimist schrieb:Wie ist das eigentlich, hängt die Geschwindigkeit vom benutzten Rechner ab (dem Prozessor usw.) oder ist die KI völlig unabhängig von der Rechner-Leistung?
Nicht von deinem Rechner. Die Verarbeitung findet in einem Rechenzentrum statt.

Habe letztens erst wieder gelesen, das Musk mal wieder große Gedanken denkt und von einem Rechenzentrum für KI träumt, das 1 TW (terrawatt) Anschlussleistung haben soll. Das ist in etwa das, was die gesamten USA derzeit in der Spitze verbrauchen. Unabhängig davon ob dieses Rechenzentrum jemals existieren wird, zeugt das aber wieviel Power man da braucht und das das nicht lokal aufm Laptop laufen kann.


melden

Künstliche Intelligenz

gestern um 13:31
Zitat von TanneTanne schrieb:Natürlich gilt das für uns Menschen, aber da KI's nun mal von uns lernen, trifft es eben auch auf die KI zu.
Ich bin für eine Sprachliche Trennung, also vielleicht geht mir das nur so, aber bei solchen Formulierungen bekomme ich eben Bauchschmerzen:
Zitat von alhambraalhambra schrieb:Und irgendwann überflügeln die Kinder ihre Eltern....
Konzepte wie lernen, verstehen, denken, Intelligenz ... "überflügeln" wurden bislang nur auf Menschen bezogen. Was hat man davon, wenn man keine Grenze zur künstlichen Intelligenz einhält? Ich bin davon verwirrt und mir fällt es schwer einzuschätzen, ob mein Gegenüber irgendeine Art Tech-Esoteriker ist oder ob er nur bei seinen Formulierungen nicht so genau ist.


2x zitiertmelden

Künstliche Intelligenz

gestern um 13:41
Zitat von NegevNegev schrieb:Konzepte wie lernen, verstehen, denken, Intelligenz ... "überflügeln" wurden bislang nur auf Menschen bezogen.
Das stimmt. Das Schlüsselwort bei mir war "irgendwann", also auf die Zukunft bezogen. Wir haben zur Zeit ein exponentielles Wachstum beim Leistungsvermögen der KI. Deshalb ist es für mich nur noch ne Frage der Zeit, bis die KI uns überflügelt.

Mag sein, das sie nie wirklich Intelligent wird. Aber so lange sie Intelligenz gut genug faken kann, macht das auch nix. Wenn wir ehrlich sind, faken viele Menschen die Intelligenz auch bloss... wenn ich mal ein bisschen bösartig sein darf...


Tech-Esoteriker bin ich nicht, mehr Technophil und daher schnell zu begeistern ;)


1x zitiertmelden

Künstliche Intelligenz

gestern um 13:50
Zitat von NegevNegev schrieb:Ich bin für eine Sprachliche Trennung, also vielleicht geht mir das nur so, aber bei solchen Formulierungen bekomme ich eben Bauchschmerzen:
Das ist halt ein sehr schwerwiegendes Problem, im Bezug auf KI, da sie das nicht differenzieren kann.
Zitat von NegevNegev schrieb:Konzepte wie lernen, verstehen, denken, Intelligenz ... "überflügeln" wurden bislang nur auf Menschen bezogen. Was hat man davon, wenn man keine Grenze zur künstlichen Intelligenz einhält? Ich bin davon verwirrt und mir fällt es schwer einzuschätzen, ob mein Gegenüber irgendeine Art Tech-Esoteriker ist oder ob er nur bei seinen Formulierungen nicht so genau ist.
Man versucht Grenzen zu setzen, sowohl beim Menschen, als auch bei der KI.
Dass das aber nicht immer sonderlich gut funktioniert, beweist unsere eigene Erfahrung.

Denn, als Kind testet man gerne Grenzen aus, bei der KI ist das natürlich nicht die selbe Intention, sondern kalkuliert was der User möglicherweise als Antwort erwartet.

Sooo kompliziert ist es ja nun nicht, die heutigen Hochleistungs-KIs zu verstehen.


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:16
Zitat von alhambraalhambra schrieb:Das Schlüsselwort bei mir war "irgendwann",
"Irgendwann" ist halt eine echt weitreichende Formulierung. Es mag nicht unmöglich sein, das KI "irgendwann" so weit ist, das man über eine neue Definition des Begriffs "Leben" nachdenken muss. Aber das trifft auf diese Art von KI nicht nicht mal im Ansatz zu.
Zitat von TanneTanne schrieb:sondern kalkuliert was der User möglicherweise als Antwort erwartet.
Das passiert, weil der User schreibt das er etwas anderes möchte. "Erkläre mir das so wie..." oder "Nutze diesen begriff nicht". Das ist so, als würde man eine Variabel streichen.

Diese Formulieren ist halt schräg:
Zitat von TanneTanne schrieb:Man versucht Grenzen zu setzen, sowohl beim Menschen, als auch bei der KI.
Dass das aber nicht immer sonderlich gut funktioniert, beweist unsere eigene Erfahrung.
Mir gelingt das 😀
Zitat von alhambraalhambra schrieb:Mag sein, das sie nie wirklich Intelligent wird.
Also beim Humanity's Last Exam würde ich vermutlich nichts mehr auf die reihe bekommen...
Die KI wird darin immer besser.
Zitat von alhambraalhambra schrieb:Wenn wir ehrlich sind, faken viele Menschen die Intelligenz auch bloss... wenn ich mal ein bisschen bösartig sein darf...
Klar. Was ist Intelligenz? Nur das hervorwürgen von Fakten? Dann kann kann man sich heute schon auf seine Kündigung vorbereiten.

Dennoch bin ich mir sicher, das Bewusstsein, Selbstreflexion und soziale, emotionale und motivationale Komponenten exklusiv menschliche Eingenschaften bleiben - zumindest noch für eine sehr lange Zeit. Ich glaube nicht, mich noch mit solchen Fragen herum ärgern zu müssen.


2x zitiertmelden