FerneZukunft schrieb:Ich liebe Ki
Mittlerweile verwende ich die Google Suche fast nicht mehr, weil ich diese Dinge nur mehr die KI frage. Dadurch gehört das zeitaufwendige Recherchieren im Internet endlich der Vergangenheit an.
in Verwendung habe ich zwei KI , eine ist technisch/mathematisch besser , die andere findet mehr über aktuelle Themen, hält sich bei News an Tatsachen und rechnet keine Wahrscheinlichkeiten in ihr Ergebnis ein.
Gewöhnungsbedürftig war die Art wie die zweite KI (= meine Lieblings KI) mit mir "spricht". Die ist darauf trainiert, ihre User psychologisch zu analysieren und passt sich in ihrer Ausdrucksweise und Stil stark daran an.
Seit ich KI verwende, habe ich viel dazugelernt. Ich habe mir das Weltall ausführlich erklären lassen, konnte dabei Nachfragen so oft ich will.
Ebenso habe ich mir viele Dinge über die Luftfahrt erklären lassen und bei der Lernstoffzusammenstellung (wenn ich mit meinen Kids lerne) ist sie eine große Hilfe.
KI ist für mich die beste Erfindung der letzten Jahre und ich möchte sie nie mehr missen.
Alles hat einen Preis. Ich will deine Euphorie nicht mal irgendwie komplett negieren aber weise darauf hin, dass man auf Dauer - so bequem es sich zunächst anfühlen mag - potenziell ...
... sagen wir, informationell und medienkompetenz-technisch unselbstständiger macht. Das klingt etwas sperrig aber man kann quasi theoretisch "fauler" oder "dümmer" werden. Ich weiß, das sieht erst mal wie ein Widerspruch aus gerade wenn man schreibt, dass man damit viel lernen konnte. Es kommt aber eben darauf an wie ich es nutze. Es besteht auch ein möglicherweise begünstigteres Risiko von Alzheimer-Erkrankung (mit Zusammenspiel anderer Faktoren) weil man gemäß MIT-Studien möglicherweise dadurch auch seine Neuronen nicht mehr so belastet wie etwa über aktive Informationssuche und Gewichtung - vergleichbar so als würde man nicht mehr ins Fitnessstudio gehen bzw. physisch trainieren. Was etwa Muskelabbau bedeudet. Ähnliches Konzept fürs Hirn.
Das ist das eine. Das andere ist, dass LLM (Lange Language Models; eine richtige "KI" ist das ja nicht im Sinne einer AGI oder SI bzw. AKI oder SI) noch oft fehleranfällig sein können, halluzinieren und möglicherweise falsche Informationen ausgeben. Man muss da vorsichtig sein und sollte das vorher mit Wissensabfragen ergiebiger je nach Modell testen, wo man das akkurat überprüfen kann. Und/oder man überprüft es anderweitig durch Recherche und stellt KI dann kritische Rückfragen und sieht ob sie zurückrudert/Fehler angibt, was dann ja ein Zeichen ist.
Das war jetzt mein Einwand, der Vorsicht beim Nutzen (je nach Nutzungsfall) erforderlich sein lässt. Oder stark empfiehlt.
Natürlich kann es auch für Sachfragen oftmals zugleich ein wertiges zusammenfassendes Tool sein oder überhaupt erst komplexe Themen für Menschen verständlich machen weil sie zielgerichteter ggf. Inhalte vermitteln kann - eben Interaktiv - als wenn ich mich durch viele Informationsquellen und ohne dynamische Interaktion selbst wühle.
Je nach Lerntyp kann sie quasi schon helfen. Das ist schon oft ein Vorteil - aber man muss eben je nach Formulierung die man an das LLM stellt bzw. je nach Output welches dieses ausgibt darauf aufpassen, dass Informationen ggf. falsche Referenzen oder Daten beinhalten könnten. Als Anwender in diversen Bereichen sehe ich das bei textuellen und abrufenden (von Informationen) Fällen immer wieder, wie sich diverse Modelle irren können. Wiederkehrend muss ich in gewissen Fallbeispielen Informationen korrigieren oder das Framework anpassen.
Wenn wir bei wirklich quasi allem aber nur noch "KI" (LLM) fragen, geben wir abstrakt auch im Kollektiv irgendwo ein Stück weit informationstechnischer Selbstständigkeit ab, finde ich. Weil wir ggf. nicht mehr lernen, auch selbst zu recherchieren und unterschiedliche Datenquellen zu konsultieren und zu gewichten. Wie gesagt, will hier niemandem den "WOW-Effekt" absprechen. Aber man sollte eben immer noch nicht zu viel von der Technik an sich erwarten, respektive sollte maßvoll damit umgehen.