Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.296 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

27.08.2025 um 09:27
Zitat von CharlyPewPewCharlyPewPew schrieb:Einfach nur Geld auf das Problem zu werfen ändert nichts an physikalischen, logistischen und geopolitischen Gre
Doch doch...

Wenn KI erstmal da ist , holt die das über eine Zeitreise alles nach.

Gut das wir im Mysteryforum sind und nicht im Technikteil, wo der AKW Bau zB im Nachhaltigkeitstheead sinnlos gesehen wird.

Aber die denken auch nicht an KI


melden

Künstliche Intelligenz

27.08.2025 um 09:29
Zitat von CharlyPewPewCharlyPewPew schrieb:In der finalen Ausbaustufe sind 10 GW geplant... das entspricht pro Jahr rund 87 TWh, also etwa 17 % des gesamten deutschen Stromverbrauchs. Und OpenAI ist nicht der einzige Player, der solche Rechenzentren baut.
Man kann es so sagen: Wir stellen energetisch betrachtet ganze Staaten auf, nur um KI zu trainieren... und speisen sie dann zum Teil immer noch mit fossilen Energieträgern.
Ich rechne fest damit, dass der Energiehunger von KI in den nächsten Jahren deutlich sinken wird. Die zugrunde liegende Architektur ist alles andere als effizient und sicher nicht der Goldweg zu den Möglichkeiten die die Modelle heute bieten.


2x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 09:41
Zitat von paxitopaxito schrieb:Ich rechne fest damit, dass der Energiehunger von KI in den nächsten Jahren deutlich sinken wird. Die zugrunde liegende Architektur ist alles andere als effizient und sicher nicht der Goldweg zu den Möglichkeiten die die Modelle heute bieten.
Ich rechne damit das bei günstigen Bezugspreisen, sich gar nicht großartig ändert.

Erst wenn Energie richtig teuer wird, wird auf Effizienz geachtet. Somit ist der aktuelle weg mehr Rechenleistung bei gleichzeitigiger begrenzter Wärmeabfuhr Kapazität= mehr Effizienz.

Aber wg dem günstigen Strom ist das kein Treiber Server zB mit Handyprozessoren oder Notebookprozessoren extrem sparsam zu bauen.


melden

Künstliche Intelligenz

27.08.2025 um 09:47
@abbacbbc
Im Moment benötigen KIs immense Rechenleistung und verbrauchen einfach dadurch viel Strom.
KIs die die gleichen oder bessere Resultate mit deutlich geringerer Rechenleistung erbringen, würden natürlich auch deutlich weniger Strom verbrauchen. Dabei gibt es deutlich mehr Vorteile als "nur" der geringere Stromverbrauch, das wäre am Ende eigentlich ein Nebeneffekt. Aber ein guter.


melden

Künstliche Intelligenz

27.08.2025 um 09:50
Zitat von paxitopaxito schrieb:Ich rechne fest damit, dass der Energiehunger von KI in den nächsten Jahren deutlich sinken wird. Die zugrunde liegende Architektur ist alles andere als effizient und sicher nicht der Goldweg zu den Möglichkeiten die die Modelle heute bieten.
Da grätschen jetzt mehrere Sachen rein:

Zunächst mal das Jevons-Paradoxon, was sich in der Vergangenheit immer wieder mehr als bewahrheitet hat.
Sinngemäß sagt es:
Steigt die Effizienz einer Technologie, sinkt der Energieverbrauch pro Einheit... aber dadurch wird sie günstiger, weiter verbreitet und stärker genutzt, was am Ende den Gesamtverbrauch sogar erhöhen kann.

Dann kommt noch das Landauer Prinzip dazu. Da ich das nicht mehr zusammenbekommen habe, habe ich mich mal mit Wikipedia bemüht:
Das Landauer-Prinzip ist eine 1961 von Rolf Landauer formulierte Hypothese, die die Informationstheorie mit der Thermodynamik und der statistischen Physik verknüpft. Sie besagt, dass das Löschen eines Bits an Information zwangsläufig die Abgabe einer Energie von

W=kBTln2

in Form von Wärme an die Umgebung bedeutet.

Dabei ist

kB die Boltzmann-Konstante und
T die absolute Temperatur der Umgebung.
Quelle: Wikipedia: Landauer-Prinzip

Will heißen: Wir stoßen auch irgendwann an physikalische Grenzen, an denen es einfach nicht mehr effizienter geht.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 10:17
Zitat von CharlyPewPewCharlyPewPew schrieb:Steigt die Effizienz einer Technologie, sinkt der Energieverbrauch pro Einheit... aber dadurch wird sie günstiger, weiter verbreitet und stärker genutzt, was am Ende den Gesamtverbrauch sogar erhöhen kann.
Stimmt schon. Die benötigte Rechenleistung müsste massiv sinken, damit das am Ende nicht aufgefressen wird. Und auch dann wäre es möglicher Weise nur ein vorläufiger "Gewinn".
Zitat von CharlyPewPewCharlyPewPew schrieb:Will heißen: Wir stoßen auch irgendwann an physikalische Grenzen, an denen es einfach nicht mehr effizienter geht.
Da sind wir an der Stelle aber noch lange nicht. Ich spreche ja von einer möglichen neuen Architektur die völlig anders arbeitet als bisherige KI Modelle aber vergleichbare Ergebnisse liefert.
Im Grunde beruhen alle heutigen KIs auf einer vergleichbaren Technologie, die erste die uns derartige Ergebnisse liefert. Aber mit Sicherheit ist das nicht der Weisheit letzter Schluss.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 11:05
Zitat von paxitopaxito schrieb:Da sind wir an der Stelle aber noch lange nicht.
Das stimmt natürlich. Wir haben etliches an Luft nach oben. Quantencomputer könnten eines Tages helfen dieser Grenze näher zu kommen. Wenn sie denn irgendwann zuverlässige und replizierbare Ergebnisse liefern und alle "Problemchen" ausgemerzt sind. Photonik ist das realistischste kurzfristige Szenario und wird auch in gewissem Maße helfen.
Zitat von paxitopaxito schrieb:Ich spreche ja von einer möglichen neuen Architektur die völlig anders arbeitet als bisherige KI Modelle aber vergleichbare Ergebnisse liefert.
Das wiederum sehe ich nicht. Bzw. ich verstehe nicht ganz was du meinst.

Eine mögliche neue Computing Architektur setzt erst mal eine gewaltige neue Infrastruktur voraus, die man auch nicht mal eben, nebenbei, irgendwo etabliert.

Eine mögliche neue KI-Architektur klingt spannend, klar. Aber: Solche Ansätze entstehen immer innerhalb der aktuell verfügbaren Ressourcen. Man kann nicht einfach sagen: „Hier ist ein theoretisch viel effizienterer Algorithmus“, wenn er nur auf Quantencomputern oder Spezialhardware laufen würde, die real bislang nur in kleinen Forschungseinrichtungen existiert. Damit wären wir sofort wieder bei der Frage der Computing-Architektur und Infrastruktur.

Heißt: Selbst wenn ein Transformer-Nachfolger kommt, müsste er erst einmal auf heutiger Hardware laufen... mit allen bestehenden physikalischen, logistischen und energetischen Grenzen. Der Wechsel auf eine wirklich neue Plattform würde einen globalen Austausch der Rechenzentren erfordern. Und das ist ein Generationenprojekt, kein kurzfristiger Joker.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 11:19
Vielleicht noch als Nachtrag:

Softwareseitig ist auch auf bestehender Hardware noch Luft nach oben, was die Effizienz angeht. Aber man sollte realistisch bleiben: Verbesserungen im Bereich von Faktor 10, vielleicht auch 100, halte ich in den nächsten Jahren vielleicht noch für plausibel, durch z.B. bessere Quantisierung oder spezialisierter Hardware.

Ein Faktor 1000 wäre eher Science Fiction. Man stößt dann nämlich immer auf oben genannte Grenzen. Der Grund dafür ist tatsächlich relativ "simpel": Sprachmodelle approximieren extrem komplexe Wahrscheinlichkeitsverteilungen. Dafür braucht es eine gewisse Mindestmenge an Parametern und Rechenoperationen. Selbst wenn man die Algorithmen perfektioniert, bleibt man gebunden an physikalische Limits wie Speicherbandbreite, Kommunikation zwischen Chips oder die Landauer-Grenze für Energie pro Bit.

Das gilt auch für mögliche Nachfolger der Transformer. Auch der cleverste Ansatz kann die Komplexität der Aufgabe nicht wegzaubern. Sprache, Weltmodelle, multimodale Daten sind hochdimensionale Strukturen. Dafür braucht es immer sehr viele Operationen pro Sekunde.

Man kann die Kurve verschieben, aber man kann sie nicht beliebig nach unten drücken.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 11:59
Zitat von CharlyPewPewCharlyPewPew schrieb:Das stimmt natürlich. Wir haben etliches an Luft nach oben. Quantencomputer könnten eines Tages helfen dieser Grenze näher zu kommen. Wenn sie denn irgendwann zuverlässige und replizierbare Ergebnisse liefern und alle "Problemchen" ausgemerzt sind. Photonik ist das realistischste kurzfristige Szenario und wird auch in gewissem Maße helfen.
Bei Quantencomputern bin ich skeptisch ob das nicht die nächsten Fusionsreaktoren werden - kommen ganz sicher in 50 Jahren. Aber ja.
Zitat von CharlyPewPewCharlyPewPew schrieb:Das wiederum sehe ich nicht. Bzw. ich verstehe nicht ganz was du meinst.
Zitat von CharlyPewPewCharlyPewPew schrieb:Heißt: Selbst wenn ein Transformer-Nachfolger kommt, müsste er erst einmal auf heutiger Hardware laufen...
Ja sicher, soll er ja auch. Mein Gedankengang war eher softwareseitig. Ich bin überzeugt das sich die notwendigen Berechnungen für LLMs deutlich reduzieren lassen. Auf der heutigen Hardware, bzw. sogar auf deutlich simplerer Hardware als im Moment dafür verwendet wird.
Zitat von CharlyPewPewCharlyPewPew schrieb:Der Grund dafür ist tatsächlich relativ "simpel": Sprachmodelle approximieren extrem komplexe Wahrscheinlichkeitsverteilungen. Dafür braucht es eine gewisse Mindestmenge an Parametern und Rechenoperationen.
Die Frage ist wo diese Mindestmenge liegt. Viel mehr darf ich dazu aber nicht sagen.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 12:24
Zitat von paxitopaxito schrieb:Bei Quantencomputern bin ich skeptisch ob das nicht die nächsten Fusionsreaktoren werden - kommen ganz sicher in 50 Jahren. Aber ja.
Das sehe ich genau so. :D
Zitat von paxitopaxito schrieb:Auf der heutigen Hardware, bzw. sogar auf deutlich simplerer Hardware als im Moment dafür verwendet wird.
Oh das passiert bereits. Es gibt die erste "Schreibtisch-Hardware" die ganze Sprachmodelle hosten kann.

Mir geht's bei der Debatte gerade eher um etwas anderes.

Ein Gigawatt Rechenzentrum, bleibt ein Gigawatt Rechenzentrum. Ob es nun mit 10^27 oder mit 10^31 FLOPs rechnet.
Also selbst wenn wir hypothetisch die Landauer-Grenze erreicht haben, bedeutet das dann, dass keine neuen Rechenzentren gebaut werden?
Löst das automatisch alle zukünftigen Aufgaben und Problemstellungen in Wissenschaft, Forschung, Politik, Gesellschaft usw.?
Zitat von paxitopaxito schrieb:Die Frage ist wo diese Mindestmenge liegt. Viel mehr darf ich dazu aber nicht sagen.
Dazu müsste ich jetzt ziemlich weit ausholen. Ich probiere mal mich kurz zu fassen:

Es liegt vor allem an der Komplexität der Sprache. Gleiche Wörter mit unterschiedlichen Bedeutungen müssen sauber differenziert werden können (Bank - das Geldinstitut, Bank - das Möbelstück). Dazu braucht man höherdimensionale Vektoren um den Bedeutungsraum trennen zu können, ohne die Parallele der Wörter zu verlieren.
Hochdimensionale Vektoren zu berechnen ist extrem rechenintensiv. Dabei gilt: je komplexer und leistungsfähiger ein Modell, desto höherdimensional sind auch seine "Embeddings" (Vektoren). Ich denke du kannst dir vorstellen wie rechenintensiv die Matrizenoperationen von Vektoren mit 5000+ Dimensionen sind.

Fairerweise muss ich sagen, dass intensiv daran geforscht wird, die Dimensionen kleiner zu halten, ohne Genauigkeit zu verlieren. Aber auch da stößt man irgendwann an eine Untergrenze, unterhalb derer Sprache einfach nicht mehr konsistent abgebildet werden kann.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 12:41
Zitat von CharlyPewPewCharlyPewPew schrieb:Ein Gigawatt Rechenzentrum, bleibt ein Gigawatt Rechenzentrum. Ob es nun mit 10^27 oder mit 10^31 FLOPs rechnet.
Also selbst wenn wir hypothetisch die Landauer-Grenze erreicht haben, bedeutet das dann, dass keine neuen Rechenzentren gebaut werden?
Naja, das ist doch nun Science Fiction. Wenn wir jemals die Landauer Grenze erreichen sollten, dann errichten wir vielleicht "Rechenzentrum" im All auf eine Art die mit dem heutigen nichts mehr zu tun hat. Ich verstehe deine Frage, aber die ist mir dann tatsächlich mal zu spekulativ.
Zitat von CharlyPewPewCharlyPewPew schrieb:Es liegt vor allem an der Komplexität der Sprache. Gleiche Wörter mit unterschiedlichen Bedeutungen müssen sauber differenziert werden können (Bank - das Geldinstitut, Bank - das Möbelstück). Dazu braucht man höherdimensionale Vektoren um den Bedeutungsraum trennen zu können, ohne die Parallele der Wörter zu verlieren.
Diese Art und Weise Sprache zu behandeln ist aber im Grunde autistisch. Natürlich kann ein noch so kluger Algorithmus nicht 1:1 das menschliche Sprachverständnis simulieren.
Trotzdem können wir uns daran orientieren. Dabei ist es eben nicht so das jeder Begriff eine wohldefinierte Bedeutung hat (oder mehrere) die dem Sprecher durch Lernen klar wird, sondern Wörter verbinden sich zu einem Konglomerat von Bedeutung.
Etwa Bank, Geld, Finanzinstitut, Börse ect. pp. auf der einen Seite und Bank, Sitzgelegenheit, Park, Möbel usw. auf der anderen Seite. Gleichzeitig ergibt sich der konkrete Sinn eines Wortes dann erst durch seinen Kontext, also "die Wörter drumherum".
Etwa:
"Ich sitze vor der Bank auf einer Bank." Der Satz ist eigentlich mehrdeutig trotzdem werden die meisten Menschen eben erwarten das man vor dem Gebäude Bank auf dem Möbel Bank sitzt. Und nicht etwa umgekehrt. Dieser Sinn steckt in gerade mal 7 Wörtern.
Das alles lässt sich darstellen, aber eben nicht auf die Art und Weise wie es bei LLMs heute passiert. Die ähneln eher einem Autisten der Wörterbücher auswendig gelernt hat und mit diesem Wissen dann Zeitungsartikel interpretiert.
Zitat von CharlyPewPewCharlyPewPew schrieb:Fairerweise muss ich sagen, dass intensiv daran geforscht wird, die Dimensionen kleiner zu halten, ohne Genauigkeit zu verlieren. Aber auch da stößt man irgendwann an eine Untergrenze, unterhalb derer Sprache einfach nicht mehr konsistent abgebildet werden kann.
Die Frage ist erstmal wie Sprache abgebildet wird.


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 13:49
Zitat von paxitopaxito schrieb:Das alles lässt sich darstellen, aber eben nicht auf die Art und Weise wie es bei LLMs heute passiert. Die ähneln eher einem Autisten der Wörterbücher auswendig gelernt hat und mit diesem Wissen dann Zeitungsartikel interpretiert.
Eben nicht. Ein LLM hat nicht einfach ein Wörterbuch im Kopf, sondern modelliert Bedeutungsräume. Das Token "Bank" taucht im Kontext (jedes Token sieht jedes andere Token) in zwei unterschiedlichen semantischen Räumen innerhalb eines hochdimensionalen Vektors auf. Über die Trainingsgewichte lernt das Modell, dass "Bank" in Kombination mit "vor der" sehr wahrscheinlich das Gebäude meint, während "Bank" in Kombination mit "sitzen" das Möbelstück meint.

Die Bedeutung wird nicht statisch abgespeichert, sondern kontextabhängig berechnet... jedes mal.
Genau darin unterscheidet sich ein LLM von einem "Wörterbuch Algorithmus".
Zitat von paxitopaxito schrieb:Die Frage ist erstmal wie Sprache abgebildet wird.
Bei einem LLM bzw. Embedding Algorithmen? Wenn man so will: Geometrisch.
Ich weiß jetzt nur nicht ob das eine Fangfrage ist, oder ob ich dir das erklären soll. ^^


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 14:32
Zitat von CharlyPewPewCharlyPewPew schrieb:Eben nicht. Ein LLM hat nicht einfach ein Wörterbuch im Kopf, sondern modelliert Bedeutungsräume. Das Token "Bank" taucht im Kontext (jedes Token sieht jedes andere Token) in zwei unterschiedlichen semantischen Räumen innerhalb eines hochdimensionalen Vektors auf.
Aber das Token Bank hat eben exakt einen Vektor oder missverstehe ich da was?
Zitat von CharlyPewPewCharlyPewPew schrieb:Bei einem LLM bzw. Embedding Algorithmen? Wenn man so will: Geometrisch.
Ich weiß jetzt nur nicht ob das eine Fangfrage ist, oder ob ich dir das erklären soll. ^^
Ich befürchte wenn du es mir erklärst, verstehe ich genauso viel wie beim letzten Mal als ein IT Mensch mir das erklären wollte. Aber nur zu ;)


1x zitiertmelden

Künstliche Intelligenz

27.08.2025 um 15:55
Zitat von paxitopaxito schrieb:Aber das Token Bank hat eben exakt einen Vektor oder missverstehe ich da was?
Genau. Das hast du missverstanden. Das Token von Bank wird im Kontext jedes mal neu berechnet.
Es hat einen "Einstiegsvektor" wenn man so will, aber ab da verändert sich die "Bedeutung" dynamisch im jeweiligen Kontext.
Durch die Attention-Mechanismen wird bei jedem Durchlauf neu berechnet, wie "Bank" im jeweiligen Satz zu interpretieren ist.
Zitat von paxitopaxito schrieb:Ich befürchte wenn du es mir erklärst, verstehe ich genauso viel wie beim letzten Mal als ein IT Mensch mir das erklären wollte. Aber nur zu ;)
Also ich habe im Zuge von Arbeit und jeder menge Eigenrecherche auch eine weile gebraucht um die Funktionsweise zu verstehen und bezweifle irgendwie, dass ich das verständlicher rüberbringen kann als andere, aber gut:

Embedding Modelle sind, wenn man so will, auch schon KI. Trainierte Algorithmen. Sie wurden mit sehr viel Text gefüttert und haben damit "gelernt" welche Wörter oft in einem Satz zusammen vorkommen, was semantisch ähnlich ist, etc.
Das Ergebnis des Trainings ist dann, dass jedes Wort in einem hochdimensionalen Raum eine Koordinate bekommt. Ähnliche Wörter sind in dem Raum näher beieinander.

Jetzt könnte man meinen, dass das schon Ziemlich "Wörterbuch" ähnlich ist, aber das ist nur die Grundlage.
Nachdem die Wörter ihre ersten Embeddings bekommen haben, geht's in die Self-Attention. Jedes Wort schaut jetzt auf alle anderen Wörter im Satz und bewertet, wie stark es von ihnen abhängt.
Z.B. "Der Hund jagt die Katze, weil sie losläuft."
Durchs Training ist die Wahrscheinlichkeit hoch, dass sich "sie" auf Katze bezieht und die Koordinaten von "sie" werden aktualisiert. (Näher zur Katze gebracht)
Das passiert Schicht für Schicht immer wieder, sodass die Bedeutung der Wörter im Kontext dynamisch neu berechnet wird.
In einer der ersten Schichten lernt das Modell nur, dass "sie" zu "Katze" gehört.
In den mittleren Schichten vielleicht, dass "jagen" das Verb ist, dass Hund und Katze verbindet.
In den letzten Schichten kennt das Modell dann die Bedeutung des gesamten Satzes und "weiß" es geht um eine Jagdszene zwischen Hund und Katze.
Dabei ist "wissen" natürlich Käse. In jeder Schicht werden die Relationen klarer. Subjekt, Prädikat, Objekt, Ursache. Am Ende der letzten Schichten liegt ein Muster vor, das diese gesamte Satzstruktur repräsentiert.
Das alles, weil sich die Vektorkoordinaten zu einem "Gesamtbild verschoben" haben.

Oh man. Ich vermute stark, dass es unverständlicher nicht sein könnte, was ich mir da zusammengetippt habe. Naja egal.

Wenn wir das jetzt erweitern und eine X-Beliebige Frage an ChatGPT stellen passiert erst mal genau das.
Man könnte sagen: Die KI hat dann eine geometrische Abbildung unserer Frage, die es ihr erlaubt meine Intention abzuleiten. (klingt besser als das Gestammel oben)

Dann beginnt die Antwortgenerierung und die ist im Prinzip das umgekehrte Embedding (auch wenn das mathematisch falsch ist).
Mit deiner Frage hat das Modell einen Startpunkt für mögliche Antworten.
Im Training hat es gelernt, wie Fragen und Antworten typischerweise zusammenhängen, wie Sätze aufgebaut sind und welche Antwortmuster passen.
Es erzeugt die Antwort nicht auf einmal, sondern Wort für Wort: für jedes nächste Wort berechnet es Wahrscheinlichkeiten und wählt das plausibelste.

Statt "Wort" müsste ich eigentlich "Token" schreiben. Das Modell kann auch Satzzeichen einfügen, Texte in Abschnitte Gliedern, Stichpunkte grafisch hervorheben etc., aber das würde etwas zu weit gehen.

Auf jeden Fall sollte man im Hinterkopf haben, dass es einen Vektorraum mit mehreren 1000 Dimensionen gibt, in dem jedes Token eine Koordinate bekommt, welche sich im Bearbeitungsprozess immer wieder leicht ändert.

Eventuell verdeutlicht das etwas, wie viel Rechenaufwand hinter einer einfachen Frage wie "Wie wird das Wetter morgen?" steckt.


melden

Künstliche Intelligenz

27.08.2025 um 19:10
@all

Ich stellte dem Copilot von Edge gerade eine Frage und sah folgende Meldungen:
Copilot kann Fehler machen. Ihre Unterhaltungen sind personalisiert.
Abonnement kündigen.
dieser Text stand VOR meiner Frage.

Und das Folgende NACH meiner Frage:
Es tut mir leid, ich habe im Moment Schwierigkeiten auf Anfragen zu reagieren. Bitte versuche es später noch einmal.
Was ist denn davon zu halten?


melden

Künstliche Intelligenz

27.08.2025 um 19:22
Nano Banana ist ja gerade als generatives Modell (für Bilder) in aller Munde.

Auf Seiten wie https://lmarena.ai kann man selbst im "Battle Mode" diverse Modelle erst anonym testen und dann bewertet man von zwei Vorschlägen (ob beide gut/schlecht oder eines besser), und dann wird einem das Modell gezeigt. Nano Banana ist da gefühlt, wenn man es mal kriegt, im höheren Segment unterwegs was Qualität angeht - im Vergleich zu etwa Flux.

Es ist glaube ich heute oder gestern auch endlich über Gemini released worden. Ich kanns bisher anhand diverser Erfahrungsberichte empfehlen.


melden

Künstliche Intelligenz

30.08.2025 um 21:03
@paxito
Youtube: Dein Bewusstsein hochladen: Science-Fiction oder bald Realität? | Quarks Dimension Ralph
Dein Bewusstsein hochladen: Science-Fiction oder bald Realität? | Quarks Dimension Ralph
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.

Eventuell auch für die Anderen hier interessant. Er spricht einige Punkte an, das Konnektom von einer Fruchtfliege wurde schon vollständig gescannt, für Menschen braucht es noch etwas.

Wir kommen hier schon in den Bereich von Exascale, dann aber sind wir im Rennen. Also so ab 2030 könnte es anfangen, 2045 sollte es sicher möglich sein, dass ein Rechencluster ein menschliches Hirn vollständig simuliert.


melden

Künstliche Intelligenz

31.08.2025 um 08:38
Angetrieben von einem Fusionsreaktor klappt das ganz sicher.


melden
1x zitiertmelden

Künstliche Intelligenz

01.09.2025 um 18:38
Zitat von parabolparabol schrieb:Youtube wird mit KI Schrott zugeschüttet - und die Leute halten das auch noch für echt
Muss wieder an die "dead internet" Theorie denken. Der Channel hat immerhin einen KI-Verweis in seiner allgemeinen Bio ("AI visuals") aber ja, es geht schon los. Als jemand der selbst eher musikalischen KI-Content hochgeladen hat: Du musst 'eigentlich' zwingend bei YT angeben ob etwas synthetisch generierten Content in einer maßgeblichen Art und Weise beinhaltet. Das steht dann in den Videobeschreibungen als Marker. Bei Shorts, die strukturell/visuell anders aufgebaut sind, ist das wohl schwieriger. IMO müsste YT hier dann entsprechend andere Marker die ungefähr aussehen wie "Enthält bezahlte Werbung" einsetzen. Wenn die Leute denn gescheit ihren Content labeln würden.

Bei YT musst du bei jedem Upload ankreuzen ob ein Video für Kinder geeignet ist oder nicht. Hier sollte man stärker auch eine Option für generative Inhalte hervorheben.

Wer dagegen verstößt muss dann halt mit Sanktionen von der Plattform bis hin zum Accountverlust rechnen. Ich würde notfalls auch stumpf die eigenen Detektionssysteme für generative Inhalte anpassen und im Zweifel bei nicht deklarierten Inhalten menschliche Mitarbeiter nochmal drüberschauen lassen und dann einfach stumpf Videos löschen wenn die nicht deklariert wurden.

So würde man dann eine Flut an solchem Content zumindest etwas bändigen, wenn auch nicht ganz verhindern können. Irgendwann wird vermutlich das Netz eh mit so was geflutet, sobald Automatisierung von Inhaltserstellung immer mehr möglich wird. Oder gar partiell erlaubt wird, für Marketingzwecke oder sonst was.


1x zitiertmelden