paxito schrieb:Bei Quantencomputern bin ich skeptisch ob das nicht die nächsten Fusionsreaktoren werden - kommen ganz sicher in 50 Jahren. Aber ja.
Das sehe ich genau so.
:D
paxito schrieb:Auf der heutigen Hardware, bzw. sogar auf deutlich simplerer Hardware als im Moment dafür verwendet wird.
Oh das passiert bereits. Es gibt die erste "Schreibtisch-Hardware" die ganze Sprachmodelle hosten kann.
Mir geht's bei der Debatte gerade eher um etwas anderes.
Ein Gigawatt Rechenzentrum, bleibt ein Gigawatt Rechenzentrum. Ob es nun mit 10^27 oder mit 10^31 FLOPs rechnet.
Also selbst wenn wir hypothetisch die Landauer-Grenze erreicht haben, bedeutet das dann, dass keine neuen Rechenzentren gebaut werden?
Löst das automatisch alle zukünftigen Aufgaben und Problemstellungen in Wissenschaft, Forschung, Politik, Gesellschaft usw.?
paxito schrieb:Die Frage ist wo diese Mindestmenge liegt. Viel mehr darf ich dazu aber nicht sagen.
Dazu müsste ich jetzt ziemlich weit ausholen. Ich probiere mal mich kurz zu fassen:
Es liegt vor allem an der Komplexität der Sprache. Gleiche Wörter mit unterschiedlichen Bedeutungen müssen sauber differenziert werden können (Bank - das Geldinstitut, Bank - das Möbelstück). Dazu braucht man höherdimensionale Vektoren um den Bedeutungsraum trennen zu können, ohne die Parallele der Wörter zu verlieren.
Hochdimensionale Vektoren zu berechnen ist extrem rechenintensiv. Dabei gilt: je komplexer und leistungsfähiger ein Modell, desto höherdimensional sind auch seine "Embeddings" (Vektoren). Ich denke du kannst dir vorstellen wie rechenintensiv die Matrizenoperationen von Vektoren mit 5000+ Dimensionen sind.
Fairerweise muss ich sagen, dass intensiv daran geforscht wird, die Dimensionen kleiner zu halten, ohne Genauigkeit zu verlieren. Aber auch da stößt man irgendwann an eine Untergrenze, unterhalb derer Sprache einfach nicht mehr konsistent abgebildet werden kann.