Künstliche Intelligenz
gestern um 11:10@behind_eyes
Um derartige LLMs zu betreiben, braucht es Rechenleistung.
https://www.ingenieur.de/technik/fachbereiche/kuenstliche-intelligenz/ki-ohne-cloud-neuer-chip-der-tum-setzt-auf-lokale-intelligenz/ schrieb:Technisches Profil und PotenzialDieser viel Zitierte Test wurde nicht mit einer Spezialisierten KI ausgeführt.
Der Chip ist nur einen Quadratmillimeter groß, enthält etwa 10 Mio. Transistoren und kostet aktuell rund 30.000 € pro Exemplar. Zum Vergleich: Nvidia-Chips enthalten bis zu 200 Mrd. Transistoren. Doch das stört Amrouch nicht. Sein Fokus liegt auf spezialisierten Anwendungen, nicht auf Allzwecklösungen.
Die kompakte Bauweise macht den Chip für Geräte mit begrenztem Platzangebot attraktiv. Gerade im Bereich der eingebetteten Systeme – also bei Sensoren, Wearables oder kompakten Robotern – könnten solche KI-Prozessoren künftig zum Standard werden.
Um derartige LLMs zu betreiben, braucht es Rechenleistung.
Absolut begrüßenswert. Aber mein 1,8 B Modell, das ich auf meinem Smartphone bereits heute laufen lasse, wird nicht die Weltherrschaft an sich reißen.behind_eyes schrieb:Derzeit optimieren alle großen Hersteller ihre Chips um KI-Anforderungen besser lokal abzuarbeiten