Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.925 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 11:10
@behind_eyes
https://www.ingenieur.de/technik/fachbereiche/kuenstliche-intelligenz/ki-ohne-cloud-neuer-chip-der-tum-setzt-auf-lokale-intelligenz/ schrieb:Technisches Profil und Potenzial
Der Chip ist nur einen Quadratmillimeter groß, enthält etwa 10 Mio. Transistoren und kostet aktuell rund 30.000 € pro Exemplar. Zum Vergleich: Nvidia-Chips enthalten bis zu 200 Mrd. Transistoren. Doch das stört Amrouch nicht. Sein Fokus liegt auf spezialisierten Anwendungen, nicht auf Allzwecklösungen.

Die kompakte Bauweise macht den Chip für Geräte mit begrenztem Platzangebot attraktiv. Gerade im Bereich der eingebetteten Systeme – also bei Sensoren, Wearables oder kompakten Robotern – könnten solche KI-Prozessoren künftig zum Standard werden.
Dieser viel Zitierte Test wurde nicht mit einer Spezialisierten KI ausgeführt.
Um derartige LLMs zu betreiben, braucht es Rechenleistung.
Zitat von behind_eyesbehind_eyes schrieb:Derzeit optimieren alle großen Hersteller ihre Chips um KI-Anforderungen besser lokal abzuarbeiten
Absolut begrüßenswert. Aber mein 1,8 B Modell, das ich auf meinem Smartphone bereits heute laufen lasse, wird nicht die Weltherrschaft an sich reißen.


2x zitiertmelden

Künstliche Intelligenz

gestern um 12:20
Zitat von NegevNegev schrieb:Aber mein 1,8 B Modell, das ich auf meinem Smartphone bereits heute laufen lasse, wird nicht die Weltherrschaft an sich reißen.
Es ging um Dezentralität und damit verbundene Schwierigkeiten beim "Abschalten". Wenn Milliarden Endgeräte KI-Leistung bereitstellen müsste man diese dann abschalten. Deswegen bin ich persönlich sehr dafür, daß man KI-Modelle verstehbar (XAI) designed. Das ermöglicht es frühzeitig, Trends zu erkennen und bietet überhaupt erstmal Ansätze diesen zu begegnen... Genauso die einfache und standardisierte Möglichkeit Trainingsmodelle nach ihrer Entstehung zu ändern und eben nicht nur der KI verbieten ihren Entwickler zu töten.


2x zitiertmelden

Künstliche Intelligenz

gestern um 13:18
Zitat von behind_eyesbehind_eyes schrieb:Es ging um Dezentralität und damit verbundene Schwierigkeiten beim "Abschalten".
Du meinst die werden so unkontrollierbar wie Handys oder Taschenrechner ??

Wie gesagt LLMs heute bekommen eine Anfrage ... Arbeiten... Und geben eine Ausgabe.

Nun hast du 1 oder 1 Mio Geräte , die auf Eingaben warten und Ausgaben generieren.

Wo ist die Gefahr ??


melden

Künstliche Intelligenz

gestern um 13:30
Zitat von behind_eyesbehind_eyes schrieb:Es ging um Dezentralität und damit verbundene Schwierigkeiten beim "Abschalten". Wenn Milliarden Endgeräte KI-Leistung bereitstellen müsste man diese dann abschalten.
Diese Geräte kann man aber nicht einfach mal so zu einem großen Ganzen zusammenschalten.

Selbst wenn man das schaffen - und es unerkannt bleiben würde!, könnte man darüber kein großes LLM betreiben. Und die Kleinen sind dafür nicht intelligent genug. Eine Verbund aus Agents würde nichts brauchbares liefern.

Meine KI meckert auch schon die ganze Zeit herum, das ich nur die heutigen Möglichkeiten im Blick habe (ich hab das LLM mit dem Transkript des Videos von unserem Untergangspropheten gefüttert). Aber wenn eine außerirdische Macht beschließt, das unser Planet einer Hyperraumroute weichen muss, dann können wir auch wenig machen...

Aber in der Fantasie haben wir auch schon den Fusion-Reaktor. Klar, Strohmann. Soll aber deutlich machen, das manchmal doch mehr Vision als Realität hinter Aussagen stecken können.


2x zitiertmelden

Künstliche Intelligenz

gestern um 14:00
Zitat von NegevNegev schrieb:Diese Geräte kann man aber nicht einfach mal so zu einem großen Ganzen zusammenschalten.
Darum geht's ja halt bei Dezentralität eben nicht.
Zitat von NegevNegev schrieb:Aber in der Fantasie haben wir auch schon den Fusion-Reaktor. Klar, Strohmann. Soll aber deutlich machen, das manchmal doch mehr Vision als Realität hinter Aussagen stecken können.
Richtig, deswegen sollte man sich dem befassen was man real hat und da ist ne KI die ihren Entwickler töten würde. Das jetzt runterzubrechen aus "nicht so schlimm, tatsächlich kann sie es ja garnicht tun" während wir uns komplett in den Kinderschuhen der KI-Entwicklung befinden halte ich für den falschen Ansatz.
Heute werden die Grundlagen gelegt die später das ganze KI-Netz charakterisieren und vor allem limitierten.... Wenn man bei Microsoft die Zeit zurückdrehen könnte würde man diese unsägliche Registry wahrscheinlich garnicht erst erfinden, heute kommt man nicht drumherum, sie ist da, ohne geht es nicht mehr.


2x zitiertmelden

Künstliche Intelligenz

gestern um 14:08
Zitat von behind_eyesbehind_eyes schrieb:Richtig, deswegen sollte man sich dem befassen was man real hat und da ist ne KI die ihren Entwickler töten würde. Das jetzt runterzubrechen aus "nicht so schlimm, tatsächlich kann sie es ja garnicht tun" während wir uns komplett in den Kinderschuhen der KI-Entwicklung befinden halte ich für den falschen Ansatz
Nö das ist mitbein Kern des Problem.

Mein Ansatz: einer KI wie aktuell LLMs es sind keine Fähigkeiten in die Hand zu legen jemanden töten zu können, denn das Werkzeug KI ist nicht 100% fail Safe.

Es zählt man falsch , am Freitag hat es falsch sortiert, hat logische Brüche.

Ihm also die Kontrolle eines Systems zu geben und zu sagen "mach passt schon" ist eben einen Rasenmäher ohne Gehäuse laufen zu lassen.

Habt ihr Rasenmäherfallen und Antirasenmäherstrategieen ??


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:14
Zitat von abbacbbcabbacbbc schrieb:Ihm also die Kontrolle eines Systems zu geben und zu sagen "mach passt schon" ist eben einen Rasenmäher ohne Gehäuse laufen zu lassen.

Habt ihr Rasenmäherfallen und Antirasenmäherstrategieen ??
Ein Rasenmäher ist wenigstens gut dokumentiert.
Eine KI nicht - Ausgangspunkt Transparenz Weil es Stand heute kaum Strategien gibt die Entscheidungen der KI zu verstehen und das ist ein Thema was irgendwann nicht mehr rückgängig machbar ist. Solche Logging müssen frühzeitig implementiert werden, ist der Code zu groß oder komplex oder die KI schreibt sich möglicherweise selber, ist es zu spät. Dabei bietet gelebte XAI soviel Möglichkeiten vielen aktuellen Problemen von und mit KI zu begegnen aber ja, ist Aufwand aber hat ja niemand gesagt das Transparenz umsonst ist.


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:19
Bzw...

Finde ich ist das ganze auch einer Inbetriebnahme in der Industrie nicht ganz unähnlich.

Dort werden dann alle Sensoren und Aktuatoren getestet und dabei kommt es auch vor dass das zB die Logik verkehrt ist.

Also "Personen im Gefahrenbereich" werden als "keine Personen im Gefahrenbereich" erkannt.

Was bei einer Förderstrecke oder Abfüllanlage dann für eine Fehlfunktion sorgt tritt zB bei einem Gefahrenbereich mit Personen nicht auf.

Wieso ???

Da wird nicht wild umher programmiert sondern extra Sicherheitssteuerungen eingesetzt , welche eben gefährliche Situationen technisch sehr gut ausschließt.
Das heißt die Steuerung überwacht sich selber , hat mehrere Sensoren, welche auch überwacht werden und ist selber sehr robust designt und am Ende "abgeschlossenen programmiert"

Wozu: am Hauptprogramm der Steuerung werden immer mal Erweiterungen eingebaut oder aufgerüstet.

Das machen Menschen und:
Zitat von behind_eyesbehind_eyes schrieb:Ein Rasenmäher ist wenigstens gut dokumentiert.
Eine KI nicht - Ausgangspunkt Transparenz
Ein Mensch ist eben nicht transparent und kann Fehler einbauen.

Dann dürfen aber keine Köpfe rollen.

Das Beispiel kann man auf so viele Dinge ausdehnen.


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:25
Zitat von abbacbbcabbacbbc schrieb:Ein Mensch ist eben nicht transparent und kann Fehler einbauen.
Ja, aber eine KI (welche uns nach Möglichkeit nie dominieren sollte) muss transparent arbeiten.
Zur Zeit wird nicht viel dafür getan.


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:37
Zitat von behind_eyesbehind_eyes schrieb:Darum geht's ja halt bei Dezentralität eben nicht.
Worum dann?

Dezentralität wird nur dann zu einem Faktor, wenn die KIs auf diesen embedded Systemen oder den Smartphones oder anderen Computern zur Gefahr werden.

Für embedded systems wird das ... nie der Fall sein. Ginge auch das völlig am User-Case vorbei.

Bleiben Smartphones usw.

Aber wie gesagt, was ist deine Befürchtung?


1x zitiertmelden

Künstliche Intelligenz

gestern um 14:51
Zitat von NegevNegev schrieb:Dezentralität wird nur dann zu einem Faktor, wenn die KIs auf diesen embedded Systemen oder den Smartphones oder anderen Computern zur Gefahr werden.
Und diese Gefahr ist gegeben durch Ansätze wie heute, wo einer KI die entschieden hat einen Mensch zu töten kein standardisiertes Instrument zur Seite steht, um systematisch solche Prozesse zu analysieren, mehr noch, oftmals gibt es für die Notwendigkeit in diesem Stadium Entscheidungen zu verstehen, kein Verständnis.
Zitat von NegevNegev schrieb:Für embedded systems wird das ... nie der Fall sein. Ginge auch das völlig am User-Case vorbei.

Bleiben Smartphones usw.
Die Dinger werden doch heute schon nicht mehr dafür benutzt für was sie eigentlich mal gedacht wurden... Ich habe zum Beispiel kaum noch Anrufe sondern nutze das Ding zu 99% für Internet-Anwendung. Es ist kein Kommunikationstool mehr, es ist ein Konsumgerät und wenn es Informationen sind die konsumiert werden.
Zitat von NegevNegev schrieb:Aber wie gesagt, was ist deine Befürchtung?
Das sich KI-Modelle durchsetzen in denen die Nachverfolgbarkeit von Entscheidungen in der Entwicklung keine große Beachtung findet und ihre Trainingsmodelle dadurch im Nachhinein nur schwer oder wenig sinnvoll korrigiert werden können.


2x zitiertmelden

Künstliche Intelligenz

gestern um 15:22
Zitat von behind_eyesbehind_eyes schrieb:Und diese Gefahr ist gegeben durch Ansätze wie heute, wo einer KI die entschieden hat einen Mensch zu töten
Zunächst hat die KI nur eine Geschichte erzählt.
Am Ende muss diese Geschichte jemand in die Tat umsetzen.
Zitat von behind_eyesbehind_eyes schrieb:kein standardisiertes Instrument zur Seite steht, um systematisch solche Prozesse zu analysieren,
Wir haben Instrumente. Nennt sich Cybersecurity. Ist ein ziemlich großes Themen- und Geschäftsgebiet.

Generative KI bringen Blackboxes mit. Okay. Verstanden. Das ist aber nur ein wahnsinnig gutes Argument dafür, das man diese KI nicht für Systemkritische Infrastruktur einsetzt!
Zitat von behind_eyesbehind_eyes schrieb:Die Dinger werden doch heute schon nicht mehr dafür benutzt für was sie eigentlich mal gedacht wurden...
Du schlägst quasi vor, mit einem Fahrrad an einem Formel 1 Rennen Teilzunehmen!
Zitat von behind_eyesbehind_eyes schrieb:Das sich KI-Modelle durchsetzen in denen die Nachverfolgbarkeit von Entscheidungen in der Entwicklung keine große Beachtung findet
Das findet so oder so statt.
Und nu?

Es gibt gefahren, Angeleitet durch den Mensch. Jeder könnte bei sich daheim DeepFakes usw. erstellen. Aber aber diese Gefahr ist nicht neu.


2x zitiertmelden

Künstliche Intelligenz

gestern um 15:32
Zitat von NegevNegev schrieb:Zunächst hat die KI nur eine Geschichte erzählt.
Am Ende muss diese Geschichte jemand in die Tat umsetzen.
Oder wir lernen heute aus solchen Ereignissen.
Zitat von NegevNegev schrieb:Generative KI bringen Blackboxes mit. Okay. Verstanden. Das ist aber nur ein wahnsinnig gutes Argument dafür, das man diese KI nicht für Systemkritische Infrastruktur einsetzt!
Nee, das ist - meine Meinung - ein wahnsinnig gutes Argument für XAI.
Zitat von NegevNegev schrieb:Du schlägst quasi vor, mit einem Fahrrad an einem Formel 1 Rennen Teilzunehmen!
Ich schlage vor, daß man heute sich für die Formel 1 von morgen wappnet und dein Beispiel Formel 1 ist ein sehr gutes Beispiel und Argument für XAI - es gab sehr viele gute Entscheidungen die man getroffen hat weil man sich mit Ereignissen wie Unfällen oder Beinaheunfällen auseinandergesetzt hat. Das findet bei KI heute kaum Beachtung, "was, KI entschied Menschen zu töten, egal, hat ja keine Pistole". So oder ähnlich.
Zitat von behind_eyesbehind_eyes schrieb:Das sich KI-Modelle durchsetzen in denen die Nachverfolgbarkeit von Entscheidungen in der Entwicklung keine große Beachtung findet
Zitat von NegevNegev schrieb:Das findet so oder so statt.
Und nu?
Das findet eben nicht "so oder so statt" sondern nur wenn Entwickler dies stattfinden lassen indem sie keine Transparenz einbauen (müssen, dürfen, wollen).
Zitat von NegevNegev schrieb:Es gibt gefahren, Angeleitet durch den Mensch.
Da hast du Recht, für mich im Kontext einer KI und deren Entscheidungsmystery zu einfach.


2x zitiertmelden

Künstliche Intelligenz

gestern um 16:03
Zitat von behind_eyesbehind_eyes schrieb:Ja, aber eine KI (welche uns nach Möglichkeit nie dominieren sollte) muss transparent arbeiten.
Zur Zeit wird nicht viel dafür getan
Wozu ???

Windows ist für dich auch nicht transparent.
Das Forum hier auch nicht ;)

Wenn ich der KI die ich nutze Aufgaben übertrage wird die mit klassischer IT Technik nebenbei geprüft
Zitat von behind_eyesbehind_eyes schrieb:Nee, das ist - meine Meinung - ein wahnsinnig gutes Argument für XAI.
Du meinst also mit der Begründung, wieso etwas falsch gelaufen ist, ist uns mehr geholfen, als direkt davon auszugehen, dass LLMs falsch laufen können ??
Ich finde nicht


1x zitiertmelden

Künstliche Intelligenz

gestern um 16:06
Zitat von abbacbbcabbacbbc schrieb:Windows ist für dich auch nicht transparent.
Windows ist zur Zeit transparenter als jede Blackbox einer KI. Ich würde Windows aber ungern mit dem Konzept einer KI vergleichen wollen.
Zitat von abbacbbcabbacbbc schrieb:Du meinst also mit der Begründung, wieso etwas falsch gelaufen ist, ist uns mehr geholfen, als direkt davon auszugehen, dass LLMs falsch laufen können ??
Ich finde nicht
Im ersten Fall hat man die Chance den zweiten zu vermeiden bzw sich überhaupt erstmal damit auseinanderzusetzen.


melden

Künstliche Intelligenz

gestern um 16:19
Ok... Du konstruiert also lieber Atomkraftwerke die keinen Gau haben können "weil man das ja ausschließen kann", als welche die mit einem Gau umgehen können, weil man von vorne herein annimmt "kann passieren" und "Technik ist fehlerhaft"

Halte ich für die falsche Strategie unabhängig von KI


1x zitiertmelden

Künstliche Intelligenz

gestern um 16:24
Zitat von abbacbbcabbacbbc schrieb:Ok... Du konstruiert also lieber Atomkraftwerke die keinen Gau haben können "weil man das ja ausschließen kann", als welche die mit einem Gau umgehen können, weil man von vorne herein annimmt "kann passieren" und "Technik ist fehlerhaft"
Nee, ich möchte - ich bleibe mal bei deinem Beispiel - das man aus Fehlern lernt. Fehler die sich im Betrieb zeigen - kann passieren, klar - analysieren und beheben.. Was hier aber derzeit gemacht wird, es wird ein Atomkraftwerk gebaut, es hat ein paar Macken, ab und an tritt Strahlung aus und keiner weiß warum aber reingehen kann niemand, die Konstrukteure haben keine Türen vorgesehen damit sich dort jemand umschauen kann um die Fehler zu analysieren. Also baut man hier und da paar Betonstopfer auf und versucht die Strahlung zu unterdrücken. Da es niemanden interessiert, werden alle weiteren Atomreaktoren ebenso gebaut.


2x zitiertmelden

Künstliche Intelligenz

gestern um 16:37
Zitat von behind_eyesbehind_eyes schrieb:Was hier aber derzeit gemacht wird, es wird ein Atomkraftwerk gebaut, es hat ein paar Macken, ab und an tritt Strahlung aus und keiner weiß warum aber reingehen kann niemand, die Konstrukteure haben keine Türen vorgesehen damit sich dort jemand umschauen kann um die Fehler zu analysieren. Also baut man hier und da paar Betonstopfer auf und versucht die Strahlung zu unterdrücken. Da es niemanden interessiert, werden alle weiteren Atomreaktoren ebenso gebaut.
Hast du Beispiele ???

Also echte Schäden und keine "erweiterten Simulationen"

Und Thema zB Rezeptgenerator und Co. Ja das waren so kaputte Atomreaktoren a la "wird schon nicht schief gehen"

Jetzt liegt ein Filterlayer dazwischen.


1x zitiertmelden

Künstliche Intelligenz

gestern um 16:39
Zitat von abbacbbcabbacbbc schrieb:Hast du Beispiele ???
Also KI I'm realen Leben? Nein habe ich nicht. Hat aber auch wenig mit meinen Argument zu tun und mit Fehlerkultur erst recht nicht.


melden

Künstliche Intelligenz

gestern um 16:39
Zitat von behind_eyesbehind_eyes schrieb:Nee, das ist - meine Meinung - ein wahnsinnig gutes Argument für XAI.
Zitat von behind_eyesbehind_eyes schrieb:Nee, ich möchte [...] das man aus Fehlern lernt.
KI ist ne Blackbox, auch WEIL Zufall ein nicht zu unterschätzender Faktor ist. Bei systemkritischer Infrastruktur will man so wenig Zufall wie Möglich.


1x zitiertmelden