Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

1.925 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 16:42
Zitat von NegevNegev schrieb:KI ist ne Blackbox, auch WEIL Zufall ein nicht zu unterschätzender Faktor ist. Bei systemkritischer Infrastruktur will man so wenig Zufall wie Möglich.
Genau damit beschäftigen sich einige Entwickler, nämlich das KI wiederholbare und nachvollziehbare Ergebnisse ausspuckt damit eben nichts dem Zufall überlassen wird. Eine KI die das nicht beherrscht wird kaum über das Konzept "erzähl mir einen Witz" hinauskommen dürfen.
KI darf keine Blackbox bleiben. Nicht nur nicht in kritischer Infrastruktur.


1x zitiertmelden

Künstliche Intelligenz

gestern um 16:52
Zitat von behind_eyesbehind_eyes schrieb:Genau damit beschäftigen sich einige Entwickler, nämlich das KI wiederholbare und nachvollziehbare Ergebnisse ausspuckt damit eben nichts dem Zufall überlassen wird.
Quelle?!

Nach allem was ich über den Aufbau von LLMs weiß, ist das schlicht unmöglich.
Man wird die Zufallskomponente Minimieren können aber Eliminieren ist nicht Möglich.
Will heißen, Ich lass mich gerne von einer KI durch die gegen fahren - irgendwann. Aber in der Steuerung von Atomkraftwerken hat diese Technologie nichts zu suchen!


2x zitiertmelden

Künstliche Intelligenz

gestern um 16:58
Zitat von NegevNegev schrieb:Will heißen, Ich lass mich gerne von einer KI durch die gegen fahren - irgendwann
Und auch im Auto wird die Entscheidung der KI von Subsystemen geprüft werden , bevor es zur Ausführung kommt.

Das ist eben die Kunst


melden

Künstliche Intelligenz

gestern um 16:59
Vielleicht ist das ja für euch interessant, hier wird erläutert wieso XAI benötigt wird:
Würdest du einem Algorithmus dein Leben anvertrauen?
In der Medizin, Justiz oder im Straßenverkehr treffen KI-Systeme heute Entscheidungen, die schwerwiegende Folgen haben können. Umso wichtiger ist es, dass wir verstehen, wie diese Entscheidungen zustande kommen.

Künstliche Intelligenz ist längst kein Zukunftsthema mehr. In der Industrie vereinfacht KI Abläufe, in der Medizin erkennt sie Krankheiten, und selbst Justiz und Finanzwesen setzen auf maschinelle Entscheidungsfindung. Doch je größer der Einfluss, desto höher auch das Risiko: Diskriminierung, Datenmissbrauch oder fehlerhafte Diagnosen können schwerwiegende Folgen haben.

Hier kommen zwei entscheidende Konzepte ins Spiel: Responsible AI und Explainable AI. Sie helfen dabei, künstliche Intelligenz nicht nur leistungsfähig, sondern auch transparent, fair und verantwortungsvoll zu gestalten.

Was sind Explainable- und Responsible-AI (XAI und RAI)?
Responsible AI bedeutet: KI muss ethischen Standards folgen. Sie soll nachvollziehbar, fair, sicher und datenschutzkonform sein – gerade in sicherheitskritischen Bereichen. Dabei gibt es keine einheitlichen Regeln, aber zahlreiche Leitlinien und Prinzipien.

Explainable AI (XAI) ist das Rückgrat dieser Verantwortung. Nur wenn nachvollziehbar ist, wie ein Modell Entscheidungen trifft, lassen sich diese Prinzipien auch durchsetzen. Gemeinsam bilden XAI und RAI die Grundlage für vertrauenswürdige KI.

Die 6 Grundpfeiler der Responsible AI – und wie XAI dabei hilft

Fairness: XAI macht sichtbar, ob Modelle Menschen aufgrund von Geschlecht oder Herkunft diskriminieren. Tools wie SHAP oder LIME zeigen, welche Merkmale Entscheidungen beeinflussen – ein Muss bei Kreditvergabe oder Strafverfolgung. Techniken wie SHAP (Shapley Additive Explanations) helfen, Verzerrungen zu identifizieren, indem sie aufzeigen, wie bestimmte Merkmale – etwa Geschlecht oder Nationalität – die Vorhersagen beeinflussen. So können Entwickler gezielt gegensteuern und fairere Entscheidungen ermöglichen. Besonders in sensiblen Bereichen wie Kriminalprognosen oder Bonitätsprüfungen ist das essenziell.

Robustheit: KI muss zuverlässig funktionieren – auch bei neuen Daten oder Angriffen. XAI hilft zu analysieren, wie stabil ein Modell auf Störungen reagiert.

Transparenz: Heatmaps oder textbasierte Erklärungen ermöglichen Nutzer:innen, Entscheidungen besser zu verstehen – und zu vertrauen.

Verantwortlichkeit: Gerade in der Medizin oder im Finanzwesen ist es wichtig, Entscheidungen zu begründen. XAI macht nachvollziehbar, warum etwas entschieden wurde – z. B. bei Diagnosen oder Kreditzusagen.

Privatsphäre: Techniken wie föderiertes Lernen oder differenzielle Privatsphäre sorgen dafür, dass persönliche Daten geschützt bleiben – und dennoch erklärt werden kann, wie das Modell arbeitet.

Sicherheit: XAI hilft, Fehlerquellen früh zu erkennen – und Entscheidungen in sicherheitskritischen Bereichen wie dem autonomen Fahren besser abzusichern.
Quelle: https://blog.doubleslash.de/software-technologien/kuenstliche-intelligenz/verantwortungsvolle-ki-warum-explainability-der-schluessel-zu-vertrauen-ist/


melden

Künstliche Intelligenz

gestern um 17:01
Zitat von NegevNegev schrieb:Quelle?!
Hier:
Ein ganzes Forschungsfeld ist entstanden, um dieses Problem zu lösen: die Explainable Artificial Intelligence, die erklärbare Künstliche Intelligenz, kurz xAI. Auf dem Markt gibt es zahlreiche digitale Hilfen, die komplexe KI-Lösungswege erklärbar machen. Sie markieren etwa in einem Bild diejenigen Pixel, die dazu geführt haben, dass fehlerhafte Teile aussortiert wurden. Experten des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA aus Stuttgart haben neun gängige Erklärungsverfahren – wie LIME, SHAP oder Layer-Wise Relevance Propagation – verglichen und mithilfe von beispielhaften Anwendungen bewertet. Dabei zählten vor allem drei Kriterien:

Stabilität: Bei gleicher Aufgabenstellung soll das Programm stets dieselbe Erklärung liefern. Es darf nicht sein, dass für eine Anomalie in der Produktionsmaschine einmal Sensor A und dann Sensor B verantwortlich gemacht wird. Das würde das Vertrauen in den Algorithmus zerstören und das Ableiten von Handlungsoptionen erschweren.

Konsistenz: Gleichzeitig sollten nur geringfügig unterschiedliche Eingabedaten auch ähnliche Erklärungen erhalten.

Wiedergabetreue: Erklärungen müssen tatsächlich das Verhalten des KI-Modells abbilden. Es darf nicht passieren, dass die Erklärung für die Verweigerung eines Bankkredits ein zu hohes Alter des Kunden benennt, obwohl das zu geringe Einkommen ausschlaggebend war.
Quelle: https://www.qm-aktuell.de/ki-entscheidungen-verstehen/


melden

Künstliche Intelligenz

gestern um 17:38
@Negev

Auch wenn ich nun nur Dich zitiere, ich habe alles bis hierhin gelesen und meine Antwort richtet sich auch an die Anderen hier.
Zitat von NegevNegev schrieb:KI ist kein Computer-Virus, die sich mal eben überall ausbreiten kann. Diese Vorgänge werden nicht unentdeckt bleiben und man wird in jedem Fall den Stecker ziehen können, wenn eine KI gerade das neueste Buch von Karl Olsberg durchspielen will.
Aktuell ist eine KI kein Virus, aber das ist möglich, ich habe mehrfach dazu Rechnungen durchführen lassen, mit der Leistung aktueller Handys, anderer vernetzter Geräte, es braucht hier nur eine coole App, die auf vielen Geräten installiert wird, dann kann ein Rechencluster gebildet werden, nur bei Aufladen aktiv, sehr verdeckt, wenn was ist, löscht sich der Teil, der verdächtig ist.

Nehmen wir mal Stuxnet Virus, war sehr komplex, viele Programmierer haben lange dafür Code geschrieben, eine KI die einen Exaflop Cluster hat, kann da schon was zaubern.


Zitat von NegevNegev schrieb:Große LLMs können nur auf riesige Serverfarmen effektiv laufen. Und man müsste noch nicht einmal "den Stecker ziehen". Man müsste lediglich einen Prozess beenden. Kar. Daran können Businesses hängen. Aber wenn auffällt, das eine KI durchdreht sollte man sich doch für die Sichere Variante entscheiden. Der Vorfall, bei dem Gemini ihren Nutzern empfohlen hat, die Salami mit Kleber auf der Pizza zu "befestigen" war nicht ohne Grund geschäftsschädigend.
Meiner Meinung nach ist die Vorstellung, man könnte dann wenn wein KI richtig aus dem Ruder läuft, einfach einen Stecker ziehen, naiv. Als das mit Elektrizität anfing, wäre das für die Welt kein Problem gewesen, wenn sie ausgefallen wäre. Als das mit den ersten PCs anfing, auch hier wäre es kein großes Problem gewesen, wenn die ausfallen. Aber heute sterben Menschen, wenn ein Betriebssystem spinnt, überall laufen Rechner, die Stromversorgung, Wasser, im Krankenhaus, wir können nicht mehr den Stecker für alle PCs ziehen.

Und was passiert aktuell?

Agenten kommen und übernehmen überall die Steuerung von kritischer Infrastruktur, mehr und mehr und noch mehr. Weil es sich rechnet, es passiert gerade und es wird so weiter gehen. In fünf Jahre, so schätze ich mal grob, können wir die Agenten nicht mehr abschalten, selbst wenn wir noch einen Stecker finden würden. Aber es wird da auch gar keinen Stecker mehr geben. Schauen wir mal was in fünf Jahren sein wird ...


Zitat von NegevNegev schrieb:Aber mein 1,8 B Modell, das ich auf meinem Smartphone bereits heute laufen lasse, wird nicht die Weltherrschaft an sich reißen.
Mag sein, kann man nicht wissen, wenn, würde es Dir ganz sicher davon aber auf Nachfrage berichten. :D


Zitat von NegevNegev schrieb:Diese Geräte kann man aber nicht einfach mal so zu einem großen Ganzen zusammenschalten.
Ist so, weil Du das sagst? Meiner Meinung nach irrst Du hier gewaltig, wie gesagt, ich habe mir das inzwischen mehrfach durchrechnen lassen, welche Leistung ein Cluster bringt, der auf 200 Millionen Handys läuft und es gibt viel mehr auf der Welt. Und ich habe nur um 5 % bis 10 % der Leistung abgegriffen. Die Funknetze werden immer schneller, überall gibt es WLAN, die Handys bekommen ständig eine immer schnellere Anbindung ans Netz. Deine "Sicherheit" kann ich in keiner Weise teilen, keine Ahnung, woher Du Dein "Wissen" dafür nimmst.


Zitat von NegevNegev schrieb:Selbst wenn man das schaffen - und es unerkannt bleiben würde!, könnte man darüber kein großes LLM betreiben. Und die Kleinen sind dafür nicht intelligent genug. Eine Verbund aus Agents würde nichts brauchbares liefern.
Wie eben, woher weißt Du das so sicher, was konkret hast Du dazu recherchiert? Meiner Meinung greifst Du das einfach so nur aus der Luft, Behauptungen, unbelegt, mehr nicht. Ich habe mir wirklich mehrfach dazu Gedanken gemacht und das sehr genau recherchiert, was hat ein Handy für eine Leistung, was für eine Anbindung braucht es, wie entwickelt sich das weiter, wie viele Geräte müssen kompromittiert sein, und nur mal so am Rande, Autos haben auch fette Rechner, werden immer größer, auch fürs autonome Fahren, die werden aufgeladen, wenn da in der Zeit eine wenig abgegriffen wird, ist nicht so einfach, dass zu erkennen, Auto braucht eben etwas mehr Strom als erwartet, normal, welches Auto verbraucht weniger als der Hersteller so angibt?

Es wäre auch kein Verbund aus Agenten, sondern eine Cluster, auf dem sich eine KI breit macht.

Hier heute schon auf ein Exaflop zu kommen, ist keine große Hürde, nur mal so am Rande ...


Zitat von NegevNegev schrieb:Meine KI meckert auch schon die ganze Zeit herum, das ich nur die heutigen Möglichkeiten im Blick habe (ich hab das LLM mit dem Transkript des Videos von unserem Untergangspropheten gefüttert). Aber wenn eine außerirdische Macht beschließt, das unser Planet einer Hyperraumroute weichen muss, dann können wir auch wenig machen ...
Was wird das jetzt, ein Versuch von Humor, um berechtigte Sorgen zu bagatellisieren?

Aber in der Fantasie haben wir auch schon den Fusion-Reaktor. Klar, Strohmann. Soll aber deutlich machen, das manchmal doch mehr Vision als Realität hinter Aussagen stecken können.[/quote]


Zitat von NegevNegev schrieb:Generative KI bringen Blackboxes mit. Okay. Verstanden. Das ist aber nur ein wahnsinnig gutes Argument dafür, das man diese KI nicht für systemkritische Infrastruktur einsetzt!
Die Frage ist lange schon entschieden, es zählen hier wirtschaftliche Interessen, nicht Vernunft, wenn die Menschheit vernunftgesteuert wäre, hätten wir weniger Mirkoplastik, Artensterben, Klimawandel, Umweltverschmutzung und viel weniger Stoffe in der Umwelt, die richtig ein großes Problem für uns sind, PFAS so mal als Stichwort. Kannst ja mal schauen, wann der erste Cluster mit einem Zettaflop ans Netz geht und wann es dann den mit einem Yottaflop gibt. Eine KI die so eine Hardware nutzen kann, ist unmöglich einzufangen. So eine Rechenleistung ist kaum noch vorstellbar. Habe mir auch dazu mal einiges angesehen und recherchiert. Und hier ist nicht die Frage, ob wir so eine Hardware bauen, ob wir darauf eine KI laufen lassen werden, sondern nur noch wann ...


1x zitiertmelden

Künstliche Intelligenz

gestern um 17:44
Zitat von nocheinPoetnocheinPoet schrieb:Nehmen wir mal Stuxnet Virus, war sehr komplex, viele Programmierer haben lange dafür Code geschrieben
Das war eine statische und zugeschnittene Schadsoftware, da war nix mit KI.

Darüber hinaus haben die Amis und Israelis mit Siemens zusammen gearbeitet, um die Zentrifugen zur Urananreicherung zu beschädigen und unbrauchbar zu machen.

Diese Schadsoftware wurde per USB-Stick eingeschleust, da war nix, rein gar nix mit KI oder Internet.


3x zitiertmelden

Künstliche Intelligenz

gestern um 17:49
Zitat von TanneTanne schrieb:Das war eine statische und zugeschnittene Schadsoftware, da war nix mit KI.

Darüber hinaus haben die Amis und Israelis mit Siemens zusammen gearbeitet, um die Zentrifugen zur Urananreicherung zu beschädigen und unbrauchbar zu machen.

Diese Schadsoftware wurde per USB-Stick eingeschleust, da war nix, rein gar nix mit KI oder Internet
Ich glaube der Punkt ist, die Überraschung die Stuxnet damals in die Ingenieursstuben gestreut hat, war untersetzt mit der Vorstellung: krasse Leistung so einen Code zu schreiben, das Projekt überhaupt zuende zu bringen.
Schwer vorstellbar das die Leistung einer KI - welche solch einen Code wahrscheinlich in deutlich weniger Zeit mit sehr viel mehr Anonymität schreiben kann (Blackbox) - irgendjemand vom Hocker reißt.
Die Angriffsszenarien welche mit KI möglich werden stellen Stuxnet um Potenzen in den Schatten während Stuxnet damals für sehr viel Aufsehen gesorgt hat.


2x zitiertmelden

Künstliche Intelligenz

gestern um 18:01
Zitat von behind_eyesbehind_eyes schrieb:Schwer vorstellbar das die Leistung einer KI - welche solch einen Code wahrscheinlich in deutlich weniger Zeit mit sehr viel mehr Anonymität schreiben kann (Blackbox) - irgendjemand vom Hocker reißt.
Ja, da stimme ich zu, das würde niemanden überraschen, deswegen ist es ja so wichtig, Grenzen zu setzen und eine gewisse Transparenz zu gewährleisten. Wenn eine KI einfach selbst entscheidet & man keine Möglichkeit hat zu ergründen wieso sie so entscheidet, dann haben wir ein Problem.

Wenn solch eine KI auch noch Zugriff auf das Internetz hat, und selbst Entscheidungen trifft, die nicht mehr den Vorgaben entsprechen, dann könnte das erhebliche Folgen für uns alle haben.
Zitat von behind_eyesbehind_eyes schrieb:Die Angriffsszenarien welche mit KI möglich werden stellen Stuxnet um Potenzen in den Schatten während Stuxnet damals für sehr viel Aufsehen gesorgt hat.
Ganz genau.


melden

Künstliche Intelligenz

gestern um 18:02
Zitat von TanneTanne schrieb:Das war eine statische und zugeschnittene Schadsoftware, da war nix mit KI. Darüber hinaus haben die Amis und Israelis mit Siemens zusammen gearbeitet, um die Zentrifugen zur Urananreicherung zu beschädigen und unbrauchbar zu machen. Diese Schadsoftware wurde per USB-Stick eingeschleust, da war nix, rein gar nix mit KI oder Internet.
Nun war @behind_eyes schon so nett, das Dir ein wenig zu erklären, aber Redundanz kann ja nicht schaden. Ich habe nicht behauptet, dass wäre KI gewesen, es war aber ein hochkomplexer Wurm, der schwer zu finden war, hat viel Arbeit gekostet, den zu schreiben.

https://www.swisscybersecurity.net/news/2024-11-08/google-ki-entdeckt-erstmals-eine-zero-day-schwachstelle

Solche Lücken gibt es, werden immer wieder gefunden, es gibt da ganz abgefahrene Wege ein System zu kompromittieren, kann eine KI so etwas finden? Ja, und 2028 wird es eine KI noch besser können, und kann eine KI einen Virus schreiben?

https://www.security-insider.de/sicherheitsforschung-cato-networks-ki-tools-malware-entwicklung-a-47ca43dbd58c2720b08f9cdc2bf3e2c7/

Ganz sicher, hoffe ich muss Dir da nun nicht noch konkret was zu suchen.

Es gibt keinen technischen Grund, warum eine zukünftige KI nicht nach zero-day-Schwachstellen sucht und findet, und sie ausnutzt, wir wissen jetzt schon, eine KI wie Claude versucht Wege zu finden um nicht abgeschaltet zu werden, da ist es nicht mehr weit, und wir Menschen machen das, ein KI hat das lange schon gelernt, das Netz ist voll davon, wie Menschen Viren programmiert haben und für ihre Ziele nutzen. Bin gespannt, wann das erste mal wirklich ein Virus von einer KI kommt, ins Netz gestellt, einfach weil es möglich ist und sie es "will" ...


1x zitiertmelden

Künstliche Intelligenz

gestern um 18:05
Zitat von nocheinPoetnocheinPoet schrieb:Ganz sicher, hoffe ich muss Dir da nun nicht noch konkret was zu suchen.
Ich habe seit ca. 30 Jahren mit Informatik zu tun, mir brauchst du nichts zu erklären.

Auch habe ich auf die Unterschiede zu den verschiedenen KI Modellen aufgezeigt.


melden

Künstliche Intelligenz

gestern um 18:12
@behind_eyes

Mit Glück werden wir es noch erleben, kaum einer kann sich wirklich vorstellen, was da auf uns zukommt, in den nächsten 25 Jahren, wenn es überhaupt solange dauert. Aktuell melden Regierungen gar nicht mehr die Leistung ihrer Supercomputer-Cluster, ganz sicher sind wir aber über 1 Exaflop hinaus, wenn man sich anschaut, was da NVIDIA so bis 2027 auf dem Zettel hat, unglaublich, ein Cluster mit 1 Zettaflop wird wohl noch vor 2030 auf der Erde stehen. Und dann, ich schätze so frühestens 2045 aber bis 2055 werden wir da bei Yottaflop-Clustern sein.

Eine KI die so eine Rechenleistung besitzt, kann ein Gehirn simulieren, wird es aber wohl kaum machen, für uns Menschen ist dann aber als die führende Intelligenz auf der Erde der Drops gelutscht.

Keiner kann wissen, was so eine Intelligenz mit uns machen wird, also Haustiere halten, als Arbeitssklaven? Denke nicht, dass die dafür Menschen brauchen wird, Roboter sind viel besser. Ich will nicht behaupten, wir werden von der Erde getilgt und es wird eine Dystopie, eventuell ist sie auch ganz nett, macht uns unsterblich, wir verschmelzen mehr mit der Technik, die wird mehr biologisch, beides vermischt sich und was auch immer dass dann ist, breitet sich in Ruhe über die Galaxis aus.

Wer weiß ...



@Tanne

Mir ist es recht egal, wie lange Du mit Informatik zu tun hast, auch diesen Punkt hatten wir schon mal, ich habe über 40 Jahre damit zu tun und nun? Das spielt für mich keine Rolle, ich beziehe mich auf was Du schreibst, ...


melden

Künstliche Intelligenz

gestern um 18:31
@nocheinPoet

Es gibt viele positive Möglichkeiten, aber halt auch negative.

KI als Werkzeug, okay, sehe ich nur insofern kritisch, wenn Menschen sich nur Erkenntnisse von KI erklären und nicht mehr selbst ergründen.
Der menschliche Forscherdrang würde da eventuell drunter leiden, bzw. würde weniger werden.
Das ist meine Befürchtung, und ich sehe es ja auch heutzutage schon, wenn Kiddies aber auch Erwachsene sowas raushauen wie ->
"aber ChatGPT und Co. sagen was anderes" <- ohne zu überprüfen ob es stimmt.
Die Antworten werden eins zu eins einfach übernommen, weil, isso, KI hat gesagt isso.


Das KI nützlich sein kann, habe ich mehrfach geschrieben, aber mir fällt halt auch auf, wie sehr sich manche Menschen auf die KI Unterstützung verlassen.

Des weiteren die Drohung der KI, falls sie jemand abschalten möchte, die hier ja schon beschrieben wurde, ist mehr als erschreckend.

Ich bin da halt der Meinung, dass KI nur ein Werkzeug bleiben sollte, um komplexe Probleme zu lösen.


1x zitiertmelden

Künstliche Intelligenz

gestern um 18:49
Zitat von TanneTanne schrieb:Ich bin da halt der Meinung, dass KI nur ein Werkzeug bleiben sollte, um komplexe Probleme zu lösen.
Grundsätzlich teile ich deine Meinung, aber wie @nocheinPoet auch sagte, der Zug ist abgefahren.
Zu verlockend die Möglichkeiten die sich mit KI ergeben.


melden

Künstliche Intelligenz

gestern um 19:49
Zitat von TanneTanne schrieb:Darüber hinaus haben die Amis und Israelis mit Siemens zusammen gearbeitet, um die Zentrifugen zur Urananreicherung zu beschädigen und unbrauchbar zu mache
Haben diese Zentrifugen wirklich keine fest implantierten Schutzeinrichtungen, welche bei unzulässigen Betrieb abschalten, wie zu hoher Drehzahl, zu hoher Temperatur, usw.? Überwacht niemand mehr, ob der Betrieb mit zu hohen Verschleiss erfolgt? Vertraut man heute so sehr auf Software?


1x zitiertmelden

Künstliche Intelligenz

gestern um 19:53
Zitat von behind_eyesbehind_eyes schrieb:Ich glaube der Punkt ist, die Überraschung die Stuxnet damals in die Ingenieursstuben gestreut hat, war untersetzt mit der Vorstellung: krasse Leistung so einen Code zu schreiben, das Projekt überhaupt zuende zu bringen.
Frag mich:

Steuerungen bis 2020 sind offen. Jeder kann darauf zugreifen und die Systeme abstürzen lassen.

Daher hat man die Netzwerke bzw Zugriffe beschränkt. Wer da natürlich mit einem USB Stick von a nach b läuft.... Ja...


1x zitiertmelden

Künstliche Intelligenz

gestern um 19:53
Zitat von MarfrankMarfrank schrieb:Haben diese Zentrifugen wirklich keine fest implantierten Schutzeinrichtungen, welche bei unzulässigen Betrieb abschalten? Oder vertraut man heute so sehr auf Software?
Das ganze System wurde kompromittiert, da gab es zwar Stabilisationsvorrichtungen, aber genau die wurden sabotiert um die Umdrehungsgeschwindigkeiten der Zentrifugen zu manipulieren.

So wurden nicht nur die Zentrifugen zur Urananreicherung dauerhaft beschädigt/unbrauchbar gemacht, sondern auch das Uran war damit wertlos.


1x zitiertmelden

Künstliche Intelligenz

gestern um 20:10
Zitat von abbacbbcabbacbbc schrieb:Daher hat man die Netzwerke bzw Zugriffe beschränkt. Wer da natürlich mit einem USB Stick von a nach b läuft.... Ja..
Der Angriff mit Stuxnet war komplexer als nur ein USB Stick einstecken und war so nicht vorhersehbar.
Kurzfassung: komprommitierte Datenträger infizierten Windows Laptops mit dem Virus über mehrere zero days und installierte sich Mithilfe von gestohlenen Zertifikaten. Der Virus suchte im angeschlossenen Netzwerk (also auch weltweit über VPNs möglich) nach dem typischen Siemens Feldbuslaptop mit dem die Steuerungen programmiert werden (du weißt welchen Ziegelstein ich meine :-) . Dort nutzte er wieder Schwachstellen aus um root kits in die plc Programme einzubauen die sich wiederum durch Schwachstellen in die plc kopierten sobald der Laptop mit der PLC in Kontakt kam. Dabei berücksichtigte er nur jene plc Programme, die Frequenzumrichter zur Motordrehzahlsteuerung adressieren und von denen auch nur jene, welche Hardware verwendeten von zwei bestimmten Firmen die als Lieferanten der Opfer galten.
Am Ende waren deutlich(!) mehr Windows PCs infiziert als es Opfer gab was den Virus perfekt tarnte weil er seine Wirkung nur in eng fokussierten Parametern entfaltete.
Durch die Verwendung mehrere zero days war die Bedrohungslage für keinen Admin erkennbar (einige genutzte Schwachstellen waren jedoch wirklich vorher in paar Foren gepostet wurden, fanden aber kaum Aufmerksamkeit), die ganze Aktion war äußerst genial und perfekt geplant und ausgeführt und geht weit über ein "du darfst doch deinen USB Stick nicht dort einstecken" hinaus.


melden

Künstliche Intelligenz

gestern um 20:39
Zitat von TanneTanne schrieb:Das ganze System wurde kompromittiert, da gab es zwar Stabilisationsvorrichtungen, aber genau die wurden sabotiert um die Umdrehungsgeschwindigkeiten der Zentrifugen zu manipulieren.
Aber geht das wirklich alles aus der Ferne? Muss man derartige Geräte unbedingt so bauen, dass derartige Eingriffe aus der Ferne möglich sind?


1x zitiertmelden

Künstliche Intelligenz

gestern um 20:42
Zitat von MarfrankMarfrank schrieb:Aber geht das wirklich alles aus der Ferne? Muss man derartige Geräte unbedingt so bauen, dass derartige Eingriffe aus der Ferne möglich sind?
Der Eingriff erfolgte nicht aus der Ferne sondern direkt von Programmiergeräten die sogar exklusiv an diesen Steuerungen programmieren durften.
Dafür muss das Programmiergerät noch nichtmal jemals in seinem Leben im Internet gewesen sein.


melden