Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

515 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

28.12.2020 um 10:16
Zitat von frivolfrivol schrieb:Aber auch verschiedene KI selbst könnte man paaren. Wenn die eine KI besonders gut in Schach ist und die andere gut in Mathe, vielleicht kann man die zusammen führen und bekommt eine neue KI die beides kann?
Was bei Menschen geht, geht mit KI`s nicht unbedingt...

Menschen sind biologische Wesen, die sich in langen Zeiträumen evolutionär entwickelt haben; sie werden jung geboren und verbessern ihre koginitiven und emotionalen Fähigkeiten mit der Zeit. Ein ein neuer Mensch, ist auch ein neues Wesen. Eine KI ist in der Regel fertig konstruiert, sie kann ihre Fähigkeiten verbessern, aber wenn sie mit einer andersartigen KI zusammengeführt wird, könnte leicht etwas entstehen, was weder Schach noch Mathe kann. Wahrscheinlich müsste diese neue KI erst lernen, mit dem neuartigen Regelwerk zurechtzukommen, bevor sie aus beiden Fähigkeiten Nutzen ziehen kann...


melden

Künstliche Intelligenz

31.12.2020 um 10:03
Gesichtserkennung und Risikobewertung: 10 Tage im Gefängnis wegen Algorithmen

In den USA wurde ein mutmaßlich Unschuldiger wegen eines Algorithmus nicht nur inhaftiert. Eine Software verhinderte auch seine Freiheit auf Kaution.
Quelle: https://www.heise.de/news/Gesichtserkennung-und-Risikobewertung-10-Tage-im-Gefaengnis-wegen-Algorithmen-5001003.html


melden

Künstliche Intelligenz

31.12.2020 um 11:35
@frivol
Darauf wollte ich auch mal zu sprechen kommen.
Hab mir den Link jetzt nicht durchgelesen, aber hat das was mit einem Ort zu tun, wo die Polizei einen Algorithmus anwendet, um möglich Straftaten bei Gangs "vorauszusehen“?


melden

Künstliche Intelligenz

31.12.2020 um 11:45
Nee da war ein Ladendiebstahl und die hatten nur ein Foto vom Täter. Das haben sie durch den Computer gejagt und der sagte, es könnte ein bekannter 33-jähriger gewesen sein. Den haben sie festgenommen. Der wars aber nicht


melden

Künstliche Intelligenz

31.12.2020 um 13:05
@frivol
Ah so, okay.
Aber das was ich beschrieb gab oder gibt es doch irgendwo in den U.S.A, oder?
Muss ich mal bei Gelegenheit raussuchen.


melden

Künstliche Intelligenz

31.12.2020 um 19:20
Ja das kenn ich auch aus den USA. Da speichert die Software, wo am meisten Verbrechen stattgefunden haben, und dann fährt die Polizei in diesen Gegenden öfters mal vorbei. Die KI kann damit vorhersagen, das in den Gang-Gebieten mehr Straftaten passieren werden und in den reicheren Wohnvierteln mehr Einbrüche.


2x zitiertmelden

Künstliche Intelligenz

31.12.2020 um 19:24
In China gibt es einen Social Score, also Soziale Punkte. Wer viele Punkte hat ist gut für die Gemeinschaft, wer wenig Punkte hat eher nicht. Da zählen aber sogar Einkäufe im Supermarkt rein: viel Alkohol => schlecht, viel Windeln => gut

Sowas kann eine KI auch verwenden, um Menschen Tatmotive zuzuordnen. Wenn ich z.b. 100 Menschen habe die theoretisch irgendwie in der Nähe eines Tatorts waren (Handydaten), dann sind diejenigen mit Spielschulden, die viel Alkohol trinken eher dem kriminellen Milieu zuzuordnen, was eine Schnapsladen überfällt. Während diejenigen mit viel Geld und Kindern eher raus sind. Profiling für Täter eben.


2x zitiertmelden

Künstliche Intelligenz

31.12.2020 um 19:33
Das Problem bei einer KI ist, das man der nicht alle Regeln vorgibt, z.b. Menschen in Geldnot lassen eher mal was mitgehen. Sondern man gibt der KI alle bekannten Täter vor und einen Vergleichsdatensatz von unschuldigen Menschen. Und sagt der KI: Finde selber raus, was die Täter für Gemeinsamkeiten haben und was sie von den unschuldigen Menschen unterscheidet. Und dabei kann die KI auch Gemeinsamkeiten finden, die statistisch zwar stimmen, aber für eine neuen Verdächtigen kein Grund sind, den als schuldig oder unschuldig zu klassifizieren.


1x zitiertmelden

Künstliche Intelligenz

31.12.2020 um 19:39
Zitat von frivolfrivol schrieb:Ja das kenn ich auch aus den USA. Da speichert die Software, wo am meisten Verbrechen stattgefunden haben, und dann fährt die Polizei in diesen Gegenden öfters mal vorbei. Die KI kann damit vorhersagen, das in den Gang-Gebieten mehr Straftaten passieren werden und in den reicheren Wohnvierteln mehr Einbrüche.
War meiner Erinnerung nach noch ein bißchen anders. Die hatten halt auch Strafregisterdaten von dort ansässigen oder verkehrenden Gangmitgliedern oder so. Hab das leider grad nur vage in Erinnerung. War auf jeden Fall sehr suspekt in meinen Augen.
Muss da immer an den Film Minority Report denken.

Kurze Beschreibung:
Im Jahr 2054 ist Detective John Anderson (Tom Cruise) mit Hilfe robotergestützter Teamkollegen zukünftigen Verbrechern auf der Spur. Ein dreiköpfiges Wahrsager-Team, die Precogs, sagen in ihren Visionen voraus, welche Bewohner von Washington D.C.
Quelle: http://www.filmstarts.de/kritiken/34917.html
Zitat von frivolfrivol schrieb:In China gibt es einen Social Score, also Soziale Punkte. Wer viele Punkte hat ist gut für die Gemeinschaft, wer wenig Punkte hat eher nicht. Da zählen aber sogar Einkäufe im Supermarkt rein: viel Alkohol => schlecht, viel Windeln => gut
Hab ich auch schon mal irgendwo aufgeschnappt. Und da muss ich denn an eine bestimme Folge der Netflix-Serie Black Mirror, und explizit an die erst Folge der 3. Staffel denken.

Hierzu im Spoiler die Beschreibung:

Spoiler
Diese Geschichte spielt in einer alternativen Realität, in welcher Menschen anhand ihres Social Rankings live bewertet werden können und dann auch dementsprechend behandelt werden. Die Menschen bewerten sich permanent gegenseitig und schaffen damit eine fluide Struktur des Miteinanders, weswegen alle nett zueinander sind und Freundschaft und Freundlichkeit vortäuschen, um in der Gunst der jeweils anderen zu steigen.

Die Protagonistin dieser Episode versucht, von ihren 4,2 auf 4,5 von maximal 5 möglichen Punkten im Ranking zu kommen, damit sie 20 % Rabatt bei der Miete einer schicken Wohnung in einem Szeneviertel bekommt, und sie sich damit leisten kann, statt weiter mit ihrem Bruder, der „nur eine 3 Punkt irgendwas ist“, zusammen leben zu müssen. Bei der Ranking-Steigerung helfen ihr sowohl ein professionieller Coach als auch ihre alte Freundin Naomi, auch Nay-Nay genannt. Diese hat nun vor, zu heiraten, und lädt die Freundin ein, ihre Trauzeugin zu sein, angeblich um alter Erinnerungen wegen. Da Nay-Nay eine beinahe perfekte Bewertung hat und alle ihre Gäste mindestens einen Score von 4 haben, sieht die Protagonistin hierbei ihre Chance des sozialen Aufstiegs. Auf dem Weg zu Nay-Nay geht einiges schief, und bevor sie ankommt, ist die Protagonistin nur noch eine 1,3. Obwohl Nay-Nay ihr bereits bei einem zwischenzeitlichen Telefongespräch wegen ihres schlechten Rankings absagt und offenbart, dass sie sie nur eingeladen habe, um ihr eigenes Ranking zu verbessern, schleicht die Protagonistin sich auf die Hochzeit. Das ist nicht einfach, da die Hochzeit sich auf einem gut gesicherten Anwesen befindet, das nur Personen mit 3,8 oder besser einlässt. Betrunken und verzweifelt hetzt sie am Mikrofon über die Gesellschaft und Nay-Nay her. Die Hochzeitsgesellschaft ist sichtlich gelähmt aus Angst, Schritte gegen den Störenfried einzuleiten, die von anderen Gästen schlecht bewertet werden könnten.

Die Protagonistin landet schlussendlich als 0,6 im Gefängnis. Dort trifft sie einen ihr unbekannten Inhaftierten und sie fangen beide an, gelöst von den gesellschaftlichen Zwängen, sich voller Spaß gegenseitig zu beleidigen.


Quelle: Wiki - Black Mirror - Episodenliste, Staffel 3


1x zitiertmelden

Künstliche Intelligenz

31.12.2020 um 20:41
Beim Film Minority Report wird das natürlich überspitzt dargestellt, das die schon Visionen von einer zukünftigen Tat haben, und die Leute dann festnehmen und verurteilen, bevor die überhaupt eine Tat geplant und ausgeführt hatten. Und im Film war das auch keine KI, sondern die hatten 2 so Hellseherinnen. Deren Vision wurde dann auf den Bildschirm übertragen. Das kann es natürlich nicht in Wirklichkeit geben, weil es keine echten Hellseher gibt.

Die Black Mirror Episode erinnert mich mehr an die Instagram posts, wo die Leute sich so wegfiltern, als wären sie selber irgendwelche reichen Prominenten. Das Trugbild fällt dann auch schnell auf, wenn man die Leute in echt sieht :-) Aber auch in Gesellschaften wo der Status sehr wichtig ist, wo es oft dann auch um Geschäfte geht, klingt das sehr ähnlich wie in der Episode. Wenn du dann kein Geld mehr hast, dann hast du keine "Freunde" mehr. Ist aber eigentlich auch keine KI, sondern einfach nur Punkte sammeln.


melden

Künstliche Intelligenz

01.01.2021 um 07:09
Zitat von frivolfrivol schrieb:Ja das kenn ich auch aus den USA. Da speichert die Software, wo am meisten Verbrechen stattgefunden haben, und dann fährt die Polizei in diesen Gegenden öfters mal vorbei. Die KI kann damit vorhersagen, das in den Gang-Gebieten mehr Straftaten passieren werden und in den reicheren Wohnvierteln mehr Einbrüche.
Das ist keine KI, sondern Statistik...sogar ziemlich einfache:
- Ort
- Uhrzeit
- Art des Verbrechens
Zitat von frivolfrivol schrieb:Sowas kann eine KI auch verwenden, um Menschen Tatmotive zuzuordnen. Wenn ich z.b. 100 Menschen habe die theoretisch irgendwie in der Nähe eines Tatorts waren (Handydaten), dann sind diejenigen mit Spielschulden, die viel Alkohol trinken eher dem kriminellen Milieu zuzuordnen, was eine Schnapsladen überfällt. Während diejenigen mit viel Geld und Kindern eher raus sind. Profiling für Täter eben.
Das ist auch Statistik...bzw. DataMining.
Zitat von frivolfrivol schrieb:Und sagt der KI: Finde selber raus, was die Täter für Gemeinsamkeiten haben und was sie von den unschuldigen Menschen unterscheidet. Und dabei kann die KI auch Gemeinsamkeiten finden, die statistisch zwar stimmen, aber für eine neuen Verdächtigen kein Grund sind, den als schuldig oder unschuldig zu klassifizieren.
Das ist auch Statistik...und man sagt einer KI nichts...sondern man trainiert sie, je nach Modell.
Sollte ich das falsch verstanden haben, kannst Du es gerne in der richtigen Terminologie erklären.

Schau mal hier ein neuronales Netzwerk trainiert wird:
Youtube: Deep Learning Cars
Deep Learning Cars

Hier mit ganz guten Erklärungen und Bestimmung des besten Kandidaten als Elternteil für die nächste Generation:
Youtube: Neural network racing cars around a track
Neural network racing cars around a track



melden

Künstliche Intelligenz

01.01.2021 um 07:16
Zitat von skagerakskagerak schrieb:Muss da immer an den Film Minority Report denken.
Was bräuchte man damit es funktioniert (tun wir mal so):
- alle Daten aller noch lebenden Menschen, auch Wesen und Gemüt
- Diese müssen ständig analysiert werden...alt mit neu dazu gekommenen Daten
- aktueller Zustand aller Menschen, samt Biodaten...Puls, Hormonlevel...EKG vielleicht (Hirnaktivität, Stresslevel, Aggression?)
- was machen sie genau in dieser Sekunde?
- ständige Bewertung der aktuellen Handlung im Vergleich zur Früher und zu den anderen Menschen (statistisch)
usw.
Ein Mensch der in dem Haushalt wäre, würde durch das bloße Hinschauen dass der Partner "bald" seine Partnerinn angreift...für ein KI wäre das mit einer riesigen Datenmenge verbunden und die Menschen müssten Bio Sensoren tragen.


melden

Künstliche Intelligenz

13.01.2021 um 09:23
Forscher: Superintelligente KI für Menschen grundsätzlich nicht zu kontrollieren

Eine superintelligente Maschine könnte prinzipiell nicht dazu gebracht werden, sich nur für das Wohl der Menschheit einzusetzen. Das haben Forscher ermittelt.
Quelle: https://www.heise.de/news/Forscher-Superintelligente-KI-fuer-Menschen-grundsaetzlich-nicht-zu-kontrollieren-5021651.html


1x zitiertmelden

Künstliche Intelligenz

25.01.2021 um 20:10
Zitat von frivolfrivol schrieb am 13.01.2021:Forscher: Superintelligente KI für Menschen grundsätzlich nicht zu kontrollieren
Eigentlich ist ja an künstlicher Intelligenz nix intelligentes dran. Das meiste hier im Thread fällt ja in den Bereich der neuronalen Netze. Das funktioniert halt am Ende so, dass man vorne Testdaten reinschickt und hinten ein bestimmtes Ergebnis erwartet. Dazu stellt dann das Netz seine Gewichtsmatrix passend ein (vereinfacht gesagt)

Mit ausreichend Testdaten bekommt man das dann dazu mit hoher Wahrscheinlichkeit eingegebene Daten korrekt zu klassifizieren.

Weil mir langweilig war hab ich neulich mal n neuronales Netz zur Handschriftenerkennung programmiert. Waren so ca 100 Zeilen Code. Anschliessend habe ich 10000 Bilder mit Zahlen durchgejagt und damit das Netz trainiert. Danach konnte ein Datensatz mit 60000 Bildern mit ner Wahrscheinlichkeit von 92% erkannt werden.

Aber ich hätte selber keiner Möglichkeit herauszufinden warum ein bestimmtes Bild korrekt erkannt wurde oder warum nicht. Ist total verrückt, ist aber trotzdem so. Und am Ende steht und fällt alles mit den Trainingsdaten. trainiert man ein Netzwerk mit Daten, die bestimmte Leute benachteiligen, bekommt man ein rassistisches/sexistisches/whatever neuronales Netz


melden

Künstliche Intelligenz

26.01.2021 um 18:10
Du sprichst aber von schwacher KI. Der Artikel dagegen spricht von starker KI, also superintelligente KI, die nicht nur Zahlen sortieren kann, sondern halt wirklich schlau ist wie ein Mensch. Gibt es noch nicht, kommt wahrscheinlich in Zukunft.
Eine superintelligente Maschine könnte prinzipiell nicht dazu gebracht werden, sich nur für das Wohl der Menschheit einzusetzen. Das haben Forscher ermittelt.
Wie die Forscher um Manuel Cebrian und Iyad Rahwan vom Max-Planck-Institut für Bildungsforschung erklären, geht ihre Analyse davon aus, dass jemand eine KI programmiert, "deren Intelligenz dem Menschen überlegen wäre und die selbstständig alles lernen könnte". Ans Internet angeschlossen könnte sie nicht nur auf alle Daten der Menschheit zugreifen, sondern auch Maschinen kontrollieren. Anhand ihrer Berechnungen wäre es grundsätzlich unmöglich, eine solche KI dahingehend zu kontrollieren, dass sie der Menschheit nicht schadet.
Quelle: https://www.heise.de/news/Forscher-Superintelligente-KI-fuer-Menschen-grundsaetzlich-nicht-zu-kontrollieren-5021651.html

Wir müssen aber davon ausgehen, das es neben einer bösen KI dann immer auch eine gute KI gibt. Sowie die Menschen die anderen Pflanzen und Tiere erhalten wollen, sie werden auch die Super-KI-Roboter dafür sorgen, das auch die Menschen auf dem Planeten Erde noch lange glücklich sind.

Andere Forscher wie Stephen Hawking haben dafor gewarnt, eine superintelligente KI zu bauen. Aber es ist wie mit jeder neuen Technik am Ende unvermeidlich.


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Technologie: Künstliche Inteligenz !
Technologie, 15 Beiträge, am 25.09.2004 von nemo
Lightstorm am 08.02.2003
15
am 25.09.2004 »
von nemo
Technologie: Künstliche Intelligenz: Die Tücken
Technologie, 102 Beiträge, am 04.07.2016 von Fedaykin
KnowNowLP am 20.03.2015, Seite: 1 2 3 4 5 6
102
am 04.07.2016 »
Technologie: Die Zukunft der künstlichen Intelligenz
Technologie, 150 Beiträge, am 07.07.2014 von humanator
orty am 17.04.2008, Seite: 1 2 3 4 5 6 7 8
150
am 07.07.2014 »
Technologie: KI - Verbrechensvorhersage
Technologie, 33 Beiträge, am 02.12.2014 von Yotokonyx
cabal am 03.11.2003, Seite: 1 2
33
am 02.12.2014 »
Technologie: KI und ihre Willensfreiheit
Technologie, 21 Beiträge, am 23.12.2013 von wolf359
Patrick.F am 11.12.2013, Seite: 1 2
21
am 23.12.2013 »