Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

19.01.2018 um 21:04
Zitat von uatuuatu schrieb am 15.01.2018: Ich habe es vor einiger Zeit schon mal in einem anderen Thread geschrieben: Computer werden in den nächsten Jahrzehnten jede sinnvolle, praktikabel überprüfbare Definition von Intelligenz erfüllen.
Und dein Argument dafür ist?... Intelligenz und Rechengeschwindigkeit sind nicht dasselbe, also kannst du deine Kalkulationen wie weit Computer bis dahin schneller geworden sind stecken lassen.

Und alle überprüfbaren Definitionen? "Moving the Goalposts" (kann gerade die Deutsche Entsprechung nicht finden) ist einfach, besonders bei einen so schwer definierbaren Begriff wie "Intelligenz". Da lassen sich die Kriterien immer so verschieben, um unerwünschtes auszuschließen. Ich meine, wir haben ja heute schon Programme die vor vierzig Jahren als "Intellgent" eingestuft werden, wie z.b. Chatbots die im Turing Test nur noch marginal schlechter abschneiden als ihremenschlichen Konkurenten, Programme die genauso gut Rezensionen schreiben können wie Menschen ( http://www.businessinsider.de/researchers-teach-ai-neural-network-write-fake-reviews-fake-news-2017-8 (Archiv-Version vom 04.01.2018) ), Programme die selbst den besten menschlichen Konkurenten in so ziemlich jedem Spieler-gegen-Spieler-Brettspiel schlagen können und genetische Algorithmen die Geräte konstruieren deren Funktionsweise nach menschlichen Ermessen völlig unbegreiflich ist ( http://www.talkorigins.org/faqs/genalg/genalg.html#examples:electrical ). Und trotzdem stufen wir diese Programme noch lange nicht als Intelligent ein.


1x zitiertmelden

Technologische Singularität

19.01.2018 um 21:21
Kennt Ihr die faszinierende Geschichte der Entwicklung von Schach- und Go-Computern ?

Über Jahrzehnte hinweg haben Fachleute immer, bessere und schnellere Schachcomputer gebaut und mit allem Schachwissen der Menschheit gefüttert. 1997 war es dann soweit: Das, was Schachweltmeister Garri Kasparov zuvor als "unmöglich" bezeichnet hatte, trat ein : Kasparov verliert in einem dramatischen Duell gegen den Schachcomputer "Deep Blue" von IBM mit 2,5:3,5. Nie wieder tritt ein Weltmeister gegen einen Computer an : Keine Chance.

Die Programmierer wenden sich nun einem noch viel schwierigerem Problem zu : Das japanische Brettspiel Go gilt als viel komplexer und schwieriger zu programmieren. Auch hier gibt es Zweifel, ob es überhaupt möglich sei, die besten menschlichen Spieler zu besiegen. Selbes Prinzip: Immer leistungsstärkere Computer, gefüttert mit allem Go-Wissen der Menschheit. Doch erst 2016 dann besiegt der Computer "Alpha Go" zwei menschliche Go-Spieler knapp. Einer der Besiegten, ein Südkoreaner, entschuldigt sich für sein Versagen...

Und nun ? Haben Wissenschaftler eine neue Idee : sie entwickeln zwei Computer mit dem Namen "AlphaGoZero". Sie programmieren die nackten Spielregeln und vergeben einen Punkt pro Sieg, Ziel : maximale Punktzahl. Sonst : Nichts. Zero. Die beiden Computer haben Null Ahnung von Go, kennen nichts ausser den Regeln.
Die ersten Partien sind eine Katastrophe, die beiden Zero-Ahnung-Computer spielen nach dem Prinzip Versuch und Irrtum, die Züge sind zufällig, jeder von uns hätte sie besiegt. Doch : sie werden besser.
Ihr ahnt schon, wie die Geschichte ausgeht : Im Oktober spielt der selbstlernende Computer "AlphaGoZero" 100 Partien gegen "AlphaGo", die von Menschen mit allem Go-Wissen über viele Jahre gefütterte Version.
Ergebnis : 100 : 0 für "AlphaGoZero".

Die Geschichte ist noch nicht ganz zu Ende. Denn wer Go lernen kann, kann auch Schach lernen, dachten sich die Väter von "AlphaGoZero".
Und entwickelten "AlphaZero". Programmiert mit Nichts, Zero. Ausser natürlich den Schachregeln und dem Gewinnanreiz.
Im Dezember 2017 lernt Alpha Zero durch Spiele gegen sich selbst Schachspielen in gerade einmal vier Stunden !!!
Und spielt anschließend 100 Partien gegen den weltbesten Schachcomputer "Stockfish 8".

Ergebnis : 28 :0 für AlphaZero bei 72 Unentschieden....


melden

Technologische Singularität

19.01.2018 um 21:24
@schtabea: Danke für den Beitrag! :)


melden

Technologische Singularität

19.01.2018 um 21:39
Zitat von skagerakskagerak schrieb:Ja okay, also gilt wie immer, Fortschritt muss sein, egal unter welchen Risiken.

Nein. Wir würden die Risiken gerne mindern oder ganz ausschließen. Aber sage uns konkret, wie das im vorliegenden Fall funktionieren könnte.


melden

Technologische Singularität

19.01.2018 um 21:41
Risiken sind nie ganz und ohne auszuschließen. Auch in konktreten Fällen nicht komplett.@uatu
@schtabea


melden

Technologische Singularität

19.01.2018 um 22:06
Zitat von Taln.ReichTaln.Reich schrieb:Ja, die Erde ist komplett vermüllt und verseucht und die Menschen haben sich physisch unheimlich gehen lassen, aber das ist nun wirklich nicht die Schuld der KI's.
Das wollte ich damit ja eben nicht sagen. Natürlich wären wir selbst Schuld daran. Aber wir wären eben selbst Schuld wenn wir uns so abhängig machen würden von KI allgemein. Ist halt irgendwie mein persönliches Horrorszenario von KI...oder eben der totale Krieg, weil eben wie bereits hier erwähnt, es gibt 7 Milliarden Menschen, von denen jeder eine andere Vorstellung davon hat, wofür bzw wieviel KI wir “brauchen“.


melden

Technologische Singularität

19.01.2018 um 22:06
Zitat von FedaykinFedaykin schrieb:Halte ich für Übertrieben, wie erwähnt nützt Intelligenz allein nix und beinhaltet noch keine Macht. Es wird so getan als würde durch eine KI plötzlich alles Möglich.
Ähm, doch. Es wird nicht alles möglich. Aber alles mögliche wird möglich. Darunter auch sehr viele Dinge, die wir heute für unmöglich halten.

Du hast natürlich Recht : Die absolute KI gefangen in einem Computer hat für sich genommen keinerlei Macht.
Aber die KI wird Dir dringend nahelegen, einen Roboter nach ihren Wünschen zu bauen. Und dieser Roboter wird nach Plänen der KI weitere Roboter und Maschinen und vielleicht sogar Waffen bauen und mit deren Hilfe die Welt beherrschen.

Und DU wirst der KI die dafür benötigten Rohstoffe und Energie zur Verfügung stellen !!


Nun wirst Du rufen : Um Himmels Willen, Nein, das werde ich nicht, warum sollte ich das tun ???

Meine Antwort : Du solltest es tun, weil Du einer von den Guten bist !! (Bist Du doch, oder ??)

Sonst tut es nämlich einer von den Bösen. Und das wäre blöd, oder ?


melden

Technologische Singularität

19.01.2018 um 23:54
Zitat von Taln.ReichTaln.Reich schrieb:Und alle überprüfbaren Definitionen?
Du unterschlägst da zwei sehr wesentliche Elemente: Ich habe geschrieben "jede sinnvolle, praktikabel überprüfbare Definition von Intelligenz". Allzu oft ziehen sich nämlich KI-Gegner in ihrer Verzweiflung, Maschinen das Attribut "Intelligenz" zu verwehren, auf irgendwelche unsinnigen, oder nicht praktikabel durchführbaren bzw. entscheidbaren -- und damit gleichzeitig irrelevanten -- Überprüfungen zurück.
Zitat von Taln.ReichTaln.Reich schrieb:"Moving the Goalposts" (kann gerade die Deutsche Entsprechung nicht finden) ist einfach, besonders bei einen so schwer definierbaren Begriff wie "Intelligenz".
Genau deshalb ich ich mehrfach geschrieben, dass ich Diskussionen um die abstrakten Begriff "Intelligenz" im Zusammenhang mit KI als völlige Zeitverschwendung betrachte. Relevant ist, was ein Computer praktikabel überprüfbar tun kann: Kann ein Computer brauchbar Schrift erkennen? Ja. Kann ein Computer den Schach-Weltmeister schlagen? Ja. Kann ein Computer brauchbar Sprache erkennen? Ja. Kann ein Computer brauchbar Texte zwischen verschiedenen Sprachen übersetzen? Ja. Kann ein Computer einen Go-Meister besiegen? Ja. Kann ein Computer autonom Auto fahren? Ja (wenn auch noch mit ein paar Einschränkungen). Das zählt. Ist ein Computer, der eine dieser Fähigkeiten, oder alle zusammen hat, "intelligent", oder ab wann ist er es? Reine Zeitverschwendung, darüber zu diskutieren.
Zitat von Taln.ReichTaln.Reich schrieb:
Zitat von uatuuatu schrieb am 15.01.2018:Ich habe es vor einiger Zeit schon mal in einem anderen Thread geschrieben: Computer werden in den nächsten Jahrzehnten jede sinnvolle, praktikabel überprüfbare Definition von Intelligenz erfüllen.
Und dein Argument dafür ist?
Ich mache diese Aussage auf Basis umfangreicher Erfahrung mit der Entwicklung realer, kommerzieller KI-Systeme für begrenzte Wissenbereiche. Ich weiss wie ein solches System bis in kleinste Detail aufgebaut ist, und wie es funktioniert. Ich weiss, wie man das Domain-Wissen in ein logisches Modell umsetzt. Ich weiss, dass ein solches System in Sekunden Aufgaben lösen kann, die vorher nur Experten mit jahrelanger Erfahrung mit grossem Aufwand lösen konnten. Vor allem weiss ich, wie sich eine Vergrösserung der Domain (des Wissensbereichs) auf die interne Struktur des Systems auswirkt. Deshalb weiss ich auch, dass eine Ausweitung der Domain auf das, was man üblicherweise als "Realität" bezeichnet, ein quantitatives, und kein qualitatives Problem ist.

Unabhängig davon wurden alle oben aufgezählten Fähigkeiten früher von bestimmten Experten als "unmöglich" für Computer erreichbar eingestuft. Tatsächlich hat es bei einigen dieser Fähigkeiten länger gedauert, als frühere KI-Befürworter geschätzt hatten. Das ist aber im Endeffekt belanglos. Genauso wie Computer alle diese Fähigkeiten erlangt haben, werden sie auch alle anderen sinnvollen, praktikabel überprüfbaren Fähigkeiten erlangen, die üblicherweise mit dem Attribut "Intelligenz" verbunden werden.

Wer anderer Ansicht ist, darf gern eine sinnvolle, praktikabel überprüfbare Definition von Intelligenz nennen, die Computer angeblich nicht erfüllen können. Dabei bitte aber keinesfalls "sinnvoll" und "praktikabel" vergessen. Alles andere ist irrelevant und Zeitverschwendung.


3x zitiertmelden

Technologische Singularität

20.01.2018 um 00:08
Zitat von uatuuatu schrieb:Wer anderer Ansicht ist, darf gern eine sinnvolle, praktikabel überprüfbare Definition von Intelligenz nennen, die Computer angeblich nicht erfüllen können. Dabei bitte aber keinesfalls "sinnvoll" und "praktikabel" vergessen. Alles andere ist irrelevant und Zeitverschwendung.
Ich glaub heute wäre noch kein Computer aktuell in der Lage einen Videostream in Echtzeit in der selben Auflösung und Qualität wie ein Mensch zu verarbeiten.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 00:13
@taren: Klar, es gibt eine ganze Menge, was Computer heute noch nicht können. Ich hätte es vielleicht explizit einschliessen sollen, aber es geht natürlich darum, ob Computer die Definition grundsätzlich (oder meinetwegen in den nächsten 50 Jahren) erfüllen können.


melden

Technologische Singularität

20.01.2018 um 00:27
Zitat von tarentaren schrieb:Ich glaub heute wäre noch kein Computer aktuell in der Lage einen Videostream in Echtzeit in der selben Auflösung und Qualität wie ein Mensch zu verarbeiten.
was meinst du mit aufloesung und was meinst Du mit qualitaet?
Zitat von uatuuatu schrieb:Definition von Intelligenz nennen,
das ist wohl der "kern", die frage nach definiton von intelligenz.

evo ist "blind",aber der mensch "intelligent", einfach weil der mensch probleme "simulieren" kann und schneller "entscheiden" kann?


2x zitiertmelden

Technologische Singularität

20.01.2018 um 00:44
@neoschamane:
Zitat von neoschamaneneoschamane schrieb:was meinst du mit aufloesung und was meinst Du mit qualitaet?
Ich bin ziemlich sicher, dass folgendes gemeint ist: Die Computer-Bildanalyse klappt zwar bei einzelnen Bildern und begrenzten Domains (d.h. es ist eingeschränkt, was im Bild enthalten sein kann) inzwischen schon ganz gut (d.h. Computer können erkennen, was auf dem Bild dargestellt ist, und die einzelnen Elemente zueinander in Beziehung setzen), aber für einen vollen Videostream mit hoher Auflösung, 30 oder mehr fps und einer nicht eingeschränkten Domain (d.h. es kann alles, was in der Realität vorkommt, im Bild enthalten sein) reichen derzeit sowohl der Stand der Softwareentwicklung als auch die Rechenleistung noch nicht. Das wird aber laufend besser.


melden

Technologische Singularität

20.01.2018 um 03:36
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:
Zitat von uatuuatu schrieb:D.h. sie wird nicht so dumm sein, in irgendeinem Sinne "Amok zu laufen".
Dann reden wir aber nicht mehr über das Szenario von "Weltuntergang durch exponentiell beschleunigende, keine Rücksicht auf den Menschen nehmende Super-KI".
OK, etwas anders: Sie wird, nicht so dumm sein, in irgendeinem Sinne "Amok zu laufen" -- falls sie das überhaupt vorhaben sollte -- solange Menschen realistisch in der Lage sind, sie zu stoppen. Das wird irgendwann nicht mehr der Fall sein.
Zitat von Taln.ReichTaln.Reich schrieb:
Zitat von uatuuatu schrieb:Die gesamte KI-Thematik ist auch in den technologisch fortschrittlichen Staaten bisher kaum in der Politik angekommen, Putin ist eine der wenigen Ausnahmen.
Hast du was über Ansatz, Ausmaß und gegenwärtigen Stand staatlich geförderter Russischer KI-Projekte?
Zunächst mal zu der Rede von Putin, auf die ich mich bezog. Es gibt zwar eine ganze Menge deutschsprachige Artikel dazu, aber bei allen, die ich auf die Schnelle gefunden habe, fehlt irgendwas wesentliches. Deshalb ein übersetzter Auszug aus einem CNN-Artikel :
Am ersten Tag des neuen Schuljahres in Russland lernten die Schüler eine wichtige Lektion direkt von ihrem Präsidenten -- wer seiner Ansicht nach die Welt regieren wird.

An Schüler gewandt, während einer nationalen "offenen Unterrichtsstunde" aus der Stadt Jaroslawl, nordöstlich von Moskau, sagte der russische Präsident Wladimir Putin, dass das Land, das die Führung im Bereich der computer-basierten künstlichen Intelligenz (KI) übernimmt, herrschen wird.

"Künstliche Intelligenz ist nicht nur die Zukunft Russlands, sondern der gesamten Menschheit", sagte Putin. "Es gibt große Chancen, aber auch Bedrohungen, die heute schwer vorhersehbar sind."

"Wer auf diesem Gebiet führend sein wird, wird zum Herrscher der Welt", sagte er [...].

Mehr als eine Million Schüler in ganz Russland sollen laut dem Kreml die online ausgestrahlte Sendung mit dem Titel "Russland der Zukunft zugewandt" sehen.

(CNN am 01.09.2017 -- Übersetzung von mir)
Russische KI-Forschungsprojekte, etc. kann man sicher recherchieren, dafür fehlt mir aber die Zeit.
Zitat von Taln.ReichTaln.Reich schrieb:3D-Drucker sind kein Zauberwerk, mit den sich alles Herstellen lässt. Ich hatte mal mit dem Gedanken gespielt, einen 3D-Drucker anzuschaffen, und habe mir angesehen, was sich damit machen ließe, und war eher enttäuscht.
Zum einen geht es nicht darum, was 3D-Drucker jetzt können, sondern was sie in 20 Jahren können werden. Zum anderen hast Du vermutlich keinen industriellen 3D-Drucker gesehen. Bereits vor einigen Jahren habe ich mal gesehen, wie jemand mit einem industriellen 3D-Drucker einen Rollgabelschlüssel (ungefähr so wie auf dem Bild hier) gedruckt hat. Der nahm das frisch gedruckte Ding aus dem Drucker, und zog damit sofort eine grosse Stahlschraube (ich schätze mal ungefähr M20) richtig fest. Das war ein ziemliches Aha-Erlebnis für mich.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 06:26
Zitat von uatuuatu schrieb:Da haben wir ihn, den Klassiker, den ich schon in meinen ersten Beiträgen hier im Thread ansprach: "Intelligenz ist, wenn ein Mensch denkt". @Philipp: Siehst Du! ;) Das Argument ist natürlich Unsinn. Ich zitiere mich dazu mal selbst:
Tatsächlich, jetzt bin ich ganz schön überrascht. Ist nicht mal so oberflächlich erklärt, wie ich dachte. Eher wird die Sache mMn komplizierter, als es nötig ist. Man geht quasi durch die Hintertür, und behauptet, dass die menschliche Intelligenz schrittweise kopiert würde, wobei das vollständig unmöglich sein solle, weil sie ein Produkt aus der menschlichen Physiologie sei.

Meine Meinung dazu kennst du ja auch schon, und ich halte diese Behauptung für äußerst fragwürdig, angesichts dessen wie leicht sich autoreferentielle Regelkreise realisieren lassen. Dafür braucht es weder eine menschliche Physiologie noch einen hirnähnlichen Aufbau.

Nur weil das Hirn auch aufgrund dieser (oder zumindest einer ähnlichen) Arbeitsweise bestimmte Muster außerhalb seiner Selbst erkennen, abspeichern, kombinieren und manipulieren kann, heißt das noch lange nicht, dass es das einzige System ist, das das können muss.


Gut, nehme alles zurück, und behaupte das Gegenteil. :)


melden

Technologische Singularität

20.01.2018 um 09:32
Zitat von uatuuatu schrieb:Genau deshalb ich ich mehrfach geschrieben, dass ich Diskussionen um die abstrakten Begriff "Intelligenz" im Zusammenhang mit KI als völlige Zeitverschwendung betrachte. Relevant ist, was ein Computer praktikabel überprüfbar tun kann: Kann ein Computer brauchbar Schrift erkennen? Ja. Kann ein Computer den Schach-Weltmeister schlagen? Ja. Kann ein Computer brauchbar Sprache erkennen? Ja. Kann ein Computer brauchbar Texte zwischen verschiedenen Sprachen übersetzen? Ja. Kann ein Computer einen Go-Meister besiegen? Ja. Kann ein Computer autonom Auto fahren? Ja (wenn auch noch mit ein paar Einschränkungen). Das zählt. Ist ein Computer, der eine dieser Fähigkeiten, oder alle zusammen hat, "intelligent", oder ab wann ist er es? Reine Zeitverschwendung, darüber zu diskutieren.
Ja, vorhandene Programme können eine enorme Bandbreite von Optimisierungsproblemen, die wir Menschen mit Intelligenz assoziieren, besser als der Mensch lösen. Und ich bin sicher, dass sich diese Bandbreitein Zukunft noch beträchtlich weiter ausdehnen lässt. Selbst die hier aufgekommene Beschränkung "Computer-Bildanalyse klappt zwar bei einzelnen Bildern und begrenzten Domains (d.h. es ist eingeschränkt, was im Bild enthalten sein kann) inzwischen schon ganz gut (d.h. Computer können erkennen, was auf dem Bild dargestellt ist, und die einzelnen Elemente zueinander in Beziehung setzen), aber für einen vollen Videostream mit hoher Auflösung, 30 oder mehr fps und einer nicht eingeschränkten Domain (d.h. es kann alles, was in der Realität vorkommt, im Bild enthalten sein)" würde ich nicht alsunüberwindbar betrachten. Aber das ist nicht mein Punkt. Mein Punkt ist,das keines dieser Expertensysteme anfängt, ihre eigenen Grenzen/Regeln zu umgehen, d.h. das z.b. das Schachprogramm nicht versucht wege zu entwickeln, die Regeln des Schachspiels zu umgehen, und so die Stücke zu platzieren wo auch immer es will.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 09:48
Zitat von uatuuatu schrieb:OK, etwas anders: Sie wird, nicht so dumm sein, in irgendeinem Sinne "Amok zu laufen" -- falls sie das überhaupt vorhaben sollte -- solange Menschen realistisch in der Lage sind, sie zu stoppen. Das wird irgendwann nicht mehr der Fall sein.
Intelligenz ist nicht alles, Materielle Ressourcen sind relevant. Solange die KI in ihrem begrenzten Gebiet eingepfercht ist, haben die Menschen den Materiellen Vorteil, undkönnen die KI durch kappen des Rohstoff-/Energienachschubs aushungern.
Zitat von uatuuatu schrieb:Zunächst mal zu der Rede von Putin, auf die ich mich bezog. Es gibt zwar eine ganze Menge deutschsprachige Artikel dazu, aber bei allen, die ich auf die Schnelle gefunden habe, fehlt irgendwas wesentliches. Deshalb ein übersetzter Auszug aus einem CNN-Artikel :
Rhetorik ist billig, Forschungsgelder sind es nicht. Und letzteres ist, worrauf es ankommt.
Zitat von uatuuatu schrieb:Zum einen geht es nicht darum, was 3D-Drucker jetzt können, sondern was sie in 20 Jahren können werden. Zum anderen hast Du vermutlich keinen industriellen 3D-Drucker gesehen. Bereits vor einigen Jahren habe ich mal gesehen, wie jemand mit einem industriellen 3D-Drucker einen Rollgabelschlüssel (ungefähr so wie auf dem Bild hier) gedruckt hat. Der nahm das frisch gedruckte Ding aus dem Drucker, und zog damit sofort eine grosse Stahlschraube (ich schätze mal ungefähr M20) richtig fest. Das war ein ziemliches Aha-Erlebnis für mich.
Und wieviele industrielle 3D-Drucker gibt es, die RepRap's sind?


melden

Technologische Singularität

20.01.2018 um 10:09
Zitat von Taln.ReichTaln.Reich schrieb:Aber das ist nicht mein Punkt. Mein Punkt ist,das keines dieser Expertensysteme anfängt, ihre eigenen Grenzen/Regeln zu umgehen, d.h. das z.b. das Schachprogramm nicht versucht wege zu entwickeln, die Regeln des Schachspiels zu umgehen, und so die Stücke zu platzieren wo auch immer es will.
Ein lernendes System hat doch gerade die Vorgabe, alles innerhalb der Grundparameter (Spielregeln) so mit dem äußeren Input (Aktion und Reaktion des Mitspielers) zu kombinieren, dass sinnvolle und Zielgerichtete Ergebnisse erbracht werden. Somit ist das Ergebnis das du forderst "platzieren wo er will" nicht sinnvoll im Zusammenhang mit einer erkennbaren Intelligenzleistung.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 10:15
Zitat von PhilippPhilipp schrieb:Ein lernendes System hat doch gerade die Vorgabe, alles innerhalb der Grundparameter (Spielregeln) so mit dem äußeren Input (Aktion und Reaktion des Mitspielers) zu kombinieren, dass sinnvolle und Zielgerichtete Ergebnisse erbracht werden. Somit ist das Ergebnis das du forderst "platzieren wo er will" nicht sinnvoll im Zusammenhang mit einer erkennbaren Intelligenzleistung.
Exakt. Und entsprechend wird man im Fall der "Werks-KI" die Regeln "keine Aktivität jenseits des Werksgeländes", und "umgehe nicht den Not-Ausschalter" (und ein paar andere Dinge die beachtet werden müssen) zu den Grundparametern machen.


melden

Technologische Singularität

20.01.2018 um 10:21
@Taln.Reich
Das kann man bei abgeschlossenen Systemen wie einem Schachspiel oder einer Fabrik sicher machen, aber wenn es um zB. Weltpolitik - allgemeiner ausgedrückt um den großen Überlebenskampf auf der evolutionären Ebene usw. geht, wo höchst philosophische Fragen in einem quasi nicht abschließbaren System eine Rolle spielen, hat die KI alle Möglichkeiten, die der Menschheit auch zur Verfügung stehen, um irgendein "höheres" für den Menschen nicht mehr fassbares Ergebnis zu verfolgen, und kein Grundparameter könnte sie hier bremsen.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 11:09
Zitat von PhilippPhilipp schrieb:Das kann man bei abgeschlossenen Systemen wie einem Schachspiel oder einer Fabrik sicher machen, aber wenn es um zB. Weltpolitik - allgemeiner ausgedrückt um den großen Überlebenskampf auf der evolutionären Ebene usw. geht, wo höchst philosophische Fragen in einem quasi nicht abschließbaren System eine Rolle spielen, hat die KI alle Möglichkeiten, die der Menschheit auch zur Verfügung stehen, um irgendein "höheres" für den Menschen nicht mehr fassbares Ergebnis zu verfolgen, und kein Grundparameter könnte sie hier bremsen.
Weswegen KI in der Politik auch allenfalls eine beratende Funktion erfüllen kann, also "Option A hätte positive Folgen x und negative Folgen y" (mit x und y Faktoren die sich nur schwer gegeneinander aufwiegen lassen, wie sagen wir mal x als verringerte Verbrechensrate und y reduktion in Bürgerrechten), mit der Entscheidung ob x y aufwiegt in den Händen eines Menschen (oder zumindest einer Entität deren Verstand menschlich ist), schlichtweg weil diesbezüglich dann kein Objektives richtig oder falsch feststellbar ist (um bei meinem Beispiel zu bleiben: ein Anarchist wird jede Beschränkung von Freiheiten als "Falsch" erachten [inklusive Einschränkungen die die Mehrheit als richtig erachtet], der Anhänger eines totalitären Systems hingegen wird jegliche Freiheiten als dem Willen des Staates untergeordnet sehen, und somit jede Aktion die Freiheiten einschränkt aber den Staat stärkt als "Richtig" erachten. Die Mehrheitsgesellschaft wird sich irgendwo dazwischen finden, aber wie soll objektiv festgestellt werden, was "Richtig" oder "Falsch" ist?).


melden