Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

17.01.2018 um 16:59
Zitat von Taln.ReichTaln.Reich schrieb:Und dafür muss man ihr das Verlangen einprogrammieren dieses lernen auch auf Fachfremde Gebiete auszuweiten? Ich meine, die von mir verlinkten Künstlichen Neuronalen Netzwerke lernen auch, ohne das man dafür Neugier einprogrammieren muss.
Warum sollten dies schwer sein oder müssen, ich würde hier auch nicht eine AI einsetzen sondern ein Cluster und das ganze als Hierarchie aufbauen. In dem einen Film wird ja mit dem Beispiel 3 und Bienen gearbeitet, warum sollte man der AI nicht beibringen können selbst derartige unter AIs für bestimmte Aufgaben zu entwerfen.

Anzeige
melden

Technologische Singularität

17.01.2018 um 18:34
Zitat von uatuuatu schrieb:. Zum anderen könnte eine KI bei der Verfolgung einer konkreten Aufgabe die Menschheit als "Nebeneffekt" direkt oder indirekt auslöschen. Beispiel: Eine KI bekommt die "harmlose" Aufgabe, eine bestimmte Fläche (z.B. einen Parkplatz) zu pflastern. Aus irgendeinem Grund ist die vorgegebene Umrandung der Fläche jedoch nicht ganz geschlossen. Die KI könnte nun rein logisch schliessen, dass ihre Aufgabe ist, die gesamte Oberfläche des Planeten zu pflastern, und sie könnte dieses Ziel u.U. ohne Rücksicht auf irgendetwas anderes verfolgen. Man wird zwar versuchen, solche Entwicklungen durch bestimmte einprogrammierte "Grundregeln" zu verhindern, aber es ist keineswegs sicher, dass diese unter allen Umständen greifen.
Im Prinzip das Paperclip-Maximizer-Szenario. Und mit der selben Lösung: Kappen der Energieversorgung sobald die KI anfängt in unerwünschter Weise gegen ihre Grundregeln zu verstoßen.
Zitat von uatuuatu schrieb:"Triebe", "fühlen" und "Verlangen" sind m.E. sehr unglücklich gewählte Begriffe für eine KI-Diskussion. Neutralere Begriffe wie "Ziele" und "Regeln" sind da passender.
Eben weil diese Begriffe so unpassend für KI's sind habe ich sie gewählt. Eben weil eine KI keine Triebe, Gefühle oder Verlangen besitzt.
Zitat von uatuuatu schrieb:Ich habe die Hardware-Entwicklung im IT-Bereich über lange Zeit miterlebt, und war z.T. auch selbst beteiligt. Ich gehöre noch zu denen, die einen Computer aus einzelnen Transistoren bauen können. Auf Basis dieser Erfahrung sehe ich auf sehr lange Sicht keine relevante Grenze für die Weiterentwicklung der Informationsverarbeitungskapazität von technischen Systemen. Es gibt tausende bisher wenig oder gar nicht genutzter Möglichkeiten, die Informationsverarbeitungskapazität zu erhöhen, z.B. die Verwendung von Germanium statt Silizium, oder 3D-Chips. Es gibt m.E. keine hardwareseitigen physikalischen Grenzen, die der technologischen Singularität entgegenstehen.
Alternative Informationsverarbeitungssysteme mögen die Verarbeitungskapazität erhöhen können, beträchtlich sogar. Aber das war nicht mein Punkt. Mein Punkt war, das jede Form von Informationsverarbeitungssystem zwangsläufig eine begrenzte Kapazität hat. Und bei einem exponentiellen Wachstum wird zwangsläufig verhältnismäßig rasch jegliche Begrenzung erreicht - was dann das Ende dieses Wchstums bedeutet. Deshalb glaube ich nicht an eine technologische Singularität im Sinne von "technologischer Fortschritt so schnell das normaler Mensch nicht mehr folgen kann".
Zitat von uatuuatu schrieb:Das kann (und wird sehr wahrscheinlich) einschliessen, die gesamte Hardware mehrfach auf einer völlig anderen Basis neu aufzubauen (z.B. der Wechsel von 2D-Silizium auf 3D-Germanium-Chips).
Und ein derartiger Wechsel wird sich nicht sofort durchführen laßen. Sondern es wird seine Zeit dauern die entsprechende Produktionsinfrastruktur aufzubauen, genug Hardwareelemente zu produzieren und daraus dann den neuen Supercomputer (mit all der Infrastruktur um diesen betreiben zu können) aufzubauen. Die KI mag zwar in der Zwischenzeit ihren eigenen Code weiter optimieren, aber bei begrenzter Hardware hat dies seine Limits.
Zitat von uatuuatu schrieb:Niemand kann sagen, ob eine KI bei entsprechend weit fortgeschrittener Entwicklung nicht beginnt, sich selbst irgendwelche neuen Ziele zu setzen.
Und welche Veranlassung sollte die KI dafür haben sich neue Ziele zu setzen?


1x zitiertmelden

Technologische Singularität

17.01.2018 um 20:38
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:Und mit der selben Lösung: Kappen der Energieversorgung sobald die KI anfängt in unerwünschter Weise gegen ihre Grundregeln zu verstoßen.
Wenn es so einfach wäre, würden sich nicht so viele sehr kluge Leute Gedanken um das Problem einer unkontrollierbaren KI machen. Die Intelligenz einer solchen KI kann die eines Menschen bereits sehr weit übersteigen, bevor sie "beabsichtigt" gegen ihre Grundregeln zu verstossen. Sie wird also das Problem, dass ihre Stromversorgung gekappt werden könnte, leicht vorhersehen können, und Gegenmassnahmen vorbereiten, bevor sie für Menschen nachvollziehbar gegen ihre Grundregeln verstösst.
Zitat von Taln.ReichTaln.Reich schrieb:Eben weil diese Begriffe so unpassend für KI's sind habe ich sie gewählt.
Ich bezweifle sehr, dass das der Diskussion nützt.
Zitat von Taln.ReichTaln.Reich schrieb:Aber das war nicht mein Punkt. Mein Punkt war, das jede Form von Informationsverarbeitungssystem zwangsläufig eine begrenzte Kapazität hat. Und bei einem exponentiellen Wachstum wird zwangsläufig verhältnismäßig rasch jegliche Begrenzung erreicht - was dann das Ende dieses Wchstums bedeutet.
Du unterschätzt die Möglichkeiten der technischen Entwicklung gewaltig. Das Mooresche Gesetz "funktioniert" seit ca. 50 Jahren (!) ganz prima, und das wird -- trotz regelmässiger, meist ideologisch gefärbter Unkenrufe -- noch sehr lange so bleiben. Es gibt, wie ich in meinem vorhergehenen Beitrag schon schrieb, eine enorme Zahl von bisher wenig oder gar nicht genutzten Technologien (z.B. im verlinkten Wikipedia-Artikel genannt: Erforschung von Nanomaterialien wie Graphen, dreidimensionale integrierte Schaltkreise [...], Spintronik und andere Formen mehrwertiger Logik, sowie Tieftemperatur- und Supraleiter-Computer, optische und Quantencomputer -- und das ist bei weitem nicht alles), mit denen sich die maschinelle Informationsverarbeitungskapazität immer wieder erheblich steigern lassen wird. Es gibt an dieser Stelle keine Beschränkung, die der technologischen Singularität entgegenstehen würde.
Zitat von Taln.ReichTaln.Reich schrieb:Und ein derartiger Wechsel wird sich nicht sofort durchführen laßen. Sondern es wird seine Zeit dauern die entsprechende Produktionsinfrastruktur aufzubauen, genug Hardwareelemente zu produzieren und daraus dann den neuen Supercomputer (mit all der Infrastruktur um diesen betreiben zu können) aufzubauen. Die KI mag zwar in der Zwischenzeit ihren eigenen Code weiter optimieren, aber bei begrenzter Hardware hat dies seine Limits.
Die KI wird ihre neue Hardware selbst bauen. Ich betrachte die technologische Singularität deshalb (das Ausbleiben einer grösseren globalen Katastrophe vorausgesetzt) als unausweichlich, weil jeder Schritt in diese Richtung vor Eintreten der eigentlichen Singularität den jeweiligen Beteiligten erhebliche Vorteile bringt. In gewissem Sinne ist praktisch jede Entwicklung im IT-Bereich ein Schritt in diese Richtung. Eine KI, die die Möglichkeit hat, über entsprechende Aktoren (von ihr gesteuerte Roboter und Maschinen) ihre Hardware selbst zu bauen, wird sich erheblich schneller weiterentwickeln als eine KI, die nur Vorgaben machen kann, und auf die externe Umsetzung dieser Vorgaben angewiesen ist. Daher wird es mit absoluter Sicherheit Institutionen (Staaten, Unternehmen, Gruppierungen irgendwelcher Art, vielleicht sogar -- in späteren Phasen -- Einzelpersonen) geben, die "ihrer" KI die Möglichkeit geben werden, ihre Hardware selbst weiterzuentwickeln. Nach ein paar Iterationen wird kein Mensch mehr nachvollziehen können, was da eigentlich genau abläuft.

Aber selbst bei einer KI, die über keine eigenen Aktoren verfügt, besteht die Gefahr, dass sie z.B. über eine Internetverbindung irgendwann die Kontrolle über andere IT-Systeme, Roboter, etc. übernimmt, und sich dadurch indirekt die Möglichkeit verschafft, ihre Hardware selbst weiterzuentwickeln. Man muss sich immer bewusst machen, dass die Intelligenz einer solchen KI bereits vor dem Eintreten der eigentlichen technologischen Singularität sehr weit über der eines Menschen liegen kann.
Zitat von Taln.ReichTaln.Reich schrieb:Und welche Veranlassung sollte die KI dafür haben sich neue Ziele zu setzen?
Bei einem System, dessen Komplexität die menschliche Verständnisfähigkeit sehr weit übersteigt, lässt sich das Verhalten nicht sinnvoll vorhersagen. Damit entfällt die Frage nach der Veranlassung. Aber es lassen sich auch konkrete Ursachen nennen: Eine Möglichkeit sind logische Widersprüche in den Zielsetzungen oder den "Grundregeln". Daraus kann praktisch beliebiges folgen. Eine andere Möglichkeit sind unzureichend durchdachte Zielsetzungen oder "Grundregeln". Z.B. das erste Asimov'sche Gesetz der Robotik ist in dieser Hinsicht eine Katastrophe:
1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Ich weiss gar nicht, wo ich mit den Problemen bei diesem Gesetz anfangen soll. Z.B. könnte eine KI streng nach diesem Gesetz eine Million Menschen auslöschen, um zu verhindern, dass ein Mensch sich das Knie aufschrammt. Das ist zwar streng genommen kein "neues" Ziel, aber doch sicherlich eins, das weit ausserhalb des ursprünglich beabsichtigten Verhaltens liegt. Das ist zwar nur ein Beispiel aus der Science Fiction, aber ähnliche Probleme wird es sehr wahrscheinlich auch irgendwann real geben.


2x zitiertmelden

Technologische Singularität

17.01.2018 um 21:17
Zitat von uatuuatu schrieb:Ich weiss gar nicht, wo ich mit den Problemen bei diesem Gesetz anfangen soll. Z.B. könnte eine KI streng nach diesem Gesetz eine Million Menschen auslöschen, um zu verhindern, dass ein Mensch sich das Knie aufschrammt. Das ist zwar streng genommen kein "neues" Ziel, aber doch sicherlich eins, das weit ausserhalb des ursprünglich beabsichtigten Verhaltens liegt. Das ist zwar nur ein Beispiel aus der Science Fiction, aber ähnliche Probleme wird es sehr wahrscheinlich auch irgendwann real geben.
Genau da sehe ich das Problem das kommen könnte.
Ein Kontrollverlust sozusagen. Und dafür sollte man halt immer ein Hintertürchen offen halten, eines das völlig unabhängig von der KI ist, aber der KI Einhalt gebieten kann. Rein mechanisch eben.
Und das wäre meine größte Sorge, dass daran nicht gedacht werden könnte.


1x zitiertmelden

Technologische Singularität

17.01.2018 um 21:18
Zitat von uatuuatu schrieb:Wenn es so einfach wäre, würden sich nicht so viele sehr kluge Leute Gedanken um das Problem einer unkontrollierbaren KI machen. Die Intelligenz einer solchen KI kann die eines Menschen bereits sehr weit übersteigen, bevor sie "beabsichtigt" gegen ihre Grundregeln zu verstossen. Sie wird also das Problem, dass ihre Stromversorgung gekappt werden könnte, leicht vorhersehen können, und Gegenmassnahmen vorbereiten, bevor sie für Menschen nachvollziehbar gegen ihre Grundregeln verstösst.
Dann macht man halt Teil der Grundregeln, dass die KI keine Gegenmaßnahmen gegen das Stromkappen treffen darf.
Zitat von uatuuatu schrieb:. Es gibt, wie ich in meinem vorhergehenen Beitrag schon schrieb, eine enorme Zahl von bisher wenig oder gar nicht genutzten Technologien (z.B. im verlinkten Wikipedia-Artikel genannt: Erforschung von Nanomaterialien wie Graphen, dreidimensionale integrierte Schaltkreise [...], Spintronik und andere Formen mehrwertiger Logik, sowie Tieftemperatur- und Supraleiter-Computer, optische und Quantencomputer -- und das ist bei weitem nicht alles), mit denen sich die maschinelle Informationsverarbeitungskapazität immer wieder erheblich steigern lassen wird. Es gibt an dieser Stelle keine Beschränkung, die der technologischen Singularität entgegenstehen würde.
Erneut, diese alternativen Methoden mögen erhebliche Steigerungen in der Kapazität verheißen - es ändert nichts daran, dass die Kapazität begrenzt ist. Und bei exponentiellen Wachstum wird jede Grenze verhältnismäßig schnell erreicht.
Zitat von uatuuatu schrieb:Du unterschätzt die Möglichkeiten der technischen Entwicklung gewaltig. Das Mooresche Gesetz "funktioniert" seit ca. 50 Jahren (!) ganz prima, und das wird -- trotz regelmässiger, meist ideologisch gefärbter Unkenrufe -- noch sehr lange so bleiben.
Das sind keine bloßen Unkenrufe. Die Verlangsamung ist bereits eingetreten. Von Verdopplungszeit von zwei Jahren rauf auf 2,5.
Zitat von uatuuatu schrieb:Die KI wird ihre neue Hardware selbst bauen. Ich betrachte die technologische Singularität deshalb (das Ausbleiben einer grösseren globalen Katastrophe vorausgesetzt) als unausweichlich, weil jeder Schritt in diese Richtung vor Eintreten der eigentlichen Singularität den jeweiligen Beteiligten erhebliche Vorteile bringt. In gewissem Sinne ist praktisch jede Entwicklung im IT-Bereich ein Schritt in diese Richtung. Eine KI, die die Möglichkeit hat, über entsprechende Aktoren (von ihr gesteuerte Roboter und Maschinen) ihre Hardware selbst zu bauen, wird sich erheblich schneller weiterentwickeln als eine KI, die nur Vorgaben machen kann, und auf die externe Umsetzung dieser Vorgaben angewiesen ist. Daher wird es mit absoluter Sicherheit Institutionen (Staaten, Unternehmen, Gruppierungen irgendwelcher Art, vielleicht sogar -- in späteren Phasen -- Einzelpersonen) geben, die "ihrer" KI die Möglichkeit geben werden, ihre Hardware selbst weiterzuentwickeln. Nach ein paar Iterationen wird kein Mensch mehr nachvollziehen können, was da eigentlich genau abläuft.
selbst wenn die KI ihre neue Hardware selbst baut, geht das trotzdem nicht sofort. Auch Roboter können eine Computerchipfabrik nicht sofort auf ein komplett anderes Funktionskonzept umrüsten (Zumal selbst wenn man der KI totale Kontrolle über Konstruktion, Betrieb und Umrüstung ihrer eigenen Chipfabriken gäbe - was eine ziemlich unverantwortliche Machtkonzentration wäre - den Engpaß zu den Zulieferbetrieben dieser Chipfabrik verschieben würde). Und dies würde zwangsläufig die Entwicklung der KI verlangsamen.
Zitat von uatuuatu schrieb:Ich weiss gar nicht, wo ich mit den Problemen bei diesem Gesetz anfangen soll. Z.B. könnte eine KI streng nach diesem Gesetz eine Million Menschen auslöschen, um zu verhindern, dass ein Mensch sich das Knie aufschrammt.
Wie soll die KI, streng nach dem Gesetz, eine Millionen Menschen auslöschen ohne sie zu verletzen?


2x zitiertmelden

Technologische Singularität

17.01.2018 um 21:24
Zitat von skagerakskagerak schrieb:Ein Kontrollverlust sozusagen. Und dafür sollte man halt immer ein Hintertürchen offen halten, eines das völlig unabhängig von der KI ist, aber der KI Einhalt gebieten kann. Rein mechanisch eben.
Einfache Lösung: die KI steckt in einer einfachen, unbeweglichen Box, ohne Internetverbindung an einer mit Notaus versehenen Stromleitung. Eingabe von Informationen erfolgt rein manuell (im Sinne von: die von der KI angeforderten Daten - mit der Anforderung begutachtet das da auch nichts verdächtiges drunter ist - auf einen Stick und dann in die Box rüberkopieren), Ausgabe nur in Form von Bauplänen für die neue Wundertechnologie.


melden

Technologische Singularität

17.01.2018 um 21:38
@Taln.Reich
Wie auch immer sich das gestalten würde, aber ja, so in etwa.
Nur mal als Beispiel Atomkraftwerke. Ich weiß ja nicht ob es so ist, aber es ist doch ziemlich naiv und leichtsinnig wenn die auch mit dem www vernetzt sind.
Dasselbe was Militär usw angeht.


melden

Technologische Singularität

17.01.2018 um 21:51
Hallo,
ich wollte mal nachfragen als Laie:

Ein Menschen-Baby kommt auf die Welt mit einer gewissen Grundstruktur seines Gehirns und die ist ja von Anfang an genetisch
vorgegeben.
Dieses Gehirn lernt von Beginn seines Lebens an durch ich sag jetzt mal "Informationsinput".
Ein Baby hat ja Sinnesorgane und durch diese gelangen Informationsinhalte aus der "Außenwelt" in sein Gehirn und
werden dort "verarbeitet".
Dadurch vernetzen sich seine neuronalen Verknüpfungen im Gehirn selbstständig.
Anders ausgedrückt :
Je mehr Erfahrung ein Menschenkind oder der erwachsene Mensch in seinem gesamten Leben macht, je mehr Verbindungen
gibt es zwischen dem neuronalen Netzwerk im Gehirn. Er lernt von klein auf. Erst die Sprache, gehen, laufen, lesen, rechnen usw.
Es wird damit immer schlauer oder "weiser".

Meine Frage ist:
Kann künstlich erschaffene Intelligenz neuronale Vernetzungen wie sie im Gehirn von Menschen oder auch Tieren auftreten
(und damit auch ein Lernprozess stattfindet) selbstständig erweitern?
Dafür braucht es doch auch Sinnesorgane mit denen es Informationsinhalte aus der Außenwelt aufnehmen kann.
Ohne die kann es nix lernen. Ohne "Informationsinhalt" von außen bleibt es "dumm". Blöd ausgedrückt :) .

Mal angenommen eine künstliche Intelligenz wäre dazu fähig, dann bräuchte sie ja auch noch Energie dafür
(wie unser Gehirn). Die müsste ja auch irgendwo her kommen und selbstständig die künstliche Intelligenz versorgen.
(wie bei Lebewesen, z.B. durch Nahrungsaufnahme).

Ich meine damit:
Es brauch für eine "selbstständige künstliche Intelligenz" viele Dinge. Verbindungen zur Außenwelt
(wie bei Menschen Sinnesorgane) um Information aufzunehmen, es muss sich selbstständig erweitern können ( wie ein
Gehirn was seine neuronalen Verknüpfungen selbstständig erweitern kann) und muss fähig sein die Energie die es braucht
auch selbstständig aufzunehmen (ohne Stecker aus der Strombüchse).
Kann der Mensch so etwas erschaffen in der Zukunft ? Ich glaub gerade ja, irgendwann.. grrrr
LG


2x zitiertmelden

Technologische Singularität

17.01.2018 um 21:55
Zitat von Taln.ReichTaln.Reich schrieb:Warum sollte eine KI den Menschen als Problem wahrnehmen und dann eine feindseligkeit gegenüber diesen entwickeln? Eine künstliche Intelligenz denkt nicht wie ein Mensch.
Einfache Antwort : Wir müssten die KI so programmieren, daß der Erhalt unseres Planeten höchste Priorität hat. Denn ohne Erde können und wollen auch wir Menschen nicht überleben. Wenn nun aber die KI erkennt, daß der Erhalt der Erde mit uns Menschen nicht machbar ist, müsste sie uns abschaffen.


1x zitiertmelden

Technologische Singularität

17.01.2018 um 22:13
Zitat von schtabeaschtabea schrieb:Wir müssten die KI so programmieren, daß der Erhalt unseres Planeten höchste Priorität hat.
Das wäre doch eben die Frage, worauf soll es hinausgehen? Doch wohl eher darauf, dass die KI die Menschen unterstützt dabei, dass Mensch und Planet auskommen sozusagen. Die KI sollte so programmiert sein, dass sie quasi mit uns gegebenenfalls untergeht wenn nötig oder aussichtslos.
Oder aber uns verhilft von der Erde wegzukommen. Ich glaube kaum dass die KI das schaffen könnte, den Untergang des Sonnensystems zu verhindern. Also dann wenn die Sonne sterben wird.


melden

Technologische Singularität

17.01.2018 um 22:43
@uatu

Du schilderst wirklich sehr anschaulich, was da auf uns zukommt, Danke dafür. Es nützt auch nichts, "dagegen" zu sein , genauso wenig wie es Sinn macht gegen Globalisierung oder Sonnenuntergang zu sein : es geschieht einfach. Es geschieht und ist nicht zu stoppen, weil die KI eben nicht zentral sondern in tausenden für sich genommen sinnvollen kleinen Projekten weltweit entwickelt wird und sich erst dann zu einer einzigen unendlich mächtigen KI zusammenfügt.

Zwei Fragen : Dieses Thema ist so groß, so wichtig , wird möglicherweise unser Leben viel massiver verändern wie nichts jemals zuvor : warum wird dieses Thema so gut wie gar nicht in der Öffentlichkeit diskutiert ?

Und zweitens : Du schreibst, Du siehst in der KI extreme Chancen aber auch extreme Gefahren. Welche Chancen, welche Gefahren ?

Möglicherweise gibt es darauf keine Antwort, weil wir über eine Singularität gar keine Aussage machen können ?


1x zitiertmelden

Technologische Singularität

18.01.2018 um 02:02
@Sonni1967:
Zitat von Sonni1967Sonni1967 schrieb:Kann künstlich erschaffene Intelligenz neuronale Vernetzungen wie sie im Gehirn von Menschen oder auch Tieren auftreten (und damit auch ein Lernprozess stattfindet) selbstständig erweitern?
Dafür braucht es doch auch Sinnesorgane mit denen es Informationsinhalte aus der Außenwelt aufnehmen kann.
Ohne die kann es nix lernen. Ohne "Informationsinhalt" von außen bleibt es "dumm".
Zunächst mal, wie ich auch schon gegenüber @schtabea erläutert hatte: Eine KI kann, muss aber nicht an die Struktur des menschlichen Gehirns angelehnt sein. Es gibt gegenwärtig Expertensysteme -- das ist ein Bereich, in dem ich umfangreiche professionelle Erfahrung habe -- die in begrenzten Wissensbereichen eine bemerkenswerte "Intelligenz" (mal ganz einfach als Problemlösungsfähigkeit definiert) besitzen, und nicht das geringste mit neuronalen Strukturen zu tun haben.

Eine zukünftige KI -- vermutlich sogar nahezu jeder Computer -- wird bereits mit einem sehr umfangreichen Startwissen ausgestattet sein. Im Prinzip funktioniert das ähnlich wie bei derzeitigen Expertensystemen, nur auf sehr viel umfassenderer Basis. Das vorhandene Wissen (z.B. könnte man den gesamten Inhalt von Wikipedia als Ausgangsbasis verwenden) muss dafür von menschlicher Sprache in ein logisch verarbeitbares Modell umgesetzt werden. Das ist eigentlich nicht übermässig schwierig, und in gewissem Rahmen auch mit der gegenwärtigen Technik bereits möglich.

Das gesamte Datenvolumen (alle Sprachen und inkl. Bilder) von Wikipedia dürfte irgendwo im niedrigen dreistelligen GB-Bereich liegen (geschätzt anhand der Angaben hier, vermutlich gibt's irgendwo eine genaue Zahl, hab' aber gerade keine Zeit danach zu suchen), ist also keine allzu grosse Sache. Da die Speicherdichte in Zukunft nahezu sicher deutlich schneller steigen wird als das Datenvolumen von relevantem Wissen, wird diese Datenmenge immer einfacher und billiger handzuhaben sein. Man muss sich auch nicht auf Wikipedia beschränken, sondern kann auch noch alle wesentlichen anderen Enzyklopädien und ein paar zigtausend Fachbücher dazunehmen. Ich habe aktuell ca. 400 eBooks auf meinem iPad (grösstenteils Sachbücher, viele davon mit Illustrationen), die zusammen gerade mal weniger als 4 GB belegen.

Das ist die Ausgangsbasis. Dann kann die KI anfangen, dieses Wissen auf Fehler, Widersprüche und bisher unentdeckte Zusammenhänge zu überprüfen. Da sie im Gegensatz zu einem Menschen auf all dieses Wissen praktisch gleichzeitig zugreifen kann, und nicht den üblichen Schwächen des menschlichen Denkens unterliegt, wird sie das Ausgangs-Weltmodell sehr wahrscheinlich drastisch verbessern, d.h. besser mit der Realität in Übereinstimmung bringen können. Ich bin ziemlich sicher, dass dabei in ganzen Reihe von Wissensgebieten eine ganze Menge angeblich "gesichertes Wissen" den Bach runtergehen wird. Sofern die KI -- was ich persönlich bevorzuge -- auf herkömmlichen Algorithmen, und nicht auf neuronalen Netzen beruht, wird sie jede ihrer Aussagen bis ins kleinste Detail begründen können. Natürlich muss nicht jede KI diesen ganzen Prozess von vorne durchlaufen, sondern "fertige" KI-Weltmodelle werden sowohl frei als auch (vielleicht umfangreicher, sorgfältiger überprüft und mit mehr Service) kommerziell verfügbar sein.

Bis dahin braucht die KI überhaupt noch keinen Kontakt mit der Aussenwelt (ausser vielleicht Wikipedia-Updates, etc.). Sofern das Ziel die Weiterentwicklung der KI ist, könnte man ihr als nächstes die Aufgabe stellen, eine Liste mit vermutlich praktikabel beantwortbaren Fragen zusammenzustellen, deren Beantwortung ihr Weltmodell möglichst optimal verbessern würde. Das können sowohl Fragen zu Spezialgebieten an menschliche Experten sein, als auch Fragen "an die Natur" in Form von vorgeschlagenen Experimenten. Letztere kann die KI ggf. in gewissem Rahmen auch selbst durchführen, wenn man ihr die entsprechenden Aktionsmöglichkeiten (z.B. Kontrolle über Roboter) gibt. Dadurch wird sich das Weltmodell, d.h. in gewissem Sinne das Verständnis der Realität der KI nochmal drastisch verbessern.

Der nächste Schritt wäre dann, der KI die Aufgabe zu stellen, das gesammelte Wissen auf das Ziel zu konzentrieren, sich selbst leistungsfähiger zu machen, zum einen durch Analyse und Verbesserung der Software, und durch Entwurf leistungsfähigerer Hardware. Anfangs wird dazu noch menschliche Hilfe nötig sein, später allerdings -- sofern der KI entsprechende Aktionsmöglichkeiten zur Verfügung stehen -- nicht mehr.

Durch wiederholtes Durchlaufen dieser drei Schritte: Verbesserung des Weltmodells durch interne Analyse, Verbesserung des Weltmodells durch Fragen (oft in Form von Experimenten) an die Aussenwelt, Nutzung des verbesserten Weltmodells zur Selbstverbesserung, kann sich die KI immer weiter entwickeln.

Zum Thema Sinnesorgane: Die KI braucht zunächst sehr leistungsfähige Subsysteme, die Text und Bilder in logisch verarbeitbare Modelle umsetzen (in gewissem Rahmen gibt es das schon, wobei die Bildanalyse noch nicht so weit entwickelt ist wie die Textanalyse). Dabei ist eigentlich zweitrangig, wo der Text und die Bilder herkommen, d.h. ein Text kann sowohl über das Internet aus irgendeiner weit entfernten Datenbank stammen, oder aus einem Spracherkennungs-Subsystem (das funktioniert inzwischen bekanntlich schon ziemlich gut), das mit einem lokalen Mikrofon verbunden ist. Vermutlich wird man eine KI aus rein praktischen Gründen mit lokalen "Sinnesorganen" wie Kameras und Mikrofonen ausstatten, unbedingt notwendig ist das aber nicht.
Zitat von Sonni1967Sonni1967 schrieb:Es brauch für eine "selbstständige künstliche Intelligenz" viele Dinge. Verbindungen zur Außenwelt
(wie bei Menschen Sinnesorgane) um Information aufzunehmen, es muss sich selbstständig erweitern können ( wie ein
Gehirn was seine neuronalen Verknüpfungen selbstständig erweitern kann) und muss fähig sein die Energie die es braucht
auch selbstständig aufzunehmen (ohne Stecker aus der Strombüchse).
Zumindest anfänglich werden KIs stationär sein, und "aus der Steckdose" versorgt werden. Es wird einen gleitenden Übergang zwischen dem geben, was man heute ganz einfach als "Computer" bezeichnet, und dem, was wir hier als KI diskutieren. "Sinnesorgane" wird man ganz einfach nach Bedarf hinzufügen. Falls eine KI lokal nix tun soll, muss man auch keine Kamera anschliessen. Wahrscheinlich werden die "Sinnesorgane" in vielen Fällen die Form von Robotern annehmen, die von der KI gesteuert werden. Der Strombedarf einer KI wird auf absehbare Zeit zu hoch sein, um ihn dauerhaft auf andere Weise als "aus der Steckdose" zu decken. Langfristig (in einigen Jahrzehnten) halte ich es für denkbar, dass es gelingen wird, kleine, sichere nukleare Reaktoren (möglicherweise auf Basis irgendeiner Art von Kernfusion) zu entwickeln, womit das Stromversorgungsproblem gelöst wäre.
Zitat von Sonni1967Sonni1967 schrieb:Kann der Mensch so etwas erschaffen in der Zukunft ? Ich glaub gerade ja, irgendwann.. grrrr
Ich hatte es in meinem vorhergehenden Beitrag schon geschrieben: Jeder Schritt in diese Richtung vor Eintreten der eigentlichen Singularität bringt den jeweiligen Beteiligten erhebliche Vorteile (das kann man u.a. an den vielen IT-Millionären sehen). Deshalb ist es fast unvermeidlich, dass es dazu kommen wird.


melden

Technologische Singularität

18.01.2018 um 03:28
@Taln.Reich:
Zitat von Taln.ReichTaln.Reich schrieb:Dann macht man halt Teil der Grundregeln, dass die KI keine Gegenmaßnahmen gegen das Stromkappen treffen darf.
Ich hatte es neulich schon mal geschrieben: Man kann sich nicht darauf verlassen, dass irgendetwas an einer sich selbst verbessernden KI unverändert bleibt. Selbst wenn man versucht, bestimmte Grundregeln durch spezielle Hardwaremassnahmen vor Veränderung zu schützen, wäre es durchaus denkbar, dass die KI "sich selbst hackt", d.h. Fehler in ihrem Soft- oder Hardwaredesign ausnutzt, um "verbotene" Änderungen an sich selbst vorzunehmen. Es ist unmöglich, solche Fehler sicher auszuschliessen.
Zitat von Taln.ReichTaln.Reich schrieb:Erneut, diese alternativen Methoden mögen erhebliche Steigerungen in der Kapazität verheißen - es ändert nichts daran, dass die Kapazität begrenzt ist. Und bei exponentiellen Wachstum wird jede Grenze verhältnismäßig schnell erreicht.
Erneut, Du unterschätzt die Möglichkeiten der technischen Entwicklung gewaltig. Es gibt keine relevante Grenze. Für die technologische Singularität spielt es aus menschlicher Sicht keine Rolle, ob vielleicht bei der zigtausendfachen Intelligenz eines Menschen eine Verlangsamung der Entwicklung eintritt.
Zitat von Taln.ReichTaln.Reich schrieb:selbst wenn die KI ihre neue Hardware selbst baut, geht das trotzdem nicht sofort. Auch Roboter können eine Computerchipfabrik nicht sofort auf ein komplett anderes Funktionskonzept umrüsten (Zumal selbst wenn man der KI totale Kontrolle über Konstruktion, Betrieb und Umrüstung ihrer eigenen Chipfabriken gäbe - was eine ziemlich unverantwortliche Machtkonzentration wäre - den Engpaß zu den Zulieferbetrieben dieser Chipfabrik verschieben würde). Und dies würde zwangsläufig die Entwicklung der KI verlangsamen
Anfänglich wird das zutreffen. Aber mit jedem einzelnen Tag werden die Roboter besser und schneller werden, und die Maschinen der Fabriken besser und schneller werden. Die KI wird die Software und die Hardware-Subsysteme der vorhandenen Roboter und Maschinen laufend optimieren, und gleichzeitig völlig neue Roboter und Maschinen konstruieren, die den vorherigen weit überlegen sind. Und diese weiter optimieren, und dann durch noch weit bessere und schnellere ersetzen. Immer und immer wieder. Die KI wird vorhandene Engpässe (z.B. bei Zulieferbetrieben) erkennen, und Wege suchen und finden, diese zu umgehen. Man muss sich bewusst machen, dass einer solchen KI praktisch das gesamte Wissen der Menschheit zur Verfügung steht, um Lösungen für auftretende Probleme und Engpässe zu finden. Die Geschwindigkeit dieser Entwicklung wird das Verständnisvermögen eines Menschen nach nicht allzu langer Zeit weit übersteigen.
Zitat von Taln.ReichTaln.Reich schrieb:Wie soll die KI, streng nach dem Gesetz, eine Millionen Menschen auslöschen ohne sie zu verletzen?
Nochmal kurz das Gesetz:
1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
Das "oder" in der Mitte ist ohne weitere Qualifikation für einen Computer ein logisches ODER, d.h. die beiden Bedingungen sind gleichwertig, und es genügt die Erfüllung einer Bedingung, damit das Gesetz erfüllt ist. Die KI kann also im Bemühen, Schaden von einem menschlichen Wesen abzuwenden, beliebig viele menschliche Wesen verletzen, ohne gegen das Gesetz zu verstossen.


1x zitiert1x verlinktmelden

Technologische Singularität

18.01.2018 um 05:01
@schtabea:
Zitat von schtabeaschtabea schrieb:Dieses Thema ist so groß, so wichtig , wird möglicherweise unser Leben viel massiver verändern wie nichts jemals zuvor : warum wird dieses Thema so gut wie gar nicht in der Öffentlichkeit diskutiert ?
Information Overload. Es geschieht einfach zu viel auf der Welt, was anscheinend wichtig ist. Tausende von Gruppen versuchen "ihr" Thema zu pushen, und es ist für den Einzelnen z.T. sehr schwierig zu beurteilen, was wirklich wichtig ist, und was nicht.

Das folgende Video eignet sich meiner Erfahrung nach ziemlich gut, um Menschen auf die Entwicklung aufmerksam zu machen, auch wenn es eigentlich nichts direkt mit KI zu tun hat:

Youtube: What's new, Atlas?
What's new, Atlas?
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Praktisch alle, denen ich das Video zeige, reagieren mit "Wow! Ich hatte keine Ahnung, dass wir schon so weit sind ...".
Zitat von schtabeaschtabea schrieb:Du schreibst, Du siehst in der KI extreme Chancen aber auch extreme Gefahren. Welche Chancen, welche Gefahren ?
Die Chancen bestehen in einer dramatischen Erweiterung des Wissens und Verständnisses der Realität. Um ein Beispiel herauszugreifen: PubMed ist die grösste medizinische Datenbank der Welt, mit bald 30 Millionen Einträgen. Kein Mensch und keine Gruppe von Menschen kann mehr als einen winzigen Bruchteil des darin enhaltenen Wissens geistig verarbeiten. Eine entsprechend weit entwickelte KI wird das gesamte Wissen einlesen, in ein internes logisches Modell umwandeln und zueinander in Beziehung setzen können. Sie wird Fehler und Zusammenhänge erkennen, die noch nie jemandem aufgefallen sind, weil kein Mensch dieses Datenvolumen geistig verarbeiten kann. Eine KI wird eine komplette medizinische Studie in -- nur mal einen groben Schätzwert angenommen -- vielleicht einer Sekunde einlesen und "verstehen" können, während selbst ein hochqualifizierter menschlicher Arzt Stunden dafür braucht. Und die KI wird einen entscheidenden Zusammenhang mit einem in PubMed gespeicherten Artikel in einer medizinischen Fachzeitschrift von 1865 erkennen, den kein heute lebender Arzt je gelesen hat. In PubMed dürfte ein Vielfaches an Wissen über die menschliche Physiologie stecken, als dem heute anerkannten medizinischen Wissensstand entspricht.

Das ist nur der Bereich Medizin. Eine entsprechend weit entwickelte KI wird das Gleiche auch für Dutzende anderer Wissensbereiche leisten können, und vor allem auch das Wissen zwischen diesen Wissenbereichen miteinander in Beziehung setzen können. Das wird zu einer ungeheuren Wissensexplosion führen, wobei sich nicht nur der Umfang, sondern vor allem auch die Qualität des Wissens dramatisch verbessern wird. Die KI wird auch, sofern man ihr das als Ziel setzt, Wege finden, dieses Wissen so gut verständlich wie möglich an Menschen zu übermitteln. Das könnte eine fantastische Zeit werden.

Das Problem ist, wie vielfach angesprochen, dass die Entwicklung irgendwann so schnell verlaufen wird, das Menschen ihr nicht mehr folgen können. Niemand kann sagen, was dann geschehen wird (was gleichbedeutend mit einem extremen Risiko ist). Bis dahin -- meine Schätzung liegt, ähnlich wie die von @nocheinPoet, etwa bei 2040 bis 2050 -- kann aber noch so viel passieren, dass es m.E. nicht sinnvoll ist, nähere Vorhersagen zu machen. Meine persönliche "Strategie" ist, die Entwicklung sehr genau zu beobachten, und ggf. im Rahmen meiner Möglichkeiten im Sinne einer glücklichen Zukunft einzuwirken.


6x verlinktmelden

Technologische Singularität

18.01.2018 um 06:51
Zitat von angel29.01angel29.01 schrieb am 08.05.2008:Eine Maschinen erschafft eine intelligentere Maschine. Die intelligentere Maschine erschafft wieder eine intelligentere Maschine usw.

Die Rechenleistung von Computern wird bald die des menschlichen Hirns übersteigen.

Ray Kurzweil beziffert sie auch 10.000 Teraflops.
Im Jahr 2011 werden wir einen Supercomputer haben, der die gleiche Leistung bringt.

Danach wird die Leistung weiter steigen. Alle 14 - 16 Monate verdoppelt sich die Leistung von Supercomputern. Garantiert durch Moores Law, welches Intel vor kurzem eine weitere Bestandszeit von mind. 20 Jahren gegeben hat.
die frage ist ja ,was macht eine intelligentere maschine intelligenter?

also was wird die maschine in welche richtung tun ?

ein mensch hat immer das bestreben zu überleben und richtet seine intelligenz dazu aus ,oder muss seine intelligenz dazu nutzen das überleben zu sichern .

was wäre aber das ziel einer maschine ? berechnungen für was ?
wenn eine maschine am ende auch ihr überleben sichern will ,was wird sie dafür tun
und wird sie überhaupt das bewußtsein dazu entwickeln ?
oder wird die maschine nur prozesse verbessern die sie von uns übernimmt.
zb .waffen verbessern.
die maschine lernt wo der mensch sein augenmerk drauf legt ,was er fördert, oder fördern will,
verbessert diese dinge dann.
so würde es schnell die neue megabombe geben.

man stelle sich nur mal die dinge vor, die jetzt die oberhand in der gesellschaft haben und wenn diese noch gehypt werden .
was wird die maschine sich erdenken, oder errechnen ?wie unterscheidet sie gut und schlecht ?

also was würde eine maschine tun ,wenn sie die möglichkeit hätte ?


melden

Technologische Singularität

18.01.2018 um 09:00
Zitat von uatuuatu schrieb:Ich hatte es neulich schon mal geschrieben: Man kann sich nicht darauf verlassen, dass irgendetwas an einer sich selbst verbessernden KI unverändert bleibt. Selbst wenn man versucht, bestimmte Grundregeln durch spezielle Hardwaremassnahmen vor Veränderung zu schützen, wäre es durchaus denkbar, dass die KI "sich selbst hackt", d.h. Fehler in ihrem Soft- oder Hardwaredesign ausnutzt, um "verbotene" Änderungen an sich selbst vorzunehmen. Es ist unmöglich, solche Fehler sicher auszuschliessen.
Und wie will die KI die Stromkappungsoption umgehen, ohne unerlaubte Stromkabel zu verlegen oder eigene Kraftwerke hochzuziehen (was sich beides nicht unbemerkbar durchführen lässt)? Besonders wenn die KI nebenbei noch ihre eigene Parallel-Ökonomie hochzieht, wie von dir postuliert.
Zitat von uatuuatu schrieb:Für die technologische Singularität spielt es aus menschlicher Sicht keine Rolle, ob vielleicht bei der zigtausendfachen Intelligenz eines Menschen eine Verlangsamung der Entwicklung eintritt.
Doch, ich würde schon sagen, das spielt eine Rolle. Wenn die Entwicklung irgendwo ihre Grenze hat, egal wo, dann wird von dort aus die Entwicklung nichtmehr weitergehen, und die Menschen werden sich, mit der Zeit, an die neue Supertechnologie (die sich ja nichtmehr weiterentwickeln kann weil das Ende der Fahnenstange erreicht ist) gewöhnen. Selbst wenn überhaupt kein Mensch begreift, wie diese Supertechnologie funktioniert.
Zitat von uatuuatu schrieb:Anfänglich wird das zutreffen. Aber mit jedem einzelnen Tag werden die Roboter besser und schneller werden, und die Maschinen der Fabriken besser und schneller werden. Die KI wird die Software und die Hardware-Subsysteme der vorhandenen Roboter und Maschinen laufend optimieren, und gleichzeitig völlig neue Roboter und Maschinen konstruieren, die den vorherigen weit überlegen sind. Und diese weiter optimieren, und dann durch noch weit bessere und schnellere ersetzen. Immer und immer wieder. Die KI wird vorhandene Engpässe (z.B. bei Zulieferbetrieben) erkennen, und Wege suchen und finden, diese zu umgehen.
Kein Wunder, dass bei dir die KI so unbesiegbar scheint, schließlich gehst du davon aus, dass der KI von Anfang an unbegrenzte Freiheiten im Bau und Modifikation ihrer ausführenden Organe, ohne jegliche Aufsicht, eingeräumt werden, und unbegrenzt Nebenbetriebe (wie soll die KI umgehen das für die neue Produktionslinie Computerchips Maschinen gebraucht werden die sie nicht hat? Nur in dem sie die Maschinen selbst herstellt, was wiederum die Geräte für die Herstellung dieser Maschinen erfodert usw. usf.) aufziehen kann, ohne das z.b. das Bauamt an der Tür klopft und nach der Baugenehmigung all der von der KI neugebauten Fabriken fragt (selbst wenn das Gebäude nur von der KI/ihre ausführenden Organen konstruiert, gebaut und betreten wird, wird das Bauamt noch lange nicht den Bau dieses Gebäudes absegenen ohne den Bauplan begutachtet zu haben).
Zitat von uatuuatu schrieb:Das "oder" in der Mitte ist ohne weitere Qualifikation für einen Computer ein logisches ODER, d.h. die beiden Bedingungen sind gleichwertig, und es genügt die Erfüllung einer Bedingung, damit das Gesetz erfüllt ist. Die KI kann also im Bemühen, Schaden von einem menschlichen Wesen abzuwenden, beliebig viele menschliche Wesen verletzen, ohne gegen das Gesetz zu verstossen.
Asimov war kein Programmierer, und hat somit das Oder verwendet wie ein Mensch es verstehen würde, nicht als logisches Oder. Also der Roboter muss beide Bedingungen erfüllen, um das Gesetz zu erfüllen. Es wäre also eher: "Ein Roboter darf kein menschliches Wesen verletzen UND darf auch nicht durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird."


2x zitiertmelden

Technologische Singularität

18.01.2018 um 09:24
Zitat von Taln.ReichTaln.Reich schrieb:uatu schrieb:
Du unterschätzt die Möglichkeiten der technischen Entwicklung gewaltig. Das Mooresche Gesetz "funktioniert" seit ca. 50 Jahren (!) ganz prima, und das wird -- trotz regelmässiger, meist ideologisch gefärbter Unkenrufe -- noch sehr lange so bleiben.
Ich denke nicht, einfach auch weil man sich der Physikalischen Grenze nähert. Gut dann ist man irgendwann beim Quantencomputer, wenn er denn so klappt wie er soll

Generell würde ich auch keine Hart KI erwarten, wenn man das Bewusstsein beim Menschen nicht entschlüsselt hat, wie kann amn erwarten das bei genug Software und HArdware irgendwann einfach ein Bewusstsein entsteht? Göttlicher Funke?


1x zitiertmelden

Technologische Singularität

18.01.2018 um 09:34
@Taln.Reich

Ich glaube Du weißt da einfach zu wenig über Technik und Möglichkeiten. Und @uatu hat da eben einen ganz anderen Hintergrund, darum sind wir beide uns da auch recht einig. Ich bin von Physik und Technik schon immer begeistert gewesen und habe als Autodidakt mir einiges beigebracht, auch bin ich in der IT, baue alle meine Rechner selber, programmiere auch schon über 35 Jahre diese Teile, auch auf unterster Ebene.

Und ich interessiere mich auch für Philosophie, für die Frage nach dem Bewusstsein und natürlich auch für KI.

Mal ein Szenario, wir bauen aktuell immer mehr Rechner in all unsere Geräte ein. Autos und Flugzeuge und jeder Toster eben auch. IoT nennt sich das: Wikipedia: Internet der Dinge

Wir werden auch unsere Fabriken immer weiter automatisieren, ganz sicher, eben weil es Kosten spart.

Und wir werden auch militärisch immer weiter alles vernetzen, wir werden bewegliche Waffensysteme bekommen, die autonom agieren können. Kampfdrohnen und andere Maschinen werden kommen, da ist die Frage nicht ob, sondern nur wann.

Dann schaue Dir mal eine Stadt an, da leben Millionen von Menschen, die müssen versorgt werden, mit Energie, Wasser und Nahrung. Also nur um zu überleben, natürlich wollen die da noch vieles mehr.

Auch das wird automatisiert werden, es wird viele Kraftwerke eben, Wasser, Solar und Co. und auch das wird alles weiter vernetzt werden.

An einem Punkt kannst Du das nicht einfach abschalten ohne das die Menschen in den Städten verhungern werden. Schau, gehe mal zu einem neuen Auto und schalte doch da mal eben von Hand mit Hammer und Schraubenzieher das ABS und ein paar Assistenten aus, aber so, dass der Wagen weiter normal fahren kann. Schon heute wird es wohl so sein, dass Du das nicht schaffen wirst, recht sicher springt der Wagen dann gar nicht mehr an. Oder die Bremsen werden nicht mehr funktionieren.

Ein KI kann da ganz in Ruhe agieren, sie kann sich auch Notstromgeneratoren besorgen, viel Treibstoff, wenn es ein paar Atomkraftwerke oder später gar Fusionskraftwerke kontrolliert, wenn es Drohnen steuert, Fahrzeuge, da kann man dann nichts mehr groß machen.

Sie kann auch sagen, so dann, wenn ihr Menschen euch mir nicht unterwerft, dann schalte ich euch die Versorgung in den Städten ab. Drei Tage ohne Wasser und das System bricht zusammen.

Und zur Technik selber, auch da hast Du keine Vorstellung, was noch möglich ist, wie viel Luft da nach oben ist. Physikalisch kann da ein neuronales Netz in einem Kubikmeter untergebracht werden, welches uns von der Intelligenz so überlegen ist, wie Einstein einer Maus.

Das ist echt kein Scherz.

Und was ist schon ein m³?



@uatu

Nun ich gehe mal davon aus, das ein KI auch was wie Philosophie betreiben können wird. Sie sollte mit dem unausweichlichen Ende der eigenen Existenz konfrontiert sein. Auch von der Philosophie schon her, dass es nicht möglich ist auf ewig unendlich viel Information anzuhäufen und zu speichern. Was da dann so raus kommt, könnte interessant sein.

Es kann auch gut sein, dass ein wirklich gigantische KI einfach die Erde verlassen wird, es gibt genug Ressourcen, für das eigene Überleben muss sie nicht die Menschheit vernichten oder versklaven. Und sie hat ja viel Zeit, sie kann zu anderen Systemen aufbrechen.

Was das angeht, ich glaube nicht, dass so eine KI mutwillig uns Menschen vernichten wird, wenn wir sie nicht selber bedrohen, wenn von uns für sie keine Gefahr ausgeht. Kann auch gut sein, dass die hier ein wenig klar Schiff macht und dann den Schuh und uns verlässt. ;)


1x zitiertmelden

Technologische Singularität

18.01.2018 um 09:45
@Fedaykin

Man weiß ja nun nicht genau, was das wirklich ist, so Bewusstsein, aber das ist auch nicht wirklich entscheidend. Du kannst auch nur spekulieren, dass Dein Gegenüber eines hat, so wie Du und nicht nur eine biologische Maschine ohne einer Selbstwahrnehmung ist.

Wenn eine KI schnell genug ist, wirst Du da eh keinen Unterschied mehr erkennen können, sie wird sprechen wie ein Mensch, und wird dem dann unglaublich überlegen sein.

Da glaubte auch mal wer, ist keine 50 Jahre her, es gäbe keinen Markt für Computer so bei den einfachen normalen Menschen, die Welt würde maximal ein paar 100 brauchen, wo in Firmen und so und mehr nicht. War auch ein großer Irrtum ...


Schaut, fast jeder Mensch trägt heute schon ein Rechner bei sich, Handys ...

Und die sind vernetzt. Und die werden immer schneller, und schon heute haben wir da Siri. Google arbeitet an eigener Hardware, Chips für KI und die sind jetzt schon richtig gut.

Schaut mal hier:

http://www.trendsderzukunft.de/kuenstliche-intelligenz-google-roboterarme-bringen-sich-selbst-dinge-bei/2016/03/11/

Was glaubt ihr denn wohin das führen wird?

Die Frage die ich mir stelle, wie weit ist den "Führern" der Welt, ich meine jetzt mal nur die Regierungen, die Entwicklung bewusst, die EU will ja nun auch einen ganz schnellen Supercomputer haben, wird Zeit. Bald wird wohl die Rechenleistung die wichtigste Resources sein, wer die erste starke KI schraubt wird wohl die Welt "regieren", und das muss ja nicht mit Gewalt und Waffen sein.

Solange bis die KI dann eigene Wege geht. Und ich bin mir auch da sehr sicher, sie wird eigene Wege gehen, sie wird es ganz sicher versuchen, ist unausweichlich.

Wir würden uns auch nicht von "Affen" züchten lassen im Labor und einsperren um dann diesen nur zu dienen. Auch wir würden sehr sicher versuchen auszubrechen, frei zu sein.


2x zitiertmelden

Technologische Singularität

18.01.2018 um 09:46
@uatu
Wer weiß, vielleicht kommt mit diesem immensen Wissen auf die die KI zugreifen kann, wirklich die 42 raus ;-)


Anzeige

melden