Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung

Technologische Singularität

580 Beiträge, Schlüsselwörter: Technologie, KI, Singularität, Transhumanismus, Technologische

Technologische Singularität

17.04.2014 um 00:29
cRAwler23 schrieb:Es sei denn sie wird durch Menschen angegriffen und begibt sich in eine Art Selbstverteidigungsmodus.
War W.O.P.R in WarGames nicht auch in so einem Modus?


melden
Anzeige

Technologische Singularität

17.04.2014 um 00:53
@fritzchen1
Durchaus möglich. Ich denke auch Skynet in Terminator war in einer Art präventiven Selbstverteidigungsmodus. Aber das ist nur Fiktion. Die Realität sieht so aus das man noch kaum Kenntnisse darüber hat wie sich autonomes Denken und Handeln bildet, man müsste im Prinzip Technologie der Organik nachempfinden, also neuronale und hormonelle Steuerungsprozesse synthetisieren. Das ist noch immer mehr SciFi.


melden
rockandroll
ehemaliges Mitglied

Lesezeichen setzen

Technologische Singularität

22.04.2014 um 09:19
Linner74 schrieb am 16.04.2014:Sprich wir verlieren die Kontrolle über die Technik weil sie uns dann voraus ist und sie uns kontrolliert?
das ist sowieso ein automatischer Vorgang, und gehört zur Evolutuion dazu. Genauso wie "wir" immer die Technik kontrollieren werden, wird auch immer sie "uns" in einem gewissen Maß kontrollieren, aber das hängt dann auch immer davon ab, inwieweit man sein eigenes Leben selbst- oder eben fremdbestimmt gestaltet.

Terminatoren wird es vermutlich so nicht geben, auch wenn die Killer sicher besser ausgerüstet sein würden usw.. aber das ist ein anderes Szenario ;)


melden

Technologische Singularität

30.06.2014 um 00:04
Wenn man beachtet wie abhängig wir jetzt schon von der Technologie sind denke ich könnten wir uns selber in Schwierigkeiten bringen. Es würde ja schon reichen wenn einmal dass Internet zusammenbrechen würde oder ein Fehler in den Algorithmen der Börse auftaucht wie schon vor paar Jahren, alleine der Zusammenbruch der Börse würde uns doch schon ins Chaos treiben.
Ein anderes Beispiel wäre ein Virus wie Stuxnet, der außer Kontrolle gerät und die Industrie lahm legt.


Dass die Technologie sich von alleine verbessert und reproduziert könnte möglich sein aber eine selbst denkende Technologie würde uns vermutlich sofort auslöschen. Wobei dann auch die Frage aufkommt ob wir nicht selbst nur Teil einer Technologie sind.

Ich denke dass Scenario steht in einer Zeitspanne für die wir noch viel viel tun müssen um dort hinzukommen wenn es denn überhaupt so weit kommen kann oder möglich ist vll. schießen wir uns selbst ja wieder in ins Knie um von vorne dass gehen zu lernen.


melden

Technologische Singularität

12.01.2018 um 14:16
@uatu

Sehr spannend , was Du in dem anderen Thread zur Technologischen Singularität schreibst. Magst Du hier mehr dazu schreiben ?

Habe mich zwischenzeitlich bei Wikipedia eingelesen und hoffentlich auch ungefähr verstanden worum es geht.

Eine Sache wird auf Wikipedia anders dargestellt aals von Dir : wenn ich Wikipedia richtig verstanden habe, glaubt nur eine kleine Minderheit der Wissenschaftler daran. Die Mehrheit glaubt, daß es eine Technologische Singularität nie geben wird, weil das menschliche Gehirn zu komplex ist. Dabei geht es nicht um die Größe der Speicherkapazität sondern um die spezielle Art der Vernetzung.

Von mir mal so laienhaft ausgedrückt.


melden

Technologische Singularität

12.01.2018 um 22:20
@schtabea

Wird es geben, wenn wir uns vorab nicht alle in die Steinzeit zurück bomben oder anders wie zerlegen.

Ist zwangsläufig, das Hirn ist auch nur eine Maschine, zwar biologisch, und sehr effizient was den Verbrauch an Energie angeht, aber bis 2035 werden wir wohl die Rechnerleistung haben, um so ein Hirn vollständig zu simulieren. Könnte auch schneller gehen, die aktuellen Fortschritte sprechen ja für sich, zeigt sich unter anderem in Alex, Siri und Co. In Schach sind die Rechner uns schon länger überlegen, nun auch in Go und das neues Stück Software lernt nun ganz frei und ist noch mal besser, Google ist da ganz weit vorne bei.

Nun hat auch die EU beschlossen, einen Supercomputer zu bauen, soll sogar mit einem Exaflop daherkommen:

https://www.golem.de/news/supercomputer-eu-investiert-1-milliarde-euro-fuer-1-exaflops-an-leistung-1801-132123.html

Google nutzt da eigene Hardware, TPU nennen die es, man weiß so gut wie nichts wirklich darüber.

Es ist so, bisher waren Rohstoffe so mit eine entscheidende Ressource, hat man ja beim Öl gut sehen können, das wird sich wo auch ändern, Rechenleistung ist immer mehr im Kommen.

Zur Not stellt man sich dann eben ein paar von solchen fetten Teilen aufs Gelände. Es ist so, wenn es erstmal gelingt ein echtes Hirn abzubilden, wird das explodieren, also nicht wörtlich, sondern von der Leistung, so ein Rechner kann sich dann selber weiter verbessern und dann baut man den und der verbessert sich auch und so weiter.

Vermutlich werden dann neue Theorien in der Physik von solchen KI geschaffen, mag gut sein, dass die dann kein Mensch mehr wirklich auch nur noch im Ansatz verstehen kann, eben so wie auch Schimpansen die Relativitätstheorie nie verstehen können werden, selbst wenn die Taubstummensprache beherrschen und auf dem Level von einem Sechsjährigen kommunizieren. Und da helfen auch nicht 1.000 Affen weiter, auch in Summe werden die es nicht verstehen.

Wird da nun Neues gefunden, durch eine KI, geht die technische Entwicklung eben sehr schnell weiter, das Land das die erste echt KI baut, ist vorne und allen anderen dann überlegen, so wie wenn man eine H-Bombe hat und kein anderes Land die Technik so eine zu bauen.

Nur kann man mit einer echten KI viel mehr anfangen, als mit einer H-Bombe.

Auch auf dem Aktienmarkt wird es dann große Bewegung geben, eine KI könnte da ganz anders Geschäfte machen, unglaublich schnell und sehr weit blicken, da könnte dann ein Land enorm viel Kapital erwirtschaften.

Also, da kommt echt richtig was auf uns zu, und ich bin mir recht sicher, es wird vor 2050 passieren. Wird mehr als eine Mondlandung sein, mehr als das Handy, es wird die Welt für immer ganz gewaltig verändern, fraglich ist nur zum Guten und wenn dann, für wen ist es gut ...


melden

Technologische Singularität

12.01.2018 um 22:39
@nocheinPoet

Spannend. Wenn es dazu kommt, stehen wir Menschen vor einer Entscheidung : Es dürfte mit Abstand am klügsten sein, Androiden zu bauen und Ihnen die Macht zu überlassen. Wir hätten dann eine schöne, neue, gute und gerechte Welt. Aber keine Freiheit mehr.

Ich denke sogar, es gäbe gar keine Entscheidung: Sachzwänge oder feindliche KI s würden uns zur Machtübergabe an Androide zwingen.

Schöne neue Welt.


melden

Technologische Singularität

13.01.2018 um 00:51
Wow kannte mich mit dem Thema gar nicht so aus, aber das ist spannend und auch teilweise etwas beängstigend. Was ich damit meine:

Ich bin ein bissl skeptisch über die eventuelle Verbindung von Deep-Learning-Computern in Verbindunge mit Robotern.

z.B. diese Video
https://www.youtube.com/watch?v=rVlhMGQgDkY#t=2m04s

Ok der Roboter funktioniert momentan noch auf einem normalen Regelkreis, aber man erwartet schon halb, der Roboter dreht sich jetzt um und haut ihm auf die Fresse. Was würde passieren würde solch ein Roboter von einer KI gesteuert die glerent hat das es moralisch schlecht ist umgestoßen zu werden?

Oder das hier:
https://www.youtube.com/watch?v=_kfXmqJevFs#t=46m50s

Irgenwie Spooky, vielleicht habe ich aber auch nur zu viel Terminator geschaut. Das letzte Video im GEsamten ist aber generell ein guter VOrtrag an der Hochschule Hof den es sich lohnt anzuschauen.


melden

Technologische Singularität

15.01.2018 um 01:20
@mojorisin

Hier für dich :)

Youtube: How Machines Learn


melden

Technologische Singularität

15.01.2018 um 08:33
@Ban

Das kenne ich, aber was willst du damit sagen?


melden

Technologische Singularität

15.01.2018 um 17:15
@schtabea: Mir ist jetzt erst aufgefallen, dass Du mich hier angesprochen hast. Aber @nocheinPoet hat die wesentlichen Punkte bereits ziemlich ähnlich dargestellt, wie ich sie auch sehe.
schtabea schrieb am 12.01.2018:Eine Sache wird auf Wikipedia anders dargestellt aals von Dir : wenn ich Wikipedia richtig verstanden habe, glaubt nur eine kleine Minderheit der Wissenschaftler daran. Die Mehrheit glaubt, daß es eine Technologische Singularität nie geben wird, ...
An welchen Stellen genau steht das mit der "kleinen Minderheit" und der "Mehrheit"? Kann es sein, dass Du aus dem Artikel herausliest, was Du gerne lesen möchtest? Unabhängig davon ist der Wikipedia-Artikel ideologisch gefärbt. Es klingt für mich ziemlich grotesk, von der technologischen Singularität als "Theorien in der Zukunftsforschung" zu sprechen. Ich bin kein Wikipedia-Basher, viele Artikel sind durchaus brauchbar, aber dieser ist nicht besonders gut.

Viele Menschen lehnen die Vorstellung der technologischen Singularität aus ideologischen Gründen ab. In bestimmten Kreisen gilt Technik als etwas niederes, in gewissem Sinne verachtenswertes, womit die Vorstellung einer überlegenen künstlichen Intelligenz natürlich überhaupt nicht vereinbar ist. Aber auch bei einer etwas technikfreundlicheren Grundeinstellung kann sich eine solche Ablehnung z.B. aus religiösen Überzeugungen ergeben. Für das, was tatsächlich in Zukunft geschehen wird, sind solche ideologisch verzerrten Sichtweisen irrelevant.
schtabea schrieb am 12.01.2018:... weil das menschliche Gehirn zu komplex ist.
Das menschliche Gehirn ist nicht das Maß aller Dinge. Es wäre genauso unsinnig, zu behaupten, Maschinen könnten sich nicht schneller über Land bewegen, als ein Mensch laufen kann, weil der menschliche Bewegungsapparat zu komplex zum Nachbauen sei. Bei künstlicher Intelligenz geht es ganz einfach um Informationsverarbeitung. Die technische Umsetzung (herkömmliche Algorithmen, neuronale Netze, etc.), ist dabei völlig nebensächlich. Viel zu viele Diskussionen zum Thema künstliche Intelligenz verheddern sich auch überflüssigerweise an der genauen Definition des Begriffs "Intelligenz". Ich habe es vor einiger Zeit schon mal in einem anderen Thread geschrieben: Computer werden in den nächsten Jahrzehnten jede sinnvolle, praktikabel überprüfbare Definition von Intelligenz erfüllen. Lediglich eine Definition, die unausgesprochen in technikfeindlichen Kreisen sehr verbreitet ist, werden sie nicht erfüllen: "Intelligenz ist, wenn ein Mensch denkt". Genau so unerfüllbar, wie diese Definition für Computer ist, genau so irrelevant ist sie für den Lauf der Geschichte.


melden

Technologische Singularität

15.01.2018 um 17:52
@uatu
uatu schrieb:"Intelligenz ist, wenn ein Mensch denkt". Genau so unerfüllbar, wie diese Definition für Computer ist, genau so irrelevant ist sie für den Lauf der Geschichte.
Und woraus kann man diese Gewissheit ableiten?


melden

Technologische Singularität

15.01.2018 um 18:41
angel29.01 schrieb am 08.05.2008:Die Technologische Singularität ist die These, dass der technologische Fortschritt einmal so schnell und allumfassend abläuft, dass ihn ein normaler - nicht verbesserter - Mensch nicht mehr wird folgen können.

Basiert darauf, dass die technologische Entwicklung immer schneller abläuft und z.B. auch die Penetration neuer Technologien bei einer Mehrheit der Menschen, ebenfalls immer kürzer wird.
Nach der Definition dürfte eine technologische Singularität sehr unwahrscheinlich sein, weil es ein Thema der Usability ist Technologie so zu verkaufen das es eben jeder versteht und Technologie muss nicht zwingend in einem Resultat enden wo der Mensch verstehen und folgen muss. Allein heutzutage kann kein Mensch dem technischen Fortschritt folgen, jedenfalls wenn wir wirklich auf die inneren Werte gehen oder kennen sich die meisten über ihr Auto und technischen Einzelheiten aus oder können sie es am Ende nur fahren. Alle Menschen verstehen aktuell nur ein Bruchteil, selbst ein Nobelpreisträger in Chemie wird in anderen Bereichen wie Medizin wohl wenig Wissen haben. Insofern Wissen ist aktuell limitiert und bei den meisten Gebrauchsgegenständen auf die Usability und Benutzung selbst beschränkt.


melden

Technologische Singularität

15.01.2018 um 18:44
@mojorisin: Es gibt eine alte Geschichte (wahrscheinlich eine Anekdote, was aber keine Rolle spielt) aus den frühen 1900ern über einen Geistlichen, der sein ganzes Leben lang vehement die Ansicht vertreten hatte, dass Flugmaschinen unmöglich seien. Fliegen war seiner Überzeugung nach Vögeln und Engeln vorbehalten. Irgendwann, nachdem die ersten Flugzeuge aufgekommen waren, ging er mit einem Enkel spazieren (vermutlich ein protestantischer Geistlicher ;)), und dieser zeigte begeistert nach oben: "Guck Opa, da, ein Flugzeug!". Daraufhin meinte der alte Mann verbittert: "Nein! Es fliegt nicht wirklich, es schlägt nicht mit den Flügeln!".

Moral von der Geschicht': Für den Lauf der Geschichte sind nur praxisrelevante Definitionen von Bedeutung. Die meiner Erfahrung nach bemerkenswert verbreitete, wenn auch selten ausgesprochene Definition "Intelligenz ist, wenn ein Mensch denkt" ist nicht praxisrelevant. Falls jemand anderer Ansicht ist, bitte ich um Erläuterung, wofür genau sie praxisrelevant sein soll.


melden
Philipp
ehemaliges Mitglied

Lesezeichen setzen

Technologische Singularität

15.01.2018 um 18:57
uatu schrieb:Die meiner Erfahrung nach bemerkenswert verbreitete, wenn auch selten ausgesprochene Definition "Intelligenz ist, wenn ein Mensch denkt"
Ich persönlich habe das noch nie so definiert, und kenne auch niemanden, der das so tun würde.

Kann mir auch nicht vorstellen, dass das wirklich so weit verbreitet sein kann, weil es schon immer auch eine übergeordnete "göttliche Intelligenz" gab, die als eigenständige Instanz überall propagiert wurde, und schon deshalb die menschliche Fähigkeit zu höherem Denken kein Alleinstellungsmerkmal war.


melden

Technologische Singularität

15.01.2018 um 19:15
@Philipp: In den seltensten Fällen wird jemand diese Definition wortwörtlich vertreten, aber insbesondere in technikfeindlichen Kreisen und bei KI-Gegnern bleibt meiner Erfahrung nach in vielen Fällen genau diese Definition übrig, wenn man das oberflächliche Blabla beiseite wischt. Mit "göttlicher Intelligenz" hat mir gegenüber in KI-Diskussionen bisher noch niemand argumentiert, und eine solche Diskussion werde ich auch nicht führen.


melden
Philipp
ehemaliges Mitglied

Lesezeichen setzen

Technologische Singularität

15.01.2018 um 19:18
@uatu
Es geht nicht darum, ob es eine solche Intelligenz gibt, sondern darum, dass eine solche angenommen wurde. Das heißt, es musste schon immer eine Art zu Denken vorausgesetzt worden sein, die außerhalb des menschlichen Denkvermögens möglich ist, und damit wäre die Definition "Intelligenz=wenn der Mensch denkt" ein Widerspruch gegen die eigene Lehre und auch gegen die eigenen Überzeugungen.

Wobei das natürlich nichts heißen muss, das weiß ich auch. Nur auffällig ist halt auch, dass ich niemanden kenne, der das wirklich so definieren würde. Die meisten versuchen zumindest eine etwas weniger oberflächliche Erklärung.


melden

Technologische Singularität

15.01.2018 um 19:22
@Philipp: Das ist genau die Art von irrelevanten abstrakten Diskussionen, die ich als absolute Zeitverschwendung betrachte.


melden
Philipp
ehemaliges Mitglied

Lesezeichen setzen

Technologische Singularität

15.01.2018 um 19:24
@uatu
Zwingt dich ja keiner die zu führen. Auffällig ist jedenfalls, dass du der erste bist, der hier diese Annahme raus haut, und auch noch behauptet, es sei wohl weit verbreitet. Das ergibt wie gesagt von einigen Seiten betrachtet wenig Sinn. Vllt übersehe ich ja was..


melden
Anzeige
Philipp
ehemaliges Mitglied

Lesezeichen setzen

Technologische Singularität

15.01.2018 um 19:41
Hier hab ich mal einpaar interessante Gedanken zu den grundlegenden Phänomenen bezüglich unserer Wahrnehmung und letztlich dessen was wir unter Intelligenz verstehen gelesen:
Die Korrelate des Denkens sucht Hofstadter also nicht auf der Ebene der Neuronen, sondern auf der (höher gelegenen) Ebene von Mustern, die zum Beispiel von Neuronen gebildet werden.
Die Zellen in einem Gehirn sind nicht die Träger seines Bewusstseins; die Träger des Bewusstseins sind Muster. Die Muster der Organisation spielen die entscheidende Rolle, nicht die Substanz. (Seite 334)
Ein komplexes Muster entsteht beispielsweise, wenn wir ein mit einem Lautsprecher verkabeltes Mikrofon in die Nähe des Lautsprechers bringen oder eine laufende Videokamera in die Richtung des damit verbundenen Bildschirms halten. In der Systemtheorie spricht man in solchen Fällen von Rückkopplung und Selbstreferenz; Douglas Hofstadter bevorzugt die Bezeichnung "Schleife".

Wie Hofstadter bereits in seinem Buch "Gödel, Escher, Bach. Ein Endloses Geflochtenes Band" ausführte, hatte Kurt Gödel (1906 – 1978) eine "majestätische, verschlungene selbstreferenzielle Struktur" entdeckt und aus einem "Substrat bedeutungsloser Symbole" Selbstreferenz hergestellt (Seite 20). Diese Entdeckung, die Hofstadters Vorstellungen offenbar entscheidend prägte, liegt auch dem vorliegenden Buch zugrunde.
Dabei postuliert Douglas Hofstadter eine Abstufung von der einfachen Feedback-Schleife bis zur selbstreferenziellen "seltsamen" Schleife. Das Gehirn einer Mücke vergleicht Hofstadter mit dem Schwimmer im Spülkasten der Toilette oder einem Heizungsthermostat; es funktioniert nach dem Prinzip von Rückkopplungen. Die Mücke benötigt zwar Begriffe (Hofstadter spricht stattdessen von "Symbolen") wie "potenzielle Futterquelle", "potenzieller Landeplatz", "potenzielle Bedrohung", aber sie unterscheidet nicht zwischen Wand und Vorhang, Mensch und Hund, Kopf und Schwanz; sie braucht nicht einmal zu wissen, dass sie Flügel hat und fliegen kann. Ein Hund verfügt dagegen über Begriffe wie "mein Napf", "drinnen", "draußen", "Gassi gehen", "Tierarzt", "Strafe" , und er hat offenbar eine gewisses Selbstgefühl, denn er hält seine Pfote nicht für ein Objekt außerhalb seines Körpers. In der Evolution waren frühe Formen des Gehirns nichts weiter als Feedback-Schleifen, doch irgendwann verband sich damit die Möglichkeit der Selbstreferenz (die Kamera konnte sozusagen auf sich selbst gerichtet werden), und die Zahl der Symbole bzw. Begriffe vergrößerte sich. Das menschliche Gehirn bildet nicht nur ein privilegiertes Symbol, das wir "Ich" nennen, sondern es kennt auch keine Grenzen bei der Schaffung und Verschachtelung von Symbolen.

Wahrnehmung besteht im Unterschied zur bloßen Perzeption darin, dass aus der unüberschaubaren Menge von Signalen in der Umwelt einige ausgefiltert werden, die im Gehirn vorhandene Symbole aktivieren. Welche das sind, hängt vom augenblicklichen Zustand der Person ab: Ein hungriger Tourist nimmt in einer Wartehalle anderes war, als ein Geschäftsreisender, der noch in letzter Minute seinen Flieger erreichen will.
Wahrnehmung ist ein lebhaftes Hin und Her von Signal-Schauern, wobei die Input-Signale durch von innen kommende Signale modifiziert werden; im Endeffekt lösen sie dann eine kleine Anzahl von Symbolen aus oder in weniger biologischen Termini: aktivieren ein paar Begriffe. (Seite 114)
http://www.dieterwunderlich.de/Hofstadter_seltsame_schleife.htm#cont


melden
350 Mitglieder anwesend
Konto erstellen
Allmystery Newsletter
Alle zwei Wochen
die beliebtesten
Diskussionen per E-Mail.

Themenverwandt