Philosophie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Gott spielen - Menschheits- und Evolutionsziel

103 Beiträge ▪ Schlüsselwörter: Gott, Aliens, Universum ▪ Abonnieren: Feed E-Mail

Gott spielen - Menschheits- und Evolutionsziel

04.05.2016 um 22:08
Zitat von MonasterikerMonasteriker schrieb:Überleben und Vermehren ist eine Folge davon, aber kein primäres Ziel, das irgendwie in die Organismen als Handlungsantrieb einprogrammiert wäre.
Also da muss ich dir Widersprechen, genau das ist im tiefsten Kern jedes uns bekannten Lebewesens einprogrammiert. Du
könntest auch schlicht die Weitergabe der eigenen genetischen Information als tiefsten Impuls nennen, falls dir die Metapher
Überleben und Vermehren zu kitschig ist. Ändert aber nichts daran, dass genau dies des Pudels wahrer Kern ist, außer du
möchtest den grundlegensten Erkenntnissen der Evolutionsbiologie widersprechen.

Bei höheren Lebewesen mag das Aufgrund ihres komplexen Verhaltens nicht unbedingt erkennbar sein, aber gerade einfache
Wesen, wie Einzeller oder Insekten verkörpern dieses Verhalten ziemlich direkt.
Oder was machen z.B. Kakerlaken groß anderes außer fressen und sich vermehren ?

@ivy131
Die Frage warum wir existieren bzw. was der Sinn unserer Existenz ist erwächst der unschönen Erkenntnis, dass wir vergänglich
sind. Gerade kleine Kinder sind von diesem Laster noch nicht betroffen, weil sie diese Erkenntnis noch nicht haben. Sie fragen nicht
nach dem Grund ihrer Existenz, sie sind vollkommen zufrieden damit zu sein.
Ich finde diesen mentalen Zustand eigentlich weitaus erstrebenswerter. Die Suche nach dem Sinn des Lebens ist mehr eine Verzweif-
lungstat, weil es uns sehr schwer fällt zu akzeptieren, dass vielleicht nicht alles einen Sinn hat oder haben muss.
Zitat von ivy131ivy131 schrieb:Man müsste also einen Pc bauen, dessen einzige Aufgabe es ist den Grund seiner existens herruaszufinden.
Ich glaube das würde nicht allzu lange dauern. Interessant wäre die Frage was passiert wenn die KI evaluiert, dass sie nur Existiert
um heraus zu finden, dass sie nur existiert um das heraus zu finden. Irgendwie eine Art lustige Rekursion :)


melden

Gott spielen - Menschheits- und Evolutionsziel

05.05.2016 um 09:41
@ArnoNyhm

Nein. Da ist weder etwas programmiert, noch gibt es da einen tiefsten Impuls, der auf Daseinserhalt ausgerichtet ist. Auch in der Evolutionsbiologie spielt so ein Daseinserhaltungsstreben keine Rolle. Was Du wahrscheinlich meinst, ist, dass Organismen über vielfältige Rückkopplungen auf die Umgebungsbedingungen abgestimmt sind, so dass sie über eine bestimmte Zeit hinweg als Organismen erhalten bleiben. Aber das ist dann ein a posteriori-Effekt und keine a priori-Programmierung.

Wie gesagt - man kann das als Metapher so sehen, um sich den Effekt zu erklären, aber es handelt sich dabei um ein Konstrukt und nicht um das, was mit diesem Konstrukt erklärt wird. Auch die Metapher vom "egoistischen Gen" ist nur ein Konstrukt - und wie ich finde, ein verfehltes - aber nichts, was der tatsächlichen Komplexität des Lebens auf adäquate Weise entspricht.


melden

Gott spielen - Menschheits- und Evolutionsziel

05.05.2016 um 10:29
moin

ich denke weder für die menschheit noch für die evolution lässt sich ein "ziel" definieren.
evolution ist ein begriff aus der biologie, er lässt sich aber auch abstrakt auf die historie des universums beziehen.
trotz der überbordenden entropie gelingt es dem chaos immer wieder inseln der ordnung zu schaffen, ordnungen höheren niveaus.
dass aus einem nichts energie entstand, die einen wie auch immer gearteten raum schuf, der diese energie dann zu klumpen kondensierte, die wir gemeinhin heute als materie bezeichnen ist schon erstaunlich genug. der übergang dann von der unbelebten zur belebten materie ist an vorstellungskraft eigentlich kaum zu toppen, geschweige denn eines selbstreflektierenden gehirns, vulgo bewusstseins.
zielvoller plan oder nicht,
die inmitten der zunehmenden kosmischen entropie selbstorganisierenden strukturen (wie eben unser gehirn) scheinen die abweichungen von der norm zu sein.
oder eben nicht.
wie gesagt, ein "ziel" auch nur ahnen zu wollen ist eigentlich vermessen.
meine ganz pragmatische prognose für die kommenden jahrzehnte oder auch jahrhunderte:
die biologische evolution hat abgedankt.
die materie hat sich nie selbst manipulieren können.
es hat trillionenfacher zufälle bedarft um wechselwirkenden molekülen "kooperationsbereitschaft" beizubringen.
und milliarden jahre gedauert.
ende mensch.
etwas komplexeres als das menschiche gehirn gibt es nicht, wird oft und gerne kolportiert.
aber wenn man die maßstäbe der komplexität des menschlichen gehirns an den maßstäben der komplexität der physik oder des allgemeinen verständnisses der welt anlegt,
dann ist sogar das gehirn einer maus oder sogar einer stubenfliege das komplexeste konstrukt des universums ( vom menschlichen gehirn natürlich abgesehen).

ok,
hier meine krude these:
der mensch, resp. die kognitiven fähigkeiten dieser unterart des sapiens
sind lediglich ein vehikel,
dass die materie in die lage versetzt sich selbst zu manipulieren, worauf sie seit 14+nochwas mrd jahren hingewirkt hat, seit sie aus der energie des nichts gebar.
ziel und zweck sind für uns menschen selbstverständlich völlig unverständlich.
wir, bzw unsere "intelligenz" plus unserer fähigkeit der autonomen bearbeitung toter und auf ihr ziel beachteter materie
sind nur mittel zum (unbekannten) zweck, werkzeuge der kosmischen evolution.

kein grund zu verzweifeln,
zumindest WIR leben in echt aufregenden zeiten, besser als die jahrtausende der stagnation menschlicher zivilisation zuvor, von mir aus kann der terminator kommen,
für die weltraumfahrt sowieso ein besser geeigneter kandidat.
denn wenn das universum einen plan hat, dann bestimmt nicht weiche biologische einheiten jahrhundertelang rumcruisen zu lassen,
sondern dass .... das weiss man eben nicht




oder so

buddel


melden

Gott spielen - Menschheits- und Evolutionsziel

05.05.2016 um 11:34
@Monasteriker
Zitat von MonasterikerMonasteriker schrieb:Du schreibst, dass man die KI bewusst "dumm" lässt, weil es auf einen bestimmten Nutzeffekt ankommt. Intelligenz wäre dann hier eine extern verursachte Problemlösungsstrategie, die zu extern verwertbaren Resultaten führt - hier also als eine Art Zuarbeit für ingenieurtechnische Prozesse, die sich dann mit menschlicher Intelligenz zu verkaufsfähigen Produkten weiterentwickeln lassen.
So aehnlich. Wir bauen damit Planungssysteme. Kannst du dir in etwa wie einen Stundenplan in der Schule vorstellen (10 Lehrer muessen auf 20 Klassen aufgeteilt werden, wobei 5 lehrer Deutsch unterrichten koennen 4 Mathe, 3 Physik 2 Chemie, 1 englisch, 2 Kunst etc.). Nur eben fuer industrielle Prozesse und ein paar viele Nummern komplexer als einen Stundenplan.
Ziel ist es hierbei allerdings nicht, dass das Ding auf total geniale Ideen kommt, sondern das Ergebnis moeglichst schnell liefert.

"Dumm" haelt man sie dabei in erster Linie der Nachvollziehbarkeit wegen. Wir koennten sie - auch wenn wir wollten - nicht super intelligent machen, um damit Menschen auszustechen, das ist heute schicht noch nicht moeglich, aber wir koennten sie schlauer machen als wir es momentan tun, nur dann waere es noch komplexer zu ueberpruefen, warum sich das Ding fuer einen Weg entschieden hat.
Ist jetzt allerdings auch alles kein fertiges Produkt, sondern soll in einigen Jahren die naechste Produktgeneration darstellen.


melden

Gott spielen - Menschheits- und Evolutionsziel

06.06.2016 um 01:27
Zitat von ivy131ivy131 schrieb am 01.05.2016:Kann ein Mensch etwas erschaffen was klüger ist als er selbst? Ist das nicht unlogisch?
Man kann eine KI Programmieren welche die Fähigkeit hat sich selbst alles beizubringen und umzuschreiben.
Gebe dem Wesen die nötigen Algorithmen, gebe ihm Zugriff auf das Internet und lass es unnötige Informationen
rausfiltern. Der Rest ergibt sich von selbst, entweder es wird ein totaler Reinfall oder ein voller Erfolg, dabei sollte man natürlich
nicht auf kleine Versuche wie Cleverbot und co. verweisen, diese sind bei weitem nicht ausgereift genug und folgen nicht dem vorhin genannten Modell.

Sollten wir nur hoffen, dass die jeweilige KI uns nicht als Gefahr ansieht und sich aus reinem Selbstschutz selbst vervielfältigt im Netz.


melden

Gott spielen - Menschheits- und Evolutionsziel

06.06.2016 um 05:46
@Noxxy
Sorry aber der Ausdruck "Man kann" ist leider irreführend, denn wir können das momentan absolut nicht.

Die Fähigkeit sich selbst beizubringen was man wissen muss ist die ultimative Form einer General Purpose AI
und eine Art heiliger Gral der AI-Forschung von dem wir heutzutage weit entfernt sind.
Diese Art AI wäre auf unserem Level, da auch wir in der Lage sind, Lösungsstrategien für ein beliebiges neu auftretendes
Problem zu suchen, wobei die AI höchstwahrscheinlich weitaus schneller wäre als wir :)

Auch "den eigenen Code modifizieren" ist ein Klassiker der Informatik, der nur bedingt umsetzbar ist.
Dazu gibt es aber schon gute Konzepte, wie Quines und evolutionäre Algorithmen.

Wären diese beiden Probleme aber gelöst, so könnte man höchstwahrscheinlich etwas kreieren, was sehr schnell "intelligenter"
wird als sein Schöpfer.
Allerdings ist trotzdem fraglich ob dies zu einer Art Evolution der AI führen würde, da diese erstmal keinen Grund hat zu lernen bzw.
Probleme zu lösen. Auch wir tun dies nicht grundlos, sondern um unseren Lebensstandard zu verbessern oder schlicht um zu überleben.
Man müsste so einer AI also auch eine Art von bedingungslosem Existenzwillen mitgeben, dass ist dann wiederum der Punkt an
dem es gefährlich werden könnte. Solange man sowas aber nicht macht, hat man lediglich einen vorzüglichen Problemlösungs -Sklaven, der sich jedem Problem annimmt, dass man ihm vorsetzt und eine passende Lösungsstrategie erarbeitet.


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

06.06.2016 um 14:05
@ArnoNyhm

"Man kann" meinte ich natürlich erstmal nur im Theoretischen Rahmen.
Tut mir leid, wenn ich mich da etwas ungenau Ausgedrückt habe :D


melden

Gott spielen - Menschheits- und Evolutionsziel

06.06.2016 um 15:44
Zitat von ArnoNyhmArnoNyhm schrieb:Man müsste so einer AI also auch eine Art von bedingungslosem Existenzwillen mitgeben
Der muss ja nicht bedingungslos sein. Ein "Antrieb" genügt ja vollauf.

Aber es ist schon richtig, dass die KI einen Grund braucht, sich zu entwickeln. Entweder einen aufgezwungenen, durch die Programmierung vorgegebenen. Oder einen indirekten, indem sie ihre "Wünsche" befriedigt.


melden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 15:07
@ArnoNyhm
@kleinundgrün

Der Knackpunkt bei solchen Überlegungen ist, wie eine AI sich "belohnen" kann. Bei uns läuft das über biochemische Prozesse im Gehirn, wenn diverse Endorphine anfluten, aber wie bringt man eine AI, die keinen Stoffwechsel aufweist, dazu, etwas zu empfinden? Ohne ein Analogon zu "zufrieden" bzw. "unzufrieden" kommt keine Motivation zur Eigeninitiative zustande - und damit kein Antrieb zur Perfektionierung, die als Analogon zu einer Evolution zu begreifen wäre.


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 15:13
Zitat von MonasterikerMonasteriker schrieb:Der Knackpunkt bei solchen Überlegungen ist, wie eine AI sich "belohnen" kann. Bei uns läuft das über biochemische Prozesse im Gehirn
dass es bei uns über ein Belohnungssystem funktioniert, ist eigentlich eher ein Umweg. Ein Trick, mit dem wir Energie für etwas "verschwenden", das uns keinen unmittelbaren Nutzen bringt. Einer KI kann man schlicht die Anweisung geben, ganz ohne einen Umweg.
In gleicher Weise könnte man ihr ein Belohnungssystem vor geben. Man definiert ihr erstrebenswerte Parameter und dann definiert man ihr Handlungen, die zu diesen Parametern führen. Das kann man ja völlig frei bestimmen.


melden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 16:10
@kleinundgrün

Dann müsste man klären, wie man "erstrebenswert" einer AI so definiert, dass sie es als "erstrebenwert" begreift und nicht als Zielvorgabe im Sinne des von @ArnoNyhm erwähnten "Problemlösungs-Sklaven", der nur extern vorgegebene Probleme löst.


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 16:16
Zitat von MonasterikerMonasteriker schrieb:Dann müsste man klären, wie man "erstrebenswert" einer AI so definiert, dass sie es als "erstrebenwert" begreift und nicht als Zielvorgabe im Sinne des von @ArnoNyhm erwähnten "Problemlösungs-Sklaven", der nur extern vorgegebene Probleme löst.
Man kann der KI Rahmenbedingungen vor geben, ohne dass sie gleich ein "Problemlösungssklave" ist. Wir unterliegen ja auch solchen Rahmenbedingungen und können unsere Entscheidungen und Handlungen nur innerhalb bestimmter Grenzen treffen.


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 16:28
@kleinundgrün

Na gut, aber diese vorgegebenen Rahmenbedingungen ziehen ja noch kein "erstrebenswert" nach sich. Dazu fehlt es der AI an "Innerlichkeit", um einen bestimmten Zielrahmen "für sich" als erstrebenswert beurteilen zu können. Es könnte bei externer Programmierung darauf hinauslaufen, dass sich eine AI aus unserer Perspektive scheinbar auf einen Zielzustand hinbewegt, indem sie vorgegebene Handlungsstränge abarbeitet bzw. den vorgegebenen Handlungsspielraum an Möglichkeiten auf eine konkrete Lösung hin durch Lernen einengt, aber im Innern nichts dabei empfindet, so dass sie gewissermaßen nichts davon hat, wenn wir als Außenstehende Beifall klatschen (um es mal etwas salopp zu formulieren).
Zitat von kleinundgrünkleinundgrün schrieb:Wir unterliegen ja auch solchen Rahmenbedingungen und können unsere Entscheidungen und Handlungen nur innerhalb bestimmter Grenzen treffen.
Ja, aber wir haben einen Stoffwechsel, der es uns erlaubt, den scheinbar unnützen Weg des subjektiven Glücksempfindens zu beschreiten, so dass wir gangbare Lösungen durch Austesten von Möglichkeiten zur Grenzüberschreitung finden können, wo eine AI möglicherweise stets bestrebt ist, den goldenen Mittelweg zu finden, weil die bequemere Lösung zumeist auch die schnellere ist.


2x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 16:38
Zitat von MonasterikerMonasteriker schrieb:Na gut, aber diese vorgegebenen Rahmenbedingungen ziehen ja noch kein "erstrebenswert" nach sich.
Aber doch. Ich gebe in der Programmierung die Bedingung vor: "Strebe den Zustand X an". Und schon habe ich einen entsprechenden Rahmen definiert, an den sich die KI halten muss.
Zitat von MonasterikerMonasteriker schrieb:aber im Innern nichts dabei empfindet, so dass sie gewissermaßen nichts davon hat
Sie muss ja auch nichts davon haben. Es genügt, wenn sie durch bestimmte "Anstrengungen" ihrem definierten Zielzustand (X) näher kommt.

Du kannst das nicht mit uns vergleichen. In unserer Entwicklungsgeschichte haben die überlebt, die "glücklich" waren, wenn sie Süßes gegessen haben. Diejenigen, die nichts dabei empfunden haben, sind halt ausgestorben.

Bei einer KI müssen wir diesen Umweg nicht gehen. Wir sind in dem Kontext Gott und definieren schlicht.


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 16:41
@kleinundgrün

So richtig überzeugt mich das noch nicht. Ich muss jetzt erst mal weg, aber würde heute Abend gern noch einmal darauf eingehen. Bis dahin ...


melden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 16:46
@Monasteriker
Gerne. Ist ein spannendes Thema.


melden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 19:13
@kleinundgrün

So, da bin ich wieder ...
Zitat von kleinundgrünkleinundgrün schrieb:Sie muss ja auch nichts davon haben.
Na ja, irgendwie muss sie das schon, denn es geht ja um die Konstruktion einer AI, die "einen Grund braucht, um sich zu entwickeln". Und ohne Entwicklungsgrund, der ja - wenn es um ein Analogon zur Evolution gehen soll - ein Open-End-Szenario eröffnet, fehlt der AI die Motivation, ihre eigene Ausstattung, also Software und Hardware, zu perfektionieren.

Problematisch scheint mir hierbei auch die Simulation eines Selektionsdruckes zu sein, der ebenfalls als Open-End-Szenario programmiert werden müsste, um ein Totlaufen in einem Idealzustand zu vermeiden. Eine AI hat ja eine andere Umwelt als ein Lebewesen, sieht sich also z.B. keinen Nahrungskonkurrenten ausgesetzt, hat kein soziales Umfeld, kennt keine kulturellen und politischen Gepflogenheiten usw. usf.

All das könnte man vielleicht irgendwie künstlich arrangieren - beispielsweise im Rahmen einer "Insel der Roboter", wo sich AI gegenseitig übervorteilen versuchen, um in einer Art "Krieg aller gegen alle" ganz in Hobbes-scher Manier die Ressourcen des Gegners für sich zu verwerten - aber auch hier sehe ich ohne subjektives Empfinden - Schmerz, Glück, Angst usw. - keine Entwicklungsperspektive, die die AI als solche weiterentwickelt.


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 19:28
Zitat von MonasterikerMonasteriker schrieb:Na gut, aber diese vorgegebenen Rahmenbedingungen ziehen ja noch kein "erstrebenswert" nach sich. Dazu fehlt es der AI an "Innerlichkeit", um einen bestimmten Zielrahmen "für sich" als erstrebenswert beurteilen zu können.
Eine KI in einer Maschine ist im Grundprinzip digital aufgebaut, deshalb können sie so viele Informationen sammeln wie sie wollen, eine Seele bekommen sie trotzdem nicht.
Der Mensch ist vom Grundprinzip her analog, obwohl wir immer mehr Cybergehirne und Cyberimplantate benutzen werden, wird dadurch unsere Seele nicht modifiziert und das, obwohl wir immer mehr digitalisiert werden - aber weil wir eine Seele haben, können wir Menschen auch sterben.


4x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 20:08
@Falkenauge
Zitat von FalkenaugeFalkenauge schrieb:Der Mensch ist vom Grundprinzip her analog ...
Das wäre, was die neuronalen Prozesse des Gehirns betrifft, zu hinterfragen, denn Neuronen funktionieren nach dem Alles-oder-nichts-Prinzip, wenn das Aktionspotential einen bestimmten Schwellenwert überschreitet. Die Verschaltung ist um ein Vielfaches komplexer als in einem Silicium-Chip, aber das grundsätzliche Funktionsprinzip ist bei Nervenzellen wie auch bei Si-Chips digital.

Was meines Wissens noch keine Entsprechung in Si-Chips gefunden hat, ist die spontane Neuverdrahtung von Neuronen durch Synapsenwachstum. Hier greifen wieder biochemische Prozesse ins Geschehen ein, die sich nicht auf digitale Funktionsweisen herunterbrechen lassen. In Bezug auf eine selbstbewusste AI wäre das ein noch zu lösendes technisches Problem, was ich aber grundsätzlich für lösbar halte, wenn geeignete Rückkopplungsmechanismen gefunden werden.

Was eine AI vom Menschen unterscheidet, ist meiner Ansicht nach die fehlende "Leiblichkeit" - also die fehlende Repräsentation des Systems, dessen die AI teilhaftig ist. Bei uns repräsentiert das Gehirn den Körper über ein Selbstbild und kann so sensorische und motorische Reize über ein simuliertes Abbild (sensorischer Homunkulus bzw. motorischer Homunkulus) passend verorten, so dass aufeinander abgestimmte Reiz-Reaktionsmuster ablaufen.

Das Gehirn selbst ist gewissermaßen als Willenszentrum verortet, findet sich aber nicht in den beiden Homunkuli als Abbild wieder, sondern stellt eine eigene - gewissermaßen überkörperliche - Entität dar, die als Steuerzentrale wahrgenommen wird, ohne sich selbst als Bild zu verkörpern. Analog stelle ich mir eine selbstbewusste AI vor. Sie müsste ein inneres Abbild von sich selbst haben, mit Hilfe dessen sie operieren kann.

Ein solches Abbild ist aber ohne jeglichen emotionalen Überbau reichlich zweckfrei, wenn es eine nahende Gefahr (z.B. im Szenario einer Hobbes-Insel - wie vorhin entworfen - ein konkurrierender Roboter, der es auf Ersatzteile abgesehen hat) zwar registriert, aber ohne innere Anteilnahme keine Gefahrenbewältigungsstrategie entwirft, die u.a. Flucht oder Abwehr oder Hilfestellung durch Verbündete zur Folge hätte. Man kann zwar gewisse Handlungsstrategien vorab programmieren, aber Entscheidungsfindungen müssten spontan erfolgen.

Hier sehe ich auch einen Knackpunkt, da erfolgreiche Handlungsabläufe nur je nach Situation erfolgreich sind. In einer anderen Situation wäre der gleiche Handlungsablauf möglicherweise fatal - nur wie lernt man das ohne Emotionen?


1x zitiertmelden

Gott spielen - Menschheits- und Evolutionsziel

07.06.2016 um 21:54
@Monasteriker
@kleinundgrün

Ich schließe mich da @kleinundgrün an, man müsste keineswegs die Umwege der Evolution gehen.
Ich kann nicht nachvollziehen, warum du einer AI unbedingt Emotionen geben willst, diese sind
wie @kleinundgrün schon geschrieben hat nur Umwege die sich durch den Prozess der Evolution ergeben
haben, weil sie sich als nützlich erwiesen haben.

Die Evolution wiederum ist ein geistloser, zielloser Prozess. Wir als Schöpfer einer AI, könnten dieser unsere
Intension einfach mitgeben und müssen keine Umwege gehen. Ich habe es einige Posts zuvor schon geschrieben,
es würde völlig Ausreichen der AI eine Aufgabe zu geben die nie wirklich zu erfüllen ist, wie die Verbreitung über das ganze
Universum (was natürlich das Überleben mit einschließt).
Um diese Aufgabe zu erfüllen muss sich die AI konstant modifizieren, sowohl ihre Hardware, als auch ihre Software.

Ich finde auch die Frage interessant ob die AI früher oder später ein Selbstbewusstsein entwickelt, schließlich müsste sie
ab einem Gewissen Punkt in ihrer Entwicklung, dieses Erkenntnis erlangen, um "besser" werden zu können. So zumindest
auch die Theorie warum Homo Sapiens ein Selbstbewusstsein hat, im Gegensatz zu anderen Tieren (Dabei ist Selbstbewusstsein
wörtlich gemeint).

@Falkenauge
Und du kannst analog sein wie du willst, es gibt keinen empirischen Beweis für sowas wie eine Seele, daher bleibt diese nur
eine religiöse Fantasie.
Davon ausgehend dass Planck-Länge und Planck-Zeit wirklich existieren, sind wir in gewisser Weise auch digital.


3x zitiertmelden