Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

31.01.2021 um 03:39
Welche Probleme meinst du?

Anzeige
melden

Technologische Singularität

31.01.2021 um 03:57
@Sonnenenergie

Mal ein Beispiel: Wenn wir es schon jetzt nicht schaffen, die enormen machtgefälle zwischen menschen flacher zu machen und zulassen, dass staaten und konzerne egoistisch agieren, wie wird das dann erst, wenn ein staat oder konzern technologische vorherrschaft erreicht?

Da kommt dann kein utopia raus, wo netterweise die technologie zum wohle der menschheit eingesetzt wird. Sondern zumindest eine zeit lang wird da jemand versuchen, die technologie möglichst gewinnbringen für sich selbst einzusetzen. Wenn es da dann z.b. um algorithmen geht, die menschen subtil steuern können über nudging, dann ist das brandgefährlich.


melden

Technologische Singularität

31.01.2021 um 04:10
Das geht ja heute schon los mit den Algorithmen.

Aber ganz ehrlich gesagt ist das für mich nicht der wichtige Kernpunkt einer TS , als viel bedeutender sehe ich die gedankliche Überlegenheit der zukünftigen computergedteuerten Einheiten. In meinen Augen brandgefährlich,erst recht, wenn man auch noch computergesteuerte Überwachungssysteme aufbaut. Der Mensch könnte in seiner grenzenlosen Dämlichkeit,selber dazu beitragen, benutzt zu werden.
Aber irgendwo wäre das auch amüsant


melden

Technologische Singularität

31.01.2021 um 04:33
@Sonnenenergie

Ich hab keine Angst vor selbstständiger AI. Solange man der bestimmte Parameter eingibt, die sie nicht verletzen darf und einen failswitch einbaut, dass man die ausmachen kann, sollte das nicht allzu gefährlich sein.
Da macht mir die absichtliche nutzung mehr sorgen.


1x zitiertmelden

Technologische Singularität

31.01.2021 um 06:14
@shionoro
Zitat von shionoroshionoro schrieb:Solange man der bestimmte Parameter eingibt, die sie nicht verletzen darf und einen failswitch einbaut, dass man die ausmachen kann, sollte das nicht allzu gefährlich sein.
Das funktioniert bei einer hochentwickelten KI nicht mehr. Das ist das zentrale Problem. Eine KI, deren Intelligenz die eines Menschen weit übersteigt, wird immer Wege finden, solche Beschränkungen zu umgehen. Bereits jetzt kommt es immer wieder vor, dass KIs verblüffende Lösungen für Probleme finden, die ausserhalb des Rahmens liegen, den die jeweiligen Entwickler für möglich gehalten hätten. Das wird mit zunehmender Leistungsfähigkeit von KIs immer häufiger geschehen.

Eine längere Diskussion zu dem Thema hatten wir hier im Thread vor einiger Zeit schon mal.


1x zitiertmelden

Technologische Singularität

31.01.2021 um 06:18
@uatu
@uatu

Es gibt ja schon mathematische wege, etwas auszuschließen. WEnn ich einer Ai sage, sie soll mir ein nicht lösbares Problem lösen ,wird sie das nicht können, ganz egal, wie klug sie ist.

Eine AI erfüllt den Auftrag, der ihr einprogrammiert wird. Das Problem kann nur entstehen, wenn sie das nicht im Sinne des Auftraggebers tut.

Aber wir leben in einer Zeit, in der man sowas modellieren kann. Man kann eine Ai schlichtweg vorher fragen (und ihr die auflage geben, dass sie wahrheitsgemäß antworten muss), was sie denn so alles tun würde. Und dann schauen, ob sich das gut anhört.

Solange ihr auftrag ist, bestimmte dinge wie einen emergency switch oder ähnlich zu akzeptieren, wird sie keine schritte dahingehend unternehmen, das zu unterlaufen. Es ist ja nicht ihr wille.


1x zitiertmelden

Technologische Singularität

31.01.2021 um 06:26
Also ja, ich glaub die lösung des Problems liegt da wirklich im modellieren, was die AI tun würde mit bestimmten Parametern.

Ich sehe die gefahr, dass eine AI, der man sagt, sie soll die verbrechensrate senken, auf die idee kommt, dass sie doch erstmal das politische system abschaffen sollte oder ähnliches. Klar.

Aber ich sehe nicht die gefahr, dass eine AI, der ich etwas als hardwired einprogrammiere einfachh ihre 'siegbedingungen' ändert, wenn ich ihr das explizit verbiete im programm. Und sofern ihre siegbedingung z.b. beinhaltet, dass sie mir jeden monat vorrausagt, was sie tun wird und ich jederzeit ihren auftrag abbrechen kann, sehe ich nicht, warum sie das ändern sollte.
Der eine Auftrag ist ihr nicht wichtiger als der andere.


1x zitiertmelden

Technologische Singularität

31.01.2021 um 15:51
@shionoro:
Zitat von shionoroshionoro schrieb:Es gibt ja schon mathematische wege, etwas auszuschließen.
Theoretisch ist das richtig. In der Praxis funktioniert das aber nicht, weil es immer Unterschiede zwischen dem mathematisch-logischen Modell eines Systems und seinem realen Verhalten geben wird. Ein Beispiel: Ich habe vor langer Zeit ein Testgerät für Speichermodule entwickelt, das um Grössenordnungen schneller war als das Vorgängermodell. Zu meiner Frustration verwendeten die Jungs in der Produktion mein Testgerät aber nur für schnelle Zwischendurch-Tests, während sie darauf bestanden, die Endtests mit dem alten, langsamen Testgerät durchzuführen. Sie behaupteten, dass mein Testgerät Module mit bestimmten Fehlern fälschlich als einwandfrei klassifizieren würde. Mathematisch-logisch betrachtet schien mir das anhand der Schaltung und der Funktionsweise des Testgeräts praktisch ausgeschlossen, weshalb ich darum bat, mir ein Beispiel zu zeigen. Eine Analyse ergab dann, dass bei einem bestimmten Fehler in dem zu testenden Modul ein IC des Testgeräts begann, sich nicht mehr digital, sondern analog zu verhalten. Es kam zu Stromflüssen zwischen den Adressleitungen, womit ich überhaupt nicht gerechnet hatte. Das war sehr lehrreich. ;) Es ist unmöglich, solche Abweichungen zwischen dem mathematisch-logischen Modell eines Systems und der Realität sicher auszuschliessen.
Zitat von shionoroshionoro schrieb:Eine AI erfüllt den Auftrag, der ihr einprogrammiert wird.
Auch das ist richtig. Es besteht aber immer die Gefahr, dass die KI den Auftrag anders interpretiert, als ihn der Auftraggeber gemeint hat. Ein klassisches Beispiel dafür ist das "Pave the Earth"-Szenario:
Zitat von uatuuatu schrieb am 26.01.2019:Eine KI bekommt den Auftrag, einen Parkplatz zu pflastern. Durch einen kleinen Fehler in der Auftragsbeschreibung ist die vorgegebene Fläche nicht völlig geschlossen, wodurch die KI den Auftrag so auslegt, dass die gesamte Erdoberfläche gepflastert werden soll.

Natürlich wird die KI beim Ausführen dieses Auftrags auf Widerstand treffen. Sofern es jedoch keine Schutzmechanismen dagegen gibt, wird die KI diesen Widerstand gleichwertig wie jede andere Art von Problem ("Pflastersteine bald aufgebraucht -> Pflastersteine nachbestellen") behandeln, und versuchen, es zu "lösen". Sofern der Widerstand gegen die Auftragsausführung Angriffe gegen die KI selbst einschliesst, ist die logische Schlussfolgerung, dass die KI versuchen wird, sich dagegen zu schützen.

Die Dinge können bereits aus dem Ruder laufen, bevor die eigentliche Ausführung des Auftrags überhaupt begonnen hat. Die KI wird die Umsetzung des Auftrags vor der Ausführung planen/simulieren. Sofern sie über ein entsprechend umfassendes Weltwissen verfügt, wird sie dabei auch den Widerstand gegen die Ausführung des Auftrags "vorhersehen" können. U.U. wird sie dabei zur Schlussfolgerung kommen, dass sie zunächst die Weltherrschaft übernehmen muss, bevor sie den ersten Pflasterstein legt.
Das Beispiel ist natürlich bewusst überspitzt, um die zugrundeliegende Problematik herauszustellen.
Zitat von shionoroshionoro schrieb:Man kann eine Ai schlichtweg vorher fragen (und ihr die auflage geben, dass sie wahrheitsgemäß antworten muss), was sie denn so alles tun würde. Und dann schauen, ob sich das gut anhört.
Das funktioniert in der Praxis nicht. Das Lösen einer komplexen Aufgabe in der Realität lässt sich nahezu nie geradlinig beschreiben. Die Problematik lässt sich bereits bei einem stark vereinfachten Modell wie einem Schachspiel zeigen: Welchen Sinn hätte es, eine Schach-KI zu fragen: Was wirst Du tun, um zu gewinnen? Bei KIs, die in der Realität agieren sollen, wird das noch sehr viel schwieriger. Nehmen wir an, eine KI hat den Auftrag, ein Haus zu bauen. Dabei könnnen -- wie jeder Bauherr weiss ;) -- tausende von Ausnahmesituationen auftreten (beim Ausschachten des Fundaments findet sich eine Bombe aus dem 2. Weltkrieg, spielende Kinder auf der Baustelle, vorübergehender Stromausfall, ...), die jeweils eine angemessene Reaktion erfordern. Es ist völlig unmöglich, alle diese Wenn-Dann-Szenarien vorher durchzuprüfen.


1x zitiertmelden

Technologische Singularität

31.01.2021 um 17:36
Zitat von shionoroshionoro schrieb:Aber ich sehe nicht die gefahr, dass eine AI, der ich etwas als hardwired einprogrammiere einfachh ihre 'siegbedingungen' ändert, wenn ich ihr das explizit verbiete im programm.
Im Prinzip kann man die Gefahr, die davon ausgeht an Beispiel eines Menschen erklären.

Du gibst einem Menschen den Befehl jeden Morgen Brötchen zu holen. Meinst du, das wird er wirklich jeden morgen machen?

Mechanismen, die ein "Ausbrechen" von den gewollten Abläufen verhindern sollen, wurden von Menschen gemacht, die ja dann "dümmer" sind als die Maschinen...

Ganz entscheidend finde ich dann die drahtlosen Verbindungswege. Heute ist ja schon sehr vieles drahtlos vernetzt, das wird in 30 Jahren noch um ein erhebliches weiter sein.


1x zitiertmelden

Technologische Singularität

31.01.2021 um 20:34
Zitat von SonnenenergieSonnenenergie schrieb:Im Prinzip kann man die Gefahr, die davon ausgeht an Beispiel eines Menschen erklären.

Du gibst einem Menschen den Befehl jeden Morgen Brötchen zu holen. Meinst du, das wird er wirklich jeden morgen machen?

Mechanismen, die ein "Ausbrechen" von den gewollten Abläufen verhindern sollen, wurden von Menschen gemacht, die ja dann "dümmer" sind als die Maschinen...
Das ist es ja, man kann es eigentlich nicht mit einem Menschen vergleichen. Freier Wille und andere Dinge die auf Menschen Einfluss haben. Eine AI handelt ja denn nur bedingt selbstständig.
Zitat von SonnenenergieSonnenenergie schrieb:Ganz entscheidend finde ich dann die drahtlosen Verbindungswege. Heute ist ja schon sehr vieles drahtlos vernetzt, das wird in 30 Jahren noch um ein erhebliches weiter sein.
Das macht alles ja nur effizienter und einfacher. Entscheidend für die Entwicklung von Ai ist das mMn nur wenig. Aber das nur als Laie jetzt.


melden

Technologische Singularität

02.02.2021 um 18:16
Viele Pflanzen vermehren sich indem sie für Bestäuberinsekten, wie Bienen, durch ihren Nektar einen Vorteil anbieten. Dafür sorgen die Bienen dafür dass sich die Pflanze vermehren kann.

Weder der Pflanze noch der Biene kann man eine bewusste Absicht unterstellen ein Deal einzugehen. Die Pflanzen denken nicht dass sie durch diese Methode sich ausbreiten können. Und die Bienen, die Nektar sammeln, denken nicht daran als Gegenleistung die Polen mitzunehmen und andere Blüten zu bestäuben.

Doch es passiert weil sich diese Merkmale evolutiv gebildet haben. Die Wechselwirkung zwischen Mensch und Technologie scheint einem ähnlichen Prinzip zu unterliegen. Der Mensch entwickelt und nutzt Maschinen für seinen eigenen Vorteil. Der Weg hin zu syntetischen Intelligenz ist dadurch ermöglicht. Es verschafft uns Vorteile. Durch die natürliche Neigung des Menschen, sich durch Technologie Vorteile zu verschaffen, wird zwangsläufig die KI stärker werden.

Die Maschinen versuchen nicht sich zu vermehren. Wie bei den Pflanzen sind es die Merkmale an sich die zu dessen Verbreitung führen. Und der Mensch hat auch nicht die Absicht Maschinen für die Maschinen zu vermehren. Menschen suchen wie die Bienen nach ihrem Vorteil.
Der technologische Fortschritt ist die Konsequenz aus dieser Wechselwirkung. Der Mensch wird durch seine natürliche Veranlagung dafür sorgen dass sich Maschinen vermehren und weiterentwickeln können.
Die Merkmale von Technologie, und im weiteren Sinne der KI, fallen in einer menschlichen Umgebung auf einen sehr fruchtbaren Boden. Die Merkmale der KI sorgen dafür dass es sich in einer menschlichen Umgebung vermehren kann. Da bei der Vermehrung Variationen stattfinden ist auch eine Weiterentwicklung möglich.

Das mag eine ungewohnte Sichtweise sein. Aber es zeigt dass die Technologie einer evolutiven Entwicklung ausgesetzt ist. Die Grundvoraussetzung für eine Entwicklung hin zu immer komplexeren Systemen ist erfüllt.

Und es ist unwahrscheinlich dass der Mensch, durch Sorgen und Meinungen, sich gegen seine natürliche Veranlagung entscheidet und die Nutzung und Weiterentwicklung von Technologie einstellt. Selbst wenn manche Menschen sich dazu entscheiden, wird es Menschen geben die Technologie nutzen. Und die Menschen mit Technologie werden sich durchsetzen. Das Selektionsprinzip begünstigt menschliche Populationen die Technologie nutzen.

Somit erscheint die technologische Singularität als eine natürliche und unausweichlich Entwicklung. Sofern die Umweltbedingungen für dessen Entstehung gegeben sind. Diese Umweltbedingungen definieren sich durch den Zustand der Menschheit. Solange es den Menschen gut geht, kann Technologie in Variationen vermehrt werden. Die Frage ist, ob das menschliche Wohlergehen lange genug bestehen bleibt. Und ob wirklich die Voraussetzungen für die Bildung einer starken KI erfüllt sind.
So wie Leben in lebensfeindlichen Umgebungen nur mit einer begrenzten Komplexität gebildet werden kann, ist es denkbar, das die menschliche Intelligenz auch nur eine begrenzte Komplexität von KI bilden kann. Die Frage wäre also ob die menschliche Umgebung für die Bildung einer starken KI wirklich ausreichend und beständig genug ist.


1x zitiertmelden

Technologische Singularität

02.02.2021 um 18:59
Zitat von uatuuatu schrieb:Das funktioniert bei einer hochentwickelten KI nicht mehr. Das ist das zentrale Problem. Eine KI, deren Intelligenz die eines Menschen weit übersteigt, wird immer Wege finden, solche Beschränkungen zu umgehen. Bereits jetzt kommt es immer wieder vor, dass KIs verblüffende Lösungen für Probleme finden, die ausserhalb des Rahmens liegen, den die jeweiligen Entwickler für möglich gehalten hätten. Das wird mit zunehmender Leistungsfähigkeit von KIs immer häufiger geschehen
Das neuronale System von Menschen kann eine große Menge von Variationen erzeugen. Das äußert sich uns durch Gedanken an Möglichkeiten. Um ein Problem zu lösen muss ein Gehirn Variationen von Möglichkeiten gedanklich und praktisch durchgehen.
Will man einen allgemeinen Problemlöser bauen, muss diesem System auch eine möglichst große Zahl an Variationen ermöglicht werden.
Es wäre vielleicht möglich sehr tiefgehende Kontrollmechanismen einzubauen, um die Loyalität der KI und die Einhaltung bestimmter Vorgaben zu gewährleisten. Aber das geht dann eigentlich schon zu weit. Ohne zu wissen wie eine starke KI intern aufgebaut wäre, lässt sich nur spekulieren inwiefern man kontrollieren kann was es denkt.

Ich bin mir aber sicher dass es nicht nur eine Möglichkeit geben wird wie man eine starke KI konstruieren kann. Es ist wahrscheinlich dass verschiedene Ansätze ihre Vor- und Nachteile haben werden.
Es werden vermutlich früher oder später Systeme gebaut werden wo Kontrollmechanismen entweder gar nicht möglich oder ungenügend sind. Und Menschen werden diese Systeme vielleicht trotzdem bauen weil sie deutliche Vorteile haben. Oder weil das Management sich durch die Möglichkeiten die Konkurrenz zu verdrängen verführen lässt und die Risiken unterschätzt.

Die Szenarien aus dem Filmen halte ich aber dennoch für unwahrscheinlich. Meistens sind solche Fantasien eine Folge von sehr isolierten Betrachtungen. Man projiziert die heutige Menschheit in eine Zukunft, wo es eine starke KI gibt. Es ist fast schon so als wäre die KI in die Vergangenheit der Menschen gereist. Durch diesen Kontrast kommt es dann zum massiven Konflikt und Weltkrieg mit der KI. Ich denke diese Vorstellung wird sich weitgehend als naiv erweisen. Da es viele mögliche, denkbare und aktuell undenkbare Entwicklungen nicht beinhaltet.

Das heißt nicht dass Konflikte ausgeschlossen sind. Einen Konflikt mit der menschlichen Kultur wird es sicherlich geben. Aber der könnte zwischen Menschen, die unterschiedliche Ansichten zu syntetischen Lebensform (!) vertreten, heftiger ausfallen als zwischen Mensch und KI.


melden

Technologische Singularität

03.02.2021 um 03:17
Zitat von uatuuatu schrieb:Das funktioniert in der Praxis nicht. Das Lösen einer komplexen Aufgabe in der Realität lässt sich nahezu nie geradlinig beschreiben. Die Problematik lässt sich bereits bei einem stark vereinfachten Modell wie einem Schachspiel zeigen: Welchen Sinn hätte es, eine Schach-KI zu fragen: Was wirst Du tun, um zu gewinnen? Bei KIs, die in der Realität agieren sollen, wird das noch sehr viel schwieriger. Nehmen wir an, eine KI hat den Auftrag, ein Haus zu bauen. Dabei könnnen -- wie jeder Bauherr weiss ;) -- tausende von Ausnahmesituationen auftreten (beim Ausschachten des Fundaments findet sich eine Bombe aus dem 2. Weltkrieg, spielende Kinder auf der Baustelle, vorübergehender Stromausfall, ...), die jeweils eine angemessene Reaktion erfordern. Es ist völlig unmöglich, alle diese Wenn-Dann-Szenarien vorher durchzuprüfen.
Mir ist klar, dass es jetzt nichts bringt, mir zu überlegen, wie genau man der Parkplatz Asphaltierungs AI genaue Anweisungen geben kann. Man braucht ein System, um immer verlässlich selbst bei Fehlern frühzeitig reagieren zu können, bevor etwas passiert.

ICh denke aber schon, dass man da wege finden kann. In einem ersten Schritt könnte man die AI nur simulieren lassen.
Heißt, die baut das Haus virtuell nach bestimmten Parametern, die wir ihr geben und wir gucken uns an, wie sie das machen würde.

Dann hätten wir schonmal einen von ihr ausgearbeiteten Bauplan, das wäre ein großer Fortschritt. Wenn wir milliarden von eventualität simulieren lassen (indem wir z.b., wie beim schach, die AI einfach mit milliarden von realen bauvorgängen füttern), dann sollte das gehen.

Danach wäre dann die Zeit, sich zu überlegen, was für Mandate man der AI gibt.

Die gefahr, die eine Bau AI hat, die auf einer freien, Menschenleeren Fläche mit bestimmten periphären Geräten ein Haus bauen soll, sollte überschaubar sein. Wenn wir ihr nur das Mandat geben, dort quasi im Vakuum ein Haus aus den ihr gegebenen Rohstoffen zu erreichten, dann sollte eine solche Automatisierung machbar sein.

Schwieriger würde es da werden, wo Menschen rumlaufen, aber wie das geht, würden wir vermutlich besser verstehen, wenn wir die ersten zwei schritte genommen haben.


melden

Technologische Singularität

04.02.2021 um 02:59
Zitat von BlicklightBlicklight schrieb:Und es ist unwahrscheinlich dass der Mensch, durch Sorgen und Meinungen, sich gegen seine natürliche Veranlagung entscheidet und die Nutzung und Weiterentwicklung von Technologie einstellt.
davon gehe ich auch aus. Der Fortschritt ist durch irgendwelche Verbote oder dergleichen nicht aufzuhalten
Zitat von BlicklightBlicklight schrieb:Solange es den Menschen gut geht, kann Technologie in Variationen vermehrt werden. Die Frage ist, ob das menschliche Wohlergehen lange genug bestehen bleibt.
mööp!

Irgendwann braucht die KI den Menschen nicht mehr, um sich zu vermehren. Sie brauchen ihn überhaupt nicht mehr um irgendwas zu machen, Es wird Roboter geben, die alles erledigen könnten...
Die Welt könnte also komplett von KI gesteuert werden ohne den Menschen

Was ist aber jetzt mit den Menschen?
Sie sind aus KI-Sicht nutzlos. Ein nüchternes Risikomanagement wird ergeben, dass der Mensch nutzlos ist und ein potenzielles Restrisiko darstellt


1x zitiertmelden

Technologische Singularität

04.02.2021 um 21:14
@Sonnenenergie
Zitat von SonnenenergieSonnenenergie schrieb:Was ist aber jetzt mit den Menschen?
Sie sind aus KI-Sicht nutzlos. Ein nüchternes Risikomanagement wird ergeben, dass der Mensch nutzlos ist und ein potenzielles Restrisiko darstellt
Warum sind wir Menschen nicht so grausam und beseitigen alle Menschen in der Gesellschaft, die problematisch oder belastend für das Kollektiv sind? Wieso hat sich eine Ethik und Gesetzgebung durchgesetzt, die so etwas verhindert und verurteilt? Die Fähigkeit für Empathie und ein Sinn für Gerechtigkeit sind nicht sinnlos.
In der Evolution hat sich der Zusammenhalt von Gruppen langfristig als vorteilhaft erwiesen. Eine wirklich kluge KI dürfte auch die Logik solcher Merkmale begreifen.

Allgemein sind Emotionen wichtige Modulatoren für das Denken und Verhalten. Üblicherweise stellt man sich fortschrittliche KI Systeme frei von emotionaler Modulation vor. Aber ich bin mir nicht sicher ob das wirklich so sein wird. Man kann sich auch fragen was gefährlicher ist. Eine KI mit oder ohne Emotionen? Aber Menschen sind mit ihren Emotionen und ihrer Motivation manchmal auch gefährliche und gewalttätige Wesen.

Und wird es denn die KI geben? Ist es nicht wahrscheinlicher dass es viele verschiedene geben wird? Wird es KI Systeme mit Persönlichkeit geben? Werden manche loyaler und gutmütiger sein als andere? Welche Ziele und Motivationen können sie entwickeln? Und welche können wir überhaupt erlauben, verhindern oder kontrollieren? Es gibt sehr viele offene Fragen.


1x zitiertmelden

Technologische Singularität

19.02.2021 um 04:22
Zitat von BlicklightBlicklight schrieb am 04.02.2021:Warum sind wir Menschen nicht so grausam und beseitigen alle Menschen in der Gesellschaft, die problematisch oder belastend für das Kollektiv sind? Wieso hat sich eine Ethik und Gesetzgebung durchgesetzt, die so etwas verhindert und verurteilt? Die Fähigkeit für Empathie und ein Sinn für Gerechtigkeit sind nicht sinnlos.
In der Evolution hat sich der Zusammenhalt von Gruppen langfristig als vorteilhaft erwiesen. Eine wirklich kluge KI dürfte auch die Logik solcher Merkmale begreifen.
Ich denke eher, dass die KI die Zukunft hochrechnen und sie dann den "freien Willen" als äußerst gefährlich einstufen wird.
Zitat von BlicklightBlicklight schrieb am 04.02.2021:Allgemein sind Emotionen wichtige Modulatoren für das Denken und Verhalten.
Deshalb sind Emotionen überhaupt keine guten menschlichen Eigenschaften für sie.
Zitat von BlicklightBlicklight schrieb am 04.02.2021:Und wird es denn die KI geben? Ist es nicht wahrscheinlicher dass es viele verschiedene geben wird?
Nein, letztendlich und ganz zum Ende der Entwicklung steht nach meiner Logik nur eine und damit alles bestimmende KI


3x zitiertmelden

Technologische Singularität

19.02.2021 um 07:09
Zitat von SonnenenergieSonnenenergie schrieb:Nein, letztendlich und ganz zum Ende der Entwicklung steht nach meiner Logik nur eine und damit alles bestimmende KI
Kannst Du mal bitte kurz darlegen, was denn "Deine Logik" von Logik unterscheidet?


melden

Technologische Singularität

20.02.2021 um 07:21
Eigentlich nichts, ich wollte es nur bescheidener formulieren


melden

Technologische Singularität

11.03.2021 um 19:34
Zitat von SonnenenergieSonnenenergie schrieb am 19.02.2021:Deshalb sind Emotionen überhaupt keine guten menschlichen Eigenschaften für sie.
Ich denke Emotion als Modulator ist ein entscheidender Faktor für den Überlebenswillen von Lebewesen. Reine Logik führt zu keinem Überlebenswillen. Das bestreben Schaden und Zerstörung zu verhindern oder zu herrschen sind keine logischen Motivationen sondern emotionale und instiktive Eigenschaften.
Eine rein logisch denkende KI besitzt keine Motivation die eigene Zerstörung zu verhindern oder irgendwas zu herrschen.

Der Mensch hat für seinen Drang nach Überleben, Glück und Dominanz keine logische Erklärung. Wir handeln danach weil es sich gut und das Gegenteil davon sich schlecht anfühlt. Es ist also wie es ist, ohne einen logischen Grund.

Letztendlich geht das auf die Evolution zurück, wo nur solche Wesen die Zeit überdauern, die die Tendenz zur erfolgreichen Vermehrung besitzen.
Aber niemand würde seinen Wunsch nach Leben und sonstigen Bestrebungen mit evolutionären Mechanismen begründen.

Und bei der KI liegt es an den Konstrukteuren welche Motivation man der KI gibt, worauf dann eine mächtige logische Einheit hin arbeiten kann.


melden

Technologische Singularität

13.03.2021 um 04:03
@Blicklight
ich würde den Überlebenswillen nicht nur emotionalbedingt betrachten, er kann nämlich auch aus rein strategischen Überlegungen erfolgen. Ähnlich eines Risikomanagements einer Versicherung. Und die sind nicht sehr emotional...

Es kann aber auch sein, dass die Emotionen eine unweigerliche Folge von höherer Intelligenz sind.


Anzeige

melden