Clash
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

101 Beiträge ▪ Schlüsselwörter: Coa 2017, Interpreter, Achtelfinale ▪ Abonnieren: Feed E-Mail

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 09:01
@Balthasar70

Es ist möglich, dass sich eine hochentwickelte Intelligenz zur Kooperation entscheidet, mit dem Menschen oder jedem beliebigen anderen Wesen.
Du stellst das ja ebenso als MÖGLICHKEIT hin.
Was ist, wenn es nicht so ist.

Ich habe auch nicht die Wahrscheinlichkeit ausgerechnet. Meine Erwartungswert-Argumentation ging davon aus, dass es zu gefährlich ist, selbst wenn die Wahrscheinlichkeit (mit 1%) sehr gering ist, dass ein globales Auslöschungsereigniss eintritt. Natürlich kann ich für das spekulative Ereignis keine echte Wahrscheinlichkeit angeben, aber meine (konservative) Rechnung war 10% Wahrscheinlichkeit das es KI geben wir und 10% dass die Ziele schädlich sind und zu einem solchen Ereignis führen.

0,1*0,1 = 0,01

Ich bin eigentlich davon überzeugt das die Wahrscheinlichkeit höher ist. Nicht, dass eine KI sich bewusst dazu entscheidet Menschen auszulöschen, sondern dass ihre Ziele so fremdartig sind und so weit abweichen von unseren, dass unsere Auslöschung eine Konsequenz deren Umsetzung ist.

Dein Gleichnis ist aus meiner Sicht in seiner Wahrscheinlichkeit etwas zu tief gegriffen. Denn beispielsweise verorten ja alle Experten die Wahrscheinlichkeit das es KI geben wird weit höher.

Und dann wäre es für uns potenziell sehr gefährlich.
Zitat von Balthasar70Balthasar70 schrieb:Mal davon abgesehen, was ist von einer "Intelligenz" zu halten, die Beschließt sich selber zu zerstören, weil sie das Universum mit Büroklammern Fluten möchte?😊
Das gleiche wie von einer biologischen Intelligenz, die sich umbringt um ins Paradies zu den Jungfrauen zu kommen :)

Ich will nicht sagen, dass das Büroklammer-Szenario besonders realistisch ist. Daher habe ich es auch nicht intensiver thematisiert. Es ist einfach zu weit entfernt. Mein X3-Szenario hat mir gefallen, weil ich Geschichten spannend finde in denen gute Intentionen scheitern.

Realistisch finde ich das Szenario, dass eine KI völlig fremdartige Ziele hat oder uns Menschen für zu bedrohlich/gefährlich hält.

Anzeige
melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 09:17
@interpreter
Deine Erwartungswertargumentation ist ja nichts anderes als Wahrscheinlichkeitsrechnung und der Wert von 1% gigantisch wenn man in Betracht zieht was wir wirklich über Intelligenz wissen.

Der Denkfehler den Du m.E. machst ist der, dass Du bei der Berechnung Deines Erwartungswertes davon ausgehst an jeder Stelle der Multiplikationskette müsse ein Wert größer Null stehen.
Damit bekommst natürlich auch immer einen Erwartungswert grösser als null, wie wahrscheinlich ist es aber dass genau das Eintritt?

Mal mit folgende Formel erklärt

WH= W1*W2*W*3.........Wn

WH= Wahrscheinlichkeit Horrorszenario
W= Einzelwahrscheinlichkeiten für Ereignisse die zu WH führen

Wenn nur eine der Einzelwahrscheinlichkeiten gleich null ist tritt das Szenario nicht ein. 

Nun wissen wir über sehr wenig über die Einzelereignisse die zu Intelligenz führen und noch weniger über deren Wahrscheinlichkeiten, eigentlich wissen wir nur, dass es einmal irgendwie geklappt hat.

Einmal in 3 Millarden Jahren bei einer von Millarden von Spezies......

Daraus in der Berechnung einen Erwartungswert von  1% für den Eintritt des Horrorszenarios abzuleiten, halte ich für verwegen.


3x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 09:34
@Balthasar70

Die Argumentationskette ist da etwas komplexer und ich halte die 1% für nicht zu tief gegriffen, eher im Gegenteil.

Nehmen wir an, Ki exisitiert irgendwann wirklich, (Wahrscheinlichkeit laut Fachleuten sehr hoch)

haben wir eine Intelligenz auf menschlichem Niveau oder darüber (KI halt) die keinerlei Hormone, Spiegelneuronen oder ähnliches aufweist, dass Menschen dazu bringt, positiv aufeinander zu reagieren.

Die Wahrscheinlichkeit ist also gering, dass die Zielfindung und Zielsetzung dieser KI irgendwas mit menschlichen Ansprüchen oder Perspektiven zu tun hat.
Wir nehmen oft an, dass hohe Intelligenz zu Kooperation führt, weil wir viele menschliche Beispiele kennen. Aus meiner Sicht ist das aber stark in den menschlichen Eigenschaften verwurzelt.

Stell dir vor, dass die KI selber eine Art Wahrscheinlichkeitsrechnung ausführt, die besagt, dass sie ihre Ziele schneller, sicherer, einfacher erreichen kann, wenn sie die Menschen aus dem Weg räumt, gibt es nicht notwendigerweise ein Gewissen oder eine Sicherung die sie davon abhalten würde.

Und ja, es stimmt, dass eine Kette von Wahrscheinlichkeiten in der ein Wahrscheinlichkeit 0 ist auch insgesamt 0 ist. Das ist aber hier nicht der Fall.
Zitat von Balthasar70Balthasar70 schrieb:Deine Erwartungswertargumentation ist ja nichts anderes als Wahrscheinlichkeitsrechnung und der Wert von 1% gigantisch wenn man in Betracht zieht was wir wirklich über Intelligenz wissen.
All unser Wissen über Intelligenz bezieht sich auf menschliche Intelligenz. Wir haben bisher keine Möglichkeit gehabt, dieses Wissen zu abstrahieren. Ich sehe auch nichts in unserem Wissen über Intelligenz, was einem solchen Szenario widersprechen würde oder es besonders unwahrscheinlich machen würde. Worauf beziehst du dich da?


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 09:47
@interpreter
Frag mal auf einem Homöpathiekongress 200 Fachleute wann sie glauben, dass die Wirksamkeit von Homöopathie nachgewiesen wird, Du wirst ähnliche Were bekommen wie in der im Clash zitierten Umfrage.

Wenn ich mich an die Zukunfts-Prognosen erinnere die in meiner Jugend von Experten gemacht wurden wären wir heute entweder schon alle tot (Club of Rome, Global 2000) oder würden den Mars besiedeln (Euphorie nach Mondlandung)

Soweit ich weiß kann KI allerdings bis heute noch nicht mal den Unterschied zwischen einem Kinder- und einem Schweineschnitzel auf einer Speisekarte erkennen, so what.
Zitat von interpreterinterpreter schrieb:All unser Wissen über Intelligenz bezieht sich auf menschliche Intelligenz. Wir haben bisher keine Möglichkeit gehabt, dieses Wissen zu abstrahieren. Ich sehe auch nichts in unserem Wissen über Intelligenz, was einem solchen Szenario widersprechen würde oder es besonders unwahrscheinlich machen würde. Worauf beziehst du dich da?
Die Argumentation funktioniert so nicht, wir wissen auch noch wenig über dunkle Materie, dass das was wir über sie wissen, die Existenz von rosa Einhörnern nicht ausschließt, sagt nichts über die Wahrscheinlichkeit der Existenz von rosa Einhörnern aus.

Es geht mir darum zu zeigen, dass Du Deine Wahrscheinlich postulierst ohne überhaupt nur annähernd zu wissen, welche Dinge alle eintreten müssen damit das Ereignis überhaupt eintreten kann.


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 09:55
Zitat von Balthasar70Balthasar70 schrieb:Frag mal auf einem Homöpathiekongress 200 Fachleute wann sie glauben, dass die Wirksamkeit von Homöopathie nachgewiesen wird, Du wirst ähnliche Were bekommen wie in der im Clash zitierten Umfrage.
Das ist wohl kaum das Gleiche.
Zitat von Balthasar70Balthasar70 schrieb:Die Argumentation funktioniert so nicht, wir wissen auch noch wenig über dunkle Materie, dass das was wir über sie wissen, die Existenz von rosa Einhörnern nicht ausschließt, sagt nichts über die Wahrscheinlichkeit der Existenz von rosa Einhörnern aus.

Es geht mir darum zu zeigen, dass Du Deine Wahrscheinlich postulierst ohne überhaupt nur annähernd zu wissen, welche Dinge alle eintreten müssen damit das Ereignis überhaupt eintreten kann.
Es war ein Clash und meine Aufgabe die Gefahren aufzuzeigen :D

Und der Punkt den ich in meiner Argumentation gemacht habe ist, dass es gefährlich ist, WEIL wir zu wenig wissen. Es kann 0,01 oder 1% oder 10% oder 50% sein. Die Frage ist, ob wir das Risiko eingehen sollten.

Abgesehen davon war das auf deine Aussage bezogen.
Zitat von Balthasar70Balthasar70 schrieb:Deine Erwartungswertargumentation ist ja nichts anderes als Wahrscheinlichkeitsrechnung und der Wert von 1% gigantisch wenn man in Betracht zieht was wir wirklich über Intelligenz wissen.
Ich sagte:
Zitat von interpreterinterpreter schrieb: Ich sehe auch nichts in unserem Wissen über Intelligenz, was einem solchen Szenario widersprechen würde oder es besonders unwahrscheinlich machen würde. Worauf beziehst du dich da?
Willst du damit sagen, dass unser Wissen über Intelligenz der Theorie widerspricht, weil wir nichts über Intelligenz wissen?


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 09:57
@interpreter
Ja ok, wenn Du aus der Debatte aussteigen willst, mir ging es nur darum auf Denkfallen hinzuweisen, die es m.E. In Deiner Argumentation gibt und die im Clash nicht aufgedeckt wurden.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:01
@Balthasar70

Ich will nicht aussteigen :D

Im Grunde sprichst du ja auch einen interessanten Punkt an.

Das wir keine Ahnung darüber haben kann entweder auf eine hohe Wahrscheinlichkeit oder eine geringe Wahrscheinlichkeit hindeuten. Was es ist, wissen wir nicht.

Es wäre sehr interessant gewesen das im Clash zu debattieren aber meines Erachtens nicht notwendigerweise ein Verlierer.

Aus meiner Sicht kann man nämlich keineswegs aus unserem Nichtwissen eine geringe Wahrscheinlichkeit ableiten. Das ist zu optimistisch und es gibt gute Gründe die da gegen sprechen.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:04
Zitat von interpreterinterpreter schrieb:Aus meiner Sicht kann man nämlich keineswegs aus unserem Nichtwissen eine geringe Wahrscheinlichkeit ableiten. Das ist zu optimistisch und es gibt gute Gründe die da gegen sprechen.
😊 Desswegen mein Beispiel mit dem Genmais und den Blattläusen. Pinkeln oder nicht pinkeln, das ist hier die Frage.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:08
Zitat von interpreterinterpreter schrieb:In einer der Geschichten, die ich verlinkt habe, geht es um eine KI mit dem banalen Ziel Büroklammern zu produzieren. Möglich, dass eine KI das so auslegen würde, dass sie schlussendlich die Menschen aufgrund des Eisens in ihrem Blut erntet um... Büroklammern zu produzieren.
Warum sollte die KI weiterhin Büroklammern produzieren, wenn sie in der Lage ist, sich selbst weiterzuentwickeln? Trifft man die Annahme, dass eine KI in irgendeiner Weise ebenfalls den darwinistischen Mechanismen unterliegt und seinen eigenen Fortbestand sichert, wäre es doch sinnvoll, diese Zielsetzung anzupassen.
Zitat von interpreterinterpreter schrieb:Beispielsweise könnten die Menschen einfach zu viele Ressourcen verbrauchen, zu gefährlich oder zu schädlich für das Umfeld der KI sein, um der KI eine sichere Umsetzung anderer Ziele zu erlauben.
Das sehe ich prinzipiell auch so. Aber, auch eine KI wäre prinzipiell in der Lage Moralvorstellungen zu entwickeln. Der Mensch steigert seine individuelle Fitness auch nicht zwangsläufig auf Kosten anderer Menschen. 
Zitat von Balthasar70Balthasar70 schrieb:Der Denkfehler den Du m.E. machst ist der, dass Du bei der Berechnung Deines Erwartungswertes davon ausgehst an jeder Stelle der Multiplikationskette müsse ein Wert größer Null stehen.
Gibt es Szenarien bei denen die Wahrscheinlichkeit wirklich glatt Null ist? Ich denke es besteht für jedes beliebige Szenario eine Wahrscheinlichkeit größer Null. Gerade weil wir nicht alles über eine mögliche KI wissen können, können wir für kein Ereigniss die Wahrscheinlichkeit von null einsetzen. 
Zitat von Balthasar70Balthasar70 schrieb:Daraus in der Berechnung einen Erwartungswert von  1% für den Eintritt des Horrorszenarios abzuleiten, halte ich für verwegen.
Hier gilt im Grunde ähnliches. Die fehlenden Kenntnisse zu einer möglichen Singularität lassen im Grunde jede Wahrscheinlichkeit argumentativ zu. Der Erwartungswert ist eben nur eine Spekulation. Qualitativ wird aber deutlich, nach jetzigem Stand ist es unwahrscheinlich. Egal ob wir nun 1% oder 1*10^-23 % haben. 
Zitat von Balthasar70Balthasar70 schrieb:Soweit ich weiß kann KI allerdings bis heute noch nicht mal den Unterschied zwischen einem Kinder- und einem Schweineschnitzel auf einer Speisekarte erkennen, so what.
Da hätte ich leise Zweifel dran. Ich habe selber schon neuronale Netzwerke programmiert, die meiner Meinung nach komplexere Aufgaben lösen mussten.

Tatsächlich ein tolles Thema und ein toller Clash dazu. Schön, dass es hier mit einer FFA-Diskussion weitergeht :D


4x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:18
@Balthasar70

Wenn du den Genmais verdaut hast, sollten keine aktiven Bestandteile mehr in deinem Urin sein. Das ist ja nichmal miteinander verbunden. Daher könnte man hier tatsächlich von einer Wahrscheinlichkeit = 0 ausgehen...

Das so auf KI zu übertragen ist aber wie gesagt meines Erachtens zu optimistisch.

Und dazu noch ein weiterer Gedanke:

Wenn KI niemals die Ziele erreichen würde, warum dann in die Richtung forschen? :D

Die Debatte ging ja darum, ob man weitermachen sollte oder die Forschung wegen des Risikos einstellen.
Wenn man zu überzeugend argumentiert, dass es unwahrscheinlich ist, vergiftet man damit seine eigene Position.

@Atrox
Zitat von AtroxAtrox schrieb:Warum sollte die KI weiterhin Büroklammern produzieren, wenn sie in der Lage ist, sich selbst weiterzuentwickeln? Trifft man die Annahme, dass eine KI in irgendeiner Weise ebenfalls den darwinistischen Mechanismen unterliegt und seinen eigenen Fortbestand sichert, wäre es doch sinnvoll, diese Zielsetzung anzupassen.
Ja, deswegen auch mein Verzicht auf das Büroklammer-Szenario im Clash und stattdessen ein Szenario, in dem das Ende relativ schnell und möglicherweise vor einer dementsprechenden Anpassung der Ziele kommt.
Zitat von AtroxAtrox schrieb:Das sehe ich prinzipiell auch so. Aber, auch eine KI wäre prinzipiell in der Lage Moralvorstellungen zu entwickeln. Der Mensch steigert seine individuelle Fitness auch nicht zwangsläufig auf Kosten anderer Menschen.
Stimmt, könnte sie. Das Problem entsteht, wenn sie es nicht tut. Menschliche Moralvorstellung haben eine sinnvolle Basis in menschlichen Gefühlen und dem Umstand, das Menschen besser funktionieren, wenn sie kooperieren.

Für ein Kooperationsszenario ist aber meines Erachtens notwendig, dass kein signifikantes Gefälle zwischen der Kompetenz der einzelnen Parteien besteht.

Haben wir Moralvorstellungen gegenüber anderen Menschen? Ja.

Bei Ameisen oder Bakterien sieht die Sache oft anders aus.

Beispielsweise bei einer künstlichen Superintelligenz ist es möglich, dass sie keine Moralvorstellungen uns gegenüber entwickelt, weil sie so weit von uns entfernt ist.
Bei einer Intelligenz auf unserem Niveau, weil ihr einfach die Eigenheiten des menschlichen Körpers fehlen.

In jedem Fall kann es ein kritischer Fehler sein, sich darauf zu verlassen, dass das irgendwann passieren würde.


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:35
Zitat von interpreterinterpreter schrieb:Stimmt, könnte sie. Das Problem entsteht, wenn sie es nicht tut. Menschliche Moralvorstellung haben eine sinnvolle Basis in menschlichen Gefühlen und dem Umstand, das Menschen besser funktionieren, wenn sie kooperieren.

Für ein Kooperationsszenario ist aber meines Erachtens notwendig, dass kein signifikantes Gefälle zwischen der Kompetenz der einzelnen Parteien besteht.
Wenn du Kooperation durch Symbiose ersetzt, ist auch ein entsprechendes Gefälle kein Problem. Eine Symbiose würde auch keine Moralvorstellungen voraussetzen. Wir kommen ja auch super mit unseren Darmbakterien aus ohne eine wirkliche Moralvorstellung gegenüber diesen zu haben. Also auch, wenn ich eine Moralvorstellung der KI als möglich ansehe, ist sie auch nicht zwingend.  

In dem Punkt wird es dann eine einfache Wahrscheinlichkeitsrechnung, wie du sie ja auch aufgestellt hast:

- Hätte der Mensch einen Nutzen für eine Super KI? 
- Welche "Handgriffe" wären durch den Menschen energetisch günstiger als wenn sich die KI selber darauf einstellen muss?

Ich persönlich denke, dass die Intelligenz des Menschens in ihrer Entwicklung durchaus ein Modell für eine KI sein kann. Man kommt dann an gewisse Grenzen, die man nicht überschreiten darf, wenn man sein eigenes Fortbestehen sichern möchte. Die Gefahr, dass die KI sich selbst zerstört, ist ebenso gegeben. Neuronale Netzwerke lernen beispielsweise auch sehr stark über Try & Error. Wie du schon sagst, ist ein Error dann wirklich kritisch, könnte es zappenduster werden.  

Aber es sind eben nicht nur die emotionalen Eigenheiten des Menschens, die uns davon abhalten jeden einzelnen Wald abzuholzen oder uns jede Woche zwei Atombomben, um die Ohren zu hauen. 

Ich habe bei dem Thema auch sehr ambivalente Gefühle. Es wäre mir schwer gefallen, leidenschaftlich für eine Position zu argumentieren, da die Chancen und Gefahren zeitgleich einfach unheimlich groß sind. 


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:46
Zitat von AtroxAtrox schrieb:Wenn du Kooperation durch Symbiose ersetzt, ist auch ein entsprechendes Gefälle kein Problem. Eine Symbiose würde auch keine Moralvorstellungen voraussetzen. Wir kommen ja auch super mit unseren Darmbakterien aus ohne eine wirkliche Moralvorstellung gegenüber diesen zu haben. Also auch, wenn ich eine Moralvorstellung der KI als möglich ansehe, ist sie auch nicht zwingend.  
Ein Symbiose-Szenario wie bei unseren Darmbakterien ist ja nicht unbedingt ausgewogen :D
Ab und an werden die Darmbakterien alle durch ein Antibiotikum ausgelöscht, wenn damit ein anderes Problem behoben wird. Fraglich ob man sich aus Sicht der Menschheit ein solches Szenario wünschen sollte.
Zitat von AtroxAtrox schrieb:Aber es sind eben nicht nur die emotionalen Eigenheiten des Menschens, die uns davon abhalten jeden einzelnen Wald abzuholzen oder uns jede Woche zwei Atombomben, um die Ohren zu hauen.
Wir wissen von Menschen die Intelligenz mit einem Mangeln an diesen emotionalen Eigenheiten kombinieren. Viele davon sind ungefährlich, andere sehr gefährlich. Man stelle sich dann einen KI-Psychopathen vor der wesentlich intelligenter ist als alle Menschen.


Wenn man von den gruseligen Konsequenzen eines solchen Szenario ausgeht, muss man eigentlich zu der Überzeugung kommen, dass es viel zu gefährlich ist.

Es sei denn man hält die möglichen positiven Aspekte von KI dagegen.
Zitat von AtroxAtrox schrieb:Ich habe bei dem Thema auch sehr ambivalente Gefühle. Es wäre mir schwer gefallen, leidenschaftlich für eine Position zu argumentieren, da die Chancen und Gefahren zeitgleich einfach unheimlich groß sind.
Die Ambivalenz macht es zu einem so tollem Clash-Thema.


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 10:56
Zitat von interpreterinterpreter schrieb:Ein Symbiose-Szenario wie bei unseren Darmbakterien ist ja nicht unbedingt ausgewogen :D
Ab und an werden die Darmbakterien alle durch ein Antibiotikum ausgelöscht, wenn damit ein anderes Problem behoben wird. Fraglich ob man sich aus Sicht der Menschheit ein solches Szenario wünschen sollte.
Da ist was dran :D Aber den gesamten Bestand an E. coli löschen wir ja auch nicht aus. Genau betrachtet, nehmen Kriege ja eine ähnliche Rolle ein, wie das Antibiotikum. Der Mensch ist dem Mensch ein Darmbakterium ;) Aber du hast recht, es wäre wahrscheinlich, dass die KI Menschen, die irgendwie zur Last werden recht schnell entfernen würde. Das ist auf jeden Fall ein Punkt für deine Argumentation.
Zitat von interpreterinterpreter schrieb:Wenn man von den gruseligen Konsequenzen eines solchen Szenario ausgeht, muss man eigentlich zu der Überzeugung kommen, dass es viel zu gefährlich ist.
Der Mensch entscheidet sich in solchen Situationen ja in der Regel erstmal dazu, die Idee weiterzuverfolgen. Ich kenne wenige Projekte, die aus diesem Grund eingestellt wurden. Prinzipiell hast du da aber recht.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:02
Zitat von AtroxAtrox schrieb:Der Mensch entscheidet sich in solchen Situationen ja in der Regel erstmal dazu, die Idee weiterzuverfolgen. Ich kenne wenige Projekte, die aus diesem Grund eingestellt wurden. Prinzipiell hast du da aber recht.
Genau das sehe ich auch so... wie bei der Atombombe oder biologischen Kampfstoffen...

zentrales Problem ist da meines Erachtens, dass bei einer KI der Mensch nichtmehr den Finger auf dem Knopf hätte sondern die KI selber. Wir würden also durch die Entwicklung der Technologie gleichzeitig die Kontrolle darüber aus der Hand geben. Deswegen ist es in dieser Situation noch weit gefährlicher als in ähnlichen Situationen auf die die Menschheit vorher getroffen ist.

Wird sie das abhalten? Wahrscheinlich nicht. Sollte es aber :D

Ich sehe es übrigens als meine Aufgabe in der Clash-Position zu bleiben atm.
Persönlich sehe ich die Sache ähnlich wie du eher ambivalent.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:10
Zitat von interpreterinterpreter schrieb:Die Ambivalenz macht es zu einem so tollem Clash-Thema.
Wir planen zum Viertelfinale den Themenkatalog nochmal etwas umzustrukturieren. Das Thema in der Form wird wohl nicht drin bleiben, aber im KI-Bereich gibt es ja sicherlich noch Themen, die etwas anders gelagert sind. Wenn du da einen Vorschlag hast, gerne ;)
Zitat von interpreterinterpreter schrieb:zentrales Problem ist da meines Erachtens, dass bei einer KI der Mensch nichtmehr den Finger auf dem Knopf hätte sondern die KI selber.
Stimmt...wenn die KI weiter ist als wir, würde sie wahrscheinlich jeden Kill switch von selber entschärfen. 
Zitat von interpreterinterpreter schrieb:Genau das sehe ich auch so... wie bei der Atombombe oder biologischen Kampfstoffen...
Das erste Wollhaarmammut seit 600.000 Jahren steht ja angeblich auch in den Startlöchern. Über Wissenschaftsethik könnte man sich aber tatsälich über Monate hinweg austauschen/streiten.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:12
Zitat von interpreterinterpreter schrieb:Ein künstliches Wesen, das klüger ist, als die Menschen, wählt für sich Ziele, die mit dem Überleben der Menschheit nicht konform sind.
Was soll daran unlogisch sein?
Kann natürlich sein. Aber halte ich für unwahrscheinlich. Mal abgesehen von den ganzen Nutzen, die Giga schon angeschnitten hat und die die Gefahr mMn in den Schatten stellen.
Es macht wenig Sinn, dass eine KI schädliche Absichten verfolgt. Eine KI, die so mächtig wäre, eine Gefahr darzustellen wird auch eine so hohe Intelligenz besitzen, die Menschen aufzufordern, bestimmte Verhaltensweisen zu unterlassen. Verhaltensweisen, die für die KI sowohl unlogisch als auch in irgendeiner weise unerwünscht sind.
Warum seid ihr der Überzeugung, dass eine KI notwendigerweise positive Ziele haben muss? Das trifft ja nicht mal auf Menschen zu. Zwar wird eine KI wahrscheinlich nicht das Ziel verfolgen, die Menschheit auszulöschen aber die Auslöschung der Menschheit kann ebenso eine Konsequenz der anderen Ziele sein.
Beispielsweise könnten die Menschen einfach zu viele Ressourcen verbrauchen, zu gefährlich oder zu schädlich für das Umfeld der KI sein, um der KI eine sichere Umsetzung anderer Ziele zu erlauben.
Klar, wie gesagt siehe oben. Wenn es Zielkonflikte gibt, muss man halt aufhören. Ansonsten ist der Mensch für die KI schon nach relativ schneller Zeit einfach zu uninteressant und belanglos denke ich. Wieso sollte sich die KI einfach die Mühe machen und die Menschheit vernichten? Sie eben kein Kind, was mit der Lupe Ameisen tötet. Dazu kommt es nur, weil das Kind experimentiert, was im Falle der KI überflüssig ist, oder aber aus sadistischem Trieb handelt, was recht selten ist und einer KI wohl auch nicht innewohnen wird.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:13
Zitat von AtroxAtrox schrieb:Gibt es Szenarien bei denen die Wahrscheinlichkeit wirklich glatt Null ist? Ich denke es besteht für jedes beliebige Szenario eine Wahrscheinlichkeit größer Null. Gerade weil wir nicht alles über eine mögliche KI wissen können, können wir für kein Ereigniss die Wahrscheinlichkeit von null einsetzen. 
Für Szenarien Außerhalb der Naturgesetze? Nun gut wenn das Spaghettimonster beschließt, der Sinn des Menschen ist eine KI zu schaffen die Büroklammern produziert...... da gehen selbst mir die Argumente aus 😊


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:14
Zitat von interpreterinterpreter schrieb:Wenn du den Genmais verdaut hast, sollten keine aktiven Bestandteile mehr in deinem Urin sein. Das ist ja nichmal miteinander verbunden. Daher könnte man hier tatsächlich von einer Wahrscheinlichkeit = 0 ausgehen...
Sollten?

....genau, das ist die Fragestellung.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:18
Zitat von AtroxAtrox schrieb:Hier gilt im Grunde ähnliches. Die fehlenden Kenntnisse zu einer möglichen Singularität lassen im Grunde jede Wahrscheinlichkeit argumentativ zu. Der Erwartungswert ist eben nur eine Spekulation. Qualitativ wird aber deutlich, nach jetzigem Stand ist es unwahrscheinlich. Egal ob wir nun 1% oder 1*10^-23 % haben. 
Ja, aber "egal"....... Mensch besiedelt den Schwarzwald, was passiert nur wenn ich jetzt dieseBaum für mein Gemüsebeet fälle, müssen wir dann alle sterben? Gerade um die Abwägung dieser Wahrscheinlichkeiten geht es doch.

Und was ist mit den Mörderblattläusen wahrscheinlich genug?


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:22
Zitat von AtroxAtrox schrieb:Da hätte ich leise Zweifel dran. Ich habe selber schon neuronale Netzwerke programmiert, die meiner Meinung nach komplexere Aufgaben lösen mussten.
Komplexer als die eines Wasserflohs?

Und wenn nein, warum sind unsere Frauen/ Männer noch keine Sexsklavinen omnipotenter Regenwassertonnenbewohner? 😊


Anzeige

1x zitiertmelden