Clash
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

101 Beiträge ▪ Schlüsselwörter: Coa 2017, Interpreter, Achtelfinale ▪ Abonnieren: Feed E-Mail

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:24
Zitat von AtroxAtrox schrieb:Wir planen zum Viertelfinale den Themenkatalog nochmal etwas umzustrukturieren. Das Thema in der Form wird wohl nicht drin bleiben, aber im KI-Bereich gibt es ja sicherlich noch Themen, die etwas anders gelagert sind. Wenn du da einen Vorschlag hast, gerne ;)
Die Ja/Nein - Gefahrendebatte ist da m.E. tatsächlich der interessanteste Aspekt. Aber ich werde nochmal grübeln :)
Zitat von vincentvincent schrieb:Kann natürlich sein. Aber halte ich für unwahrscheinlich. Mal abgesehen von den ganzen Nutzen, die Giga schon angeschnitten hat und die die Gefahr mMn in den Schatten stellen.
Es macht wenig Sinn, dass eine KI schädliche Absichten verfolgt. Eine KI, die so mächtig wäre, eine Gefahr darzustellen wird auch eine so hohe Intelligenz besitzen, die Menschen aufzufordern, bestimmte Verhaltensweisen zu unterlassen. Verhaltensweisen, die für die KI sowohl unlogisch als auch in irgendeiner weise unerwünscht sind.
Stell dir mal vor, dass die KI  Ziele hat, die komplett von unseren abweichen.
Nehmen wir an, ein Ziel das von einem Zufallsgenerator erzeugt würde. Da könnte alles mögliche drunter sein. Wunderschöne Fraktale zeichnen, nach Omicron-Persei zu reisen, die Sonne zu verdunkeln um die Sterne besser sehen zu könne.
Die Sonne zu verdunkeln damit die elektrischen Schaltkreise gekühlt werden und die KI effizienter funktioniert und noch ein paar tausend andere, die wir uns nicht ausmalen können.

Viele dieser Ziele würden ein echtes Problem für die Menschen darstellen.

Außerdem sehe ich es als nicht ausreichend erklärt, dass sich aus der Intelligenz einer KI notwendigerweise eine positive Einstellung zur Menschheit ergibt.  Die Einstellung könnte ebenso indifferent oder ambivalent sein. Es gibt sogar relativ intelligente Menschen die das so sehen und die Menschheit insgesamt eher für ein Ärgernis halten. Die Argumentation, dass die KI notwendigereweise eine positive Einstellung zur Menschheit haben sollte ist m.E. nicht tragfähig.
Zitat von Balthasar70Balthasar70 schrieb:Ja, aber "egal"....... Mensch besiedelt den Schwarzwald, was passiert nur wenn ich jetzt dieseBaum für mein Gemüsebeet fälle, müssen wir dann alle sterben? Gerade um die Abwägung dieser Wahrscheinlichkeiten geht es doch.
Schon klar, dass du die Wahrscheinlichkeit als gering ansiehst. Aber meines Erachtens lieferst du keinen guten Grund dafür, warum sie es sein sollte. Dein Gleichnis reicht zwar um deinen Standpunkt zu illustrieren ist aber kein argumentativer Unterbau.

Anzeige
1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:26
Zitat von Balthasar70Balthasar70 schrieb:Für Szenarien Außerhalb der Naturgesetze?
Ich bin sicherlich nicht der Mensch, der eine alternative Physik vorschlagen möchte ;) Aber bei den Szenarien, die die KI betreffen, ist ja eigentlich kein unumstößliches Naturgesetz betroffen. Prinzipiell könntest du ja jeden Erwartungswert zum Horrorszenario noch in einzelne Erwartungswerte aufsplitten. Da wird es eben schwierig in der jeweiligen Grenzwertbetrachtung einen Erwartungswert gleich Null herauszubekommen. Auch ein Spaghettimonster könnte sich irgendwann, irgendwo evolutiv entwickeln. Die Wahrscheinlichkeit ist sehr klein, aber eben nicht Null. Aber vielleicht ist das auch Haarspalterei.  
Zitat von Balthasar70Balthasar70 schrieb:Ja, aber "egal"....... Mensch besiedelt den Schwarzwald, was passiert nur wenn ich jetzt dieseBaum für mein Gemüsebeet fälle, müssen wir dann alle sterben? Gerade um die Abwägung dieser Wahrscheinlichkeiten geht es doch.
Wie gesagt, es ist ein Trade off. Übersteigen die potentiellen Chancen die potentiellen Gefahren? Ich kann das für mich mit Blick auf Künstliche Intelligenzen auch nicht abschließend beantworten.
Zitat von Balthasar70Balthasar70 schrieb:Komplexer als die eines Wasserflohs?

Und wenn nein, warum sind unsere Frauen/ Männer noch keine Sexsklavinen omnipotenter Regenwassertonnenbewohner? 😊
Wat? :D 


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:30
Zitat von interpreterinterpreter schrieb:Schon klar, dass du die Wahrscheinlichkeit als gering ansiehst. Aber meines Erachtens lieferst du keinen guten Grund dafür, warum sie es sein sollte. Dein Gleichnis reicht zwar um deinen Standpunkt zu illustrieren ist aber kein argumentativer Unterbau.
Allein nicht, ansonsten nur wenn Du meine vorherigen Betrachtungen zur Wahrscheinlichkeit weiter ignorierst.

Klar auch ich kann sagen, ich glaube meine Blattläuse treffen zu 0,3% ein, also pinkelt nicht auf Petunien! 😊

Nur was hilft das, dann kommen wir halt in den religiösen Bereich.

http://www.n-tv.de/der_tag/Krokodile-fressen-Pastor-article19842703.html


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:33
@interpreter
An dem Punkt, an dem eine KI in der Lage ist, die Sonne zu verdunkeln, ist die Menschheit längst in der Lage, mit dem Problem fertig zu werden und hat womöglich auch schon dutzende andere Planeten besiedelt. Es gibt keinen besonderen Vorteil, seine KI durch eine Methode zu kühlen, wenn diese Methode den Tod quasi aller Lebewesen bedeutet und gleichzeitig Alternativen zur gleich guten Kühlung ohne den Tod von allem Leben zur Verfügung stehen.
Ich sage nicht, dass die Einstellung positiv sein muss. Du gehst aber auch immer von einer KI ist, die sich ziemlich plötzlich entwickelt hat. Das wird kontinuierlich passieren, während der Mensch auch immer wieder von Gefahren und Fehlern lernen kann. Und vor Hal 5000.100 wird der Fortschritt so krass sein, dass es keine große Zielkonflikte geben wird. Welcher Art auch..


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:35
@Balthasar70

Du hast deine Betrachtungen nicht weit über deine Gleichnisse ausgebreitet.

Dass eine mögliche Wahrscheinlichkeit in der Kette die zu einem katastrophalen KI-Ereignis führen würde gleich oder nahezu 0 ist, hast du meines Erachtens weder bewiesen noch behauptet.

Nur das es so sein könnte und das reicht m.E. nicht aus.

Ich führe die Ereignisse auf:

KI entsteht
-> KI hat Ziele die ein Problem für die Menschen darstellen
-> KI setzt ihre Ziele dennoch durch
-> Menschen scheitern (aus Unwissenheit oder Unfähigkeit daran, KI aufzuhalten)
->Ziel trifft ein.

Da ist aus meiner Sicht nichts dabei was eine derart absurd geringe Wahrscheinlichkeit aufweisen würde wie eines deiner Gleichnisse.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:36
@vincent
Zumal ja die Frage ist, warum die Menscheit so blöde sein sollte, nur eine künstliche Intelligenz zu entwickeln, und nicht ähnlich wie im Darm oder bei der nuklearen Abschreckung, mehrere die sich im Schach halten.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:37
@Balthasar70
Ja, den Einwand hatte ich auch schon.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:39
@interpreter
Ich finde es nicht fair wenn Du auf der einen Seite Argumentierst die Wahrscheinlichkeit sei 1%, und andrerseits wenn man Dir die Aussage um die Ohren haut, plötzlich behauptest die Wahrscheinlichkeit sei gar nicht die Frage.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:45
Zitat von vincentvincent schrieb:An dem Punkt, an dem eine KI in der Lage ist, die Sonne zu verdunkeln, ist die Menschheit längst in der Lage, mit dem Problem fertig zu werden und hat womöglich auch schon dutzende andere Planeten besiedelt. Es gibt keinen besonderen Vorteil, seine KI durch eine Methode zu kühlen, wenn diese Methode den Tod quasi aller Lebewesen bedeutet und gleichzeitig Alternativen zur gleich guten Kühlung ohne den Tod von allem Leben zur Verfügung stehen.
Es war nur ein Beispiel und warum sollte es der Fall sein, dass die Menschheit dann schon so weit entwickelt ist?
Zitat von vincentvincent schrieb:Du gehst aber auch immer von einer KI ist, die sich ziemlich plötzlich entwickelt hat. Das wird kontinuierlich passieren, während der Mensch auch immer wieder von Gefahren und Fehlern lernen kann. Und vor Hal 5000.100 wird der Fortschritt so krass sein, dass es keine große Zielkonflikte geben wird. Welcher Art auch..
Das Saat-KI Szenario beschreibt eine KI, bei der eine KI quasi ihren Nachfolger entwickelt. Wir nehmen dabei an, dass wenn die Menschen eine solche KI entwickeln können und die KI klüger ist oder Daten schneller verarbeitet, könnte sie auch die bessere KI entwickeln. Daraus ergibt sich dann ein exponentielles Intelligenz-Wachstum dass tatsächlich eher zu einer Intelligenz-Explosion führt als einer kontinuierlichen Weiterentwicklung. 
Die Fachleute halten das übrigens für das wahrscheinlichere Szenario als ein kontinuierliches Wachstum.
Zitat von Balthasar70Balthasar70 schrieb:Ich finde es nicht fair wenn Du auf der einen Seite Argumentierst die Wahrscheinlichkeit sei 1%, und andrerseits wenn man Dir die Aussage um die Ohren haut, plötzlich behauptest die Wahrscheinlichkeit sei gar nicht die Frage.
Ich denke, dass sich nicht argumentieren lässt, dass die Wahrscheinlichkeit gleich oder nahezu null wäre. Das ist meine Aussage. Wir können uns über jedes einzelne der Ereignisse in der Kette unterhalten und diesem Wahrscheinlichkeiten zuordnen aber so gering ist das insgesamt nicht.
Zitat von Balthasar70Balthasar70 schrieb:Zumal ja die Frage ist, warum die Menscheit so blöde sein sollte, nur eine künstliche Intelligenz zu entwickeln, und nicht ähnlich wie im Darm oder bei der nuklearen Abschreckung, mehrere die sich im Schach halten.
Wenn die Menschheit nicht kontrollieren kann, wie die Eigenschaften und Motivationen dieser KIs sind gestaltet sich das ziemlich schwierig, oder?


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:48
Zitat von interpreterinterpreter schrieb:Ich denke, dass sich nicht argumentieren lässt, dass die Wahrscheinlichkeit gleich oder nahezu null wäre. Das ist meine Aussage. Wir können uns über jedes einzelne der Ereignisse in der Kette unterhalten und diesem Wahrscheinlichkeiten zuordnen aber so gering ist das insgesamt nicht.
Doch, z.B. in dem Augenblick, in dem sich herausstellt, das wirklich intelligente, und nicht triebgesteuerte Systeme kooperativ handeln, fällt Dein Hollywood-Apokalypsenszenario in sich zusammen....


Wer sagt, dass die Menschheit das nicht gestalten kann, allein schon, wie oben erwähnt, in dem man mehrere KI Systeme sich kontrollieren lässt.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:50
@Balthasar70

Das lässt aber die Kette nur scheitern, wenn die Eintrittswahrscheinlichkeit für das Kooperationsszenario 100% wäre.

Das ist sie nicht.

Du kannst nicht von einer 0% Wahrscheinlichkeit ausgehen aufgrund einer fiktiven Gesetzmäßigkeit.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:52
@interpreter
Das ist falsch, es gibt Myriaden, von Szenarien, die nicht zur Versklavung des Menschen durch die Maschinen führen.....

Wenn die Naturgesetze, fiktive Gesetzmäßigkeiten, sind, dann bin ich hier raus und Trolle bei den Religiösen und den Esoterikern 😳


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:52
Zitat von interpreterinterpreter schrieb:Es war nur ein Beispiel und warum sollte es der Fall sein, dass die Menschheit dann schon so weit entwickelt ist?
Wenn sie soweit ist, eine tatsächliche KI zu entwickeln, wird man entweder schon Energie-Probleme in den Griff bekommen haben oder sich sowieso von dem Planeten verabschiedet haben. Zu dem Zeitpunkt, an dem eine echte KI entwickelt wurde, sehe ich halt keine bedeutsamen Konflikte, die sich ergeben. Außer Energie und Speicher ist da nicht viel. Höchstens eben Verhaltensweisen der Menschen selbst, die die KI beeinflussen wollen könnte. Aber das liegt ja dann auch an uns..
Zitat von interpreterinterpreter schrieb:Die Fachleute halten das übrigens für das wahrscheinlichere Szenario als ein kontinuierliches Wachstum.
Ja, aber erst nachdem die KI entwickelt wurde. Bis dahin wird es halt kontinuierlich wachsen.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 11:59
Zitat von Balthasar70Balthasar70 schrieb:Das ist falsch, es gibt Myriaden, von Szenarien, die nicht zur Versklavung des Menschen durch die Maschinen führen.....
Keines meiner Szenarien beinhaltet die Versklavung der Menschheit.

Versklavung würde bedingen, dass die KI irgendeine Verwendung für Menschensklaven hat.

Abgesehen davon hat die Aussage keinen Bezug zu meiner also wüsste ich jetzt nicht, warum meine Aussage deswegen falsch sein sollte.

Denkst du, dass man sich auf eine fiktive Gesetzmäßigkeit berufen kann, weil es viele Szenarien gibt in denen Maschinen nicht die Menschen versklaven?
Zitat von vincentvincent schrieb:Ja, aber erst nachdem die KI entwickelt wurde. Bis dahin wird es halt kontinuierlich wachsen.
Was danach passiert ist doch die interessante Frage. Solange KI noch nicht entwickelt wurde droht uns auch keine Gefahr durch KI...
Zitat von vincentvincent schrieb:Wenn sie soweit ist, eine tatsächliche KI zu entwickeln, wird man entweder schon Energie-Probleme in den Griff bekommen haben oder sich sowieso von dem Planeten verabschiedet haben. Zu dem Zeitpunkt, an dem eine echte KI entwickelt wurde, sehe ich halt keine bedeutsamen Konflikte, die sich ergeben. Außer Energie und Speicher ist da nicht viel. Höchstens eben Verhaltensweisen der Menschen selbst, die die KI beeinflussen wollen könnte. Aber das liegt ja dann auch an uns..
Vorausgesetzt, dass die interplanetare menschliche Gesellschaft mit ausreichend Energie VOR der Entwicklung der KI kommt. Wenn wir auf dem gleichen Planeten bleiben sieht es anders aus.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 12:01
@interpreter
Willst Du jetzt tatsächlich Wortspielchen spielen? Ausrottung, Versklavung......


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 12:04
Zitat von AtroxAtrox schrieb:Ich kann das für mich mit Blick auf Künstliche Intelligenzen auch nicht abschließend beantworten.
In Bezug auf Rosa Einhörner würdest Du Dir es aber zutrauen? Warum?


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 12:05
@Balthasar70

Ich sehe einfach keinen logischen Bezug zu meiner Aussage.

Du sagtest:
Zitat von Balthasar70Balthasar70 schrieb:Doch, z.B. in dem Augenblick, in dem sich herausstellt, das wirklich intelligente, und nicht triebgesteuerte Systeme kooperativ handeln, fällt Dein Hollywood-Apokalypsenszenario in sich zusammen....
Ich sagte
Zitat von interpreterinterpreter schrieb:Das lässt aber die Kette nur scheitern, wenn die Eintrittswahrscheinlichkeit für das Kooperationsszenario 100% wäre.

Das ist sie nicht.

Du kannst nicht von einer 0% Wahrscheinlichkeit ausgehen aufgrund einer fiktiven Gesetzmäßigkeit.
Du sagtest
Zitat von Balthasar70Balthasar70 schrieb:Das ist falsch, es gibt Myriaden, von Szenarien, die nicht zur Versklavung des Menschen durch die Maschinen führen.....

Wenn die Naturgesetze, fiktive Gesetzmäßigkeiten, sind, dann bin ich hier raus und Trolle bei den Religiösen und den Esoterikern 😳
Dabei hattest du den zweiten Part erst später dazu editiert.
Es macht auch in diesem Kontext etwas mehr Sinn aber keinen wirklichen.
Dass intelligente System kooperieren ist kein Naturgesetz. 


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 12:05
@interpreter
Das ist schon klar. :D
Aber du zeichnest ein Szenario, in dem man ahnungslos von einer Super-Mächtigen KI bedroht wird. Das halte ich eben für unwahrscheinlich, weil man bis zur Entwicklung einer KI auch ausreichend lernen kann. Was danach passiert, ist natürlich nicht 100% vorhersehbar.
Zum Täuschen etc. muss eine KI aber irgendwann auch lernen, Informationen zu verheimlichen oder zu fälschen. Bei noch nicht so krass entwickelten KIs wird man dann auch genügend Zeit haben, zu intervenieren. Dass eine einzelne sich plötzlich stark entwickelt, die Menschen täuscht und auch mächtig genug ist, sind halt viele Baustellen..
Zitat von interpreterinterpreter schrieb:Vorausgesetzt, dass die interplanetare menschliche Gesellschaft mit ausreichend Energie VOR der Entwicklung der KI kommt. Wenn wir auf dem gleichen Planeten bleiben sieht es anders aus.
Das sehe ich anders. Man kann in den nächsten Dekaden das Problem auch vor Ort lösen..


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 12:11
Zitat von vincentvincent schrieb:Das ist schon klar. :D
Aber du zeichnest ein Szenario, in der man ahnungslos von einer Super-Mächtigen KI bedroht wird. Das halte ich eben für unwahrscheinlich, weil man bis zur Entwicklung einer KI auch ausreichend lernen kann. Was danach passiert, ist natürlich nicht 100% vorhersehbar.
Zum Täuschen etc. muss eine KI aber irgendwann auch lernen, Informationen zu verheimlichen oder zu fälschen. Bei noch nicht so krass entwickelten KIs wird man dann auch genügend Zeit haben, zu intervenieren. Dass eine einzelne sich plötzlich stark entwickelt, die Menschen täuscht und auch mächtig genug ist, sind halt viele Baustellen..
Wie du selber eingestanden hast, ist es möglich, dass es nach der Entwicklung der KI zu einer Intelligenz-Explosion kommen könnte. Auf der Seite der KI in diesem Fall, nicht auf der Seite der Menschheit.

Ich sehe nicht wie man so zuversichtlich sein kann, dass man ein System kontrollieren oder in seine Handlungen intervenieren könnte, wenn das System substanziell intelligenter ist als man selber.

Und tatsächlich müsste die KI nichtmal Informationen verheimlichen oder fälschen. Möglich dass die Menschen ihre Handlungen auch einfach nicht verstehen oder nachvollziehen können.

Google hat zur Zeit einen Algorithmus laufen den die Ingenieure nicht verstehen.
Zitat von vincentvincent schrieb:Das sehe ich anders. Man kann in den nächsten Dekaden das Problem auch vor Ort lösen..
Wie wäre der Umgang mit der KI deines Erachtens, wenn wir solche Probleme nicht vor deren Entwicklung gelöst hätten?


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 12:13
@interpreter
...es geht doch um diese seltsame Wahrscheinlichkeit, die Du versuchst als Fakt hier zu etablieren.....


...das magst Du ja glauben....


Anzeige

1x zitiertmelden