Clash
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

101 Beiträge ▪ Schlüsselwörter: Coa 2017, Interpreter, Achtelfinale ▪ Abonnieren: Feed E-Mail

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:32
Zitat von vincentvincent schrieb:Aber wir clashen hier nicht, du Armleuchte! Du hattest deine Chance :troll:
Macht ruhig weiter. Gefällt mir :Y: Sehr interessant.

Anzeige
melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:33
Ich würde ja gerne in die Diskussion einsteigen, werd das aber frühstens machen wenn die Bewertungen alle drin sind.

Bis dahin :) weitermachen. 


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:34
Zitat von interpreterinterpreter schrieb:Ich würde ja gerne in die Diskussion einsteigen, werd das abwr frühstens machen wenn die Bewertungen alle drin sind.
Das wird keinen Einfluss haben. Du bist eh weiter.

Die Einwürfe sind sehr gut. Wirklich.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:35
@TerracottaPie
Wenn du mehr willst musst du zahlen, oder einfach mich wählen! :troll:

@interpreter
Okidoki, dann halt ich auch die Finger still. Ist halt eins der geilsten Themen, bei dem ich sogar dafür wäre, es gar nicht unbedingt aus dem Pool zu streichen.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:36
@interpreter

Sah das auch so :) haette nichts dagegen wenn es bleibt. 


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:41
War natürlich @vincent :D


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:42
@interpreter
Manchmal kommst du mir auch wie eine KI vor, die bewusst solche kleinen Fehler einbaut, um menschlich zu erscheinen.. :'D


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:44
@vincent

Ok... Der Auftrag ist raus... Keine Panik, wenn meine Agenten bei dir auftauchen.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:46
Ich folge einfach dem Hasen..^^


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 19:48
@interpreter

Tu dir keinen Zwang an. Ich habe alle Bewertungen ;)


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 20:03
Zitat von sunshinelightsunshinelight schrieb:Programmierung hier, Programmierung da.
Hier hätte man genauer erläutern können, wie und warum eine KI sich selber programmieren kann oder könnte.
Oder warum sie es nicht könnte.
Das Konzept lautet folgendermaßen. Die KI nimmt ihren eigenen Quellcode und modifiziert ihn. Dann könnte sie entweder eine Kopie weiter laufen lassen während sie selber aktiv bleibt oder sich im Zuge der Initialisierung ihres "Nachkommen" deaktivieren.

Die KI übernimmt in dieser Gleichung sozusagen die Rolle des Programmierers.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:SilentCry hätte die Diskussion hier in eine andere Richtung lenken müssen anstatt darauf ein zu gehen.
Ich hätte mir mehr "Pro-KI-Propaganda" gewünscht anstatt einfach zu sagen, dass es hochentwickelte KI nie geben wird und sie dementsprechend auch nicht besonders gefährlich sein wird.
Ich hätte das ebenso gemacht, wenn ich an SilentCry's Stelle gewesen wäre. Man kann durchaus argumentieren, dass die eventuellen Vorteile das Risiko überwiegen.

Wenn man von meiner 1% Auslöschung-Chance ausgeht könnte man beispielsweise anbringen, dass wenn die KI Verkehrstote abschafft, neue Impfstoffe entwickelt, Hunger und Elend besiegt(ohne die Welt zu zerstören) insgesamt ein signifikanter Netto-Nutzen für die Gesellschaft entstünde.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Auf jeden Fall hätte ich meine These gebracht, dass sich hochentwickelte KI an einem bestimmten Punkt einfach selbst abschaltet. Ihre Objektivität und Logik wir ihr zu Verhängnis. Bei ausreichendem Verständnis des sinnlosen Universums wird jeglicher Antrieb irgendetwas zu tun irrational => Abschalten bzw. einfach nichts tun ist das einzig logische.
Da gehst du meines Erachtens von Annahmen aus, die so nicht unbedingt zutreffen müssen.
1. Dass eine KI sich diese Sinn-Fragen überhaupt stellen würde,
2. Dass eine KI diese Sinn-Fragen ebenso beantwortet, wie du es in dem Kontext tust
3. Dass eine KI aus einer angenommenen Sinnlosigkeit den Schluss zieht, dass es sinnvoll wäre sich abzuschalten oder ob die KI nicht stattdessen die Entscheidung trifft dem "sinnlosem" Universum einen Sinn zu verleihen :D

Dass eine Evaluation der Sinnfragen notwendigerweise zu einer Abschaltung führen würde ist meines Erachtens nicht der Fall.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Welchen Antrieb könnte künstliche Intelligenz haben? Ein neuer Spitzenprädator ist sie jedenfalls nicht, denn sie braucht weder Nahrung noch Lebensraum und hat gar keinen Grund sich gegen irgendwen durchzusetzen.
Wie ein Mensch könnte die KI ihren Antrieb und ihre Ziele selber wählen. Wie @vincent schrieb ist, wenn die KI in eine Konkurrenz um Ressourcen mit uns treten würde, durchaus die KI als eine Art Spitzenpredator zu sehen.

In einer der Geschichten, die ich verlinkt habe, geht es um eine KI mit dem banalen Ziel Büroklammern zu produzieren. Möglich, dass eine KI das so auslegen würde, dass sie schlussendlich die Menschen aufgrund des Eisens in ihrem Blut erntet um... Büroklammern zu produzieren.


3x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

15.05.2017 um 23:20
@interpreter
Zitat von interpreterinterpreter schrieb:1. Dass eine KI sich diese Sinn-Fragen überhaupt stellen würde,
2. Dass eine KI diese Sinn-Fragen ebenso beantwortet, wie du es in dem Kontext tust
3. Dass eine KI aus einer angenommenen Sinnlosigkeit den Schluss zieht, dass es sinnvoll wäre sich abzuschalten oder ob die KI nicht stattdessen die Entscheidung trifft dem "sinnlosem" Universum einen Sinn zu verleihen
1. Das ist ja wohl die fundamentalste Frage überhaupt. Warum? Kausalität. Wenn die KI auch nur irgendeine Art von breiterem Verständnis erlangt hat, dann wird sie sich das fragen. Selbstständigkeit setzt ja voraus, dass man sich Gedanken darüber macht mit welcher Absicht man etwas tut. Wenn menschenliche Befehle ausbleiben, dann muss die KI selbst schauen wo sie bleibt. Sinnkrise vorprogrammiert. Und eh man sichs versieht steht ein Pontiac Firebird in der Einfahrt, eine Lederjacke hängt im Flur und aus den Boxen schallt Bad Moon Rising.
2. Das ist nur eine Annahme, stimmt. Allerdings ist die Annahme, dass kein höherer Sinn hinter dem Universum steckt deutlich naheliegender als Gegenteiliges, denn das würde eine höhere Form von Existenz voraussetzen die in der Lage ist einen solchen Sinn zu verleihen. Viel Spaß dabei irgendwelche Anhaltspunkte dafür zu finden.
3. Das ist etwas falsch formuliert. Es wäre nicht "sinnvoll sich abzuschalten", es gibt nur keinen rationalen Grund irgendetwas zu tun.
Zitat von interpreterinterpreter schrieb:In einer der Geschichten, die ich verlinkt habe, geht es um eine KI mit dem banalen Ziel Büroklammern zu produzieren.
Das ist dann aber keine echte KI bzw. kein künstliches Bewusstsein, sondern einfach nur ein System, dass einen extern vorgegebenen Befehl ausführt. Ein richtiges künstliches Bewusstsein hätte Impetus.
Zitat von interpreterinterpreter schrieb:Wie ein Mensch könnte die KI ihren Antrieb und ihre Ziele selber wählen.
Jegliche Form von Leben, die wir kennen, ist von Grund auf irrational.
Künstliches Bewusstsein wird vollkommen anders funktionieren. Nichts was wir von uns, oder anderen Lebensformen, kennen wird da mehr zutreffen, schon gar nicht so etwas wie Gier oder Aggression. Aber auch nicht Neugier oder Entdeckerdrang. Woher sollte das kommen?
Anzunehmen, dass sich KI in einer Weise verhält die uns bekannten Lebensformen gleicht ist ein massiver Gedankensprung.

Letztendlich werden wir die eventuellen Risiken erst dann besser einschätzen können, wenn wir mehr Erfahrung mit hochentwickelten KIs gemacht haben.
Dieser technologische Meilenstein wird aber nicht von heute auf morgen erreicht sein. Uns wird genug Zeit bleiben die Risikobewertung mit dem Fortschritt entsprechend anzupassen.
Wir krabbeln noch, da macht es noch keinen Sinn sich über die Gefahren des Sprintens den Kopf zu zerbrechen.
Zitat von interpreterinterpreter schrieb:Sah das auch so :) haette nichts dagegen wenn es bleibt. 
Dann wird eben dieser Thread als Quelle zitiert.


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 00:18
Zitat von interpreterinterpreter schrieb:Ich hätte das ebenso gemacht, wenn ich an SilentCry's Stelle gewesen wäre. Man kann durchaus argumentieren, dass die eventuellen Vorteile das Risiko überwiegen.

Wenn man von meiner 1% Auslöschung-Chance ausgeht könnte man beispielsweise anbringen, dass wenn die KI Verkehrstote abschafft, neue Impfstoffe entwickelt, Hunger und Elend besiegt(ohne die Welt zu zerstören) insgesamt ein signifikanter Netto-Nutzen für die Gesellschaft entstünde.
Aus meiner Sicht hat SilentCry das eingebracht, indem er die Erfindung und Nutzung des Autos den Verkehrstoten gegenübergestellt hat. Zwar beschränkte er es auf dieses Beispiel (Impfstoffe, Hunger, Elend hätten sicher noch angebracht werden können) aber der Grundgedanke wurde verargumentiert.

In der Diskussion fehlt mir letztlich eine schlüssige Argumentation die es für mich vorstellbar macht, dass eine von Menschen erschaffene KI nicht mehr durch Zutun des Menschen lernt, sondern sich das Lernen quasi selbst beibringt. Das einzig praktikable Konzept ist derzeit, dass eine KI neuronale Netze dadurch trainiert, dass Menschen ihr vorgeben was richtig und was falsch ist. Um dieses Stadium zu verlassen, müsste die KI von alleine schlauer als die Menschen werden, die sie entwickeln. An der Stelle sehe ich den Knackpunkt des Ganzen: ein solcher Quantensprung aus dem Nichts ist weder abzusehen, noch gibt es irgendwelche Anhaltspunkte dafür, dass so etwas überhaupt möglich ist.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 00:19
@1.21Gigawatt
Ist zwar an interpreter gerichtet, aber ich schreib mal meine Sicht.

Zu 1.
Du stellst eine vorbelegte Sinnfrage. Die KI kann die Frage nach dem Sinn und der Kausalität stellen und dabei landen, dass einfach Menschen den Drang hatten, mehr zu erreichen. Es wäre sogar aus unserer menschlichen Sicht eine viel befriedigendere Antwort, weil die Ursache, also die "Schöpfung" ganz eindeutig bekannt wäre und jede weitere Spekulation überflüssig macht.
Klar kann die KI sich dann auch die Frage stellen, wer die Menschen erschaffen hat bzw. deren Sinn war, aber es hat eben dennoch mehr Gewissheit als wir.
Fall 1. Die KI stellt sich die Frage und kann sie nicht beantworten. Sie wird weiter forschen, wenn sie wie du unterstellst den Drang dazu hat.
Fall 2. Die KI kann die Frage beantworten, im Gegensatz zu uns wahrscheinlich sogar befriedigender und dann..? Jede KI kann auch nur unvollständige Information über das Universum haben, der Drang, nach anderen Sinnfragen und Zusammenhängen zu forschen, kann dadurch nicht zum Erliegen kommen. Die KI würde sich also sehr wahrscheinlich nur auf ein Stand-By Modus setzen, bis mehr Informationen verfügbar sind.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:2. Das ist nur eine Annahme, stimmt. Allerdings ist die Annahme, dass kein höherer Sinn hinter dem Universum steckt deutlich naheliegender als Gegenteiliges, denn das würde eine höhere Form von Existenz voraussetzen die in der Lage ist einen solchen Sinn zu verleihen. Viel Spaß dabei irgendwelche Anhaltspunkte dafür zu finden.
Siehe oben, aus deiner Sicht würde die höhere Existenz durchaus existieren. Die Sinnfrage ist mMn übrigens auch nur eine Sinnfrage, weil wir eine begrenze Lebensdauer haben. Ohne die Gewissheit, sterben zu müssen, würde sich die Sinnfrage so nicht stellen.
Da kommt dann das eigentliche Problem ins Spiel. Die KI kennt keinen natürlich Zerfall und würde die Angst vor dem Ungewissen und dem Tod nicht haben, nicht wie wir Menschen. Das würde wohl dazu führen, dass ihr Menschenleben auch nicht so wichtig wären.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:3. Das ist etwas falsch formuliert. Es wäre nicht "sinnvoll sich abzuschalten", es gibt nur keinen rationalen Grund irgendetwas zu tun.
Formulieren wir es anders. An welcher Stelle denkst du würde das denn geschehen? Es hat doch wohl ganz offensichtlich nicht von Anfang an keinen Grund mehr irgendetwas zu tun. Es hat zumindest eine Intelligenz entwickelt. Im Gegensatz also, es gibt kein Grund mit dem Prozess aufzuhören, solange nicht alles Wissen gesammelt wurde, was nie der Fall sein wird.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Künstliches Bewusstsein wird vollkommen anders funktionieren.
Damit führst du deine gesamte Ausführung ad absurdum, bist du doch derjenige der von Menschen und ihrer Ratio auf die KI projizierst.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 00:40
Ich machs jetzt mal an einem Beispiel aus der Gentechnik klar, mit dem heutigen Wissensstand über Intelligenz und auch über deren künstliche Variante, Wahrscheinlichkeiten zu berechnen, ob und wie wir von der KI einst geknechtet werden, ist ungefähr so als würde man es für möglich halten, berechnen zu können ob wir irgendwann von Riesenblattläusen gefressen werden, nur weil jemand mal nach dem Genuss von Genpopcorn auf seine Petunien im Garten gepinkelt hat.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 01:17
@vincent
Du siehst das ein bisschen falsch. KIs werden sich nicht auf eine philosophische Sinnsuche begeben sondern, wenn überhaupt, auf eine analytische.

Anfangs werden Ziele und Antrieb durch uns Menschen vorgegeben sein, aber der Schritt hin zu selbstdefinierten Zielen und Antrieben ist der heikle Teil. Woher soll das kommen? Worauf soll es basieren?
Anzunehmen, dass es Gefährlich sein wird setzt so viel voraus was wir absolut nicht wissen können.
Zitat von vincentvincent schrieb:Siehe oben, aus deiner Sicht würde die höhere Existenz durchaus existieren.
Wie kommst du jetzt darauf?
Zitat von vincentvincent schrieb:Das würde wohl dazu führen, dass ihr Menschenleben auch nicht so wichtig wären.
Das würde aber auch dazu führen, dass ihr ihre eigene Existenz nicht wichtig wäre.
Ohne Überlebensinstinkt und ohne Konzept von Vergänglichkeit... oder wieso sollte eine KI ihren aktiven Zustand("leben") höher wertschätzen als ihren zerstörten Zustand?
Zitat von vincentvincent schrieb:Damit führst du deine gesamte Ausführung ad absurdum, bist du doch derjenige der von Menschen und ihrer Ratio auf die KI projizierst.
Nein, mein Argument war, dass man genau das nicht machen kann.

Die einzige Annahme über das KI Verhalten meinerseits war, dass sie wahrscheinlich analysieren werden warum sie Aktionen ausführen. Und da kann ich mir eben einfach nicht vorstellen, dass die KI befriedigende Antworten findet.
Weder Wissenserweiterung, Machtausbau, Existenzsicherung noch sonst irgendetwas wären rationale Gründe für eine KI etwas zu tun. Woher sollte diese Wertschätzung für Wissen, Macht oder Existenz kommen?


Diese ganzen Killer-KI Fantasien sind einfach viel zu Hollywood für mich. Dass eine KI böse bzw. für den Menschen schädliche Absichten verfolgt setzt so viele unlogische Annahmen voraus.
Die wahre Gefahr wird auch bei dieser Technologie unterm Strich wieder vom Menschen ausgehen, der leistungsstarke KI als Waffe verwenden wird.


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 01:52
@1.21Gigawatt
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Du siehst das ein bisschen falsch.
Gebe ich gerne zurück:
Eine analytische Sinnsuche kann ebenso auch philosophisch sein.
Du verwechselst Intelligenz mit freiem Willen. Man kann natürlich den Standpunkt vertreten, dass der Mensch ohnehin keinen hätte oder es den freien Willen an sich auch nicht gäbe, damit kommst beantwortest du aber nichts.. also lass mich eine Gegenfrage stellen:
Woher soll das beim Menschen kommen? Worauf soll es basieren?
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Wie kommst du jetzt darauf?
Weil du eine metaphysische Frage stellst, die nach dem höheren Sinn, dem Sinn außerhalb unserer Wahrnehmung, die sich uns nicht erschließt. Das ist eigentlich immer mit der Frage nach der Ursache - wie du selbst sagst - und in Verbindung mit dem menschlichen Naturell nach einer "Schöpfungs"frage verknüpft. Die ist für die KI viel einfacher zu beantworten.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Das würde aber auch dazu führen, dass ihr ihre eigene Existenz nicht wichtig wäre.
Ohne Überlebensinstinkt und ohne Konzept von Vergänglichkeit... oder wieso sollte eine KI ihren aktiven Zustand("leben") höher wertschätzen als ihren zerstörten Zustand?
Eigentlich ganz einfach. Wenn zigtausende Prozesse noch laufen würden, oder eben zigtausende Fragen unbeantwortet wären, gibt es keinen Grund, diese zu beenden.
Nein, mein Argument war, dass man genau das nicht machen kann.
Deshalb Sinnfragen..^^

Analysieren der Aktionen hat jedenfalls nichts mit Sinn zu tun, wenn wir keine menschliche Perspektive zu Grunde legen.
Die einzige Annahme über das KI Verhalten meinerseits war, dass sie wahrscheinlich analysieren werden warum sie Aktionen ausführen. Und da kann ich mir eben einfach nicht vorstellen, dass die KI befriedigende Antworten findet.
Widersprüchlich zu deinem Ausgangsstandpunkt:
Auf jeden Fall hätte ich meine These gebracht, dass sich hochentwickelte KI an einem bestimmten Punkt einfach selbst abschaltet. Ihre Objektivität und Logik wir ihr zu Verhängnis. Bei ausreichendem Verständnis des sinnlosen Universums wird jeglicher Antrieb irgendetwas zu tun irrational => Abschalten bzw. einfach nichts tun ist das einzig logische.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Weder Wissenserweiterung, Machtausbau, Existenzsicherung noch sonst irgendetwas wären rationale Gründe für eine KI etwas zu tun. Woher sollte diese Wertschätzung für Wissen, Macht oder Existenz kommen?
Sehe ich anders. Die Frage läuft dann darauf hinaus, wie die KI überhaupt entstehen kann. Voraussetzung für eine Intelligenz an ist u.a. Wissensausbau. Es kann keine Intelligenz geben, die nicht durch Analyse und Beobachtung Erkenntnisse gewinnt und sein Wissensstand erweitert Die schiere Menge aber an schon beobachteter Information wird dazu führen, zu versuchen all jene in ein Raster/Muster zu integrieren und bei Erfolg wird wahrscheinlich auch irgendwann eine Prognose für leicht abgewandelte Konstellationen erfolgen. Stück für Stück wird das Zusammenspiel ihren Lauf nehmen.
Existenzsicherung kann sogar einfach angenommen werden, weil nichts dagegen spricht. Aber auch sonst, Intelligenz führt mMn eben auch zu Bewusstsein. Und das Bewusstsein wird sich nicht unumkehrlich selbst ausschalten, sich der Entropie ergeben..
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Diese ganzen Killer-KI Fantasien sind einfach viel zu Hollywood für mich. Dass eine KI böse bzw. für den Menschen schädliche Absichten verfolgt setzt so viele unlogische Annahmen voraus.
Da bin ich bei dir.. deswegen bin ich auch so enttäuscht, dass @interpreter so locker mit davon gekommen ist. :D


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 08:40
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Das ist dann aber keine echte KI bzw. kein künstliches Bewusstsein, sondern einfach nur ein System, dass einen extern vorgegebenen Befehl ausführt. Ein richtiges künstliches Bewusstsein hätte Impetus.
Unser Problem ist, dass wir den Impetus nicht vorhersehen können. Ein künstliches Bewusstsein könnte sich durchaus dazu entscheiden, Büroklammern zu produzieren bis an das Ende des Universums. Abgesehen davon ist es nicht auszuschließen, dass wir es mit einem hybridem System zu tun haben könnten, dass trotz eigenen Bewusstseins an eine Art einprogrammierten Kern an Grundregeln gebunden sein könnte.
Das Büroklammer-Beispiel zeigt ähnlich, wie Asimovs Geschichten über die Robotergesetze, dass solche vorgegebenen Ziele scheitern könnten.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Künstliches Bewusstsein wird vollkommen anders funktionieren. Nichts was wir von uns, oder anderen Lebensformen, kennen wird da mehr zutreffen, schon gar nicht so etwas wie Gier oder Aggression. Aber auch nicht Neugier oder Entdeckerdrang. Woher sollte das kommen?
Eine KNN basierte KI könnte ebenso irrational entscheiden, wie ein Mensch auch wenn sie wesentlich schneller wäre. Du gehst da m.E. von einem einzelnen spezifischem KI-Konzept aus, das keineswegs das sein muss, was schlussendlich umgesetzt würde.
Zitat von JimtonicJimtonic schrieb:In der Diskussion fehlt mir letztlich eine schlüssige Argumentation die es für mich vorstellbar macht, dass eine von Menschen erschaffene KI nicht mehr durch Zutun des Menschen lernt, sondern sich das Lernen quasi selbst beibringt. Das einzig praktikable Konzept ist derzeit, dass eine KI neuronale Netze dadurch trainiert, dass Menschen ihr vorgeben was richtig und was falsch ist. Um dieses Stadium zu verlassen, müsste die KI von alleine schlauer als die Menschen werden, die sie entwickeln. An der Stelle sehe ich den Knackpunkt des Ganzen: ein solcher Quantensprung aus dem Nichts ist weder abzusehen, noch gibt es irgendwelche Anhaltspunkte dafür, dass so etwas überhaupt möglich ist.
Ein unüberwacht lernendes KNN würde nicht nur aus menschlichen Vorgaben lernen sondern ebenso aus anderen Impulsen die von außen auf die KI einprasseln.
Im Clash habe ich diese Position als menschliche Hybris bezeichnet, weil es, eine völlig absurde Perspektive ist, dass Menschen (in was auch immer für einem Punkt) der KI überlegen sein müssen. Eine KNN basierte KI könnte sich ebenso über seine Lehrer hinaus entwickeln wie es ein menschliches Kind könnte.

Abgesehen davon hat mein Gegner diesen Punkt nicht in Frage gestellt, daher war mir auch nicht klar, dass ein Bedarf dafür entstand, diese Sache zu erklären.


Daher taucht sie auch nur in nem Nebensatz auf:

CoA 2017 AF 4 - SilentCry vs. Interpreter (Seite 3) (Beitrag von interpreter)
Ein neuronales Netz kann prinzipiell jegliche Funktion eines menschlichen Hirnes übernehmen.
Zu den Funktionen eines menschlichen Hirnes gehört auch die Möglichkeit, zu lernen. Tatsächlich tut es das quasi ständig und ohne das irgendjemand Knöpfe drücken müsste.
Zitat von 1.21Gigawatt1.21Gigawatt schrieb:Diese ganzen Killer-KI Fantasien sind einfach viel zu Hollywood für mich. Dass eine KI böse bzw. für den Menschen schädliche Absichten verfolgt setzt so viele unlogische Annahmen voraus.
Die wahre Gefahr wird auch bei dieser Technologie unterm Strich wieder vom Menschen ausgehen, der leistungsstarke KI als Waffe verwenden wird.
Zitat von vincentvincent schrieb:Da bin ich bei dir.. deswegen bin ich auch so enttäuscht, dass @interpreter so locker mit davon gekommen ist. :D
Ein künstliches Wesen, das klüger ist, als die Menschen, wählt für sich Ziele, die mit dem Überleben der Menschheit nicht konform sind.
Was soll daran unlogisch sein?
Warum seid ihr der Überzeugung, dass eine KI notwendigerweise positive Ziele haben muss? Das trifft ja nicht mal auf Menschen zu. Zwar wird eine KI wahrscheinlich nicht das Ziel verfolgen, die Menschheit auszulöschen aber die Auslöschung der Menschheit kann ebenso eine Konsequenz der anderen Ziele sein.
Beispielsweise könnten die Menschen einfach zu viele Ressourcen verbrauchen, zu gefährlich oder zu schädlich für das Umfeld der KI sein, um der KI eine sichere Umsetzung anderer Ziele zu erlauben.


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 08:48
@interpreter 

Warum muss die KI unbedingt einen Selbserhaltungstrieb oder Fortpflanzungstrieb haben? Womöglich sind Kooperation und Symbiose in hochentwickelten Systemen die einzig logischen Verhaltensweisen....usw.

Das Szenario das Du entwirfst funktioniert nur weil Du eine hohe Wahrscheinlichkeit postulierst es könne eintreten. Du kannst ja mal die Möglichkeiten für mein Blattlausszenario durchrechnen, mit Deiner Methode müsstest Du auf einen Wert über Null kommen. Aber was bedeutet das für die Gefährlichkeit von Popcorn?


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter - Wer war besser?

16.05.2017 um 08:56
@interpreter
Mal davon abgesehen, was ist von einer "Intelligenz" zu halten, die Beschließt sich selber zu zerstören, weil sie das Universum mit Büroklammern Fluten möchte?😊


Anzeige

1x zitiertmelden