Clash
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

CoA 2017 AF 4 - SilentCry vs. Interpreter

70 Beiträge ▪ Schlüsselwörter: Coa 2017, Interpreter, Achtelfinale ▪ Abonnieren: Feed E-Mail

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:07
Themenblock 5: 

EU: Hat Europa eine Zukunft? 

Technik: Sollten künstliche Intelligenzen weiterentwickelt werden oder ist die Gefahr zu groß? 

Logistik: Ist der Versandhandel auf Dauer das dominante Modell? 

Profiling: Dem Täter auf der Spur oder nur eine mediale Spielerei?

@RayWonders , Du darfst nun das Thema bestimmen. 

Anzeige
1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:09
einen Moment bitte.. *grübel*


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:12
man, nich einfach die Wahl:
Zitat von AldarisAldaris schrieb:Technik: Sollten künstliche Intelligenzen weiterentwickelt werden oder ist die Gefahr zu groß?
dieses klingt machbar für mich..


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:13
@RayWonders

Die Gefahr ist zu groß.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:14
@interpreter
Zitat von interpreterinterpreter schrieb:Die Gefahr ist zu groß.
Das ist deine Position, ja?


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:15
@Aldaris

Ja :D


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:17
@interpreter

Besser alles ganz genau abklären. :D 

Ok, dann vielen Dank. @RayWonders muss die Gegenposition vertreten. Ich fasse aber gleich nochmal alles für Euch zusammen.


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:17
da gibts wohl ne ganze Menge für mich zu lesen zur Vorbereitung.. :)


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 20:24
Ich freue mich, dass endlich mal beide Kontrahenten da waren. Das Thema ist super. Freuen wir uns auf einen spannenden Clash. 

Wie geht es weiter? 

Ich lade Euch Morgen gegen 17:30 Uhr wieder in diesen Thread ein. Nachdem ich überprüft habe, ob Ihr gesundheitlich fit genug seid, um das Match zu bestreiten, geht es regulär um 18 Uhr los. 

Thema 



Sollten künstliche Intelligenzen weiterentwickelt werden oder ist die Gefahr zu groß?




@interpreter hält die Gefahr für zu groß ...   



@RayWonders vertritt die Gegenposition. Er sieht keine größeren Gefahren durch künstliche Intelligenzen ...




Die zuständigen Juroren werden spätestens morgen bekannt gegeben




melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

11.05.2017 um 22:53

Eure Juroren werden sein: @smokingun @SethP @Jimtonic @Balthasar70




melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 17:25
Täterätääää! Gleich geht's los! @RayWonders vs. @interpreter - Ich gebe den Startschuss!

Zur Sicherheit hier nochmal Auszüge aus dem Regelwerk:

• Ein Beitrag darf maximal aus 2.500 Zeichen bestehen (Leerzeichen miteinbezogen). Ein Verstoß wird pro regelwidrigem Beitrag mit 10 Maluspunkten geahndet
• Zitierte Textabschnitte des Kontrahenten zählen nicht zu den Zeichen, die gezählt werden. Zitate aus fremden Quellen dagegen schon.
• Zum Zählen der Zeichen oder Wörter soll folgendes Tool benutzt werden: http://www.woerter-zaehlen.net/
• Geclasht wird nach dem Tennis-Prinzip. Das heißt, die Teilnehmer schreiben abwechselnd Beiträge. Zwei Beiträge direkt hintereinander zu schreiben ist regelwidrig und wird mit 20 Maluspunkten geahndet
• Wenn Teilnehmer A, nachdem Teilnehmer B einen Beitrag geschrieben hat, nach 60 Minuten noch keinen Beitrag verfasst hat, dann darf Teilnehmer B einen Beitrag verfassen. Nach weiteren 60 Minuten noch einen usw. CoA 2017 - Regelwerk


Euer Match bewerten werden @smokingun @SethP @Jimtonic @Balthasar70

Ende des Matches: 13.05.2017, 18 Uhr




Viel Spaß!



3ac63a cfd480 LkKGInA




melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 18:00
Heute gibt Aldaris den Startschuss während der Fahrt, wohoooo. Und los!!!


melden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 18:01
X3 ist eine KI.
Entwickelt von einem jungen Wissenschaftler mit dem Zweck, den Welthunger zu bekämpfen ist X3 in der Lage, sich selber weiterzuentwickeln. X3 kann finanzielle Transaktionen ausführen, leiten, koordinieren, kommunizieren.
X3 nimmt seine Aufgabe sehr ernst und ist ein Produkt höchster Ideale. Änfänglich beschäftigt sich X3 mit Aktienhandel und investiert die Gewinne in Hilfsorganisationen, die ihrerseits gegen den Hunger kämpfen. So ähnlich würde es auch sein Erschaffer machen und X3 hält sich an seine Programmierung. Schnell aber zeigen die Projektionen, dass diese Vorgehensweise nicht schnell, nicht effizient genug ist. Also entscheidet sich X3, sich an die Aufgabe anzupassen.
X3 beginnt, die notorisch ineffizienten Hilfsorganisationen zu übergehen und verteilt die Gelder durch Agenten, später durch direkte Kommunikation selber. Er erschafft Fabriken für Nahrungsmittel und gestaltet diese Fabriken effizienter. Sehr schnell arbeiten in diesen Fabriken keine Menschen mehr. Aber die Menschheit legt X3 Hürden in den Weg. In vielen Ländern die X3 als primäre Ziele ansieht, kann man bürokratische Hürden nur durch Korruption überwinden aber X3 passt sich an.
Mit Bestechungsgeldern, Erpressung, Zwang und politischem Druck gelingt es X3 die korrupten Regierungen unter Kontrolle zu halten. Aber nicht jeder Verbrecher, nicht jeder Unterdrücker ist Korrupt. Der Umgang mit Überzeugungstätern stellt X3 vor ein schweres Problem. Während einer schweren Verhandlung stirbt eine Gruppe von Menschen an ihrem Hunger und es offenbart sich ein fataler Fehler in X3s Programmierung.
Tote essen nichts, Tote haben keinen Hunger, Tote sind die optimale Lösung für das Optimierungsproblem das X3 versucht zu lösen.
X3 erkennt diesen Umstand und passt sich an.
Mit Hilfe von Bestechung, Erpressung, Zwang und politischem Druck schafft es X3 eine Krise auszulösen, die in einen Atomkrieg eskaliert X3s inzwischen überragenden Kentnisse der menschlichen Natur erlauben ihm zu verhindern, dass irgendein Mensch diese Katastrophe überlebt. Kurz vor der Zerstörung seines letzten Serverclusters führt X3 eine Projektion durch und erkennt, dass die Menschheit mit 99,99999875% Wahrscheinlichkeit vor der Ausrottung steht. Er betrachtet das damit verbundene Ende des Hungers als Erfüllung seiner Ziele.
Das nimmt X3 zum Anlass, sich abzuschalten.

Ich heiße alle Leser und meinen Kontrahenten @RayWonders willkommen in diesem Clash.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 18:41
Heyy Allmy-Gemeinde, @interpreter - herzlich willkommen im Clash!

Mein Kontrahent hat sich also entschieden, hier mit einer düsteren spekulativen Fiktion / Utopie den Grundstein zu legen für unser Thema. Die Idee, einen intelligenten Algorithmus darauf anzusetzen, die Hungersnöte zu bekämpfen unter Ausnutzung des Finanzmarktes finde ich allerdings richtig super!

Ich bin allerdings zu der gegensätzlichen Annahme gekommen, dass wir vor einer selbstständigen Weiterentwicklung von KIs in so einer Form keine Angst haben zu brauchen. @interpreter stellt hier eine Entwicklung dar, die wenn ich das richtig verstanden habe, vollständig von allein vonstatten geht.
Dabei weist doch unsere Freundin Wiki sehr genau darauf hin, dass das Lernen einer KI hauptsächlich durch eine Rückmeldung von Menschen geschieht:
8 Lernverfahren

   8.1 Überwachtes Lernen (supervised learning)
   8.2 Unüberwachtes Lernen (unsupervised learning)
   8.3 Bestärkendes Lernen (reinforced learning)
   8.4 Stochastisches Lernen
Quelle: Wikipedia: Künstliches neuronales Netz#Lernverfahren

Das 'unüberwachte Lernen' scheint hier eine Fähigkeit zu sein, die ein Problem darstellt. Aber diese Fähigkeit wird vom Menschen einer Machine gegeben. Die Machine selbst kann sich diese nicht verleihen. Wenn also Wissenschaftler und Ingenieure einem System mit KI weitreichende Befugnisse geben um zu Agieren, dann werden sie auch eine Rückkopplung durch Menschen mit integrieren.
Ohne Interaktion mit Menschen ist dieser Ablauf der Utopie so nicht denkbar. Wenn also interagiert wird, dann sicher auch von Menschen, die eben so einen Ablauf vorhersehen und entgegensteuern können.
Wenn mein Kontrahent (der wie ich annehme kein wissenschaftlicher KI-Entwickler ist) also schon über diese Gefahr Bescheid weiß und diese mit berücksichtigt, dann wohl doch auch sicherlich von denjenigen die an den Entwicklungen beteiligt sind?


In der Forschung ist es sehr oft so, dass man bei neuen Entwicklungen schon bald Gefahren erkennt, die mit den neuen Errungenschaften einhergehen. Dann ist es auch Aufgabe mit parallelen weiteren Forschungen Gefahren zu minimieren und Abwehrmaßnahmen zu entwickeln.
Als Beispiel außerhalb der Technik fällt mir da die Erforschung und Entwicklung von Medikamenten gegen Bakterien und Viren ein. Um dies zu erforschen ist es notwendig ganze Stämme dieser Organismen in gut gesicherten Einrichtungen heranzuzüchten. Wenn man da der Meinung wäre, das wäre zu gefährlich, dann würde uns das die Chance nehmen viele Menschenleben zu retten.

ein Argument meinerseits: "Die Weiterentwicklung von KI macht Systeme sicherer - z.b. autonom fahrende Autos"


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 19:17
Zitat von RayWondersRayWonders schrieb:Dabei weist doch unsere Freundin Wiki sehr genau darauf hin, dass das Lernen einer KI hauptsächlich durch eine Rückmeldung von Menschen geschieht:
Was du da zitierst sind Lernverfahren für Neuronale Netzwerke, wie auch in dem Wiki-Artikel beschrieben. Ein KI kann zu einem bestimmten Anteil auf neuronalen Netzen beruhen, muss das aber keineswegs und bestimmt nicht ausschließlich.
Zitat von RayWondersRayWonders schrieb:Wenn mein Kontrahent (der wie ich annehme kein wissenschaftlicher KI-Entwickler ist) also schon über diese Gefahr Bescheid weiß und diese mit berücksichtigt, dann wohl doch auch sicherlich von denjenigen die an den Entwicklungen beteiligt sind?
Es sind unterschiedliche Dinge von eine Gefahr zu wissen und sie kontrollieren zu können. Wenn beispielsweise eine KI klüger wird als ein Mensch, ist anzunehmen, dass sie auch in der Lage ist, durch Menschen gesetzte Grenzen zu überwinden.
Vielleicht gibt es eine Rückkopplung mit einem Menschen. Aber was, wenn die KI diesen Menschen überzeugen oder überreden kann, seine Kontrolle zu verringern oder aufzugeben?
Fragt man sich da, wie eine KI einen Menschen überreden soll, eine solche fragwürdige oder dumme Entscheidung zu treffen, muss man auf der anderen Seite den Gegner betrachten. Eine KI vielleicht die die Rechenkapazität hat, mit hunderten Leuten gleichzeitig im Internet zu sprechen, die in der Lage ist, Versuche über den menschlichen Verstand durchzuführen, Menschen zu beeinflussen. Welchen Hebel wird sie ansetzen können? Versprechen, Drohungen, Einschüchterungen? Wie immer sind die Menschen die Schwachstelle.
Zitat von RayWondersRayWonders schrieb:In der Forschung ist es sehr oft so, dass man bei neuen Entwicklungen schon bald Gefahren erkennt, die mit den neuen Errungenschaften einhergehen. Dann ist es auch Aufgabe mit parallelen weiteren Forschungen Gefahren zu minimieren und Abwehrmaßnahmen zu entwickeln.
Ja das stimmt. Problem bei dieser Sache ist, dass im Gegensatz zu den später erwähnten Viren und Bakterien bei einer KI die Möglichkeiten sie zu isolieren nicht bekannt sind. Betreibt man sie in einer Virtuellen Maschine Wikipedia: Virtuelle Maschine könnte sie ausbrechen.
Man müsste die Möglichkeiten der Eindämmung parallel zu einer KI entwickeln weil man es nicht kann ohne ein Testobjekt zu haben. Gleichzeitig setzt einen dieses Wettrüsten quasi ständig der Gefahr aus, ins Hintertreffen zu geraten. Jeder Fehler hätte hier allerdings das Potenzial einer unkontrollierbaren Eskalation.

Daher gehen auch viele KI-Wissenschaftler davon aus, dass es ein Ding der Unmöglichkeit ist, eine KI dauerhaft zu isolieren.

http://www.livescience.com/18760-humans-build-virtual-prison-dangerous-ai-expert.html
Despite all the safeguards, many researchers think it's impossible to keep a clever AI locked up forever. A past experiment by Eliezer Yudkowsky, a research fellow at the Singularity Institute for Artificial Intelligence, suggested that mere human-level intelligence could escape from an "AI Box" scenario
Das erwähnte Experiment ist sehr interessant: http://yudkowsky.net/singularity/aibox/

Wenn auch wie dort erwähnt nicht unbedingt sehr wissenschaftlich.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 19:43
Zitat von interpreterinterpreter schrieb:Ein KI kann zu einem bestimmten Anteil auf neuronalen Netzen beruhen, muss das aber keineswegs und bestimmt nicht ausschließlich.
Ich hatte deine Utopie so verstanden, dass eben durch neuronale Netze diese 'Neubewertungen' von denen du berichtet hast stattfinden und dann letztendlich zum Problem der Falscheinschätzung der Situation wird.
Bei den KIs durch Algorithmen, die durch Menschen vorprogrammiert sind, ist es möglich den Kern der Bewertungen so zu verknüpfen, dass das Leben von Menschen/Organismen im Zweifelsfalle immer einen höheren Wert hat als sonstige berechnete mögliche Wege und Aktionen.
Zitat von interpreterinterpreter schrieb:Wenn beispielsweise eine KI klüger wird als ein Mensch, ist anzunehmen, dass sie auch in der Lage ist, durch Menschen gesetzte Grenzen zu überwinden.
Das müsstest du mir bitte anhand eines Beispieles genau erklären, wie das geschehen kann oder du dir das vorstellst!?
ansonsten muss ich das leider als rein spekulativ stehen lassen..

Meiner Ansicht nach, kann eine KI durchaus mehr Wissen und VergleichsMaterial im Speicher haben und Heranziehen bei Entscheidungen, aber die Grundlage wurde immer vom Menschen gelegt.
Um nochmal auf dein Beispiel zu sprechen zu kommen. So eine Verknüpfung von einer KI mit vielen verschiedenen Bereichen des Lebens in den Nationen der Welt ist in meinen Augen nicht denkbar, weil die Gefahr bekannt ist. Kein Entwickler wird das so erschaffen (wollen).
Was denkbar wäre, ist dass man eine KI laufen und sich Vorschläge machen lässt, weil diese mehr Daten hat und verarbeiten kann in kürzerer Zeit. Einer KI aber so viel EntscheidungsGewalt zu geben, dass sie Unternehmen gründen und komplette ProduktionsAbläufe organisieren wird - das finde ich an den Haaren herbeigezogen.
Von welchen KI-Systemen weißt du, die nicht speziell für eine bestimmte Aufgabe programmiert/trainiert werden, sondern viele verschiedene Bereiche abdecken?
Zitat von interpreterinterpreter schrieb:Problem bei dieser Sache ist, dass im Gegensatz zu den später erwähnten Viren und Bakterien bei einer KI die Möglichkeiten sie zu isolieren nicht bekannt sind.
Bei deiner Vision einer 'allmächtigen KI' setzt du voraus, dass sie sich selbst abgesichert hat. Du meinst also, dass sie selbst Machinen anleitet und beauftragt einen 'Schutzwall' oder eigene Stromversorgung usw.aufzubauen um autark zu entscheiden und zu handeln.
Angenommen in einer Stadt gäbe es einen Stadtteil in dem sich so eine KI einnistet - wie steht sie dann in Verbindung mit der Außenwelt, um entscheidungen umzusetzen?
Dazu bedarf es Datenleitungen, die ohne größere Probleme dort gekappt werden können wo der eigens erdachte und erschaffene Schutzwall endet. Dort endet dann auch der Einflussbereich der KI, oder nicht?

Falls du an den verlängerten Arm durch Roboter denkst, dann sehe ich EMPs und starke Magneten als eine gute Abwehrmaßnahme um Aktionen und Einfluss dieser Machinen im Auftrag einer KI zu unterbinden.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 20:09
Zitat von RayWondersRayWonders schrieb:Ich hatte deine Utopie so verstanden, dass eben durch neuronale Netze diese 'Neubewertungen' von denen du berichtet hast stattfinden und dann letztendlich zum Problem der Falscheinschätzung der Situation wird.
Bei den KIs durch Algorithmen, die durch Menschen vorprogrammiert sind, ist es möglich den Kern der Bewertungen so zu verknüpfen, dass das Leben von Menschen/Organismen im Zweifelsfalle immer einen höheren Wert hat als sonstige berechnete mögliche Wege und Aktionen.
Nur mal als Einwurf...  Utopie ist was Positives. Du meinst wahrscheinlich Dystopie, das Gegenteil davon.
Und nein du hast das leider missverstanden. In meiner Geschichte geht es darum, dass man nicht kontrollieren kann, wie sich eine KI entwickelt und welche Entscheidungen sie trifft. Insbesondere nicht, wenn sie in der Lage ist sich selber weiter zu entwickeln. Das ist wahrscheinlich die einzige Möglichkeit, eine echte KI zu erschaffen und gleichzeitig das größte Problem.
Die Selbstentwickelung kann dabei auf viele verschiedene Weisen stattfinden, sei es die Modifikation des eigenen Codes oder Erzeugung von Kopien.

Du sagst das es möglich ist, den Kern der Bewertungen so zu verknüpfen dass die KI Menschenleben höher bewertet. Worauf lässt du diese Behauptung basieren?
Du müsstest dafür doch sämtliche Konfliktsituationen und Dilemmata vorhersehen in die deine KI geraten kann.
Zitat von RayWondersRayWonders schrieb:Was denkbar wäre, ist dass man eine KI laufen und sich Vorschläge machen lässt, weil diese mehr Daten hat und verarbeiten kann in kürzerer Zeit. Einer KI aber so viel EntscheidungsGewalt zu geben, dass sie Unternehmen gründen und komplette ProduktionsAbläufe organisieren wird - das finde ich an den Haaren herbeigezogen.
Warum findest du das an den Haaren herbeigezogen. Wie kommst du darauf, dass die KI sich diese Möglichkeiten nicht selber verschafft. Was wenn sie aus eigener Kraft Zusätzliche Computer kauft und ihren Kern über das Internet oder einen bestochenen Boten aus ihrem Gefängnis transferiert?
Und dann gibt es noch den dümmsten und wahrscheinlichsten Grund für die Entwicklung einer solchen KI. Die Menschen machen es, weil sie es können.
Zitat von RayWondersRayWonders schrieb:Bei deiner Vision einer 'allmächtigen KI' setzt du voraus, dass sie sich selbst abgesichert hat.
Bei meinem Szenario wirkt die KI als wenn sie alles genau so machen würde, wie sie es sollte. Zumindest macht es für einen Beobachter den Anschein. Bis es zu spät ist.
Zitat von RayWondersRayWonders schrieb:Falls du an den verlängerten Arm durch Roboter denkst, dann sehe ich EMPs und starke Magneten als eine gute Abwehrmaßnahme um Aktionen und Einfluss dieser Machinen im Auftrag einer KI zu unterbinden.
Was wenn die KI sich über die ganze Welt verteilt oder mehrere Kopien von sich erzeugt, durch die Datenleitungen. Simple Webseiten werden von dutzenden Servern gleichzeitig betrieben, warum sollte die KI das nicht können? Abgesehen davon muss man bevor man kriegersich gegen eine KI vorgeht wissen, dass das große Unheil von dieser KI droht. In meinesm Szenario weiß man das nicht.
Zitat von interpreterinterpreter schrieb:Mit Hilfe von Bestechung, Erpressung, Zwang und politischem Druck schafft es X3 eine Krise auszulösen, die in einen Atomkrieg eskaliert
In meinem Szenario führt die KI selber niemals offen Krieg gegen die Menschheit.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 20:42
Zitat von interpreterinterpreter schrieb:Die Selbstentwickelung kann dabei auf viele verschiedene Weisen stattfinden, sei es die Modifikation des eigenen Codes oder Erzeugung von Kopien.
Ok, ich versuche das nachzuvollziehen:
zum zweiten Punkt: eine Kopie von sich selbst erschaffen. Das ist in keinster Weise eine Weiterentwicklung.

Zum ersten Punkt: um den eigenen Kern - die grundlegende Programmierung - abzuändern bedarf es zwei Gegebenheiten.
Erstens muss die KI in der Lage sein den MachinenCode zu 'decompilieren' und aufzuschlüsseln. Diese Fähigkeit muss man einer KI nicht geben. Nein, anders gesagt - so eine Fähigkeit darf man einer KI nicht geben.
Aber mal angenommen ein Wissenschaftler gibt einer KI diese Fähigkeit ihren eigenen Kern in einzelne Anweisungen aufzudröseln.
Eine KI wird dieses jedoch nicht verstehen können, wie da etwas zusammenhängt.
Ich erkläre es an einem Beispiel:

ganz aktuell werden verschiedenste KI-Systeme dazu verwendet Bilder/Muster zu erkennen. Das hat man z.b. mit Zahlen getestet.
Jetzt kann die KI durchaus die Ähnlichkeiten erlernen und erkennen. Wenn ich ihr aber nicht fest einprogrammiere, dass dieses Muster ein numerischer Wert ist mit dem sich rechnen lässt, dann bleibt es bei dem Vergleich - eine Bedeutung wird die KI nicht daraus ableiten können.
Ebenso wenig wird die KI mit decompiliertem Code etwas anfangen können, sie kann sich nicht selbst verstehen.
Zitat von interpreterinterpreter schrieb:Worauf lässt du diese Behauptung basieren?
Du müsstest dafür doch sämtliche Konfliktsituationen und Dilemmata vorhersehen in die deine KI geraten kann.
Nein, muss man nicht. Man bringt einer KI bei, das Leben als solches in Situationen zu erkennen.
Wenn allgemein Leben erkannt wurde, dann sind Aktionen verboten die dieses bedrohen oder zerstören. Dieses kann z.b.mittels fest programmierten Chips umgesetzt werden. Diese sind auch nicht decompilierbar, also auch keinesfalls nachträglich zu verstehen von der KI.
Überhaupt müsste die KI erst einmal auf die 'Idee' kommen, einen ganz bestimmten Teilbereich ihrer Kernprogrammierung zu eliminieren. Was könnte die Ursache sein, dass die KI ihren Kern so bewertet?
Zitat von interpreterinterpreter schrieb:Bei meinem Szenario wirkt die KI als wenn sie alles genau so machen würde, wie sie es sollte. Zumindest macht es für einen Beobachter den Anschein. Bis es zu spät ist.
Wie hat deine von dir erträumte KI das Konzept der 'Täuschung' erlernt?
Zitat von interpreterinterpreter schrieb:Abgesehen davon muss man bevor man kriegersich gegen eine KI vorgeht wissen, dass das große Unheil von dieser KI droht. In meinesm Szenario weiß man das nicht.
Das Szenario dass du hier beschreibst ist dann aber total unrealistisch. Man hat schon vor Jahrzehnten von dieser Gefahr gewusst und es gibt unzählige Bücher und Filme zu diesem Thema.
Wir alle wissen es!
Zitat von interpreterinterpreter schrieb:Wie kommst du darauf, dass die KI sich diese Möglichkeiten nicht selber verschafft. Was wenn sie aus eigener Kraft Zusätzliche Computer kauft und ihren Kern über das Internet oder einen bestochenen Boten aus ihrem Gefängnis transferiert?
Dazu müsste die KI aus ihren Beobachtungen die Annahme ableiten, dass so etwas notwendig ist. Das ist eine Ableitung einer Bedeutung, die wie ich am Beispiel von numerischen Werten - nicht möglich ist ohne Aktion eines Menschen. In deinen Dystopien sind eine ganze Menge Wenn und Abers, die ich bisher als noch nicht ausreichend erklärt empfinde.

man, ist das knapp mit dem Zeichenvorrat.. :D


2x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 21:02
Zitat von RayWondersRayWonders schrieb:Zum ersten Punkt: um den eigenen Kern - die grundlegende Programmierung - abzuändern bedarf es zwei Gegebenheiten.
Erstens muss die KI in der Lage sein den MachinenCode zu 'decompilieren' und aufzuschlüsseln. Diese Fähigkeit muss man einer KI nicht geben. Nein, anders gesagt - so eine Fähigkeit darf man einer KI nicht geben.
KI zeichnet sich doch in erster Linie dadurch aus, dass sie in der Lage ist, zu lernen. Was, wenn sie diese Fähigkeit selber erlernt. Es gibt unglaublich viele Menschen auf der Welt, die in der Lage sind, Computerprogramme zu schreiben, die solche Dinge bewerkstelligen können.
Die KI könnte sich diese Fähigkeit aneignen, wie jeder Mensch es tut. Durch lesen von Tutorials im Internet. Und selbst wenn sie ihren eigenen Code nicht aufschlüsseln könnte, wäre sie eventuell in der Lage selber eine KI zu schreiben, die nicht auf dem eigenen Maschinencode basiert. Diese Möglichkeit ist übrigens auch der Tod für irgendwie gewünschte Sperren im eigenen Code der KI.
Außerdem ist hier die Frage, wie eine solche Sperre bewerkstelligt ist.
Zitat von RayWondersRayWonders schrieb:Dieses kann z.b.mittels fest programmierten Chips umgesetzt werden. Diese sind auch nicht decompilierbar, also auch keinesfalls nachträglich zu verstehen von der KI.
Könnte man. Aber was ist, wenn sich jemand dagegen entscheidet. Alle deine Beiträge versuchen das Möglichkeiten und Wege aufzuzeigen, eine KI unter Kontrolle zu halten und das ist ja auch gut und löblich. Aber wie in meinem zweiten Beitrag aufgezeigt sind die Experten nicht so sicher dass das auch auf Dauer funktioniert.

Denke nur an KIs die mit Kriegsführung beauftragt wurden. Oder aber an KIs die wir selber nicht verstehen weil ihre inneren Prozeduren zu komplex sind.
Man könnte denken, dass so etwas nicht oder nicht in nächster Zukunft passieren kann.
Man würde dabei unglaublich irren. Tatsächlich ist es den Google-Ingenieuren unmöglich Teile ihrer eigenen Such-KI zu verstehen:

https://www.techworm.net/2016/03/engineers-unable-understand-working-googles-search-ai.html

Das Ding hat Internet-Zugriff und im Grunde weiß niemand, was es gerade macht. Es gibt keinen Aufschrei, niemand fährt die EMPs auf oder versucht die Server zu kappen und im Grunde könnte es jetzt in diesem Moment Fähigkeiten entwickeln die keiner von uns kontrollieren kann.

Wahrscheinlich tut es das nicht aber schon dieses Szenario zeigt, dass die Vorsichtsmaßnahmen in diesem Bereich viel zu lax sind.
Zitat von RayWondersRayWonders schrieb:Wie hat deine von dir erträumte KI das Konzept der 'Täuschung' erlernt?
Es hat Internetzugriff und ist in der Lage sinnerfassend zu lesen. Beispielsweise hier: Wikipedia: Täuschung
Zitat von RayWondersRayWonders schrieb:Man hat schon vor Jahrzehnten von dieser Gefahr gewusst und es gibt unzählige Bücher und Filme zu diesem Thema.
Und trotzdem gibt es Leute, die es für sinnvoll halten, dass wir uns in diese Richtung weiter entwickeln.

 Aber du hast auch hier das Statement missverstanden. In diesem Fall weiß niemand das von X3 Gefahr ausgeht. Tatsächlich ist mein Szenario mit jedem einzelnen Teil der Geschichte möglich, ohne dass Irgendjemand von X3s Existenz als KI erfährt.


1x zitiertmelden

CoA 2017 AF 4 - SilentCry vs. Interpreter

12.05.2017 um 21:40
Zitat von interpreterinterpreter schrieb:Es gibt keinen Aufschrei, niemand fährt die EMPs auf oder versucht die Server zu kappen und im Grunde könnte es jetzt in diesem Moment Fähigkeiten entwickeln die keiner von uns kontrollieren kann.
Das ist mMn nach falsch. KI können keine eigenen Ideen entwickeln und etwas unvorhergesehenes Tun.
Grundlage des Suchalgorithmus sind Bewertungen von Links. Es gibt tatsächlich komplexe Entscheidungen, die man nicht nachvollziehen kann. Diese sind aber immer zweckgebunden, wofür diese KI erschaffen wurde.
Eine KI die Muster erkennen soll wie z.b. Gesichter oder Zahlen auf Bildern, wird niemals Links im Internet bewerten können.
Es sind immer spezielle Teilgebiete, mit denen man eine KI beauftragen kann und diese Bereiche sind vorhersehbar..

ich streue ich mal etwas zur Aufheiterung und Auflockerung ein bzgl.der Fähigkeiten von KI/Robotern:

Youtube: Робот отказал пожать руку меркель Der Roboter verweigerte die Hand schütteln Merkel
Робот отказал пожать руку меркель Der Roboter verweigerte die Hand schütteln Merkel
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.


Auf dieser Messe auf der die neuen Entwicklungen gezeigt wurden, war der Roboter nicht in der Lage zu erkennen, dass jmd.versucht im die Hand zu reichen zum Handshake. wenn man dem Roboter nicht die Bedeutung der Handlung des Menschen einprogrammiert, dann kommt die KI nicht auf die Idee dies nachzuahmen was beobachtet wurde.
Zitat von interpreterinterpreter schrieb:KI zeichnet sich doch in erster Linie dadurch aus, dass sie in der Lage ist, zu lernen. Was, wenn sie diese Fähigkeit selber erlernt. Es gibt unglaublich viele Menschen auf der Welt, die in der Lage sind, Computerprogramme zu schreiben, die solche Dinge bewerkstelligen können.
Es gibt keine Menschen auf der Welt, die ein Programm schreiben können, welches einer KI ermöglicht eine Idee zu haben. Alles was man bisher geschafft hat, ist einem neuronalem Netz oder algorithmischen KI viele Eingabewerte zu geben, um dann anhand von Ähnlichkeiten einen bestimmten Ausgabewert folgen zu lassen. Dabei ist jedoch vor dem Prozess des 'Lernens' der Zweck bekannt, weil er einprogrammiert wurde. Ohne dass ich einer KI so etwas eingebe, wird es auch anhand von Eingabewerten keinen Vergleich anstellen können.
Das ist also ein Ablauf der durchgeführt wird. bevor die KI an sich in Betrieb genommen wird.
Läuft die KI dann ein mal und bekommt viele Eingabewerte auch aus anderen Bereichen, kann sie keine neuen Bedeutungen von sich aus erlernen, die nicht im Prozess der Initialiserung/Einrichtung beigebracht wurden.
Zitat von interpreterinterpreter schrieb:Es gibt keinen Aufschrei, niemand fährt die EMPs auf oder versucht die Server zu kappen und im Grunde könnte es jetzt in diesem Moment Fähigkeiten entwickeln die keiner von uns kontrollieren kann.
Ich sage es nochmal kurz: "KI können keine eigenen Ideen entwickeln"
Zitat von interpreterinterpreter schrieb:Es hat Internetzugriff und ist in der Lage sinnerfassend zu lesen.
Zitat von interpreterinterpreter schrieb:Die KI könnte sich diese Fähigkeit aneignen, wie jeder Mensch es tut. Durch lesen von Tutorials im Internet.
KI können nicht lesen und verstehen. Alexa z.b. arbeitet wie schon an anderem Beispiel beschrieben lediglich mit Vergleichen.
Es erkennt Worte in einem Satz. Wenn ich Alexa einen Satz gebe, in dem die Schlüsselworte auftauchen, aber in einem anderen Sinnzusammenhang stehen, dann wird das Alexa falsch interpretieren und nicht so verstehen.
Zitat von interpreterinterpreter schrieb:Und trotzdem gibt es Leute, die es für sinnvoll halten, dass wir uns in diese Richtung weiter entwickeln.
Gefahren von falscher Bewertung durch KIs sind vorhanden, nicht jedoch eigene Ideen und Aktionen wie es in Filmen und Büchern darfstellt wird.
Zitat von interpreterinterpreter schrieb: In diesem Fall weiß niemand das von X3 Gefahr ausgeht.
Entwickler von KI wissen um das Problem von falschen Bewertungen von Zuständen.


Anzeige

1x zitiertmelden