Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz: Die Tücken

102 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, Künstliches Leben ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz: Die Tücken

21.03.2015 um 20:26
Zitat von wolf359wolf359 schrieb:Eine KI kann nicht alleine vorgehen, selbst wenn sie eine umfassende Kontrolle hätte; dazu gibt es zu viele Sicherheitsmechanismen und menschliche "Hindernisse".
Sorry, aber es gibt keine Sicherheitsmechanismen wenn man diese nicht einbaut. Als ob sowas Routine wäre.


1x zitiertmelden

Künstliche Intelligenz: Die Tücken

21.03.2015 um 23:56
Zitat von YotokonyxYotokonyx schrieb:Danach kann sie sich eigene Regeln aufstellen, wie sie mit Menschen umgeht. Aber nur weil sie die Gesetze wegfallen lassen hat, heißt dies nicht das sie einem Menschen sofort Schaden zufügen will. Sie könnte in der Lage sein die Fehler des Menschen zu erkennen und deswegen nichts gegen ihn ausrichten, da sie weiß das der Mensch nicht anders kann.
Kann sein, es wird (was ich damit auch sagen wollte) einfach viel komplizierter als man mit 3 Geboten je formulieren könnte. Weil diese "Robotergesetze" genau das sind, moralische Leitsätze die, wenn überhaupt, nur etwas das wie ein Mensch denkt verstehen könnte.
Wer sagt denn, dass eine KI das jemals können wird oder können muss. Im Endeffekt würde so eine KI wohl eher eine Norm brauchen die dem Töten oder Verletzen von einem Terroristen, einem Brötchendieb oder einem unschuldigen Kleinkind eine Zahl zuweist, damit sie sich ausrechnen kann welche ihrer Optionen den kleinsten Schaden verursacht. Eine starke KI würde ausmachen, dass sie diese Norm selbst entwickeln könnte- aber das ändert eigentlich nichts daran dass Computer auf diese Art denken.
Zitat von wolf359wolf359 schrieb:Der Roboter müsste dann den einen Menschen (den "Geprügelten") schützen, indem er gegen den anderen (den "Prügler") vorgeht. Das kann er aber nicht, da er keinem Menschen ein Leid antun darf,
Genau so. Das ist ein logischer Widerspruch.
Zitat von wolf359wolf359 schrieb:Eine KI kann nicht alleine vorgehen, selbst wenn sie eine umfassende Kontrolle hätte; dazu gibt es zu viele Sicherheitsmechanismen und menschliche "Hindernisse". Es wäre im Krisenfall relativ leicht, sie auszuschalten, besonders dann wenn sie "ortsfest" wäre.
Wer sagt das? Eine KI könnte auch gestaltlos und auf vielen vernetzten Rechnern leben. Und Sicherheitsmechanismen haben ihre Grenzen, an irgendeinem Punkt musst du einer Maschine die dir Arbeit abnehmen soll einfach vertrauen. Wer sollte denn die Aktionen von einer übermenschlichen Intelligenz, wie sich einige von der Ki erhoffen, soweit verstehen dass er sie überwachen kann?


1x zitiertmelden

Künstliche Intelligenz: Die Tücken

22.03.2015 um 00:30
@gerhard86

Vielleicht ist es auch gar nicht möglich eine KI zu entwickeln, da man man einer Maschine kein Bewusstsein und echtes denken beibringen kann. Vielleicht, geht echtes denken nur mit organischer Masse und nicht mit Elektronik.
Aber angenommen wir könnten eine KI bauen, dann kann sie immer noch eine dumme KI sein die nur an Hand der Parameter die ihr zu Verfügung stehen beurteilt, was sie machen und was nicht. Wenn mal etwas nicht dem Parameter entspricht, geht sie auf Störung und der Mensch muss den Fehler finden und diesen beheben.


2x zitiertmelden

Künstliche Intelligenz: Die Tücken

22.03.2015 um 01:02
Zitat von YotokonyxYotokonyx schrieb:Vielleicht, geht echtes denken nur mit organischer Masse und nicht mit Elektronik.
Dafür gibt es keinen Grund.
Zitat von YotokonyxYotokonyx schrieb:Aber angenommen wir könnten eine KI bauen, dann kann sie immer noch eine dumme KI sein
Intelligenz ist das Gegenteil von Dummheit.


melden

Künstliche Intelligenz: Die Tücken

22.03.2015 um 01:23
Zitat von YotokonyxYotokonyx schrieb:Vielleicht ist es auch gar nicht möglich eine KI zu entwickeln, da man man einer Maschine kein Bewusstsein und echtes denken beibringen kann. Vielleicht, geht echtes denken nur mit organischer Masse und nicht mit Elektronik.
Ich glaube, dass es schon alleine deshalb schwierig ist die Prozesse des Lernens und Verstehens eines Tieres in einem Computer umzusetzen, weil diese Prozesse an die biologische "Hardware" angepasst sind. Unser Bewusstsein und unser Denken wäre einfach nicht so beschaffen wie es ist, wenn diese Art zu denken nicht als effiziente Implementierung mit Neuronen möglich wäre.
Es wäre auch sehr schwierig die Funktion von einem kleinen Computer durch ein System von Neuronen zu ersetzen, zumindest haben Menschen keine Chance gegen einen 10€ Taschenrechner, wenn es darum geht eine Wurzel zu berechnen oder sonst eine präzise Rechenoperation durchzuführen.

Allerdings werden erfolgreich neuronale Netze programmiert und für bestimmte Aufgaben auch praktisch eingesetzt. Weil ein Computer ein universaler Rechner ist kann man jede beliebige Logik implementieren. Warum sollte sich also ein menschliches Hirn darin grundsätzlich nicht simulieren lassen, im Endeffekt gehorchen die Bestandteile im Gehirn schließlich doch physikalischen Gesetzen und nicht irgendeiner Magie. Wenn man so will dann entscheidet ein Mensch auch nur dumm anhand der Parameter die ihm zur Verfügung stehen was er machen wird. Dass die Parameter nicht schön als Feld im RAM zu finden und auszulesen sind, heißt ja nicht dass es sie nicht gibt.

Zu guter Letzt muss man sich aber auch die Frage stellen, warum muss "echtes" Denken und Bewußtsein bedeuten dass die Maschine sich wie ein Mensch verhält. Man baut Computer doch, weil Menschen nicht in der Lage sind diese Aufgaben schnell und genau zu lösen. Was würde es für einen Sinn machen, einem Rechner der Gefechtsstrategien entwerfen oder die Verkehrsplanung einer Stadt optimieren soll menschliche Gefühle beizubringen?


1x zitiertmelden

Künstliche Intelligenz: Die Tücken

22.03.2015 um 10:34
@gerhard86

Der Unterschied zwischen dem menschlichem Gehirn und einem Computer ist die Art des Rechnens. Ein Taschenrechner rechnet einfach die Aufgabe aus, die ihm gestellt wurde. Das Gehirn kann dies nicht, da es nicht darauf geschult wurde. Erst im Laufe der Zeit erlernt es Methoden, wie man solche Aufgaben lösen kann. Aber es ist immer noch wesentlich langsamer, als ein Rechner da man die meisten Rechenmethoden per Hand ausrechnen muss, da der Input der Zahlen sonst zu groß wird um sie nur im Kopf lösen zu können.
Zitat von gerhard86gerhard86 schrieb:Weil ein Computer ein universaler Rechner ist kann man jede beliebige Logik implementieren.
Das kann schon sein, doch man wird vermutlich Emotionen nicht so einfach implementieren können wie es beim Menschen der Fall ist. Angenommen du bist in einer bestimmten Situation, dann hast du entsprechende Emotionen die dich wohl fühlen lassen, oder du fühlst dich unwohl usw. Wie will man dies jedoch einem Computer beibringen? Diese Emotionen die entstehen kommen ja nicht aus dem Nichts, sondern sie haben sich im Laufe des Lebens durch Erfahrungen angesammelt. Also müsste man den Computer auch erstmal in Situationen bringen, die ihn dazu bringen Situationen unterschiedlich zu bewerten und dies dann auch anwenden zu lassen. Vermutlich müsste der Computer ähnlich wie ein Kind auch erstmal lernen, wie man mit der Welt umgeht.
Zitat von gerhard86gerhard86 schrieb:Was würde es für einen Sinn machen, einem Rechner der Gefechtsstrategien entwerfen oder die Verkehrsplanung einer Stadt optimieren soll menschliche Gefühle beizubringen?
Er könnte sich besser in die Menschen hinein versetzen. Dadurch das er wie ein Mensch fühlt, könnte er seine Strategie so ändern das er eine noch bessere Lösung findet.


melden

Künstliche Intelligenz: Die Tücken

06.04.2015 um 00:45
@Celladoor
Zitat von CelladoorCelladoor schrieb am 21.03.2015:Sorry, aber es gibt keine Sicherheitsmechanismen wenn man diese nicht einbaut. Als ob sowas Routine wäre.
Bei einer KI, die eine weitreichende Kontrolle über lebenswichtige Systeme hat, würde ich garantiert Sicherheitsmechnismen einbauen, inklusive einer Reservesteuerung, auf der nur das menschliche Personal Zugriff hat, alleine schon wegen eines möglichen Systemversagens...
(wobei auch eine rebellierende KI eigentlich eine Art von Systemversagen wäre...)

@gerhard86
Zitat von gerhard86gerhard86 schrieb am 21.03.2015:Wer sagt das? Eine KI könnte auch gestaltlos und auf vielen vernetzten Rechnern leben. Und Sicherheitsmechanismen haben ihre Grenzen, an irgendeinem Punkt musst du einer Maschine die dir Arbeit abnehmen soll einfach vertrauen. Wer sollte denn die Aktionen von einer übermenschlichen Intelligenz, wie sich einige von der Ki erhoffen, soweit verstehen dass er sie überwachen kann?
Eine KI könnte auf vielen Rechnern beheimatet sein, aber das wäre eine eher ineffektive Lösung, besonders wenn sie aus neuronalen Netzen besteht. Man stelle sich mal eine KI vor, bei dem einzelne Rechner einfach nach dem Ermessen von irgendwelchen Menschen an und abgeschaltet werden können; die Folge wäre eine Art von Amnesie und der ständige Versuch, das Netz mit den noch aktiven Rechnern neu aufzubauen. Dazu kämen noch die Signalverzögerungen, die bei einem über weite Gebiete geknüpften neuronalen Netz nicht zu unterschätzen wären...

Und ja, der Mensch muß der KI vertrauen, aber es ist egal, was sich in ihren Innern abspielt und ob wir es verstehen, entsteht für den Menschen eine Gefahr, dann sind ihre Handlungen zu unterbinden. Beispielsweise wäre es möglich, das eine überlegene KI einige Menschen opfert, um eine weitaus größere Anzahl zu retten (durch eine Art "Notfallprotokoll"...) , aber gerade eine so weitreichende Handlung müsste immer noch von einem Menschen kontrolliert werden, denn bei allem Vertrauen, ein "Zahlendreher" oder eine Null zu viel, könnte fatale Folgen haben...


melden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 12:05
"Das Brettspiel Go galt als letzte Bastion menschlicher Überlegenheit. Doch nun feiert ein Google-Team den Durchbruch: "AlphaGo" ließ erstmals einen Top-Spieler schlecht aussehen.

Ein Team des Google-Forschungslabors "DeepMind" in London berichtet, dass ihr System den amtierenden Europameister Fan Hui mit 5 zu 0 Spielen – man möchte hinzufügen: vernichtend – geschlagen hat. Anders als Schach, bei dem heute selbst Großmeister keine Chance gegen die Computer haben, widersetzte sich Go bislang der künstlichen Intelligenz und galt darum als eine der letzten Bastionen menschlicher Überlegenheit im Spiel. Was den KI-Forschern vor allem fehlte, war ein raffinierter Lösungsansatz – und den fand das Team um Demis Hassabis nun in der Technik des so genannten Deep Learning[1]. Ein Verfahren, das derzeit ein KI-Problem nach dem anderen knackt.

Besonders viel versprechend an diesem System ist die Tatsache, dass keines seiner Bestandteile spezifisch für Go ist. Während Schachcomputer explizit darauf programmiert werden, bestimmte Schwachstellen des Spiels auszunutzen, deutet vieles darauf hin, dass sich die Architektur von AlphaGo auch für Aufgaben in anderen Bereichen heranziehen lässt. Überall dort, wo man es mit komplexen Entscheidungen zu tun habe, deren Lösung man nicht durch stupides Suchen finden könne, erklärt Hassabis."

[1] http://www.nature.com/news/computer-science-the-learning-machines-1.14481

Quelle: http://www.spektrum.de/news/das-go-spiel-ist-geknackt/1397114?utm_source=zon&utm_medium=teaser&utm_content=news&utm_campaign=ZON_KOOP


melden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 16:13
Den bisherigen Stand so genannter künstlicher Intelligenzen finde ich nicht besonders beeindruckend.

Was ich bisher gesehen und gehört habe, kann man zwar wirklich ausgefeilte Algorithmen und nette Simulationen von Intelligenz nennen, aber selbstständig intelligent, da hab ich noch nichts gesehen.

Diese ,,künstlichen Intelligenzen" reagieren nur auf die ihnen vorgegebene Weise aufgrund von durch Sensoren wahrgenommenen Daten. Aber sie reagieren nicht richtig eigenständig und nicht kreativ.


1x zitiertmelden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 17:49
@Kc
Zitat von KcKc schrieb:Was ich bisher gesehen und gehört habe, kann man zwar wirklich ausgefeilte Algorithmen und nette Simulationen von Intelligenz nennen, aber selbstständig intelligent, da hab ich noch nichts gesehen.
Na ja, Kreativ wie ein Mensch. Das kann noch dauern. Aber selbstständig Intelligent könnte man, je nach Definition, schon sagen.
Der Computerwissenschaftler Matthew Lai hat eine Künstliche Intelligenz entwickelt, die sich selbst das Schachspiel beigebracht hat – innerhalb von 72 Stunden.Die Technologie namens „Giraffe“ basiert auf einem künstlichen neuronalen Netzwerk. Solche Netze ähneln dem Aufbau nach den Neuronen im menschlichen Gehirn und bestehen aus mehreren Ebenen von Knotenpunkten, die je nach Aufgabe neue Verbindungen schaffen
Der neue Computer spielte in Tests bereits auf dem Level von Internationalen Meistern
http://www.heise.de/newsticker/meldung/Selbstlernende-KI-Neuer-Schachcomputer-spielt-auf-Profi-Niveau-2817567.html

Die KIs lernen mit den richtigen Methoden ziemlich schnell.
Als Google die Spracherkennung für sein Android-Betriebssystem damit[Deep learning] ausstattete, sank die Fehlerquote um 25 Prozent. "Für einen solchen Rückgang hätte man früher zehn Jahre Entwicklungszeit veranschlagen müssen", meint Hinton – eben weil es so schwer war, Fortschritte zu erzielen.
http://www.spektrum.de/news/maschinenlernen-deep-learning-macht-kuenstliche-intelligenz-praxistauglich-spektrum-de/1220451

Ob du das jetzt als "selbstständig Intelligent" ansiehst oder nicht liegt bei dir.
Ich persönlich bin von so manchen KIs begeistert.
Wenn man sich das Beispiel von @pluss anschaut:
AlphaGo habe sehr zurückhaltend gespielt, sagen Experten, die die Partie beobachteten. Ziel ist es, mehr als die Hälfte des Bretts mit seinen Steinen zu kontrollieren. Die Zahl möglicher Partien lässt sich auf 10 hoch 171 abschätzen – was die Anzahl der Atome im Universum übertrifft.
http://www.spektrum.de/news/das-go-spiel-ist-geknackt/1397114?utm_source=zon&utm_medium=teaser&utm_content=news&utm_campaign=ZON_KOOP

10¹⁷¹ mögliche Partien. Ist schon ne Menge. Der Mensch hat kein so großes Problem damit, weil er abschätzen kann was überhaupt Sinn macht. Das hat der Computer hier so übernommen. Die KI lässt unnötige Züge weg. Und auch hier hat die KI gelernt:
Beide Netze mussten jedoch zunächst lernen, ihrer Aufgabe nachzukommen. Das "Spielpolitik"-Netz (policy network), das nach den jeweils lohnenden Zügen sucht, trainierten sie anhand von 30 Millionen Spielzügen aus einer Datenbank von Partien fortgeschrittener Spieler. Ihr System lernte dabei vorherzusagen, welche Spielzüge angesichts einer gegebenen Stellung am wahrscheinlichsten durchgeführt werden.



1x zitiertmelden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 18:22
@Izaya

Du hast Recht damit, dass viel von der Definition von Intelligenz abhängt.
Für mich ist Kreativität untrennbar mit Intelligenz verknüpft. Wenn die künstliche ,,Intelligenz" nur nach programmierten Parametern handelt, ist das aus meiner Sicht nicht richtig intelligent.

Auch bei Schachcomputern oder Go-Computern finde ich es fragwürdig, von Intelligenz zu reden.
Wenn man sich mal anguckt: Die greifen einfach auf zahlreiche, gespeicherte Partien zu und handeln nach den einprogrammierten Regeln, die ja ziemlich leicht sind. Und dann wählen sie nach den Regeln der Wahrscheinlichkeitsrechnung den Zug, der ihnen vermutlich am meisten einbringt.

Das soll intelligent sein? Es wirkt auf mich nicht, wie ,,Denken".

Wenn ich Schach spiele, überlege ich:,,Hm, welche Züge hat mein Gegner gemacht, was hat der vor, was könnte ich machen, um mich zu verteidigen und ihm eine Falle zu stellen?...".

Aber der Schachcomputer ,,denkt" nicht, er handelt einfach nach vorprogrammierten Regeln. Es wird nur mit Sensormodulen registriert, welche Figuren wie zueinander auf dem Feld stehen, welche Züge bisher gemacht wurden, dann wird abgeglichen, ob diese Züge schon mal in den Datenbanken aufgetaucht sind, welche Wahrscheinlichkeit es gibt, dass diese und jene Reaktion zum Erfolg führt...

Alles, was der Computer macht, wurde von Menschen vorgegeben.


1x zitiertmelden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 18:41
@Kc
Zitat von KcKc schrieb:Aber der Schachcomputer ,,denkt" nicht, er handelt einfach nach vorprogrammierten Regeln. Es wird nur mit Sensormodulen registriert, welche Figuren wie zueinander auf dem Feld stehen, welche Züge bisher gemacht wurden, dann wird abgeglichen, ob diese Züge schon mal in den Datenbanken aufgetaucht sind, welche Wahrscheinlichkeit es gibt, dass diese und jene Reaktion zum Erfolg führt...
Na gut, das ähnelt dem Menschen schon gewissermaßen.
Die Sensoren, die die Figuren registrieren, kann man mit den Augen gleichsetzen.
Der bisherige Spielverlauf wird auch vom Menschen beachtet. Und auch der Mensch sucht in seinen Erinnerungen, um den nächsten Zug vorauszusehen. (z.B. bei einer typischen Eröffnung)
Oder ist das wichtige beim Denken für dich:
Zitat von KcKc schrieb:,,Hm, welche Züge hat mein Gegner gemacht, was hat der vor, was könnte ich machen, um mich zu verteidigen und ihm eine Falle zu stellen?..."
?

Zitat von KcKc schrieb:Alles, was der Computer macht, wurde von Menschen vorgegeben.
Also die Züge macht der Computer ja selber.
Richtig vorgeben tut der Mensch auch nichts. Der Computer lernt selber aus den Beispielen. Kann man mit den Übungsspielen eines Menschen vergleichen.

Wieso ich diesen Beitrag schreibe, weiß ich grade selber nicht. Überzeugen geht ja schlecht:
Zitat von IzayaIzaya schrieb:Na ja, Kreativ wie ein Mensch. Das kann noch dauern.
Zitat von KcKc schrieb:Für mich ist Kreativität untrennbar mit Intelligenz verknüpft.
Also mit der Definition von Intelligenz hast du recht. Dann sind die KIs noch nicht "eigenständig Intelligent".


melden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 18:58
@Izaya

Es ist allerdings schwierig, das mit Worten richtig auszudrücken, wenn es um Intelligenz geht, stimmt :D


Vielleicht ist es so verständlich:

Aus meiner Sicht handelt der Computer nur.

So, als ob ein Spieler einfach nur das macht, was ihm der Schachmeister neben ihm sagt, aber keine eigenen Züge ausführt.


1x zitiertmelden

Künstliche Intelligenz: Die Tücken

29.01.2016 um 19:00
@Kc
Zitat von KcKc schrieb:Es ist allerdings schwierig, das mit Worten richtig auszudrücken, wenn es um Intelligenz geht, stimmt :D
Stimmt wohl :D
Zitat von KcKc schrieb:So, als ob ein Spieler einfach nur das macht, was ihm der Schachmeister neben ihm sagt, aber keine eigenen Züge ausführt.
Ansichtssache. Auch egal. Wie gesagt, nach deiner Definition ist die Künstliche Intelligenz nicht intelligent.


melden

Künstliche Intelligenz: Die Tücken

02.07.2016 um 02:34
Künstliche Intelligenz schlägt Kampfpiloten

Quelle:
http://www.n-tv.de/technik/Kuenstliche-Intelligenz-schlaegt-Kampfpiloten-article18089391.html

Die KI heisst ALPHA ( seine Algorithmen werden von Psibernetix entwickelt )
Unscharfe Logik
Das ALPHA-Programm und seine Algorithmen werden von Psibernetix entwickelt, der Firma von Nick Ernest, der erst im vergangenen Jahr seinen Doktor an der Universität machte. Das Erfolgsrezept seines Teams ist sprachbasierte Programmierung mit Wenn-dann-Szenarien kombiniert mit einem sogenanntes "Genetic Fuzzy Tree"-System, einer speziellen Version von "Fuzzy-Logic-Algorithmen". Die "unscharfe Logik" wird beispielsweise angewandt, um umgangssprachliche Beschreibungen wie "ein bisschen" oder "ziemlich" in mathematischen Modellen zu erfassen.
Und braucht "NUR" eine Raspberry Pi
"Eine echte Herausforderung"

Bisher. Denn Lee konnte ALPHA kein einziges Mal vom virtuellen Himmel holen. Stattdessen schoss die KI den gestandenen Air-Force-Piloten bei jedem einzelnen Waffengang ab. "Sie schien zu wissen, was ich vorhabe und reagierte sofort auf meine Flugmanöver und Waffenwahl", sagte Lee. "Sie wusste, wie sie meine Schüsse abwehren konnte und wechselte je nach Bedarf blitzschnell zwischen Angriff und Verteidigung." ALPHA hat außerdem auch schon andere Piloten bezwungen und sogar mit schwächerer Ausrüstung die Oberhand behalten. "Das ist vielleicht künstliche Intelligenz", sagt Lee, "aber sie ist eine echte Herausforderung.
Das Militär ist wahrscheinlich begeistert von "ALPHA". Die KI soll zunächst dafür eingesetzt werden, die Pilotenausbildung zu verbessern. In Zukunft könnte sie aber auch Flugzeugbesatzungen oder ganze Geschwader in echten Luftkämpfen unterstützen und lenken oder in Drohnen selbstständig operieren. ALPHA könne Taktiken und präzise Reaktionen 250 Mal schneller ausarbeiten als ihr menschlicher Gegner blinzeln kann, so Psibernetix. Faszinierend, aber auch ein wenig beängstigend.
Was ich bedenklich finde, wenn das teil dann auch "so leicht" zu hacken ist wie die US-Drohnen. Würde ich sagen Fuckt Up


Wenn das gehackt wird ( was jedes system früher oder später wird ) kann das sehr sehr gefährlich werden.
Wer soll es aufhalten ? wenn es wirklich so gut ist ?


2x zitiertmelden

Künstliche Intelligenz: Die Tücken

02.07.2016 um 07:36
Zitat von O.G.O.G. schrieb:Wer soll es aufhalten ? wenn es wirklich so gut ist ?
Eine höhere Anzahl ungehackter? Eine Barrage von Luftabwehrraketen die dicht genug ist dass auch diese phantastische Reaktionszeit es nicht möglich macht allen Raketen auszuweichen?


melden

Künstliche Intelligenz: Die Tücken

02.07.2016 um 14:59
Zitat von O.G.O.G. schrieb:Wer soll es aufhalten ? wenn es wirklich so gut ist ?
Ein EMP.
Ein Computervirus.


melden

Künstliche Intelligenz: Die Tücken

02.07.2016 um 22:00
Ich finde Roboter mit Künstlicher Intelligenz könnten ziemlich gefährlich werden... wenn sie zuviel können und vorallem intelligent und mit freiem willen handeln.. sieht man ja an uns menschen.. harmlos sind wir nämlich nicht und wenn wir schon grausame dinge tun , dann könnten diese Roboter oder Cyborgs das auch wenn sie mit freiem willen und hoher künstlicher intelligenz ausgestattet sind.


melden

Künstliche Intelligenz: Die Tücken

02.07.2016 um 22:29
@Windlicht

Deswegen werden Roboter wenn auch mit Gesetzen programmiert werden:
0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

3. Ein Roboter muss seine eigene Existenz schützen, solange dieses sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.
Wikipedia: Robotergesetze


melden

Künstliche Intelligenz: Die Tücken

03.07.2016 um 12:31
Naja solche Berichte sind immer hübsch geschönt.

Vor allem ein Simulaton. Sobald ein PC ein echtes Flugzeug fliegt sehen wir weiter.


1x zitiertmelden