Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

22 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz ▪ Abonnieren: Feed E-Mail
hk Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Künstliche Intelligenz

04.07.2003 um 18:25
Ich will mal von euch wissen, wie ihr eine KI etwa strukturieren würdet, von Machbarkeit usw mal abgesehen...

Ich würde folgende Struktur wählen:
Es gibt Zustände, sprich Situationen, in die die KI hineingeraten kann, sie haben eine verschieden hohe Priorität.

Zunächst muss man dann schauen, das man dann Informationen kriegt, und vergleicht diese mit der Datenbank 'hohe PRiorität', da diese am wichtigsten sind.
Falls dies nicht übereinstimmt, werden eben zunächst alle Zustände, nach Priorität geordnet, durchgesehen, ob nun sagen wir 90% der Informationen übereinstimmen, und merken uns die Zustände, die soweit mit unserem jetzigen Zustand übereinstimmen.
In diesen gemerkten Zuständen sucht man dann den Zustand heraus, der am genauesten mit dem jetzigen Übereinstimmt, und führt die Handlungen, die mit ihm verbunden sind, aus.
Aber jetzt wird es interessant: kein Zustand stimmt zu 90% überein...
Ich würde es nun so machen, das ich "meine" KI nun ihren Suchradius erweitern lasse, sagen wir auf 80%, und das SChema zunächst wieder durchlaufen lasse, und dann versuche, die Handlungen aus den Zuständen, die jeweils mit den einzelnen Informationen am meisten übereinstimmen, zu kombinieren...

Aber jetzt interresiert es mich, wie andere das machen würden, denn ich hoffe, dass es bei solchen Sachen doch recht unterschiedliche Methodiken gibt.

Anzeige
melden

Künstliche Intelligenz

04.07.2003 um 19:41
Das was du beschrieben hast ist keine KI!
Denn im Prinzip versucht das Programm ja nur herauszufinden welchen bisher dagewesenen es am meisten entspricht (Zustand) um dann die vorgegebenen Anweisungen abzuarbeiten.

KI würde ich so ungefähr definieren:

Informationen über den aktuellen Zustand sammeln.
Jede Information versuchen mit der anderen in logische Verbindungen zu setzten um herauszubekommen um was für ein Zustand es sich hier handelt.
Da gibt es aber unendlich viele Kombinationen mit den Informationen untereinander und hinzu kommen die Informationen die schon da waren (nicht Zustände sondern 'atomare' Inforamtionen) um daraus ein Muster zu bilden und einen Ansatz zu bekommen wie es weiter gehen soll.
Danach in einem Algorythmus an die Wurzel des Problems / Quelle (das wieso herausbekommen --> nach dem Motto: verschiedene Ursachen -> gleiche Folgen -> verschiedene Lösung) herantreten. Also bestimmen wo der Kern des Zustandes ist.
warum so ? Naja wie das Motto oben in der Klammer schon sagt, verschiedene Ursachen -> gleiche Folge -> verschiedene Lösungen
z.B.
ich Schlage jemanden <- Zustand (Folge)

Welche Ursache ?
er hat mich beleidigt
ich bin neidisch
ich bin besoffen
ich muss mich abreagieren
(also verschiedene Ursachen bei gleicher Folge)

Welche Lösung oder Folge ?
- er hat mich beleidigt, ich habe ihn geschlagen und fertig!
- ich bin neidisch, ich habe ihn geschlagen, ich entschuldige mich
- ich bin besoffen oder dumm, ich habe ihn geschlagen (einfach so), ich mache gar nichts, bin mir keiner Schuld bewusst
usw...

Ich wollte damit nur sagen es ist nicht einfach so eine Datenbank nach den Zuständen zu befragen um danach ein vorgefertigen Weg zu befolgen. Das ist keine KI.
Eine KI muss eben intelligent sein und die Situatuonen / Zustände beurteilen können oder diese Interpretieren können um erst dann ein Weg der Lösung einzuschlagen.
Der Weg wiederrum kann unterschiedlich sein weil er von sooo vielen Faktoren abhängt wie: ist der andere stärker? ist er klüger ? bin ich schneller ? ui, der andere sieht gefährlich aus, ich mach lieber gar nichts, usw....
Das war natürlich eine mögliche Folge eines Menschen nachdem er an einen Zustand geraten ist in dem er eines der oben genannten Ursachen erfahren musste.

KI ist schon eine ziemlich komplexe Sache. Und ob es machtbar ist und ob die technische Vorraussetzung erfüllt ist mal ganz zu schweigen.....

Jetzt weis ich das ich nichts weis und du erst recht nicht!


melden
hk Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Künstliche Intelligenz

04.07.2003 um 20:21
nun, der erste Teil sucht nach bereits vorhandenen Teilen (ARt gewohnheit)
der andere TEil versucht nun, aus GEwonheiten auf neue Situationen, oder besser die Verhaltensweise darin zu schliessen.
das was da wirklich fehlt (und weswegen es wirklich keine KI ist), ist das konstruktive Denken:
Was tue ich in einer unbekannten Situation :D


melden

Künstliche Intelligenz

04.07.2003 um 22:57
KI heißt für mich, dass ein programm in der lage ist zu lernen! z.B. einen fehler zu machen, ihn zu erkennen, und beim nächsten mal zu vermeiden! aber auch selbstoptimierung und rücksicht auf seine umwelt gehören meiner meinung nach dazu...naja meine deffinition ist etwas kürzer aber egal! qualität nicht quantität :) :) was nicht heißen soll das eure beiträge schlecht sind! ehrlichgesagt versuche ich gerade nur meinen beitrag etwas zu strecken, damit er gegen eure nicht ganz so winzig wirkt!

Die ich rief, die Geister,
Werd ich nun nicht los.



melden

Künstliche Intelligenz

05.07.2003 um 00:05
dabigjhonny, du hast recht, Umwelt sollte auch mit drinnen sein.
Die KI darf ihre 'Lösungen' natürlich nicht auf Kosten anderer durchführen.
Nicht wenn andere in Gefahr gebracht werden (naja, Mörder haben auch keine Probleme damit, aber ich meine hier die totale Zerstörung, die KI miteingeschlossen) oder die Umwelt total zerstört wird oder so in der Art halt.
Ich meine damit, Problem erkennen, (auch wenns ein neues Problem gibt -> dann halt abschätzen und einstufen) und eine Sinnvolle und tragbare Lösung finden.
Das mit Fehler machen, das erkennen und nächstes mal anderst machen ist aber keine KI, das wäre dann die Sache mir der Datenbank und abfragen um zu vergleichen. Das ist theoretisch jetzt schon möglich, (Was heisst theoretisch, das ist in bestimmten Fällen jetzt schon möglich bei wenig auftretenden Fehlern (so paar Millionen Fehler)) jedoch nicht die selbsoptimierung nachdem der Fehler (der schonmal gemacht wurde) erkannt wurde. Das nämlich wäre für mich schon eine Art KI!


Jetzt weis ich das ich nichts weis und du erst recht nicht!


melden
hk Diskussionsleiter
ehemaliges Mitglied

Link kopieren
Lesezeichen setzen

Künstliche Intelligenz

05.07.2003 um 00:29
nun, die optimale KI ist ja die folgende:
wir setzten z.B. einen Roboter mit einer Aufgabe in ein ihm komplett unbekanntes Terrain, und er erfüllt diese Aufgabe mehr oder minder schnell...

das ist nur ein winziges Beispiel, aber wäre titanisch gross zu programieren :D


melden

Künstliche Intelligenz

05.07.2003 um 00:58
hmm, mit der konventionellen Technik unmöglich.
Chips, Speicher, CPU's usw...

Alleine das erkennen von Objekten bräuchte mann eine gigantisch grosse Datenbank! Wenn ich gigantisch sage dann meine ich auch gigantisch!

Ich habe mal so ne Doku gesehen wo Typen einen kleinen RoboterHeli
mit Kamera ausgestattet so programmiert haben das sie in Gefahrensituationen
die Umgebung absuchen nach bestimmten Symbolen.
z.B. Symbol für Radioaktivität
und wenn sie es erkennen (auf einem Faß oder so) dann machen sie eine Meldung.
Das kam gleich ins TV und ein Preis wurde verliehen und so..
Das ist aber eine Vorprogrammierte Gefahr-Erkennungs-Analyse denn das Bild dieses Radioaktiv-Symbols musste vorher in die DB und die Ekennungspunkte davor definiert werden.
Würde es einen riesen großen Atompilz direkt neben dem kleinen Heli (Modell)
geben aber kein so ein Zeichen würde der nie erkennen das da ein Super GAU grade entstanden ist. (Naja, von dem Heli würd wohl nichts übrigbleiben, aber trotzdem)

Das könnte man gar nicht programmieren auf die bisher bekannte Art!
Da müssten schon andere Techniken her wie z.B. der Roboter lernt sehen und erkennen (schon hier unmöglich) dann lernt er alle Objekte die es auf der Welt gibt (auch Kombinierte oder Details denn Strand = viel Sand, paar Körner Sand auch Sand! usw.)

Dann lernt er was ist gefahr was nicht --> varausschauend denken -> kleines Lagerfeuer = nicht Schlimm, grosses Feuer = schlimm, grosses Feuer für Brandrodung (machen ja viele Länder in der 3. Welt, ist nicht gut, aber für die 'normal') = wiederrum gut

Jetzt weis er was Problem ist (grosses / kleines) und was nicht. jetzt kommt die Analyse der Vorgangsweise (Entscheidung).

usw... (tausend mal mehr + tausend mal komplizierter) hoch tausend

wie du siehst ist das nicht möglich mit der uns bekannten Programmiertechnik (also nicht mal nur Hardware --> davon haben wir ja von anfang an abgesehen)

Mit einer überidischen Komplexität und einem Code der selber logischen Code logisch programmieren kann und weis wann er es machen soll könnte mal vielleicht eine KI entstehen. Aber das ist bis heute 'überirdisch' unmöglich!
Man sollte besser der Funktionsweise des Gerhirns auf die schliche kommen und dann wissen wir vielleicht wie man eine solch hoche Komplexität erzeugen kann ohne diese 'per' Hand zu entwickeln. Also ein Code der sich selber erweitert aber dies immer logisch und sinnvoll -> wächst.


Jetzt weis ich das ich nichts weis und du erst recht nicht!


melden

Künstliche Intelligenz

05.07.2003 um 04:28
HK,

KI, also künstliche Intelligenz, muss die Vorgebaen seiner Programmierung verlassen können.

Hierzu ist Zufall und Unglück Nötig.

Mutation und Überwindung der Sackgasse.

Nur durch Sitch Unterprogramme, welche den Wert der sich in der Schleife, des sich festgefressenen Computers rettet, und neu einsetzt, kann es KI geben , sich einschleifende Wiederholngsmuster, eigene Erfahrung.


melden

Künstliche Intelligenz

10.07.2003 um 14:21
evolutionärer code existiert zwar, aber kann er sich nur in gewissen rahmen selbst ändern.
z.b. kann ein computer nicht erkennen, ob er sich immer verrechnet und dann seine formel abändern.
das fehler erkennen ist nämlich auch eine art halteproblem (man kann kein programm durch ein anderes überprüfen lassen, ob es immer terminiert...).
demnach wird es kaum einen roboter geben, der einfach ausgesetzt werden kann und nach 18 jahren selbstständigem lernen plötzlich in diesem forum postet.

davon mal abgesehen, daß ich diesen fall auf jedenfall sehr bedenklich fände und ihn unbedingt vermieden wissen will.



Phantasie ist wichtiger als Wissen, denn Wissen ist begrenzt.



melden

Künstliche Intelligenz

10.07.2003 um 15:04
Als erstes würde ich ihm die drei Asimovschen Robotergesetze einpflanzen:

1) Ein Robot darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.

2) Ein Robot muß den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Wiederspruch zum ersten Gesetz.

3) Ein Robot muß seine eigene Existenz schützen, solange dieser Schutz nicht dem ersten oder Zweiten Gesetz wiederspricht.

Und dann würde ich ihn einfach lernen lassen. Bestimmte Handlungsmuster, wie nicht gegen die Wand laufen etc. sollten ihm schon mit auf den Weg gegeben werden, aber Situationen zu erkennen und Rückschlüsse daraus zu ziehen sollte er eher lernen unter Berücksichtigung auf seine Gesetze.

Vielleicht erlernt er dadurch ja auch das Nullte Robotergesetz:

Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch seine Untätigkeit gestatten, dass die Menschheit zu Schaden kommt


melden

Künstliche Intelligenz

11.07.2003 um 11:18
Hi

@ak

Die Fähigkeit, einer Information einen Prioritätsgrad zuzuordnen ist für mich an sich bereits ein wesentliches Merkmal von KI. Zumindest muß sie fähig sein, vorgegebene Prioritätsgrade zu ändern. Was im Hinblick auf AcidUs Gesetze problematisch wäre.

Lg
Scipio


melden

Künstliche Intelligenz

13.08.2003 um 03:58
servus

ich hab da mal eine frage in sachen KI's und ihre Lernfähigkeit. Also rein theoretisch könnte doch eine KI mit genug Ressourcen auch komplexe Verhaltensweisen und Zusammenhänge begreifen oder? Ich bin in der Richtung zwar sehr interessiert aber ein totaler Anfänger. Jetzt stellt sich mir aber die Frage wieviel Ressourcen man brauch um eine einfache KI zu konstruieren die z.B. sprechen oder mündliche Befehle ausführen kann.

Und jetzt die Frage des Tages. Ist es praktisch möglich eine selbstdenkente KI zu entwickeln die sich selbst anpasst aber denoch durch den Menschen eingeschrenkt ist?

Bitte um schnelle Antwort Danke


melden

Künstliche Intelligenz

18.08.2003 um 22:28
Hallo,

halte ich für ausgeschlossen. Entweder Intelligenz oder Mensch. Beides geht ja nicht. Welcher Mensch sollte denn in der Lage sein, diese KI zu stoppen? Ein Übermensch? Was hätte der davon?

Liebe Grüße

Ich weiß, daß ich Nichts weiß.


melden

Künstliche Intelligenz

18.08.2003 um 22:41
@AcidU:

Das Stammt nicht zufällig aus Raumpatrollie Orion ? :)

Da kommt das nämlich auch vor ! :)


melden

Künstliche Intelligenz

31.08.2006 um 16:48
wer sich fuer k.i. interessiert, dem kann ich nur das buch von tipler "physik derunsterblichkeit" ans herz legen....
es bietet bietet zahlreiche interessanteansaetze..

dabei sollte man aber auch nicht vor den mathematischen formelnzurueckschrecken...


melden

Künstliche Intelligenz

01.09.2006 um 13:22
@ acidu
jaja, der gute Isaak... Das Problem dieser drei Regeln wäre ja, dass es denRoboter einschränken, und damit auch seine Intelligenz (und darum geht es ja letztlich).Natürlich wären die Folgen ohne solche Regeln vermutlich katastrophal (handelt ja jederKI-Film drüber), trotzdem würde richtige Intelligenz erst entstehen können, wenn dieseRegeln NICHT existieren, bzw. wahrscheinlich besser: in Soll-Vorschriften abgewandeltwerden.

Ich stelle mir KI am besten so vor: Die KI ist eine Art Filter; wo jedesVerhaltensvorhaben durchgejagd wird und danach überprüft wird, ob genau dieses Verhaltenden Roboter unglücklich machen würde. Maßgabe dafür müsste ein gigantischer Speicher sein(der sich zudem mit jeder Lebenssekunde weiter ausdehnen müsste); sein riesiger Pool anErinnerungsmustern.
Aber in verschiedenen Protokollstufen; ähnlich unseremmenschlichen Aufbau von Bewustsein, Vorbewusstsein und Unbewusstes. Der Roboter mussseine Erinnerungsprotokolle jederzweit bündeln können und vergangene Erfahrungen zueinzelnen übergeordneten Protokollen zusammenfassen. Das würde zumindest dieRechenleistung verringern, die für jede Handlung notwendig sind. Dadurch könnte ergemachte Fehler, oder Fehlschläge zu etwas zusammenbacken, was einer Persönlichkeit rechtnah käme.

Diese Dinge beachtend, fischt dieser KI-Filter jenes Verhalten heraus,was aus seiner Erfahrung (und das könnte man dann rein theretisch so nennen), ihm nichtgefällt. Dann nimmt er die nächste Handlungsalternative und schaut, ob diese in dem Netzhängen bleibt, bis eine durch rutscht.
Diese Handlung wäre dann so etwas ähnliches,wie freier Wille, oder eigene Entscheidung.

Natürlich wäre es praktisch diesenFilter von Außen abstellen zu können, um bei Gefahr, den Roboter wieder zu einemseelenlosen Blechhaufen zu machen.


melden

Künstliche Intelligenz

01.09.2006 um 15:06
problem ist das eine normale ki auf basis normelr chips keine selbständigen neuenlösungen finden kann. man kann ihm nicht beibringen neue dinge zu analysieren und füreventuelle lösungen in beracht zu ziehen einfach weil die ki nur das erkennt was siebereits kennt

d.h. konvetionelle kis können nur in einem klar definiertemumfreld agieren. zb in einem spiel mit definierten regeln und möglichkeiten.
hateinfach damit zu tun das konventionelle programmierung nur ja nein kennt. und das istbene an der basis der ki (zb dinge erkennen, dinge einzuschätzen) ein problem weil sieeben absolute werte braucht. mit filter für % ein villeicht zu simmulieren funktioniertso leider nicht

eine echte KI basiert daher auf der noch sehr experimentellenneuralen technik

im übrigen gibts bereits einiges öffentliches was kiprogrammierung angeht. wenns dich interresiert sich ich mal raus


melden

Künstliche Intelligenz

01.09.2006 um 17:26
Bei völlig unbekannten Situationen müsste es der reine Zufall entscheiden; ist ja beiMenschen nicht anders, wenn in Notsituationen sich unser Handeln vom Autopilot abkapseltund selbst was macht. Ohne Erfahrungen zu reagieren und zu aggieren bedeutet im Grunde janichts anderes, als reiner Zufall


melden

Künstliche Intelligenz

01.09.2006 um 17:33
@gunslinger:
ob es einen echten zufall gibt oder wir in einem reinendeterministischen universum leben wissen wir aber nicht ;). und mal davon abgesehenkönnen computer keine echten zufälle machen, zufallszahlen sind stets simuliert undbasieren immer auf irgendwelchen komponenten...


melden

Künstliche Intelligenz

01.09.2006 um 17:34
ach ich hab eigentlich vorgehabt da umfangreicher zu antworten aber dein letztes postzeigt die sinnlosigkeit, bitte informier dich erst mal eingehender im netz über das themahab jetzt keine lust die grundbegriffe dieser thematik hier aufzufreifen

jedenfalls das was du da meinst funktioniert so nicht und ist auch keine ki sondernein zufallsgenerator


melden

Künstliche Intelligenz

01.09.2006 um 17:37
@bofh:
meinst du mich o.O?


Anzeige

melden