Wissenschaft
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Technologische Singularität

608 Beiträge ▪ Schlüsselwörter: Technologie, KI, Singularität ▪ Abonnieren: Feed E-Mail

Technologische Singularität

20.01.2018 um 11:10
Zitat von uatuuatu schrieb:e KI, die, wie@schtabea schrieb "uns Menschen hoch überlegen ist und die wir deshalb nicht mehr verstehen können" ist kein Bewusstsein in dem Sinne, wie der Begriff üblicherweise interpretiert wird, notwendig.
Für das Alptraumszenario schon, also das sie einen Überlebenswillen etc entwickelt oder einen Willen für Tätigkeiten, für die "Kontrolle" der Menschen.

Anzeige
melden

Technologische Singularität

20.01.2018 um 11:13
Zitat von uatuuatu schrieb: Eine KI müsste also nur unbeobachtet einen solchen Plasmabrenner bauen, und könnte sich anschliessend über eine entsprechend tiefe Bohrung mit geothermaler Energie versorgen. Das ist, wie gesagt, nur eine von zahllosen anderen Möglichkeiten, z.T. technischer Art, z.T. durch Manipulation von Menschen, wie @nocheinPoet und @Philipp angesprochen haben. Nur eine davon muss funktionieren.
So ein Brenner dürfte selbst viel Energie verbrauchen. HAst du einen Link zur Konstruktion von Plasmabohrern?

Geothermale Energie muss ebenfalls noch umgewandelt werden usw.

Auch eine KI kann sich der Physik nicht widersetzen.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 12:00
Mal angenommen irgendwann in der Zukunft hätte so eine KI die Singularität erreicht, dann würde sie ja rein
rational und objektiv ihre Entscheidungen treffen.
Sie hätte alle Information der gesamten Menschheit und könnte für alle Fragen rationale Problemlösungen bieten.

Was bei mir bei dem Gedanken ein mulmiges Gefühl hinterlässt ist folgendes:
Die KI würde Antworten ohne Rücksicht auf "Emotion" geben. Sie wäre objektiv, berechnend und "kalt" und aus
dieser ihrer Sicht gäbe sie auch Antworten zur Problemlösung.

Emotion (ich meine damit die Fähigkeit zu lieben, Mitgefühl, Empathie, Hoffnung usw... zu empfinden) ist aber auch
eine Art von Intelligenz die beim Menschen zum Teil unterschiedlich ausgeprägt ist. Bei manchen ist sie vollkommen
unterentwickelt (z.B. Mitgefühl bei Mördern, Tierquälern usw.).

Wenn dem Menschen diese Art von Intelligenz fehlen würde so könnte er z.B. folgende aus rein rationalen und
berechnenden Entscheidung treffen:
Lasst die hungernden Menschen auf der Welt doch sterben, die Welt ist sowieso überbevölkert und für die Erde ist
es besser wenns da nicht so viele von gibt.
Oder, was bringt es in das brennende Haus zu gehen und das Kind zu retten. Der Retter könnte selbst dabei
drauf gehen und dann sind 2 Menschen tot. Außerdem könnte der Retter seine Zeit z.B. dafür besser zum lernen
nutzen etc.

Ich meine damit, so eine KI die nicht über eine emotionale Intelligenz verfügt würde aus ihrer Sicht vielleicht ganz
andere Antworten auf Problemlösungen bieten als z.B. der Mensch mit seiner zusätzlichen emotionalen Intelligenz.

Da sollte sich die Menschheit in Zukunft gut überlegen ob alle Antworten der KI zum Wohle der Lebewesen und
der Natur sind :).


3x zitiertmelden

Technologische Singularität

20.01.2018 um 12:30
@Sonni1967
Ich denke dass ist der wesentliche Unterschied zwischen KI und Mensch. Und ab da wird es halt gefährlich für den Menschen bzw wird ihm das zum Nachteil gegenüber einer KI.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 12:31
@Sonni1967 oder so ... :D

Warum soll eine KI keine Emotionen haben?

Ich glaube bis auf @uatu fehlt hier fast allen auch nur im Ansatz die Vorstellung, was physikalisch möglich ist, jetzt schon, ...

Anders, was wir jetzt schon von dem was physikalisch möglich ist, jetzt schon realisieren können, und was wir davon so in 30 - 50 Jahren realisieren können werden. Und was generell überhaupt möglich ist, also wo da den Dingen von der Physik her dann Grenzen auferlegt sind.

Natürlich kann man sich nicht vorstellen, was man sich nicht vorstellen kann, man kann dann nur mit einem Vergleich versuchen sich dem anzunähern.

Wir werden wie dreijährige Kinder gegenüber einer echten starken KI sein. Unsere geistigen Fähigkeiten werden lächerlich sein, sie wird uns wirklich unglaublich voraus sein, Dinge sehen, die wir nicht nur nicht sehen, sondern nie sehen und verstehen können werden.

Nehmt eine Gruppe Kinder im Kindergarten, so 3 - 5 Jahre, nimmt davon 1.000 Gruppen, nehmt alle Kinder in dem Alter der Welt, nehmt eine Milliarde, auch in Summe wird diese Gruppe nicht CERN verstehen können. Nicht nachbauen. Nicht begreifen, um was es da überhaupt geht.

Die können da 2 Jahre durch die Anlage laufen, es wird nichts ändern.

Wir als Erwachsene haben da Fähigkeiten, wie Lesen und Schreiben, welche diese Kinder in der Regel noch nicht so beherrschen. Und eine starke KI wird Fähigkeiten entwickeln, die wir nicht mal verstehen können werden.

Dennoch glaube ich, wenn wir nicht versuchen die KI zu killen, wird sie uns mehr oder weniger in Ruhe lassen. Ob sie auf uns Rücksicht nehmen wird, oder nur eigene Ziel verfolgen, uns sogar helfen wird, wird sich zeigen.


3x zitiertmelden

Technologische Singularität

20.01.2018 um 12:39
@Sonni1967
Was du "Emotionale Intelligenz" nennst, ist schlichtweg Empathie,und hat mit Intelligenz nicht viel zu tun. Eine Person kann hochintelligent sein, ohne jegliche Empathie zu haben, während es zugleich möglich ist das eine Person geistig zu weit beschränkt ist um selbstständig zu funktionieren aber hochempathisch ist. (die Kombination "Hohe Intelligenz und Hohe Empathie" scheint frappierend selten zu sein, während die Kombination "Niedrige Intelligenz und Niedrige Empathie" in ihrem Schadenspotential eher begrenzt ist)


2x zitiertmelden

Technologische Singularität

20.01.2018 um 12:46
So eine KI kann auch spekulieren, Kapital an den Märkten machen und verteilen.

Da gibt es so viele Wege.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 13:06
Zitat von Taln.ReichTaln.Reich schrieb:Was du "Emotionale Intelligenz" nennst, ist schlichtweg Empathie,und hat mit Intelligenz nicht viel zu tun.
Ok, Empathie ist die Fähigkeit sich in ein anderes Individuum herein zu versetzen. Ob man diese Fähigkeit als Intelligenz
bezeichnen kann weiß ich nicht (das hatte mir vor Jahren mal ein sehr kluger Mann so erklärt, er war der oberste Chef
von einer großen Bank). Ist ja auch wieder ne Frage was man unter dem Begriff "Intelligenz" versteht, aber egal.

Ich meinte halt damit, wenn einer KI bestimmte Eigenschaften und Fähigkeiten (ich nenne es jetzt mal so) fehlen
(wie z.B. die Empathie, Liebe usw.) dann trifft sie wahrscheinlich andere Entscheidungen die evtl. nicht dem Wohle der
Menschheit dienen.
Zitat von nocheinPoetnocheinPoet schrieb:Warum soll eine KI keine Emotionen haben? Ich glaube bis auf @uatu fehlt hier fast allen auch nur im Ansatz die Vorstellung, was physikalisch möglich ist, jetzt schon, ...
Ich könnte mir schon vorstellen dass es möglich ist Emotionen einzuprogrammieren, die sind ja auch im menschlichen Gehirn
irgendwo ansässig.

Dann hätte man eine KI die liebt, Mitgefühl hat, traurig oder fröhlich sein kann aber auch Neid, Hass usw. empfinden könnte
(grusselige Vorstellung). Vor allem könnt sie auch ein Machtgefühl entwickeln. Dann wäre sie fast wie der Mensch, nur
unglaublich überlegener.


3x zitiertmelden

Technologische Singularität

20.01.2018 um 13:14
Zitat von Taln.ReichTaln.Reich schrieb: Eine Person kann hochintelligent sein, ohne jegliche Empathie zu haben,
Ja das stimmt, viele Psychopathen sind hochintelligent, sind aber was Empathie angeht total unterentwickelt.


melden

Technologische Singularität

20.01.2018 um 13:18
@Sonni1967
Zitat von Sonni1967Sonni1967 schrieb:Mal angenommen irgendwann in der Zukunft hätte so eine KI die Singularität erreicht, dann würde sie ja rein
rational und objektiv ihre Entscheidungen treffen.
Das würde ich nicht als allgemeingültig betrachten.

Nehmen wir z.B. das Gehirn das in seinen Grundbausteinen aus einzelnen Neuronen besteht. Einzelnen Neuronen haben die Möglichkeit über elektrische Impulse Information zu übertragen. Dabei kann ein Neuron entweder im Zustand des Ruhepotentials sein oder im Zustand der Aktivierung, alos zwei Zustände. Wir könnten es vergleichen mit dem Grundbaustein des Computers dem Bit, das ebenfalls zwei Zustände kennt.

Ein Unterschied zwischen Computerhardware und Gehirn liegt darin, dass außer der elektrische Kommunikation noch weitere Signalwege hinzkommen wie chemische Signaltransporte. Der Hauptunterschied zwischen Computer und Gehinr liegt aber in der dynamischen Vernetzung des Gehirns während der Computer seine Hardware nicht mehr verändern kann. Diesen Ansatz übernahm man auf Softwareebene bei der man künstliche Neuronale Netze auf die Softwareebene erstellt und sich entwickeln lässt, sprich Verbindungen werden aufgebaut und bleiben bestehen wenn von Vorteil oder "sterben ab" wenn nachteilig.

Momentan sind diese künstlichen neuronalen Netze aber trotz der Äquivalenz zur dynamischen Entwicklung weit von der Maschine entfernt die wir im Kopf haben. Aber wer weiß wie leistungsfähig und komplex socleh künstlichen neuronlaen Netze in Zukunft werden können.

Ohne Frage kann man aber neuronale Netze bauen und sie Empathie lernen lassen. Z.B. könnte man dem Netz Moral und Ethik beibringen, sprich man füttert es z.B. mit Aussagen die wahr und falsch sind und deklariert sie mit Lüge und Wahrheit. Während man Lüge negativ konnotiert wird Wahrheit als etwas positives deklariert. Das ist nicht sehr davon entfernt wie man Kinder erzieht. Man kann einem Kind auch von Anfang an beibringen, das man im Leben nur weiterkommt, wenn man andere konstant belügt und nur auf sich selber schaut und am besten sämtliche anderen Leute als Konkurrenz ansieht die es zu schwächen gilt.

Das heißt bei Menschen hat das Empfinden von Empathie und Moral, nicht nur genetische Grundlagen, sondern hängt stark vom gelernten und Erlebten ab. Die sogennante Vorbildrolle ist hier sehr wichtig. DAs einzioge was wir von Geburt an mitbekommen sind Areale im Gehirn die für Empathie und Moral zuständig sind. Wie sich die neuronalen Verbindungen dort aber erstellen, hängt hauptsächlich von den gemachten Erfahrungen ab, was letzendlich den Ausschlag gibt wie sich die Persönlichkeit eines Menschen entwickelt. Solche Areale kann man aber sicherlich auch als neuronalen Netzte umsetzen. Man kann Software entwickeln und entsprechend "trainieren". Ich sehe kein Problem eine Computerpersönlichkeit zu erstellen die mitfühlend handelt oder narzisstisch oder egoistische oder was auch immer. Das würde, wie beim Menschen, nur darauf ankommen wie man das neurale Netz trainiert.


3x zitiertmelden

Technologische Singularität

20.01.2018 um 13:22
Zitat von mojorisinmojorisin schrieb:Tatsächlich könnte man auch neuronale Netze bauen und sie Empathie lernen lassen. Z.B. könnte man dem Netz Moral und Ethik beibringen, sprich man füttert es z.B. mit Aussagen die wahr und falsch sind und deklariert sie mit Lüge und Wahrheit. Während man Lüge negativ konnotiert wird Wahrheit als etwas positives deklariert.
Und nach wessen Moralcode würde man "Richtig" und "Falsch" einteilen? Meinen? Deinen? Pol-Pot's? George W. Bush's?


2x zitiertmelden

Technologische Singularität

20.01.2018 um 13:41
@Taln.Reich
Zitat von Taln.ReichTaln.Reich schrieb:Und nach wessen Moralcode würde man "Richtig" und "Falsch" einteilen?
Das hängt davon ab wie du deinen Computer erziehen willst, ist ja ähnlich wie bei Kindern.

Nehmen wir mal an in ferner Zukunft gibt es Soldaten-Roboter und Erziehungs-ROboter für die Schule.
Evtl wäre es sinnig für unterschiedliche Anwendungen unterschiedliche Lernprogramme aufzustellen. Unterschiedliche Roboter würde man unterschiedliche "Schulen" durchlaufen lassen.


1x zitiertmelden

Technologische Singularität

20.01.2018 um 13:45
Zitat von mojorisinmojorisin schrieb:Das hängt davon ab wie du deinen Computer erziehen willst, ist ja ähnlich wie bei Kindern.
Der Gottgleichen Super-KI der wir die Weltherrschaft übergeben.


2x zitiertmelden

Technologische Singularität

20.01.2018 um 15:00
Zitat von skagerakskagerak schrieb:Ich denke dass ist der wesentliche Unterschied zwischen KI und Mensch
Ich find auch da liegt der Hauptunterschied. Ich hab solche Ideen von KI immer als Science Fiction abgetan,
jetzt aber nicht mehr wo ich das alles hier gelesen hab. Den meisten Menschen ist glaub ich nicht bewusst was
da auf uns zukommen könnte :( .
_________________________________________

Danke @mojorisin
das war ne super Erklärung, ich glaub ich habs verstanden :)
Zitat von mojorisinmojorisin schrieb: Das würde, wie beim Menschen, nur darauf ankommen wie man das neurale Netz trainiert.
Da müsste man damit früh genug anfangen bevor die KI singulär wird. Man könnte ihr dann "gute" Eigenschaften
antrainieren und die "bösen" weglassen (oder als falsch ) einprogrammieren.

Dumm ist nur dass bevor so eine Singularität eintritt,mehrere KI entwickelt worden sind an verschiedenen Orten auf
der Welt. Jeder der Entwickler kann dann entscheiden was er für einen Moralcode anwendet oder antrainiert.
Wahrscheinlich einen, den er jeweils für sich am vorteilhaftesten glaubt.
Zitat von Taln.ReichTaln.Reich schrieb:Der Gottgleichen Super-KI der wir die Weltherrschaft übergeben.
Vielleicht ist der Mensch ja garnicht von Gott erschaffen sondern der Mensch erschafft Gott, hehehe ;) .

Und Gott sprach: Lass uns den Menschen erschaffen nach unserem Bilde..

Das Geschöpf wird zum Schöpfer, auweia, ich halt die Klappe :D


1x zitiertmelden

Technologische Singularität

20.01.2018 um 15:23
Zitat von Sonni1967Sonni1967 schrieb:Ok, Empathie ist die Fähigkeit sich in ein anderes Individuum herein zu versetzen. Ob man diese Fähigkeit als Intelligenz
bezeichnen kann weiß ich nicht
Intelligenz ist ja erstmal nur die Fähigkeit bestimmte Muster nachvollziehen zu können. Im allgemeinen Sprachgebrauch meint man eher Muster die man kognitiv erfasst und bearbeitet.
Empathie ist auch die Fähigkeit bestimmte Muster erkennen und nachvollziehen zu können, aber hier geht es um Emotionen. Die richtig erfassen und nachvollziehen zu können ist wohl eine ähnlich große Herausforderung für einen Menschen, wie zB. logische Zusammenhänge erkennen zu können, womit das Wort Intelligenz hierfür auch nicht so verkehrt ist, denke ich. Stammt ja vom lateinischen "intellegare", was soviel wie verstehen bedeutet. Emotionen müssen im weitesten Sinne auch verstanden werden, wenn man sie nachvollziehen will, von daher klingt das schon auch annehmbar evtl. im weitesten Sinne von emotionaler Intelligenz zu sprechen. Wobei hier auch das eigene emotionale Verhalten im Verhältnis zu bestimmten Situationen ebenso gemeint sein könnte.
Zitat von Sonni1967Sonni1967 schrieb:Da müsste man damit früh genug anfangen bevor die KI singulär wird. Man könnte ihr dann "gute" Eigenschaften
antrainieren und die "bösen" weglassen (oder als falsch ) einprogrammieren.
Kann die Maschine im Laufe ihrer weiteren Entwicklung alles verwerfen, und sich umprogrammieren.

Ich denke, wenn sie uns in dieser Entwicklungsstufe immer noch wirklich wohlgesonnen sein soll, muss sie die Fähigkeit zum Mitgefühl haben, sodass es ihr selbst quasi Unbehagen bereiten würde, wenn sie den Menschen tötet oder verletzt. Wenn sie uns gegenüber nur neutral sein kann, ist der einzige Weg bei dem wir ihr wichtig wären der, dass sie uns für irgendwas benötigt. Als Ressource für etwas das sie künstlich selbst nicht produzieren kann. Nur was könnte das sein?


2x zitiertmelden

Technologische Singularität

20.01.2018 um 15:30
@nocheinPoet:
Zitat von nocheinPoetnocheinPoet schrieb:Wir werden wie dreijährige Kinder gegenüber einer echten starken KI sein. Unsere geistigen Fähigkeiten werden lächerlich sein, sie wird uns wirklich unglaublich voraus sein, Dinge sehen, die wir nicht nur nicht sehen, sondern nie sehen und verstehen können werden.

Nehmt eine Gruppe Kinder im Kindergarten, so 3 - 5 Jahre, nimmt davon 1.000 Gruppen, nehmt alle Kinder in dem Alter der Welt, nehmt eine Milliarde, auch in Summe wird diese Gruppe nicht CERN verstehen können. Nicht nachbauen. Nicht begreifen, um was es da überhaupt geht.

Die können da 2 Jahre durch die Anlage laufen, es wird nichts ändern.
Das ist ein Super-Beispiel. Das nehme ich in mein Repertoire auf. :)


1x zitiertmelden

Technologische Singularität

20.01.2018 um 15:30
Zitat von PhilippPhilipp schrieb:ähnlich große Herausforderung für einen Menschen
Das sollte vllt besser "ähnlich gelagerte Fähigkeit" heißen.
Trifft glaube ich den Sachverhalt etwas genauer.


melden

Technologische Singularität

20.01.2018 um 15:33
Zitat von uatuuatu schrieb:Das ist ein Super-Beispiel. Das nehme ich in mein Repertoire auf. :)
Ja, tatsächlich. Da hat sich der @nocheinPoet ein wirklich anschauliches Beispiel überlegt, das die Qualität des Problems sehr deutlich vor Augen führt.


melden

Technologische Singularität

20.01.2018 um 15:34
Zitat von PhilippPhilipp schrieb:Intelligenz ist ja erstmal nur die Fähigkeit bestimmte Muster nachvollziehen zu können. Im allgemeinen Sprachgebrauch meint man eher Muster die man kognitiv erfasst und bearbeitet.
Empathie ist auch die Fähigkeit bestimmte Muster erkennen und nachvollziehen zu können, aber hier geht es um Emotionen. Die richtig erfassen und nachvollziehen zu können ist wohl eine ähnlich große Herausforderung für einen Menschen, wie zB. logische Zusammenhänge erkennen zu können, womit das Wort Intelligenz hierfür auch nicht so verkehrt ist, denke ich. Stammt ja vom lateinischen "intellegare", was soviel wie verstehen bedeutet. Emotionen müssen im weitesten Sinne auch verstanden werden, wenn man sie nachvollziehen will, von daher klingt das schon auch annehmbar evtl. im weitesten Sinne von emotionaler Intelligenz zu sprechen. Wobei hier auch das eigene emotionale Verhalten im Verhältnis zu bestimmten Situationen ebenso gemeint sein könnte.
Empathie ist aber mehr, als nur die Emotionen des anderen zu erkennen, es umfasst auch diese Emotionen mitzufühlen, also den Emotionen des anderen Bedeutung beizumessen. Ein Soziopathischer MassenmörderIn wird kognitiv schon erkennen, dass seine/ihre Opfer leiden, es ist ihm/ihr nur völlig egal.


melden

Technologische Singularität

20.01.2018 um 15:37
@Taln.Reich
Ist klar, deshalb hab ich auch immer von erkennen und nachvollziehen gesprochen. Um Emotionen nachvollziehen zu können, ist es nötig, dass man sie nach-fühlt, meine ich.


Anzeige

1x zitiertmelden