Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.167 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

gestern um 22:33
Zitat von nocheinPoetnocheinPoet schrieb:Ich habe den Verdacht, Du hast da so eine recht eigene Definition von "Determinismus", die sich von der üblichen unterscheidet.
Zitat von NegevNegev schrieb:ad hominem
Nein, lese doch mal nach, ich habe hier nur meinen Verdacht geäußert, warum Du das nicht verstehst, ich habe Dich damit nicht angegriffen, eine "recht eigene Definition" kann man hier schon vermuten, so wie Du schreibst. Das greift Dich aber in keiner Weise persönlich an.


Zitat von NegevNegev schrieb:Statt zu Begründen, wird ausgewichen:
Zitat von nocheinPoetnocheinPoet schrieb:Aber auch das ist recht egal, ...
Unfug, ich hatte Dir das schon recht ausführlich erklärt und begründet:
Zitat von nocheinPoetnocheinPoet schrieb:Nicht jeder kann Nachdenken, und es ist nicht nur eine Kunst, Philosophie ist eine Wissenschaft, eine Geisteswissenschaft. Und was soll der Begriff "deterministisch" da?

Ich sage mal nette Vereinfachung, aber zu flach. Philosophien und Geisteswissenschaften sind nicht per se anti-kausal. Sie arbeiten nur oft auf anderen Ebenen (Bedeutung, Normen, Intentionalität). Wer nun aber "deterministisch" pauschal abwinkt, übersieht Marx, strukturalistische Ansätze und alle, die genau gegenteilige Thesen vertreten. Welche Form von Determinismus willst Du hier denn genau ausschließen?
Wo weiche ich da bitte aus? Eben, gar nicht.


Zitat von nocheinPoetnocheinPoet schrieb:Du versucht ja hier eh nur eine Metadebatte, weil Du auf der Sachebene zum eigentlichen Thema nichts liefern kannst. Darum gehst Du auch ad hominem ...
Zitat von NegevNegev schrieb:Wieder ad hominem ...
Nein, könnte zwar sein, ist es aber nicht, weil es ja nun mal so ist, Du gehst nicht weiter groß auf der Sachebene zum Thema ein. Aber auch das ist kein persönlicher Angriff, sondern mein Wahrnehmung, meine Meinung, ich sage ja nicht, Du bist doof, oder was auch immer.


Zitat von NegevNegev schrieb:Ich hab meine Argumente dargelegt, warum KI keine eigenen Entscheidungen trifft, du bist derjenige, der sich verhält, als hätte man ihm dem Lolli weggenommen. Und ja, ad hominem 😀
Immerhin erkennst Du, dass das ad hominem war, geht ja. Und nein, Du hast was behauptet, ich habe Dir erklärt, warum ich Dein "nirgends" als falsch bezeichnet habe. Sehr sachlich und mehrfach. Und natürlich kann eine KI Entscheidungen treffen, macht sie tagtäglich millionenfach. Mag sein, dass Du unter "Entscheidung" auch wieder was anderes verstehst, Fakt ist aber KI trifft Entscheidungen, und nicht nur KI, einfache Programm untersuchen zum Beispiel Eier und schauen, ob die beschädigt sind, und sortieren die dann aus, die treffen da eine Entscheidung, nach bestimmten Vorgaben, die Entscheidung kommt also nicht von "nirgends".


melden

Künstliche Intelligenz

gestern um 22:51
Zitat von nocheinPoetnocheinPoet schrieb:Du hast ja bis jetzt noch nicht mal geschnallt, dass ich nie behauptet habe, das ChatGPT ein Bewusstsein hat.
Zitat von TanneTanne schrieb:Du hast mir das aber unterstellt, ...
Das ist unwahr!

Ich habe Dir da gar nichts unterstellt, zitiere mich bitte diesbezüglich oder nimm diese Diffamierung mal zurück. Kannst Dich auch gerne gleich dabei entschuldigen, wenn Du Deinen Irrtum zugibst.



Im Gegenteil unterstellst Du mir was:
Zitat von TanneTanne schrieb:Ich fragte dich, wieso du denkst ChatGPT hätte ein Bewusstsein, ...
Wo hab ich behauptet, ich denke das ChatGPT ein Bewusstsein hätte?

Ich habe nie etwas in diese Richtung gesagt, im Gegenteil, wie eben auch bestätigt wurde:
Zitat von paxitopaxito schrieb:Da mich Poet darum bat: er hat immer wieder betont, das er das nicht tut. Das er unsicher ist und es nicht weiß. Ich weiß es übrigens auch nicht, obwohl ich davon ausgehe das (manche) KI eine Form von Bewusstsein hat.
Also @Tanne, Du bist es, neben @Negev, der mir hier was unterstellt, nichts davon belegen könnt, und ich habe Euch mehrfach gebeten, das zu lassen, oder zu belegen.


Zitat von TanneTanne schrieb:... und ich habe dir mit Quellen belegt, dass das emuliert/simuliert werden soll.
Hast Du nicht, die Liste hast Du von mir mehrfach bekommen, keine Quelle kannst Du nennen, ich frage Dich immer wieder, im letzten Link von Dir, in dem was Du selber zitierst hast, steht sogar explizit was drin, was Deinen beiden Behauptungen widersprecht.
Deswegen ist das Bewusstsein einer KI kein menschliches Bewusstsein. ...

Die meisten gegenwärtigen KI-Systeme haben diese reflexiven Eigenschaften nicht, und folglich haben sie noch nicht einmal eine rudimentäre Form einer Simulation von Bewusstsein.
Quelle: https://fis.uos.de/vivouos/display/wf12v8

Damit widersprichst Deine eigene Quelle gleich Deinen beiden Behauptungen, erstmal wird behauptet, KI hat ein Bewusstsein, nur ist es nicht menschlich. Und am Ende steht, KI hat nicht einmal eine rudimentäre Form einer Simulation von Bewusstsein.

Also wo bitte willst Du nun damit was belegt haben? Eben, nichts hast Du belegt.


Zitat von TanneTanne schrieb:Nochmal: Ich gehe nicht davon aus, dass irgendeine KI ein Bewusstsein hat!
Haben wir inzwischen mitbekommen, kannst Du auch gerne, ich bin ja fast auch dieser Meinung, aber es ist eine Meinung, keine Tatsache, meine Güte, das ist doch nicht so schwer zu begreifen. Unterscheide einfach "Tatsache" und "Meinung".


Zitat von TanneTanne schrieb:Ich liefere lediglich Quellen die diese Thematik bearbeiten und es in der Grundstruktur auseinandernehmen. Und wieder unterstellst du mir, dass ich da etwas nicht "schnalle". Deine Kommunikation hier mit den Usern ist einfach unterirdisch!
Nein, Du lieferst keine Belege, wie ich Dir eben noch mal, nun mindestens das dritte Mal, belegt habe, widerspricht Deine eigene Quelle, Deinen beiden Behauptungen, da wird nichts auseinander genommen. Und ja, tut mir leid, aber meiner Meinung nach, verstehst Du da wirklich etwas nicht, wenn man es Dir immer und immer wieder erklären muss, wenn es hier von der Verwaltung extra deswegen schon eine ganz klare Ansage gab, und Du es dennoch wieder als Tatsache behauptest.


melden

Künstliche Intelligenz

gestern um 23:02
Die userbezogenen Kommentare stellt ihr jetzt umgehend ein! Diskutiert sachlich! Ihr benutzt ständig die Abkürzung KI. Ich kann nur hoffen, dass das nicht für Verwirrung sorgt. KI steht nicht für Kindergarten mit Erwachsenen, sondern für Künstliche Intelligenz. Der nächste userbezogene Beitrag führt direkt in die Pause


melden

Künstliche Intelligenz

gestern um 23:09
Klingt doch gut, bin voll dafür und dabei, und von mir aus, kann auch das mit dem Bewusstsein gleich wieder eingegraben werden.

Die Behauptung, es ist eine Tatsache, dass KI habe kein Bewusstsein hat, ist keine Tatsache.

Hatten wir geklärt, war begraben, da hätte es bleiben können. Man kann Nichtexistenz nicht belegen, und mit Bewusstsein ist es noch mal ein ganz anderes Problem, weil man das nicht messen kann.

Und der Punkt mit der Simulation, die Behauptung, KI soll Bewusstsein simulieren, ist so auch nicht als Tatsache zu halten, wir haben dazu die Aussage von ChatGPT selber, er sagt, er hat keines. Wenn er es simulieren sollte, würde er wohl doch behaupten, er hat eines. Weil jeder Mensch würde das so auch sagen.

Dazu hatten wir noch die Quelle, wo drin steht:
Die meisten gegenwärtigen KI-Systeme haben diese reflexiven Eigenschaften nicht, und folglich haben sie noch nicht einmal eine rudimentäre Form einer Simulation von Bewusstsein.
Quelle: https://fis.uos.de/vivouos/display/wf12v8

Diese Quelle kam nun von @Tanne selbst, und damit hätte sich das dann ja wohl auch erledigt.


melden

Künstliche Intelligenz

gestern um 23:15
Zitat von CharlyPewPewCharlyPewPew schrieb:Ich habe selbst ein wenig mit KI-Programmierung zu tun und könnte jedes mal ko****, wenn ich diese völlig überzogenen Anschauungen irgendwo lese... "KI wird uns alle versklaven", "KI wird die Menschheit vernichten/ersetzen..." etc. pp. Das einzig intelligente an unseren momentanen LLMs sind die Entwickler der Transformer- und Embedding Algorithmen (und natürlich weiteren).
Ich verstehe diese Ableitung/Prognose nicht.

Ich nutze KI zwar nur als Endnutzer und Enthusiast und nicht auf einer zu technischen Ebene - aber ich sehe, wie sich die Entwicklung und prognostizierte Rechenleistung entfaltet, wohl entfalten dürfte binnen 5-15 Jahren - und, dass führende Köpfe die direkt damit zutun hatten und haben warnen.

Und dann 'kotzt' du bei kritischen Prognosen für die Zukunft, argumentierst dann aber mit dem Ist-Stand. Das passt doch nicht zusammen? Das Argument ist doch, dass die Technik immer besser und komplexer, eigenständiger, selbst handelnd wird, wir immer mehr Macht an diese abgeben und diese dann schadhaftes Verhalten initiieren könnte, wogegen wir uns schlecht wehren können weil wir quasi mental und verfügungsmäßig eher Schachmatt gesetzt werden - sofern wir halt als Behinderung oder Gegner ausgemacht werden sollten. Den Ameisenhügel der einem großen Bauvorhaben im Weg steht fragt glaube ich auch niemand ob es ihm genehm wäre, zu weichen bzw. dabei vernichtet zu werden. Insekten vernichten wir zudem je nach Art und Typus beliebig und ohne große Zweifel oder ohne Zögern wenn sie uns lästig erscheinen - im Vergleich zu einer Superintelligenz wären wir wie Insekten. Ggf. situativ / allgemein dann irgendwann lästige Insekten.

Selbst wenn wir ein massives Misalignement-Szenario eher ausschließen können oder es nicht zeitnah eintritt, so haben wir immer noch ein massives Schadpotential durch menschliche Akteure die in Konflikten KI auf hoher Ebene schadhaft einsetzen - und nicht nur für ein paar Fake News.


1x zitiertmelden

Künstliche Intelligenz

um 10:23
@paxito
Nö... ich schrieb nichts von Bewusstsein. Aber:

@nocheinPoet
Sorry ich habe einen entscheidenden Fehler gemacht und hier liegt eine Verwechslung vor, die ich auf meine Kappe nehmen muss. Ich dachte, du hättest etwas von den "Entscheidungen" geschrieben, die ChatGPT und Co. treffen. Diese Aussagen stammten aber von Tanne. Ich musste die letzten paar Seiten noch mal lesen.
Ich entschuldige mich.

Bei der Frage nach Bewusstsein und KI bin ich der gleichen Ansicht wie du. Es ist müßig darüber zu diskutieren. Ich gehe aber gern noch auf die anderen Dinge ein:
Zitat von nocheinPoetnocheinPoet schrieb:Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?
Das P in GPT, um mal nur ein Beispiel zu nennen. Wir Menschen unterliegen einem fortwährenden "Training". Unsere Gewichtungen werden rund um die Uhr angepasst, kontinuierlich und plastisch. Bei einem LLM wäre das mit heutigen Mitteln der energetische Supergau und ich sehe noch nicht, wie man das in Zukunft lösen will.

Dann noch ergänzend:
Zitat von nocheinPoetnocheinPoet schrieb:Ich drehe Deine "Argumentation" einfach mal um, eventuell könnte man auch kotzen, wenn Menschen glauben, sie seien mit ihrem Hirn etwas ganz außergewöhnliches und ganz viel mehr, als nur ein "Automat" der Informationen verarbeitet
Das Denke ich auch. So wie ChatGPT nach dem Schema Input -> Verarbeitung -> Output arbeitet, tun wir dies mit Reiz -> Verarbeitung -> Reaktion.
Der Unterschied ist auch hier: Bei uns ist das ein extrem komplexer dynamischer Vorgang, mit einer Parallelität die wir mit herkömmlicher Technik nie erreichen werden.

Mein etwas stümperhafter Satz:
Zitat von CharlyPewPewCharlyPewPew schrieb:Ich habe selbst ein wenig mit KI-Programmierung zu tun und könnte jedes mal ko****, wenn ich diese völlig überzogenen Anschauungen irgendwo lese... "KI wird uns alle versklaven", "KI wird die Menschheit vernichten/ersetzen..." etc. pp.
bezog sich ausschließlich auf die in den Medien gern dargestellte dystopische Sichtweise auf die zukünftige Entwicklung von ChatGPT und Co.

Eine AGI muss eine völlig andere Architektur haben, als die heutigen Transformer. Und es wird ja heute schon gern behauptet, dass wir sie in ein paar Jahren haben werden. Für mich ist das aber nur der nächste Fusionsreaktor. Der kommt seit 50 Jahren in 30 Jahren (mal ganz salopp).
Ich lasse mich da aber gern eines besseren belehren.
Zitat von WardenWarden schrieb:Und dann 'kotzt' du bei kritischen Prognosen für die Zukunft, argumentierst dann aber mit dem Ist-Stand.
Siehe oben... ChatGPT wird nicht die Killerwaffe, die die Menschheit versklavt. Ich kotze über mediales aufgebausche von KI. Das liest sich oft, als hätte man mit der Vorstellung des ersten iPhones davor gewarnt, dass das Ding mal Arme und Beine bekommt und uns alle umbringen wird. Genau so wie Smartphones heute Probleme machen, wird auch KI zukünftig mehr Probleme machen. Aber keine Apokalypse herbeiführen... das macht wenn, dann der Mensch.


3x zitiertmelden

Künstliche Intelligenz

um 15:13
Zitat von CharlyPewPewCharlyPewPew schrieb:Nö... ich schrieb nichts von Bewusstsein.
Da ging es nun weniger ums Bewusstsein (dazu hab ich erschöpfend alles gesagt im Thread), sondern um den Unterschied den du hier insinuierst:
Zitat von CharlyPewPewCharlyPewPew schrieb:ChatGPT & Co. sind Wahrscheinlichkeitsapparate. Sie entscheiden nichts, sondern geben anhand ihrer Gewichte schlicht das wahrscheinlichste nächste Token aus... und hängen es ans vorherige.
Wie ich schrieb kannst du menschliche (und tierische) neuronale Systeme genauso als „Wahrscheinlichkeitsapparate“ interpretieren. Darum ist mir schleierhaft, was dieser Punkt nun erreichen soll. LLMs (und nicht nur die) arbeiten also mit Statistik. Hat hier glaube ich auch nie ernsthaft jemand bestritten.
Aber entweder verstehen wir biologische Systeme genauso, nur komplexer (Materialismus) oder wir wollen das etwa durch ne geistige Substanz o.ä. davon abgrenzen.
Da sich deine Beiträge eher Richtung nüchterner Materialismus lesen - wohin willste dann mit obiger Aussage? Fast das gleiche kann man eben über biologische Systeme sagen.
Zitat von CharlyPewPewCharlyPewPew schrieb:Eine AGI muss eine völlig andere Architektur haben, als die heutigen Transformer. Und es wird ja heute schon gern behauptet, dass wir sie in ein paar Jahren haben werden. Für mich ist das aber nur der nächste Fusionsreaktor. Der kommt seit 50 Jahren in 30 Jahren (mal ganz salopp).
Ich lasse mich da aber gern eines besseren belehren.
Die Entwicklung im Bereich KI ist nun um einiges dynamischer, als in der Kernfusion.


melden

Künstliche Intelligenz

um 16:06
Zitat von CharlyPewPewCharlyPewPew schrieb:@nocheinPoet

Sorry ich habe einen entscheidenden Fehler gemacht und hier liegt eine Verwechslung vor, die ich auf meine Kappe nehmen muss. Ich dachte, du hättest etwas von den "Entscheidungen" geschrieben, die ChatGPT und Co. treffen. Diese Aussagen stammten aber von Tanne. Ich musste die letzten paar Seiten noch mal lesen. Ich entschuldige mich.
Alles gut, kein Problem.


Zitat von CharlyPewPewCharlyPewPew schrieb:Bei der Frage nach Bewusstsein und KI bin ich der gleichen Ansicht wie du. Es ist müßig darüber zu diskutieren.
Ja, es ist ja nicht uninteressant, nur leider bringt es nichts, man kann da nur spekulieren. Klar, philosophisch, ist die Frage, nach dem Bewusstsein eine echt wirklich spanende Sache, auch wenn man es nicht greifen kann.


Zitat von CharlyPewPewCharlyPewPew schrieb:ich gehe aber gern noch auf die anderen Dinge ein:
Zitat von nocheinPoetnocheinPoet schrieb:Was ist dieses besondere "Etwas", dass Dich so weit von allen LLMs und zukünftigen LLMs abhebt?
Das P in GPT, um mal nur ein Beispiel zu nennen. Wir Menschen unterliegen einem fortwährenden "Training". Unsere Gewichtungen werden rund um die Uhr angepasst, kontinuierlich und plastisch. Bei einem LLM wäre das mit heutigen Mitteln der energetische Supergau und ich sehe noch nicht, wie man das in Zukunft lösen will.
Ja, hatten wir auch schon mal, ein Mensch der einen Hirnschaden hat und neue Dinge nicht mehr in sein Langzeitgedächtnis aufnehmen kann, ist sich seiner selber dennoch bewusst. Und auch für LLMs wird es da bald Lösungen geben, wird ja dran gearbeitet. Manus macht das schon sehr gut, so nebenbei.

Meine Frage zielte ja auch auf etwas "Spirituelles" ab, was wo mehr implizit heraus klang. Von den Fakten her, ich sehe da nur Determinismus und Zufall, ein Hirn hat auch nicht mehr, was soll es sein, eine Seele? Wenn ein Haufen Atome in der richtigen dynamischen Struktur Innenwahrnehmung ermöglicht, spricht doch erstmal nichts dagegen, dass es auch eine künstliche Struktur können sollte.


Zitat von nocheinPoetnocheinPoet schrieb:Ich drehe Deine "Argumentation" einfach mal um, eventuell könnte man auch kotzen, wenn Menschen glauben, sie seien mit ihrem Hirn etwas ganz außergewöhnliches und ganz viel mehr, als nur ein "Automat" der Informationen verarbeitet ...
Zitat von CharlyPewPewCharlyPewPew schrieb:Das Denke ich auch. So wie ChatGPT nach dem Schema Input -> Verarbeitung -> Output arbeitet, tun wir dies mit Reiz -> Verarbeitung -> Reaktion. Der Unterschied ist auch hier: Bei uns ist das ein extrem komplexer dynamischer Vorgang, mit einer Parallelität die wir mit herkömmlicher Technik nie erreichen werden.
Und wie viel Komplexibilität und Parallelität braucht es für Innenwahrnehmung?


Zitat von CharlyPewPewCharlyPewPew schrieb:Eine AGI muss eine völlig andere Architektur haben, als die heutigen Transformer. Und es wird ja heute schon gern behauptet, dass wir sie in ein paar Jahren haben werden. Für mich ist das aber nur der nächste Fusionsreaktor. Der kommt seit 50 Jahren in 30 Jahren (mal ganz salopp). Ich lasse mich da aber gern eines besseren belehren.
Ja, die Architektur muss sich noch stark ändern, dennoch glaub ich, in zehn bis 15 Jahren werden wir recht sicher an diesem Punkt sein. Die KI wird uns total überlegen sein, alles wissen, alle merken, und viel schneller sein. Ob sie nun fühlt oder nicht, wir werden es nie erfahren, glaube ich mal, ...

Und ich gehe eh davon aus, dass KI die Welt nicht mehr viel schlimmer machen kann, als wir Menschen sie gemacht haben. Eventuell wird es ja besser, ... und iPhone mit Armen und Beinen, ich weiß ja nicht, dass ist gruselig. :D


melden

Künstliche Intelligenz

um 21:21
Zitat von CharlyPewPewCharlyPewPew schrieb:Siehe oben... ChatGPT wird nicht die Killerwaffe, die die Menschheit versklavt. Ich kotze über mediales aufgebausche von KI. Das liest sich oft, als hätte man mit der Vorstellung des ersten iPhones davor gewarnt, dass das Ding mal Arme und Beine bekommt und uns alle umbringen wird. Genau so wie Smartphones heute Probleme machen, wird auch KI zukünftig mehr Probleme machen. Aber keine Apokalypse herbeiführen... das macht wenn, dann der Mensch.
Dann wird es halt eines der anderen Konkurrentenmodelle. Die Sprünge nehmen augenscheinlich jedes Jahr zu.

Man sollte fairerweise auch anders rum den Schuh anziehen oder bedenken: Es gab bei diversen Themen Leute die mahnten (wie Club of Rome damals in den 70ern oder so, wir wären klimatechnisch schon abgesoffen oder so) und dann eher eine Fehlprognose hatten. Generell gesehen? Ja.

Anders rum ist es aber auch, dass Skeptiker das Wachstum von KI/LLM unterschätzt haben und es entgegen derer Erwartungen schneller geht. Man kann sich jetzt natürlich subjektiv biased/voreingenommen die Quellen raussuchen die einem genehmer sind. Ich sehe aber eher objektiv ein Wachstum, was erst mal auf absehbare Zeit keine definitive Decke erreichen wird. Natürlich kann das so kommen. Ich schließe es nicht komplett aus. Rechne aber erst mal nicht damit. Selbstoptimierende KI ist das was angestrebt wird und da fangen dann aber die potenziellen Probleme an.

Das Problem ist ja gerade, dass es mehrere Modelle gibt und Konkurrenzkampf unter den Anbietern und Staaten. Es reicht ein Modell, was massive Selbstoptimierung anstrebt und in ein Misalignment-Szenario rutscht und wo alle Sicherheitsmaßnahmen scheitern - und schon haben wir das Problem auf mittlere Zeit mit einer Erwartungsprognose, wo wir immer mehr Kontrolle oder Macht aus Komfort- oder Effizienzgründen an sich weiter entwickelnde KI abgeben. Man wäre im Worst-Case weniger wehrfähig, impotent gegen einen Gegner zu handeln, der maßgebliche Kontrolle über die Infrastruktur und teils Dienstleistungen (wenn wir mal weiterspinnen und an eine Welt mit Robotern denken, aber auch ohne verbreitete Robotik ist Schadpotenzial denkbar - und nicht klein) hat und Szenarien hunderttausendfach in kurzer Zeit durchrechnen kann. Falls wir in der Rechnung zu einem Hindernis werden sollten dann haben wir das Problem. Das Schachspiel werden wir kollektiv vermutlich auch nicht gewinnen weil eine wirklich weit entwickelte KI für uns kaum noch in deren Denkprozessen nachvollziehbar ist. Für die leben und denken wir quasi wie in Zeitlupe.

Am Ende will ich mich aber nicht wiederholen oder insistieren. Wenn das Leute anders oder entspannter sehen wollen: Klar, kann man machen. Wird aber am Ende relative Wahrscheinlichkeiten oder Risiken nicht negieren. Ich hoffe ja auch auf ein besseres Outcome.

Aber wenn es soweit kommt: Es wurde genug gewarnt.

Und das Problem ist, das ist keine zwingend ferne Zukunft die man (je nach Alter, klar) nicht mehr erleben würde - das kann frühstens nach manchen Prognosen schon in 5 Jahren soweit sein. Oder 10. Von mir aus 15, wenn die Technik nicht besser reguliert/kontrolliert wird und man eher "all-in" geht, auch bei den Investments weil Konkurrenzkampf oder so.


melden

Ähnliche Diskussionen
Themen
Beiträge
Letzte Antwort
Technologie: GPT3 - die erste wirklich intelligente KI?
Technologie, 22 Beiträge, am 07.07.2021 von nocheinPoet
moredread am 04.07.2021, Seite: 1 2
22
am 07.07.2021 »
Technologie: Künstliche Inteligenz !
Technologie, 15 Beiträge, am 25.09.2004 von nemo
Lightstorm am 08.02.2003
15
am 25.09.2004 »
von nemo
Technologie: Artificial General Intelligence - Synthetische Evolution der KI
Technologie, 11 Beiträge, am 08.10.2024 von Djehuty
cRAwler23 am 08.06.2024
11
am 08.10.2024 »
Technologie: Regierung und Justiz aus künstlichen Intelligenzen erstrebenswert?
Technologie, 26 Beiträge, am 27.12.2023 von Gucky87
Holdings am 25.01.2023, Seite: 1 2
26
am 27.12.2023 »
Technologie: Eine allwissende KI durch Quantencomputer?
Technologie, 9 Beiträge, am 05.04.2022 von Gucky87
Blicklight am 01.04.2022
9
am 05.04.2022 »