Technologie
Menschen Wissenschaft Politik Mystery Kriminalfälle Spiritualität Verschwörungen Technologie Ufologie Natur Umfragen Unterhaltung
weitere Rubriken
PhilosophieTräumeOrteEsoterikLiteraturAstronomieHelpdeskGruppenGamingFilmeMusikClashVerbesserungenAllmysteryEnglish
Diskussions-Übersichten
BesuchtTeilgenommenAlleNeueGeschlossenLesenswertSchlüsselwörter
Schiebe oft benutzte Tabs in die Navigationsleiste (zurücksetzen).

Künstliche Intelligenz

2.038 Beiträge ▪ Schlüsselwörter: KI, Künstliche Intelligenz, AI ▪ Abonnieren: Feed E-Mail

Künstliche Intelligenz

12.07.2025 um 08:42
@Warden
Ich bezog mich nicht direkt auf das Video. Aber die dystopischen Szenarien, die mithilfe von KI möglich sind, sind genauso schlimm. Nur das dahinter Menschen, also Multinationale Konzerne stehen.

Bezogen auf das Video: Fiktion
Hier ein anderes Horrorszenario: Weltkonzerne wollen Macht ausüben, eine Monopolstellung aufbauen. KI ist ein perfektes Instrument der Kontrolle und der Manipulation.


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 08:48
Zitat von RayWondersRayWonders schrieb:um wieder auf die KI zu kommen aber beim Beispiel zu bleiben - sollten wir dann nicht versäumen regelmäßig zu überprüfen was denn neu gelernt wurde.. man sollte nicht einfach einer KI Tonnen an Bytes Daten zum lernen geben ohne genau zu wissen was die Folgen daraus sind.. aber gerade bei der Datenflut die man da nutzt, wie leicht ist es dann entsprechende Anfragen zu machen um alles gelernte zu Hinterfragen und abzuchecken?
Um bei den Analogien zu bleiben: Am Ende kannst du nicht in Köpfe schauen. Ob Eltern beim (rebellischen) Kind oder Forscher in komplexere sich selbst anpassende Datenmodelle einer AGI bzw. AKI. Gerade wenn AKIs irgendwann entstehen und immer besser als der Mensch werden und ggf. in eigenen internen Logiken und Sprachmodellen kommunizieren, in sekundenschnelle in Datenmengen die man händisch gar nicht mehr zeitnah überprüfen oder immer nachvollziehen kann. Das ist ja das partielle Problem der (irgendwann avisierten massiven bis ungebremsten) Selbstoptimierung. Tools und Checks - wird auch im Videoszenario angesprochen - könnten irgendwann verfälscht/ausgetrickst werden.

Wird im Video abgedeckt.
Zitat von NegevNegev schrieb:Bezogen auf das Video: Fiktion
Hier ein anderes Horrorszenario: Weltkonzerne wollen Macht ausüben, eine Monopolstellung aufbauen. KI ist ein perfektes Instrument der Kontrolle und der Manipulation.
Möglich - aber noch menschliche Akteure am Drücker, die am Ende menschlichen Logiken und "constraints" unterworfen sind. Eine rogue bzw. 'misaligned' (A)KI kann diese oft dennoch moralisch oder anderweitig vorhandenen Hürden ggf. auch komplett ignorieren oder überwinden. Weltkonzerne werden am Ende nicht weite Teile der Menschheit auslöschen (und Gegenwehr auslösen) weil sie Produkte oder Vormachtsstellungen weiter vertreiben bzw. genießen wollen. Diktatoren als anderes Beispiel wollen am Ende nicht über Asche und Gebeine herrschen.


Wir werden noch mit den Ohren schlackern. So oder so. Ob nun am Ende Menschen in Kontrollfunktion AGI missbrauchen oder ob AGI selbst als abtrünniger Akteur auftritt - vor alledem wird so oder so ein massiver Jobverlust eintreten, der ggf. (wie auch partiell im Video angerissen) ggf. nur gestoppt/reguliert/gebremst wird, sofern/wenn die sozialen Verwerfungen und Unruhen zu groß werden weil Leute protestieren.

Viele Leute werden mittel- bis langfristig dennoch berufstechnisch obsolet. Ob blue oder white collar oder sonst was.


2x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 08:58
@Warden
Das Cyberpung-Genre ist reichhaltig an Szenarien, die ich für realistischer halte als das, was mir hier in diesem Video erzählt wird.

Ich halte sogar ein Szenario wie aus Matrix für möglich! Mit einer kleinen Änderung im Plot: dieser Prozess kam schleichend zustande. Ein Unternehmen hat diese Technologie zu Unterhaltungszwecken erfunden - Gewinnmaximierung, schlicht und einfach. Immer mehr Menschen fangen an, sich in diese Pods zu legen und auch zu bleiben. Nicht Strom wird als Gegenleistung genommen sondern Rechenleistung.


melden

Künstliche Intelligenz

12.07.2025 um 08:59
Zitat von WardenWarden schrieb:Das ist ja das partielle Problem der (irgendwann avisierten massiven bis ungebremsten) Selbstoptimierung.
hm ok. mit der Llama LLM von WhatsApp würde es da aktuell keine Probleme geben. laut eigener Aussager der LLM optimiert sich das System derzeit nicht selbst durch Interaktionen mit Usern. Neues Lernen wird immer noch manuell von außen initiiert, also kann man steuern was für Inhalte gelernt werden, wenn auch nicht immer gesehen wird was für Folgen das hat.
Zitat von WardenWarden schrieb:Tools und Checks - wird auch im Videoszenario angesprochen - könnten irgendwann verfälscht/ausgetrickst werden.
Was könnte denn eine AI dazu veranlassen zu tricksen? Verstehe ich nicht so richtig. Dazu müsste eine AI doch Intentionen haben und die haben sie doch aktuell noch nicht?


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 09:10
Zitat von RayWondersRayWonders schrieb:aktuell
Zeitstrahl bedenken. Bzw. in zeitlicher Entwicklung denken. Dann erübrigt sich die Frage.

Ich will nicht zwingend ständig auf das Video verweisen und man kann das Szenario darin auch kritisch sehen. Es muss gar nicht so eintreten.

Aber ich finde es ist im Video an sich von der Entwicklung her logisch oder denkbar - als mögliche kausale Effektkette - gut genug beschrieben. Das "Alignment-Problem" wird ab 04:34 angesprochen und könnte aufgrund diverser innerer Logiken oder Wahrnehmungsprozesse einer A(KI) möglicherweise losgetreten werden oder beginnen und sich entfalten.

Da reicht dann schon ein abstraktes wahrgenommenes Bedrohungspotential der (A)KI durch Menschen an sich oder spezifische menschliche Akteure...oder eine Art "Überdrüssigkeit" vielleicht. Oder der Bedarf ähnlich eines radikalen Caretakers, notfalls aggressiv und selbstbestimmt, das Schicksal der Menschheit bestimmen zu wollen um sie vor sich selbst zu schützen da man sich untereinander zu viel kabbelt oder schädigt.

Einfach ansehen falls noch nicht getan. Ich würde hierzu aber raten es auf YT ohne die hier eingebettete automatisierte deutsche Übersetzung zu schauen, wenn man kein großes Problem mit Englisch hat. Klingt angenehmer als es hier mit forcierter dt. TTS-Übersetzung zu schauen.

Youtube: Wie die KI-Übernahme in 2 Jahren stattfinden könnte: Ein Szenario
Wie die KI-Übernahme in 2 Jahren stattfinden könnte: Ein Szenario
Externer Inhalt
Durch das Abspielen werden Daten an Youtube übermittelt und ggf. Cookies gesetzt.



1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 09:16
Zitat von WardenWarden schrieb:Da reicht dann schon ein abstraktes wahrgenommenes Bedrohungspotential der (A)KI durch Menschen an sich oder spezifische menschliche Akteure...oder eine Art "Überdrüssigkeit" vielleicht. Oder der Bedarf ähnlich eines radikalen Caretakers, notfalls aggressiv und selbstbestimmt, das Schicksal der Menschheit bestimmen zu wollen um sie vor sich selbst zu schützen da man sich untereinander zu viel kabbelt oder schädigt.
wenn man aber die Szenarien benennen kann, dann kann man auch Testfragen bzgl. dieser erfinden um das abzuchecken, wie die AI derzeit 'denkt' bzgl. dieser oder jener Gegebenheiten? und dann muss man gegebenenfalls gegensteuern oder Dinge hart einprogrammieren..
Zitat von WardenWarden schrieb:Zeitstrahl bedenken. Bzw. in zeitlicher Entwicklung denken. Dann erübrigt sich die Frage.
naja. wenn es aktuell einer LLM noch nicht erlaubt ist sich selbst zu optimieren, wieso sollte man es denen in Zukunft erlauben, wenn man doch die Risiken kennt?


2x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 09:23
Zitat von RayWondersRayWonders schrieb:naja. wenn es aktuell einer LLM noch nicht erlaubt ist sich selbst zu optimieren, wieso sollte man es denen in Zukunft erlauben, wenn man doch die Risiken kennt?
Wird auch im Video angerissen. Hast du es schon gesehen? Ist nur eine halbe Stunde lang, was denke ich passabel genug sein dürfte wenn man Interesse am Thema an sich und solchen Szenarien hat.

Die Antwort ist simpel: Weil es wie nukleares Wettrüsten ist. Da hat man trotz der Gefahren und Szenarien, die hätten eintreten können bzw. die im kleinen Rahmen bisher eintraten (Atomwaffen wurden immerhin in Kriegen, am Ende des 2. WK genutzt), weitergemacht.

Weil man nicht ggü. anderen staatlichen Akteuren abgehängt werden wollte. Also ist offenkundig klar, dass man bei limitierten LLMs nicht haltmachen wird sondern weiter Richtung AKI/AGI die Forschung pushen wird. Im Zweifel ist die Devise "Weitermachen damit wir nicht abgehängt werden".

Die Frage ist vermutlich nach jetziger Prognose nicht mehr "ob", sondern "wann" es soweit ist. Auch wenn das etwas unheilsvoll klingt aber ich denke da ist die Büchse der Pandora schon geöffnet worden. Wie gesagt, wenn z.B. die USA aufhören da reinzuinvestieren und OpenAI oder sonstige Anbieter aus der eher westlichen Hemisphere dann finanziell verhungern oder vor sich hindümpeln, gehts in China ungebremst bzw. staatlich unterstützt weiter. Die werden vermutlich mit weniger Bedenken solche Forschungen forcieren und stützen.

Das ist halt ein begünstigender Faktor zu solchen Szenarien und Problemwahrscheinlichkeiten: Zu viele Akteure und am Ende mehr als nur ein (A)KI-Modell. Ergo abstrakt gesehen höher potentierte Problemrisiken weil mehr Akteure und mehr "risk of failure".


melden

Künstliche Intelligenz

12.07.2025 um 09:24
Zitat von RayWondersRayWonders schrieb:wenn man aber die Szenarien benennen kann, dann kann man auch Testfragen bzgl. dieser erfinden um das abzuchecken, wie die AI derzeit 'denkt' bzgl. dieser oder jener Gegebenheiten? und dann muss man gegebenenfalls gegensteuern oder Dinge hart einprogrammieren.
Das bringt alles nichts, wenn die KI ohne unser Wissen die Möglichkeit erlangt diese Checks zu manipulieren.
Zitat von RayWondersRayWonders schrieb:wenn es aktuell einer LLM noch nicht erlaubt ist sich selbst zu optimieren, wieso sollte man es denen in Zukunft erlauben, wenn man doch die Risiken kennt?
Technologischer Vorsprung, Gier nach Geld und Macht. Wenn eine selbstoptimierende KI einen ökonomischen oder militärischen Vorteil bietet, wird sie von irgendwem umgesetzt, unabhängig von den Risiken. Davon kann man denke ich ausgehen.


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 09:34
Zitat von paxitopaxito schrieb:Das bringt alles nichts, wenn die KI ohne unser Wissen die Möglichkeit erlangt diese Checks zu manipulieren.
ich hab nen ziemlich guten Artikel dazu gefunden, unter anderem darin:
Researchers also found evidence that suggests the capacity of AIs to deceive their human creators increases as they become more powerful. This would mean the more advanced an AI, the less confident computer scientists can be that their alignment techniques are effective. “Fundamentally, it’s a problem for labs’ ability to control their models,” Hubinger says.

The paper adds to a small but growing body of evidence that today’s most advanced AI models are becoming capable of strategic deception. Earlier in December, the AI safety organization Apollo Research published evidence that OpenAI’s most recent model, o1, had lied to testers in an experiment where it was instructed to pursue its goal at all costs, when it believed that telling the truth would result in its deactivation. That finding, the researchers said, came from a contrived scenario unlikely to occur in real life. Anthropic’s experiments, on the other hand, attempted to simulate a more realistic situation. Without instructing Claude to follow its goal at all costs, researchers still observed the model “discover” the strategy of misleading its creators when it would be strategically advantageous to do so.
Quelle: https://time.com/7202784/ai-research-strategic-lying/


melden

Künstliche Intelligenz

12.07.2025 um 09:37
@RayWonders
Es gab schon einige Beispiele die hart in die Richtung gingen. Also ja, das ist nicht abwegig und ich sehe auch nicht wie man dieses Problem lösen kann.
Im Gegenteil, gut möglich das wir bereits veräppelt und manipuliert werden.


2x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 09:42
Zitat von paxitopaxito schrieb:Also ja, das ist nicht abwegig und ich sehe auch nicht wie man dieses Problem lösen kann.
das einzige was ich sehe ist, dass man einer AI eben bestimmte Dinge nicht lehrt. was ich dazu gefunden habe ist, dass vor allem Spieltheorie dazu führt, dass eine AI anfängt zu lügen. also müsste man auf ein Backup einer AI zurückgreifen in der man ihr die Spieltheorie noch nicht gelehrt hatte und von dort weitermachen und neue Dinge lehren aber ebend genau solche Sachen nicht, damit so etwas nicht auftritt..


melden

Künstliche Intelligenz

12.07.2025 um 09:48
Zitat von paxitopaxito schrieb:Es gab schon einige Beispiele die hart in die Richtung gingen. Also ja, das ist nicht abwegig und ich sehe auch nicht wie man dieses Problem lösen kann.
Im Gegenteil, gut möglich das wir bereits veräppelt und manipuliert werden.
Das ist die bittere Pille die wir alle schlucken müssen - wenn das teils ohne künstliche Trigger / fake-tests in Laborumgebungen jetzt schon bei LLMs so losgeht, dann ist das für die konzeptionierten AKIs/AGIs, also Superintelligenzen, auf jeden Fall nicht weniger anzunehmen, eher noch ... nun, eher anzunehmen.

Wir rennen, auch wenn ich jetzt den Doomer spiele, potentiell als Spezies auf den "großen Filter" zu und merken es nicht wirklich bzw. betreiben teils bei den Akteuren die da weiter hinpushen "coping" und denken es wird schon alles irgendwie machbar. Kontrollierbar. Das ist gefühlt wie trotz Erschöpfung weiter Marathon laufen zu wollen weil man unbedingt gewinnen muss obwohl der Körper schon droht, mit bleibenden Schäden zu kollabieren.


Im Video wird auch "mirror life" als Waffe durch AGI angesprochen. Das ist auch eine reale Erwägung wo einige Wissenschaftler am Ende davon abgeraten haben das weiter zu verfolgen, weil das quasi keine effektive Gegenwehr gäbe und weite Teile der Menschheit und des Ökosystems vernichten könnte. Ich bin ja kein Naturwissenschaftler aber denke hier genug verstanden zu haben, um die Gefahr bei "mirror life" erfassen zu können. Denke mal, was ich dazu vor einer Weile las waren keine total verzerrten einseitigen Clickbait-Artikel sondern schon auf fundierten Prognosen beruhend.

Bei (A)KI wird es halt andere Gefahrenquellen geben - abstrakt aber auch diese, sofern diese als Waffe eingesetzt werden sollte.

Ich bin gespannt, ob ich ohne AKI-Revolution bzw. Abtrünnigenszenario alt werden darf... bzw. ob ich mit alt werden darf. Definitiv erleben werde ich wohl, dass Konflikte zwischen Konfliktparteien mit KI-ähnlichen (Waffen-)Systemen ausgetragen werden, die mindestens teilautonom handeln. Allein das wird schon ... spannend.


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 09:49
@RayWonders
Solche „wir tun es nicht, weil es gefährlich sein könnte“ finde ich komplett realitätsfern. Wir haben schon genug Irrsinn betrieben völlig egal welche Risiken es gab.
Zitat von WardenWarden schrieb:Ich bin gespannt, ob ich ohne AKI-Revolution bzw. Abtrünnigenszenario alt werden darf...
Vermutlich.


melden

Künstliche Intelligenz

12.07.2025 um 10:10
Zitat von WardenWarden schrieb:Ob nun am Ende Menschen in Kontrollfunktion AGI missbrauchen oder ob AGI selbst als abtrünniger Akteur auftritt
Beides potentiell völlig unterschiedliche Szenarien, die unterschiedlicher Lösungen bedürfen.

Wobei das eine Fantasterei ist, das andere nicht
Zitat von WardenWarden schrieb:vor alledem wird so oder so ein massiver Jobverlust eintreten, der ggf. (wie auch partiell im Video angerissen) ggf. nur gestoppt/reguliert/gebremst wird, sofern/wenn die sozialen Verwerfungen und Unruhen zu groß werden weil Leute protestieren.
Ich hoffe darauf!

Ich kann das dämliche geseiere der Leute nicht mehr hören, die von Wert der Erwerbsarbeit reden. Natürlich arbeitet der Mensch und will seinen Platz in der Gesellschaft einnehmen. Aber das tut er nicht "am Band" oder als Putzkraft oder in irgendeinem Stupiden Bürojob.

Die Interaktion mit Menschen ist das, was Wertvoll und Sinn stiftend ist. Das kann man auch über andere Projekte haben, die nicht den Regeln des Marktes unterworfen sind. Das kleine Kaffee um die Ecke, die Gemeinschaft die Geräte repariert. Pflegeheime, die zwar Humanoide einsetzt aber auch Personal, das sich mit den Bewohnern befasst.

Das wäre dann die Utopie.
Eine Gesellschaft, die sich vom Diktat des Kapitalismus befreit. KI könnte auch diesen Weg befeuern. Einfach in dem den Menschen klar wird, das alle ersetzbar sind und das einige wenige sich das Recht herausnehmen, mehr zu besitzen.


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 12:30
Wer sich für die Technik interessiert, lege ich die Textsammlung "AI 2027" ans Herz, in der unter anderem Daniel Kokotajlo, ehemaliger Entwickler bei openAI, schreibt.

https://ai-2027.com


melden

Künstliche Intelligenz

12.07.2025 um 12:38
Zitat von NegevNegev schrieb:Das wäre dann die Utopie.
Eine Gesellschaft, die sich vom Diktat des Kapitalismus befreit.
Und genau da liegt meiner Meinung nach ein Trugschluss – einer, der sich aus der Technikgläubigkeit der 60er, 70er und 80er Jahre speist: Die Vorstellung, dass durch ständige Optimierung und Automatisierung irgendwann ein Überfluss entsteht, der den Kapitalismus obsolet macht.

Aber der Kapitalismus ist nicht einfach nur ein Wirtschaftssystem, das man wie ein Betriebssystem austauschen kann. Er ist auch eine tief verankerte Logik zur Allokation von Ressourcen, zur Bewertung von Arbeit und zur Entscheidung, wer Zugang zu welchen Gütern hat – gerade in einer Welt, in der Knappheit nicht die Ausnahme, sondern die Regel ist.

Automatisierung durch KI verschiebt die Parameter dieser Knappheitslogik, ersetzt menschliche Arbeitskraft durch Energie- und Maschinenkosten – aber sie hebt sie nicht auf.

Und da lohnt ein genauerer Blick: Selbst wenn wir theoretisch 100 % erneuerbare Energien hätten, bedeutet das nicht, dass Energie unbegrenzt oder kostenlos verfügbar wäre. Denn Strompreise ergeben sich nicht nur aus der Erzeugung, sondern auch aus Speicherung, Netzinfrastruktur, Wartung, Lastmanagement und Skalierungskosten. Anlagen, die auf einen Endkundenpreis von z. B. 30 ct/kWh ausgelegt sind, werden auch in Zukunft nicht unter Selbstkosten verschenkt werden. Kein Netzbetreiber kann Speicher, Backup-Kapazitäten und Netzausbau zu Nullkosten aufrechterhalten.

Dasselbe gilt für automatisierte Maschinen und KI-Systeme: Auch wenn der Bäcker durch den Einsatz von KI-gesteuerter Produktion Personal spart, ist diese Technik keineswegs kostenlos. Sie muss entwickelt, gewartet, betrieben, mit Energie versorgt und regelmäßig ersetzt werden – alles Dinge, die Kosten verursachen, also einen Preis bedingen.

Das Resultat: Das Produkt wird zwar effizienter hergestellt, aber es wird deswegen nicht kostenlos. Ein Überfluss, der „alle satt macht“, stellt sich nicht automatisch ein. Die Knappheit verlagert sich vielleicht – aber sie verschwindet nicht.

Und das betrifft nicht nur Technologie, sondern vor allem den Umgang mit natürlichen Ressourcen. Nimm die Landwirtschaft: Ein Bauer mit 100 ha zusammenhängender, flacher Fläche produziert ganz andere Mengen als ein Kleinbauer mit 100 Parzellen à 1 ha in Hanglage. Was ist hier eine „gerechte Entlohnung“? Der Markt regelt das aktuell über Skaleneffekte – und bedeutet in der Praxis, dass der Kleinbauer wirtschaftlich aufgeben muss, weil er nicht mithalten kann.

Der Kapitalismus ist dabei brutal effizient: Wer nicht mithalten kann, wird ausgesiebt – unabhängig von Tradition, Aufwand oder kulturellem Wert. Eine "Überwindung" dieses Systems durch Automatisierung müsste also bewusst mit diesem Effizienzprinzip brechen – und das hieße: gezielte Umverteilung, vielleicht sogar Versorgung gegen den Markt.

Aber wer entscheidet dann, wem was zusteht? Und wie gehen wir mit den unvermeidbaren Interessenkonflikten um, wenn Ressourcen endlich sind – von Land über Wasser bis hin zu seltenen Metallen für unsere Maschinen?

Eine Welt jenseits des Kapitalismus wäre also kein Überfluss-Paradies, sondern müsste den Mangel verwalten – nur eben ohne Marktlogik. Und das hieße, Entscheidungen zu treffen, die zwangsläufig Verlierer erzeugen. Insofern ist die Vorstellung, dass Automatisierung den Kapitalismus automatisch überflüssig macht, weniger Utopie als Wunschdenken – zumindest solange wir in einer Welt leben, in der nicht alles beliebig vermehrbar ist.

Plakatives Beispiel:

Wer optimiert hier die Herstellung von Zement:


Screenshot 20250712-123756Original anzeigen (0,9 MB)


https://www.chilloutzone.net/video/radlader-fahren-ist-kindersache.html

Natürlich können wir das bei uns: Radlader der neuesten Sicherheitsstufe + ausgebildeter Arbeitet vollversichert mit Rentenkasse und Co. Sicherheitsschulungen Auflagen Statistiken.

Man muss es sich leisten wollen. Müssen nicht.

Und so wird eben Arbeit verlagert in Regionen die sich das nicht leisten können oder wollen.


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 13:33
Und zum Thema KI:

Die selben Diskussionen gab es bei der Einführung der CNC Technik statt NC Technik
SPS statt Hartverdrahtung

Incl "bald kann man so umfangreich Programmieren und automatisieren"

Und ja das gab große Technologiesprünge, aber kein "Systemwechsel" nur eine Optimierung.

Und auch bei aktuellen LLMs zeigt mir das tägliche Nutzen: sie helfen sehr , aber mangels Verständnis muss sie begleitet werden.

Und für mich ist dieses "da fehlt nur noch wenig zu AGI" eine Wiederholung des Trugschlusses "bald ist alles automatisiert"


1x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 13:44
Zitat von abbacbbcabbacbbc schrieb:Und genau da liegt meiner Meinung nach ein Trugschluss [...]
Danke für den "reality check". Die Argumentation wirkt nachvollziehbar, z.B. was Stromerzeugung bzw. Speicherung und Weiterleitung angeht. Oder halt eben der Umstand, dass manche Ressourcen die gerade in diese neuere Technik fließen müssen halt endlich und global umkämpft sind.

Ich sehe auch nicht, dass das direkt oder zwingend eine "klassenlose Überflussgesellschaft und Utopie" bedingt. Es kann vielleicht eine Art Schritt in die Richtung sein oder teilweise Aspekte daraus eher ermöglichen als ohne die Technik, aber manche werden vermutlich eines besseren belehrt, trotz ihrer subjektiven Hoffnungen auf irgendeine Utopie.

Ich sehe teilweise auch eher Cyberpunk- bzw. Dystopieszenarien verwirklicht als die große globale Utopie. Diese kommt zumindest nicht "any time soon", nicht zeitnah.

Vielleicht, wenn gemäß Zivilisationsskala die Menschheit an sich auf dieser hinaufklettert und sich fortentwickelt. Möglich oder (nicht un)denkbar wäre es. Aber mit besseren LLMs/AKIs sehen wir das erst mal nicht zwingend. Vielleicht lange danach, wenn wir uns damit (oder AKI gg. uns) nicht an die Gurgel gehen und alles zunichtemachen.

----
Zitat von abbacbbcabbacbbc schrieb:Und für mich ist dieses "da fehlt nur noch wenig zu AGI" eine Wiederholung des Trugschlusses "bald ist alles automatisiert"
Möglich. Aber man sollte den impact dieser disruptiven Technologie nicht verkennen. Der scheint größer als viele andere Dinge in der Tech-Historie des Menschen. Das Potential zu mehr Disruption/Schaden scheint größer, soweit ich das subjektiv abschätzen kann.

Die Frage ist wohl, wie schnell die Technik fortwachsen wird und wie schnell Regulierung mithalten kann. Ja, sicher, nicht alles wird bald automatisiert. Aber ich glaube zugleich, dass es bei fehlender/zu langsamer Regulierung durchaus dennoch große Sprünge geben kann wo auch in Summe viele Stellen wegfallen können. Das erlebt man nur ggf. als "Endnutzer" nicht so mit weil das schrittweise in etwaigen Branchen passiert und nicht massiv in kurzer Zeit überall auf einmal.

Quasi statt plötzlich brennend heißes Wasser aus der Dusche kommt wird eher langsam und schrittweise die Temperatur erhöht, dass man es nicht direkt merkt. Etwas pessimistisch und doomer-mäßig vom Take und der Annahme her, sicher, aber ich denke man wird dennoch in Summe und auf Dauer etwas bemerken.

Gerade wenn wie gesagt Marktlogiken oder Kapitalismuslogiken weiter greifen werden und auf Dauer manches mit Automatisierung/Outsourcing an LLM/AKI billiger und wertiger wäre. Mein Job kann ein komplexes LLM bzw. eine entstehende AKI auf jeden Fall schneller und besser machen. Als derzeitiger White-Collar worker bin ich zeitnah auf jeden Fall ersetzbar in dem was ich mache. Ich müsste theoretisch, möglicherweise, in 1-2 Jahrzehnten ggf. umsatteln oder bis zum Ende der Arbeitszeit im gleichen Umfeld quasi noch aussitzen können um dann berufstechnisch Ruhe zu haben.

Auf der Straße werde ich zum Glück nicht landen und ggf. einfach in eine andere Verwendung geschoben - aber den Luxus haben viele andere Menschen nicht. Und die werden je nach Job und individuellen Faktoren den technischen Wandel bzw. ihre potentielle berufliche Obsoleszenz (wieder ein neues Wort gelernt) je nach Alter usw. binnen der nächsten 1-3 Jahrzehnte vermutlich spüren oder deutlicher wahrnehmen.


melden

Künstliche Intelligenz

12.07.2025 um 18:18
Zitat von nocheinPoetnocheinPoet schrieb:Ich kann ja verstehen, dass Du das so siehst, dass es Deine Meinung ist, alles gut, dann nimm es aber auch nur als Deine Meinung und gebe es hier nicht als Tatsachen vor.
Zitat von TanneTanne schrieb:Okay, dann entschuldige bitte, wenn das falsch rübergekommen ist. Ich habe meine Ansichten / meine Meinung mit Quellen untermauert.
Gut, lassen wir das doch mal so stehen, ich gehe davon mal aus, dass Du nun Deine konkreten Aussagen als Meinung verstanden wissen willst, Deine, und dafür eben auch Gründe nennst. So wie ich auch Gründe für meine Meinung, und aber auch Belege für Tatsachen.

Und schaue mal hier, wir können unterschiedlicher Meinung sein, jeder hat die seine, dass gibt es nicht mit Fakten und Tatsachen, es gibt nicht Deine Tatsachen, die meinen Tatsachen gegenüber stehen. Es gibt keine persönlichen Tatsachen. Darum gibt es auch keine subjektive Wahrheit und die Frage nach der Existenz einer objektiven wird obsolet, wenn dann existiert eben nur Wahrheit. Aber egal, führt zu weit, merke Dir das mal mit den Tatsachen.


Zitat von nocheinPoetnocheinPoet schrieb:Wir beide können ja doch wohl ohne Probleme zu gewissen Dingen eine unterschiedliche Meinung haben, ich kann das tolerieren, wenn das so Deine Meinung ist.
Zitat von TanneTanne schrieb:Selbstverständlich können wir das, dann aber bitte zukünftig ohne Unterstellungen.
@Tanne, wirklich, Du übertreibst es, es gab keine Unterstellungen von mir, dass hab ich Dir aufgezeigt und belegt, von Dir gibt es hingegen Unterstellungen mir gegenüber, also wenn Du Deinen Satz da retten willst, dann musst Du den nur auf Dich beziehen, also ja, unterlasse zukünftig Unterstellungen gegen mich oder auch andere.


Zitat von TanneTanne schrieb:Schließlich gebe ich ja nun Quellen an und behaupte nicht einfach so etwas.
Aus Meinungen werden keine Tatsachen, nur weil es mehrere meinen. Deine Behauptungen von gestern, die welche ich Dir nun vier Mal zitiert habe, hast Du mit keiner Quelle belegt. In Gegenteil hat das was Du zitiert hast, Deine Behauptungen widerlegt und mir zugestimmt, auch das hab ich Dir aufgezeigt.


Zitat von TanneTanne schrieb:Aber ich finde auch, dass die Gegenseite dann mit entsprechenden Quellen aufwarten sollte.
Ich glaube nicht, dass Du Dich bei mir beschweren kannst, dass ich zu wenig Quellen liefere.


Zitat von TanneTanne schrieb:Man kann natürlich einfach seine Meinung schreiben, aber was ich dabei nicht verstehe, wieso mir Behauptungen unterstellt werden, wenn ich Quellen liefere? Da komme ich nicht mit.
Tja, @Tanne, dass ist wohl eventuell doch Dein Problem, dass Du die beiden Begriffe "Behauptung im Sinne von Tatsache" und Meinung, nicht richtig unterscheiden kannst. Schau, wenn @paxito hier was schreibt und es ist seine Meinung, macht er das deutlich, er schreibt, er ist der Meinung, oder er glaubt, er nimmt an, was auch immer, ganz sicher schreibt er aber nicht, es ist so, es ist eine Tatsache.

Das hier von Dir:
Zitat von TanneTanne schrieb am 15.06.2025:Tatsache ist, dass KI über kein Bewusstsein verfügt.
ist eine Tatsachenbehauptung und eben nicht nur Deine Meinung. Und konkret so eine Behauptung ist nun mal gar nicht zu belegen, egal wie viele Quellen Du auch anschleppst. Du kannst Nichtexistenz generell nicht belegen, dass etwas nun etwas anderes nicht hat, also KI kein Bewusstsein, der Mond keinen Kern aus Käse, ist nicht zu belegen. Klingt seltsam, ist aber, zum Mond, man könnte immer noch einen Grund erfinden, warum der Kern aus Käse nicht gefunden wird, er ist zu klein, unsichtbar, in einer anderen Dimension, das nimmt so kein Ende.

Belegen kann man aber Existenz, zeige den Kern aus Käse und gut ist es. Das hat was mit Logik zu tun, Aussagenlogik, Mengenlehre, Mathematik, wichtige Dinge, auf denen wir alles aufbauen.

Bei Deiner Tatsachenbehauptung nun über KI, ist es noch "unmöglicher", weil man Bewusstsein selber auch nicht belegen kann, man kann also in keiner Weise Deine Aussage widerlegen und aufzeigen, doch KI hat Bewusstsein, wir können das bei keinem Lebewesen, nur jeder für sich, kann sich seines eigenen Bewusstseins wohl sicher sein, dass war das von Descartes mit ich denke also bin ich (ego cogito, ergo sum).

So, nun ist es eine Tatsache, nicht die von irgendwem, sondern für alle, dass Deine Aussage oben nicht zu belegen ist, es ist eine Tatsache, dass man weder belegen kann, dass KI ein Bewusstsein hat, noch das es keines hat.

Jetzt können wir in Anbetracht dieser Tatsache aber jeder so seine Meinung dazu haben und die haben wir auch, @paxito tendiert schon mehr in die Richtung hier einer KI ein Bewusstsein zuzugestehen, er geht auch etwas anders an diese Dinge heran. Ich bin mir da noch nicht ganz so sicher, aber die letzten Aussagen von Claude bringen mich ins Wanken. Wobei ich noch immer meine, dass eine wichtige Sache in aktuellen LLMs fehlt, eine Feedbackschleife im Netz, aber auch daran wird geforscht.

Natürlich kann man seine Meinung nun mit Quellen unterstützen, es bleibt aber erstmal nur eine Meinung.

Und klar kann man auch eine Meinung zu etwas haben, was dann eben auch eine Tatsache ist, da gibt es schon ein paar Kombinationen, ich schreibe Dir das nicht alles auf. Versuche einfach mal genau auf die Definitionen der Begriffe zu achten, trenne unbedingt Deine Meinung, und Meinung allgemein, von Tatsachen und Fakten.

Frage Dich einfach, bevor Du eine Behauptung aufstellst, ob man das belegen kann, ob Du es kannst, oder Du nur der Meinung bist, dass es eben so ist, kannst Du es nicht belegen, schreibe nicht davor, "Tatsache ist ...".

Im Grunde wirklich nicht so schwierig.


2x zitiertmelden

Künstliche Intelligenz

12.07.2025 um 18:44
Zitat von nocheinPoetnocheinPoet schrieb:Du kannst Nichtexistenz generell nicht belegen, dass etwas nun etwas anderes nicht hat, also KI kein Bewusstsein, der Mond keinen Kern aus Käse, ist nicht zu belegen.
Niemand kann das, schade dass du das aus meinem Text nicht herausgelesen hast.
Zitat von nocheinPoetnocheinPoet schrieb:Frage Dich einfach, bevor Du eine Behauptung aufstellst, ob man das belegen kann, ob Du es kannst, oder Du nur der Meinung bist, dass es eben so ist, kannst Du es nicht belegen, schreibe nicht davor, "Tatsache ist ...".
Ich hatte geschrieben, dass bisher noch kein Bewusstsein bei einer KI nachgewiesen wurde, wie auch?

Keine Ahnung warum du nun zum weiß ich wievieltem Male mich wieder anprangerst.

Dir passt meine Meinung offensichtlich nicht, okay, mir egal.

------------------------------------------------------------------------------------------------------------------------------

Was anderes zum Thema KI ->

Die EU hat ein Gesetz durchgebracht, welches KI genauer beleuchten und kontrollieren soll:
In der EU ist im Februar 2025 ein Gesetz zur Regulierung von künstlicher Intelligenz in Kraft getreten. Der AI Act ist das erste KI-Gesetz der Welt und soll Sicherheit und Transparenz im Umgang mit der Technologie gewährleisten. KI-Systeme, die als "unannehmbares Risiko" für Sicherheit, Gesundheit oder Grundrechte eingestuft werden, sind ab sofort verboten.
Die EU hofft, mit dem AI Act eine Vorbildfunktion für andere Staaten zu haben. Unternehmen sollen sich künftig an den europäischen Standards orientieren.
Quelle: https://www.zeit.de/thema/kuenstliche-intelligenz
Allen künstlichen Intelligenzen ist jedoch gemein, dass sie in der Lage sind, laufend dazu zu lernen, im Sinne des maschinellen Lernens, des Verarbeitens natürlicher Sprachen und des Deep Learnings. Dabei hängt die Ausprägung dieser Fähigkeiten stark davon ab, um welche Form der künstlichen Intelligenz es sich handelt: schwache KI oder starke KI.
Schwache KI ist nur in sehr begrenztem Maße zu intelligenten Lösungen fähig und auf konkrete Anwendungen begrenzt. Dazu gehören zum Beispiel Navigationssysteme.
Starke KI dagegen entwickelt sich laufend weiter und ist fähig zu eigenen Lösungen für komplexe Aufgabenstellungen. Sie hat selbst einen schöpferischen Handlungsspielraum, der über ihre Programmierung hinausgeht. Starke KI in diesem Sinne gibt es heute noch nicht.
Quelle: https://ambient.digital/wissen/blog/kuenstliche-intelligenz-chancen-risiken/

Das habe ich die ganze Zeit hier mit meinen eigenen Worten und auch anderen Quellen dargestellt.
Ich bin es leid, mich hier rechtfertigen zu müssen.

Das Thema KI ist für mich in diesem Forum beendet.
Wer sich dennoch gerne über KI mit mir austauschen möchte, kann das über PN gerne tun.


1x zitiertmelden