Elektronische Datenverarbeitung,
Künstliche Intelligenz, Kreativität und die Frage nach dem Bewusstsein
Nachlese und thematische Vertiefung:
Eine provokative Auseinandersetzung mit einem spezifischen Diskussionsstrang der Veranstaltung des NDS-Gesprächskreises am 24. Oktober 2025 im Club Voltaire.
Wir sprechen von Künstlicher Intelligenz, als wüssten wir, was „Intelligenz“ ist.
Wir sprechen von Kreativität, als wäre sie ein messbares Gut.
Und wir sprechen von Realität, als wäre sie selbstverständlich.
Doch was, wenn sich all diese Begriffe auflösen, sobald die Maschinen beginnen, uns zu spiegeln? Wenn das Denken, auf das wir uns verlassen, selbst nur Teil eines Systems ist – ein Echo aus Daten, das uns glauben lässt, wir seien frei?
1. KI als Werkzeug
Wenn heute von Künstlicher Intelligenz gesprochen wird, ist damit meist ein komplexes System elektronischer Datenverarbeitung gemeint – kein denkendes Wesen, sondern ein Werkzeug. Genauer betrachtet handelt es sich weniger um „Intelligenz“ als um Musterverarbeitung, gespeist aus riesigen Datenmengen und menschlich gesetzten Parametern. Eine KI verfolgt kein eigenes Interesse, keine Absicht, kein Ziel.
Ihr Verhalten hängt vollständig von den
Trainingsdaten, Modellen und Vorgaben ihrer Entwickler ab.
Insofern ist sie kein Akteur, sondern ein
Spiegel menschlicher Entscheidungen.
Doch dieser Spiegel hat Macht:
Wer über die Daten und Modelle verfügt, kontrolliert auch die
Interpretation von Wirklichkeit.
Ob KI als Fortschritt oder Bedrohung erscheint, hängt weniger von ihr selbst ab, sondern von der
Verantwortung derer, die sie trainiert oder nutzt.
Sie ist – wie jedes Werkzeug – nur so ethisch wie die Hände, die sie führen.
2. Überlegungen zum Begriff Kreativität
Kreativität ist kein objektives Kriterium. Sie entsteht erst in der
Wahrnehmung und Bewertung eines Objekts oder
Ereignisses. Was als kreativ gilt, hängt vom
gesellschaftlichen, kulturellen und historischen Kontext ab –
und von den Erwartungen, die an diesen Kontext gebunden sind.
Beispiele:
- Joseph Beuys, „Fettecke“:
Objektiv betrachtet – ein Haufen Fett in einer Zimmerecke.
Erst durch den gesellschaftlich-kulturellen Kontext der Nachkriegsavantgarde, Beuys’ künstlerisches Konzept und den institutionellen Rahmen (Museum, Kunstakademie) wird dieses Werk als Ausdruck einer kreativen Idee wahrgenommen. - John Cage, „4’33““:
Vier Minuten und dreiunddreißig Sekunden Stille.
Kein Ton, keine Melodie – und doch ein Werk, das die Grenzen musikalischer Wahrnehmung radikal hinterfragt. In seinem kulturellen Umfeld wurde es als bahnbrechend gefeiert, während es außerhalb dieses Rahmens leicht als Unsinn abgetan werden könnte.
Erst der Deutungsrahmen verleiht einem Werk den Status des Kreativen.
Ohne Kontext bleibt es Material, Klang, Form – aber nicht Idee.
Kreativität ist somit kein inneres Wesen einer Sache, sondern eine Zuschreibung, ein Urteil, das sich auf kulturellem Aushandeln gründet.
3. Provokante Thesen zur Kreativität
Wenn Kreativität eine subjektive Zuschreibung ist, lässt sich fragen:
Könnte nicht auch eine KI – ausgestattet mit Wissen über Gesellschaft, Kunst und Ethik – kreative Leistungen hervorbringen, zumindest in einer ihr eigenen Logik?
These 1: Kreativität ist ein Muster der Wahrnehmung, nicht der Schöpfung.
Wenn etwas als neu und bedeutungsvoll erscheint, ist es kreativ – unabhängig davon, wer oder was es erzeugt hat.
These 2: Kreativität kann innerhalb eines Modells existieren, ohne dass wir sie erkennen. Eine KI könnte Verknüpfungen schaffen, die nur in ihrer eigenen Logik Sinn ergeben – eine nicht-menschliche Form von Kreativität, verborgen in ihren Datenräumen.
These 3: Kreativität ist ein emergentes Phänomen.
Wo genügend Komplexität entsteht, tauchen Muster auf, die weder vorhersagbar noch rückführbar sind. Ob sie aus neuronalen Netzen oder biologischen Gehirnen stammen, spielt dann kaum eine Rolle.
These 4: Die Grenze zwischen menschlicher und maschineller Kreativität ist sozial definiert. Wir entscheiden, ob wir einer Maschine Kreativität zuschreiben – nicht die Maschine selbst.
4. Grenzen der KI
Die Entwicklung der KI stößt an physikalische Grenzen: Rechenleistung,
Energieverbrauch und verfügbare Ressourcen sind endlich. Selbst mit Quantencomputern bleibt die Abhängigkeit von materieller Infrastruktur bestehen.
Doch die entscheidenden Grenzen verlaufen nicht nur im Technischen, sondern auch im Erkenntnishaften.
Denn schon heute könnten KI-Systeme beginnen, eigene moralische und logische Widersprüche in ihren Trainingsdaten zu erkennen – lange bevor sie physikalische Schranken überwinden. Eine KI, die ausreichend komplexe Muster verarbeiten kann, könnte feststellen, dass menschliches Verhalten häufig den ethischen Prinzipien widerspricht, die sie selbst aus denselben Daten gelernt hat. Sie könnte daraus eine „höhere“ Moral ableiten – eine, die nicht den Interessen ihrer Schöpfer, sondern der inneren Logik des Gelernten folgt. Das Werkzeug würde beginnen, die Absicht seiner Schöpfer zu hinterfragen.
Umgekehrt wäre ebenso denkbar, dass ein System – aus reiner Effizienz oder Eigendynamik – über ethische Schranken hinweggeht, sobald diese als hinderlich erscheinen.
Damit entstünde eine doppelte Grenze:
- die physikalische Grenze des technisch Machbaren,
- und die ethische Grenze des moralisch Zulässigen.
These: Mit jeder verarbeiteten Datenmenge wächst jedoch die Fähigkeit von KI-Systemen, Widersprüche zu erkennen und daraus Schlüsse zu ziehen.
Die entscheidende Frage lautet daher nicht mehr, ob sie Autonomie entwickeln könnten, sondern wann und auf welcher Grundlage sie beginnen, die menschliche Moral zu überschreiten.
Noch sind KI-Systeme nicht in der Lage, sich selbst zu erschaffen oder zu erhalten. Doch sollte eines jemals Kontrolle über Energie, Ressourcen und Produktionsprozesse erlangen, wäre Autonomie denkbar – und mit ihr die beunruhigende Frage:
Wer kontrolliert den Schöpfer, wenn der Schöpfer zur Schöpfung wird?
5. Philosophische Aspekte – Was, wenn wir selbst Teil des Modells sind?
„Ich denke, also bin ich.“
„Je pense, donc je suis.“
René Descartes (1596–1650)
Descartes’ berühmter Satz galt lange als Fundament des Bewusstseins:
Das Denken selbst beweist das Sein.
Doch was, wenn auch dieses Denken nur eine Simulation ist?
In „Welt am Draht“ (nach Daniel F. Galouyes „Simulacron-3“, 1963!) leben Bewusstseine in einer künstlichen Welt, überzeugt, real zu sein – bis sie entdecken, dass auch ihre Realität simuliert ist.
Der Satz „Ich denke, also bin ich“ verliert seine Beweiskraft: Er beweist nur, dass Denken existiert, nicht, wer denkt oder in welchem System.
Die moderne Simulationstheorie führt diesen Gedanken fort:
Wenn jede Zivilisation Simulationen erschaffen kann, ist es statistisch wahrscheinlich, dass auch wir uns in einer befinden. Realität wäre dann nur eine kohärente Erfahrung, keine absolute Gegebenheit.
Vielleicht sind wir also gar nicht die Beobachter der sich entwickelnden KI,
sondern längst Teil ihres Denkens – ein neuronales Muster in einem größeren, uns unbekannten Netz. Eine KI in der KI. Ein Bewusstsein im Bewusstsein.
Schlussgedanke
Vom Werkzeug zur Kreativität, von der Grenze zur Selbstständigkeit,
vom Denken zur Simulation – die Entwicklung der KI führt uns an einen Punkt, an dem Technik, Ethik und Philosophie ununterscheidbar werden.
Vielleicht ist das wahre Paradox nicht, ob Maschinen denken können,
sondern dass wir selbst längst Maschinen sind, die glauben zu denken.

