Ich bin vielfältig interessiert und vagabundiere deswegen gerne im Internet herum. Nirgendwo finden sich mehr Informationen zu allen möglichen Themenbereichen als hier. Und so schaute ich kürzlich wieder einmal auf LinkedIn vorbei, wo mir in einem Beitrag zum Thema Künstliche Intelligenz (KI) folgende Jubelbotschaft auffiel:

"Technologisch waren wir noch nie so nah dran, die großen Herausforderungen der Menschheit zu lösen."

Der Autor bezeichnet sich selbst als „Possibilist" und seiner geschätzten Meinung nach wird uns Künstliche Intelligenz sehr bald von all den weltweiten Nöten, Gefahren und Problemen befreien, die uns heute das Leben zunehmend schwerer machen. Das ist groß und kühn, aber vor allem – zumindest aus meiner Sicht – übertrieben euphorisch gedacht: Denn kann etwas, das von uns angelernt und beeinflusst wird, tatsächlich intelligenter sein als wir, die angeblich so großartigen Schöpfer dieser algorithmischen Welterlöser?

Technik als Projektionsfläche

Hoffnung mit Systemfehler

Vielleicht handelt es sich um eine zutiefst menschliche Eigenschaft: die Hoffnung, dass etwas – oder jemand – kommt, um uns zu retten. Früher waren es Propheten, später Politiker, heute sind es Maschinen. Je größer die Krise und dramatischer ihre Folgen, desto größer die Sehnsucht nach einem magischen Werkzeug, das alles wieder ins Lot bringt. Künstliche Intelligenz ist das jüngste dieser Heilsversprechen – sauber programmiert, effizient, scheinbar objektiv.

Dabei wiederholt sich nur ein altes Muster in neuem Gewand: die Vorstellung, Technologie sei nicht nur Mittel, sondern auch Lösung. Dass man mit der richtigen Software Armut verwalten, mit einem Algorithmus das Klima reparieren und mit genug Daten den Weltfrieden herstellen kann. Das klingt modern. Aber eigentlich ist es nur die digitale Variante eines alten Gedankens: Wenn wir schon nicht handeln können, dann soll wenigstens jemand anderes für uns denken.

Doch Hoffnung ersetzt nicht das Handeln. Und je größer diese Heilsversprechen werden, desto kleiner wird das Bewusstsein für die eigentlichen Ursachen der Probleme – zumindest sehe ich das so. Künstliche Intelligenz als Weltretter ist in dieser Logik kein Werkzeug mehr – sondern eine Ausrede. Ein mentaler Shortcut sozusagen, um sich die unbequemen Fragen vom Leib zu halten: Wer profitiert? Wer lenkt? Und wer trägt die Verantwortung, wenn es schiefgeht?

Vielleicht geht es also gar nicht um Technik. Sondern um das tiefe Bedürfnis, sich nicht mit sich selbst beschäftigen zu müssen.

Vom visionären Optimismus zum digitalen Größenwahn

Die Heilsversprechen der KI-Enthusiasten

Hört man sich die Vorträge mancher Tech-CEOs und Zukunftsdenker an, könnte man meinen, Künstliche Intelligenz sei der lang ersehnte Messias in Form eines Algorithmus. Die Welt steht am Abgrund? Kein Problem – wir setzen einfach ein neuronales Netzwerk darauf an.

Präsentationen und Vision Papers entwerfen eine Zukunft, in der KI nicht nur unsere Probleme löst, sondern uns auch die lästige Bürde des eigenständigen Denkens abnimmt. Klimawandel? Alles nur eine Frage der Rechenleistung. Hunger, Ungleichheit, Krankheit? Alles lösbar – man muss es nur richtig codieren. Statt Werkzeugen gibt es neuerdings Agenten, statt Diskussionen smarte Entscheidungslogik. Und während hier noch altbacken über Chatbots diskutiert wird, geht es anderswo schon längst um Mind Uploading und Neurointerface.

Bei aller unterschwelligen Ironie: Unbestritten ist, dass die KI enorme Fortschritte gemacht hat. Systeme imitieren heute Sprachverhalten, Mustererkennung und Problemlösungsstrategien mit verblüffender Präzision. Aber rechtfertigt das wirklich diesen pathosgeschwängerten Jubel, der längst von visionärem Optimismus in etwas abgedriftet ist, das man mit Fug und Recht nur mehr als digitalen Größenwahn bezeichnen kann?

Die nüchterne Begeisterung für ein mächtiges Werkzeug ist vielerorts einer Technikverliebtheit gewichen – der kritische Blick weicht dem Innovationsrausch. Und mit ihm verschwinden all die grundlegenden Fragen, denen wir uns eigentlich längst stellen müssten: Wer denkt eigentlich? Wer entscheidet? Und wozu?

An die Stelle einer verantwortungsvollen Technikgestaltung tritt immer häufiger ein kontextloses Fortschrittsfest. Der Applaus für das Mögliche übertönt die Mahnung an das Sinnvolle. Und darin liegt für mich die eigentliche Gefahr.

Die Grenzen der KI

Und die Aufgaben der Menschen

Ja, Künstliche Intelligenz kann durchaus Beeindruckendes leisten. Sie analysiert Daten, erkennt Muster, schlägt Schachweltmeister und schreibt Texte über sich selbst. Doch so faszinierend ihre Fähigkeiten auch sein mögen, sie bleiben begrenzt. KI ist ein Werkzeug. Ein mächtiges, gewiss. Aber bei all ihren Vorzügen: KI ist kein Subjekt.

Was KI daher nicht kann: Verantwortung übernehmen. Moralisch urteilen. Zwischen Gut, Böse und Richtig abwägen. KI kennt keine Intuition, keine Empathie, keine Scham. Sie rechnet. Das macht sie zwar ausgezeichnet – aber sie versteht nicht, was sie tut.

Wie der Linguist Noam Chomsky in diesem Zusammenhang betont, fehlt der KI die Fähigkeit, Ursachen zu erklären oder Bedeutung zu konstruieren – sie extrapoliert lediglich Korrelationen aus immensen Datenbergen. Das „Chinesische Zimmer“-Gedankenexperiment des Philosophen John Searle verdeutlicht dies: Ein System kann Symbole manipulieren, ohne ihre Semantik zu erfassen. Es folgt vorgegebenen Regeln, versteht diese aber nicht – klicken Sie unten auf "Das Chinesische Zimmer-Experiment", wenn Sie mehr darüber erfahren wollen.

Das "Chinesische Zimmer"-Experiment

Das „Chinesische Zimmer“-Gedankenexperiment wurde 1980 vom Philosophen John Searle entwickelt und ist eines der bekanntesten Experimente in der Philosophie des Geistes. Es zielt darauf ab, die Frage zu klären, ob Maschinen wirklich „denken“ oder „verstehen“ können, und stellt eine kritische Auseinandersetzung mit der sogenannten starken künstlichen Intelligenz dar, die behauptet, dass ein Computer durch bloße Symbolmanipulation echtes Verständnis erlangen könnte.


Aufbau des Gedankenexperiments

  • Eine Person, die kein Chinesisch versteht, befindet sich in einem abgeschlossenen Raum.
  • Durch einen Briefschlitz erhält sie Zettel mit chinesischen Schriftzeichen (Fragen).
  • Die Person verfügt über ein umfangreiches Regelwerk in einer Sprache, die sie versteht. Dieses Regelwerk beschreibt exakt, wie sie die chinesischen Zeichen manipulieren und welche Zeichenfolgen sie als Antworten zurückgeben soll.
  • Die Person verarbeitet die Zeichen rein mechanisch nach den Regeln und gibt durch einen zweiten Briefschlitz chinesische Antworten aus.

Von außen betrachtet scheint es, als würde die Person im Raum fließend Chinesisch sprechen. Tatsächlich hat sie jedoch keinerlei Verständnis für die Sprache; sie folgt lediglich syntaktischen Anweisungen.


Aussage des Experiments
Searle argumentiert, dass die Person im Raum zwar korrekte Antworten gibt, aber kein echtes Verständnis besitzt. Sie manipuliert Symbole rein mechanisch, ohne deren Bedeutung zu erfassen. Dies sei analog zur Funktionsweise von Computern: Sie verarbeiten Daten nach vorgegebenen Algorithmen und Regeln, ohne deren Semantik zu „verstehen“. Laut Searle zeigt das Experiment, dass syntaktische Prozesse allein nicht ausreichen, um echtes Verständnis oder Bewusstsein zu erzeugen.

Und genau in diesem Nichtverstehen von Bedeutungen liegt das Problem. Denn die größten Herausforderungen unserer Zeit sind keine logisch strukturierbaren Rechenaufgaben, sondern zutiefst menschliche Dilemmata. Die Klimakrise ist nicht deshalb ungelöst, weil wir zu wenig Daten haben – sondern einfach zu viele Ausreden. Der Welthunger ist keine Folge von fehlenden Algorithmen, sondern Folge fehlender globaler Gerechtigkeit. Ressourcenraub, Ausbeutung, Ungleichheit – das sind keine Probleme der Datenverarbeitung: Es sind Probleme des Willens.

Künstliche Intelligenz kann Entscheidungsprozesse unterstützen – aber keine Entscheidungen jenseits der Logik treffen. Die Frage, was wir tun sollen, bleibt also uns überlassen. Und genau deshalb ist die Vorstellung ebenso verführerisch wie gefährlich, dass ein maschinelles System unsere ethischen, sozialen und ökologischen Herausforderungen lösen wird. Das wird es nicht. Weil es das schlicht und einfach nicht kann.

Denn auch das intelligenteste System bleibt abhängig von dem, was wir ihm geben. Und das sind immer noch unsere Daten, unsere Ziele und unsere blinden Flecken. Aber wenn wir nicht bereit sind – als Einzelner und als Gesellschaft –, diese Grundlagen zu reflektieren, dann wird auch die beste KI nur eines reproduzieren: unsere Unzulänglichkeiten. Nur um ein Vielfaches schneller. Und in einem wesentlich größeren Maßstab.

Wer programmiert die Rettung der Welt?

Über Verantwortung und Bequemlichkeit

KI erscheint vielen als neutrale, übermenschliche Instanz – als reines Denkwerkzeug, das frei von Interessen, Werten und Fehlern arbeitet. Rein formal und vom Standpunkt der Logik aus gesehen ist es das auch. Doch bei näherer Betrachtung erweist sich diese Ansicht als gehöriger Trugschluss. Denn was wir „Künstliche Intelligenz“ nennen, ist letztlich nichts anderes als das Ergebnis menschlicher Entscheidungen. Entscheidungen über Datenquellen, Trainingsziele, Gewichtungen, Ausschlüsse, Einschlüsse. Jeder Algorithmus spiegelt – bewusst oder unbewusst – das Weltbild seiner Entwickler wider. Oder das seiner Geldgeber.

Die Vorstellung, dass ein System, das aus unserer Realität lernt, am Ende klüger und gerechter ist als wir selbst, ist in sich widersprüchlich. Denn was lernt es? Es lernt unsere Muster, unsere Vorurteile, unsere Fehler. Nur schneller, systematischer, skalierbarer. Die Ethik, die wir selbst nicht leben, wird keine Maschine für uns erfinden.

Doch genau darin liegt die Verlockung: Wenn die KI entscheidet, muss der Mensch es nicht mehr tun. Wenn der Algorithmus die Verantwortung übernimmt, können wir uns zurücklehnen – und die Schuld delegieren, wenn es schiefgeht. Das ist nicht nur bequem – das ist höchst gefährlich. Denn es zementiert nicht nur strukturelle Schwächen ein, es beraubt ebenso den Einzelnen wie die ganze Gesellschaft der Chance, zu reifen.

Vielleicht ist das die größte Versuchung der Künstlichen Intelligenz: Nicht, dass sie vermeintlich besser und schneller denkt als wir – sondern dass sie uns die Mühen des Denkens und allenfalls des Widerspruchs abnimmt. Sie hat keine Zweifel. Aber auch kein Gewissen.

Und genau das macht sie als Retter ungeeignet. Denn wer retten will, muss auch Verantwortung übernehmen können. Und genau das lässt sich nicht programmieren. Noch nicht. Oder vielleicht auch: Zum Glück noch nicht.

Zwischen Fortschritt und Selbsttäuschung

Ein Ausblick

Natürlich sollen wir uns über den technologischen Fortschritt freuen. Es wäre mehr als töricht, die Möglichkeiten der KI kleinzureden oder nicht zu nutzen: Sie kann Prozesse optimieren, Forschung beschleunigen, Analysen verfeinern und Ressourcen effizienter einsetzen. Richtig eingesetzt kann sie helfen, den Nebel menschlicher Kurzsichtigkeit zu lichten.

Aber Technik ist kein moralisches Wesen. Sie kennt kein „Warum“, sondern nur ein „Wie“. Und genau deshalb bleibt jede KI – so intelligent sie auch erscheinen mag – abhängig von dem, was wir ihr geben: von unseren Absichten, unseren Einstellungen, unserem Mut zur Verantwortung.

Der Glaube, KI allein könne die Welt retten, ist bequem. Aber er ist auch brandgefährlich. Denn er ersetzt nicht nur das Denken, sondern auch das Entscheiden. Und er birgt die Gefahr, dass wir das eigentliche Problem aus den Augen verlieren: uns selbst als jene, die für all das verantwortlich sind, was uns und unseren Planeten belastet.

Was uns und unsere Welt retten könnte – und muss –, ist keine künstliche Intelligenz, sondern eine ganz reale – die unsere. Durch die Bereitschaft zur Mäßigung. Die Fähigkeit zum Verzicht. Dem Willen, gerecht und verantwortungsbewusst zu handeln. All das lässt sich nicht delegieren. Nicht an Systeme. Nicht an Algorithmen.

Künstliche Intelligenz allein wird uns und unseren Planeten nicht retten können – dazu braucht es dringender denn je auch ihre menschliche Version.