Ankündigung eines nicht-öffentlichen Vortrags, Universität Heidelberg, 29.11. 2024
Futurologische Vorausschau, englisch (Strategic) Foresight, ist eine ursprünglich militärische Technologie individueller und kollektiver Verhaltenssteuerung, das heißt: von Verhaltensmanipulation und Social Engineering. Es handelt sich um eine Anwendung des kybernetischen Prinzips der vorlaufenden Rückkopplung, das zur militärischen Flugabwehr praktisch genutzt wird. Die US-amerikanische RAND-Corporation hat es von der Waffentechnik auf die manipulative Steuerung von Gesellschaften übertragen: Eingegriffen wird nicht dort, wo die Bombe einschlägt oder der Protest ausbricht. Vielmehr werden Kritik, Widerspruch, Protest so vorausberechnet und gesteuert, dass der militärische Eingriff sie mit Sicherheit noch vor ihrem Ausbruch vernichtet. Gegenwärtig dient Foresight dazu, technische Innovationen durchzusetzen, die als Hochrisikotechnologien allgemein unbeliebt sind, die aber als entscheidender Faktor im geostrategischen Technologie-Wettrüsten gelten. Die Foresight-Manager haben es geschafft, dass heute die Kritik an hochriskanten Pharma-, Digital- und Rüstungsinnovationen als ihre gefährlichste Nebenwirkung angesehen wird. Sie haben gewissermaßen von Oma und Opa gelernt, denen damals die Atomkraftgegner gefährlicher erschienen als die Atomkraft selbst.
Die geschichtlichen Voraussetzungen der Foresight-Methode liegen in der „technisierten Gesellschaft“, die unter diesem Namen von Jacques Ellul (1954/1990) – ähnlich wie „die verwaltete Welt“ durch Adorno – kritisiert wurde. Durch und durch beherrscht wird von der manipulativen Management-Methode aber erst die digitalisierte Gesellschaft von heute. Denn große Teile dieser Gesellschaft gewöhnen sich ganz von selbst daran, bis in die privatesten Bereiche des Alltags hinein und erst recht in Beruf und Öffentlichkeit „Input- und Output Sequenzen invariant“ zu „koppeln“ (Marz 1990, 64) bzw. auf Reize nur noch mit Reflexen zu reagieren. Die Reize kommen dabei nicht (wie bei den erfahrungsbasierten Prognose- und Planungsverfahren der „alten“ technisierten Gesellschaft) aus der Vergangenheit und Gegenwart, sondern aus der Zukunft, die die digitale Technik verspricht. Man richtet das eigene Handeln an genau dem vorweggenommenen Erfolg aus, den das Management mit berechneter Sicherheit verspricht – ob es nun in den großen ideologischen Fragen die unfehlbare Regierung ist, die zu den richtigen Demonstrationen aufruft und die falschen verbietet, damit niemand später bereuen muss, die Opposition gewählt und den Planeten zum Untergang gebracht zu haben. Oder ob es der zuverlässige KI-Assistent ist, der die schwierige berufliche Entscheidung gegen Irrtum und Kritik zweifelsfrei absichert, ob es die eine Massenimpfung ist, die alle Probleme einer Epidemie im Handumdrehen gelöst haben wird, oder aber das clevere Smartphone bei kleinsten Alltagsunternehmungen. Nicht die informierte und abgewogene Entscheidung, die trotz allem immer fehlgehen kann, wird getroffen, sondern die vom Apparat vorfestgelegte Entscheidung.
Dabei wird nach wie vor vorausschauend durch Höchstleistungsversprechen manipuliert, nicht nur mit dem Versprechen der Effizienz und Rationalisierung, sondern vor allem mit den bekannten moralischen „Albernheiten“ (Ellul 1954/1990, 133 u.ö.). Technik und Steuerung der Gesellschaft dienen „dem Wohle der Menschheit“, verbreiten die „Demagogen“ (ebd.) bis heute. Aufkommende Kritik wird durch Moral abgeschossen. Aber Versprechen und Weltverbesserungs-Ideologien nutzen sich ab. So wurde der Katastrophismus erfunden, der mit der Simulation der Katastrophe hocheffizient manipuliert: Auf der Grundlage umfassender Datensammlungen (ob aus Experten-Workshops, digitalen Datensammlungen oder Bürgerräten) erstellt das Management Worst-Case-Modelle, die es bei Bedarf zu Steuerungszwecken (in Zahlen, Bildern, Sprache) unter die Bevölkerung und ihre Entscheider bringt. Jedes seiner Erfolgsversprechen und Best-Case-Modelle wirkt vielfach überzeugender, das moralische Output desto grandioser, verlockender und zwingender, je effektvoller die Katastrophe simuliert wird.
Im digitalisierten Alltag ist der katastrophistische Worst-Case in den einfachsten Formen allgegenwärtig, wenn man bspw. denkt: Bevor ich auf der Heimfahrt mit dem Auto im Stau stehe, vertraue ich lieber meinem Navi statt meinen eigenen Ortskenntnissen und meiner Spontaneität. Oder wenn man dem stillschweigenden Imperativ folgt: Bevor ich irgendjemanden brüskiere und ich mich selbst ins berufliche oder gesellschaftliche Aus schieße, bediene ich doch lieber den eindeutigen Gender-Code und die damit einhergehenden Feindbilder, anstatt an einer eigenen, adressatenspezifischen und situationsangemessenen Sprache zu arbeiten. Oder wenn es leise denkt: Bevor ich als Trottel gelte, der nicht mit dem Fortschritt mitgeht (der nicht „der Wissenschaft folgt“), mache ich doch lieber aktiv bei allen technischen und digitalen Anwendungen mit, ohne zu fragen, ob es nicht klügere und sachdienlichere Verhaltensweisen gibt. Bevor ich negativ auffalle, passe ich mich lieber an. Damit gehe ich sicher, und es kostet mich nichts.
Das war die Corona-Gesellschaft als Ganze, die keine einzige Entscheidung diskutieren wollte, sondern lieber auf magische Weise nach dem katastrophistischen Imperativ verfuhr: Bevor wir es falsch machen, machen wir es lieber vollkommen richtig – also so, wie das Management es vorgibt. Es ist wie bei der Flugabwehr: Katastrophisten imaginieren und modellieren, inszenieren und beschwören genau dasjenige Worst-Case-Szenario, mit dem sie sich und andere am effektivsten gegen Zweifel abschotten und gegen Kritik immunisieren. Alle störenden Fragen – wissenschaftliche, politische und moralische – werden abgeschirmt, ausgeblendet, weggewischt. Das wichtigste Versprechen des Foresight-Katastrophismus ist das Versprechen der Sicherheit, das heißt: der Entscheidungsfestigkeit sowie ewiger moralischer und politischer Unangreifbarkeit.
Dieser vorauseilende Gehorsam ist natürlich ein Trugschluss. Denn er kostet die eigene Sprach- und Ausdrucksfähigkeit, das ästhetische und moralische Empfinden, die politische Orientierungs- und Entscheidungskompetenz, die Beziehungs- und sozial verfasste Entwicklungs- und Lernbereitschaft, den eigenen Gestaltungswillen und die Zukunftsoffenheit. Zukunft wird dichtgemacht. Der katastrophistische Reflex ist eine Falle, die zu radikalem Antihumanismus führt. Menschen werden, mit ihren Fähigkeiten, zu handeln, zu sprechen, zu planen und zu entscheiden, systematisch erniedrigt, lächerlich und krank gemacht (Sadin 2018/2021). Sie machen sich selbst lächerlich: Am Ende verkauft man, völlig sorglos, die eigene Großmutter. Die innovativ getunte, aber tatsächlich bloß bequeme Entscheidung kostet das Leben.
Es ist ein hochpathologischer Moment in der menschlichen Geschichte (Sadin 2018/2021), denn unter den Bedingungen der digitalisierten Gesellschaft hat sich die Vorausschau-Technik verselbständigt. Steuerung erzeugt den Bedarf nach immer noch mehr Steuerung, Unangreifbarkeits-Visionen erzeugen Konflikt- und Entscheidungsunfähigkeit, Intransparenz, Unsicherheit und Aggression. Niemand beherrscht den Prozess, schon gar nicht die Manager selbst. Wenn der Lockdown scheitert, machen sie noch mehr Lockdown, und wenn es dann immer noch nicht funktioniert, verhängen sie Techniken der nackten Gewalt gegen die Gegner. Dann gibt es für das Führungspersonal „keine roten Linien“ mehr (Bundeskanzler Scholz). Bourdieu (1982/2001) beschreibt solche unkontrollierten Überreaktionen als Leidenschaft der Macht: Wie die Liebes-Falle bei Professor Unrat hat die Vorausschau-Falle eine Krise der symbolischen Macht sowie der politischen und wissenschaftlichen Institutionen ausgelöst. Aus den Allmachts-Phantasien der optimal gesteuerten Gesellschaft wird das Gegenteil: Eine Gesellschaft, die sich vormacht, nur noch sagen zu dürfen, was eine vorausschauende technische Weisheit wie der R-Wert sagt, wird asozial und unregierbar. Dass Regierungsvertreter die Autorität und die symbolische Macht, die sie kraft ihres Amtes haben, mit der blanken Gewalt von Wasserwerfern und Parteiverboten, Zensurgesetzen, Spitzeln und Hausdurchsuchungen durchsetzen zu müssen glauben, zeigt: Sie haben, wie Professor Unrat, den Respekt vor ihrem Amt längst selbst aufgegeben. Diesen Zusammenhang anzusprechen ist Zweck des Vortrags: Er beinhaltet – als historisches Beispiel – eine kleine Geschichte des Pandemie-Katastrophismus sowie eine kurze Einordnung in die französische Tradition der Kritik an der technisierten (Ellul 1954/1990) und digitalisierten, durch die Silicon-Valley-Mentalität „silikolonialisierten“ Gesellschaft (Sadin 2018/2021).
Literatur:
Bell, Wendell (1997/2017): Foundations of Futures Studies (Vol. I). History, Purposes and Knowledge. Human Science for a New Era. With a new preface by the author 2003. London/New York (Routledge).
Bourdieu, Pierre (1982/2001): Langage et pouvoir symbolique. (= Language and Symbolic power, 1991, bzw. Ce que parler veut dire, 1982) Paris (Editions Fayard).
Dupuy, Jean-Pierre (2002): Pour un catastrophisme éclairé. Quand l’impossible est certain. Paris (Éditions du Seuil). Ellul, Jacques (1954/1990): La technique ou l’enjeu du siècle. Paris (Économica).
Leyhausen-Seibert, Katja (2024): Zur Sozialtechnologie des Katastrophismus. In: Dies./Anna Menzel/Friedemann Vogel (Hg.): Wissen in Recht und Sprache – Viele Stimmen, vage Grenzen. Berlin (Duncker & Humblot).
Leyhausen-Seibert, Katja (2024): Die Katastrophe vom Ende her denken. Über Foresight-Katastrophismus. In: kRR 87 (Dez. 2024). 13-19. Marz, Lutz (1990): Illusionen und Visionen. Leitbilder von und in modernen Gesellschaften. In: Kommune. Forum für Politik – Ökonomie – Kultur (6; 1990). 55-61.
Sadin, Eric (2016/2021): La silicolonisation du monde. L’irrésistible expansion du numérique. Paris (Editions L’échappée).
Sadin, Eric (2018/2021): L’intelligence artificielle ou l’enjeu du siècle. Paris (Editions L’échappée).
Slaughter, Richard A. (1995): The Foresight Principle. Cultural Recovery in the 21st Century. Foreword by Hazel Henderson. Westport/Connecticut (= Praeger Studies on the 21st Century, Praeger) […].