Nummer 14 Steve Wright et al. Variante 2

Gezielte Tötung als staatliche Dienstleistung
Ein kollektiver Text von BBM und Steve Wright

Die Aussicht auf Maschinen mit der Entscheidungsfreiheit und Macht, Menschenleben zu nehmen, ist moralisch betrachtet abscheulich.

UN-Generalsekretär António Guterres am 25. September 2018

Schlau und selbständig

“Künstliche Intelligenz“ (KI) entwickelt sich rasant. Was heute utopisch anmutet, wird morgen schon ganz normal sein. Die intelligenten Maschinen lernen schnell. Das gilt als Segen. Endlich kann der Mensch langweilige oder riskante Arbeiten an smarte, gut aussehende Apparate abgeben. So benötigen wir in nicht allzu ferner Zukunft eine Sondererlaubnis, um unser Auto noch selbst zu steuern. Emotionslose Roboter fahren einfach sicherer als Menschen mit Angst, Wut, Müdigkeit oder Drogen im Blut.

5G-Kommunikation und eine Vielzahl bereits in Massenproduktion befindlicher smarter, sensorbasierter, autonomer Geräte, die “selbständig”, das heisst: von Algorithmen gesteuert, “entscheiden”, haben die seit Jahrzehnten kursierenden Versprechen einer technischen Ökosphäre voller “intelligenter Maschinen” nun in greifbare Nähe gerückt.

Vor 70 Jahren ist eine solche “intelligente Ökosphäre” lebensecht als Science-Fiction skizziert worden: “Second Variety” (dt. als “Variante 2”) ist der Titel einer Erzählung von Philipp K. Dick aus dem Jahr 1952.

Der Plot: In der nahen Zukunft eines Dritten Weltkriegs ist KI kriegsentscheidend geworden. Beide Weltmächte haben autonome Killer-Roboter um die Wette hochgerüstet. Schlussendlich sind die Apparate so “humanoid” geworden, dass nicht nur die “echten” Soldaten sie nicht mehr von ihren Kameraden unterschieden können. Auch die Kampfmaschinen selbst haben ihre Probleme damit. Der Auftrag aller drei existierenden “Varianten” lautet gleich: schleich dich in das Herz der Soldaten, dring in ihre Stellungen ein und töte dort alles, was menschenähnlich ist. Die dystopische Erzählung endet mit einer typisch Dick´schen sarkastischen Hoffnung: der Protagonist beobachtet im Sterben, wie die verschieden schlauen Versionen der Roboter anfangen, sich gegenseitig vernichten.

“Second Variety” dient als provokative Blaupause für einige gemeinsam mit Steve Wright angestellte Überlegungen zu den gesellschaftlichen Folgen von KI.

Hier geht es weniger um spezifische Eigenschaften eines speziellen Codes, der den Namen “KI” trägt, sondern um die Menschen, die ihre Maschinen mit ihm füttern – und um deren Einstellung zur Gesellschaft.

Kern-Kriterien unser Zivilisation – wie demokratische Prinzipien, Nachhaltigkeit, Verträglichkeit mit Grund- und Menschenrecht, Recht auf Arbeit, der Sicherheit, dass ein Staat niemals seine Bürger foltert, kurzum: Humanität ­– sollen dabei als Maßstab gelten für die Bewertung der prognostizierten technischen Veränderungen. Deswegen stellen wir am Ende des Textes drei Thesen auf, deren Beantwortung mit der Verpflichtung zum Handeln verbunden sein sollte – im Sinne der von Steve bis zu seinem Tod im November 2019 gelehrten “globalen Ethik“.

Die künftige Kalashnikov

Sobald die erste Militärmacht von globaler Bedeutung das Wettrennen um Waffen mit künstlicher Intelligenz startet, könnten autonome Waffen die Kalaschnikows von morgen sein.

Autonomous Weapons: an Open Letter from AI & Robotics Researchers, July 28th 2015, signed by Stephen Hawking, Noam Chomsky and 20.027 more scientists around the globe

Unter dem „computational regime“ ( Ned Rossiter et al., in: Supramarkt, Ed/Schweden 2015) wird die Auflösung der Grenzen zwischen militärischer und ziviler Anwendung schnell schwinden, Waffen werden im Nu zu „Werkzeugen“ werden, frei jeder negativen Konnotation. Autonome Waffen migrieren aus dem „Feld“ ins Alltagsleben und sind dort ununterscheidbar von gewaltfreier digitaler Hard- und Software.

Auch Europa möchte von „Künstlicher Intelligenz“ profitieren und sie zur Perfektionierung der Sicherheit im Schengen-Raum 4 einsetzen. Der Einsatz von KI soll Menschen, die mit komplexen Aufgaben wie „Terrorabwehr“ und „illegaler Migration“ betraut sind, ein wenig von ihrem Entscheidungs-Dilemma abnehmen. Denn solche softwarebasierten Wunderwerke der Technik sind frei von jedem Mitgefühl und – obwohl funktionell brüchig ihrer Natur nach – dennoch reizvoll für Entscheider, die sich gern selbst aus der Schußlinie nehmen möchten.

Noch ist in Europa die Ausübung physischer Gewalt gegen Menschen nicht immer populär – und es versteckt sich wer kann hinter Technologie, die als kühl, sauber und „besonnen“ gilt – vor allem aber als unsentimental. So soll KI in Form von „autonomen Waffensystemen“ wie Drohnen und Robotern möglicherweise schon in nächster Zukunft eigenständig Einsatz-Entscheidungen an den europäischen Aussengrenzen treffen und Menschen jagen: mit Hilfe von „Algorithmen“.

Das ist keine Spekulation. Es ist der exakte Auftrag, der sich aus realisierten Projekten ablesen lässt, finanziert aus dem milliardenschweren EU-Rahmenprogramm 7, Säule „Sicherheit“ und seinen aktuellen Nachfolgeprogrammen. Folgen wir der Spur des Geldes. Wo mit staatlichen Mitteln gefördert, wo massiv investiert wird, werden sich die Dinge bald radikal ändern.

Projektnamen wie „Talos“, mit Bezug auf den Riesen aus der griechischen Mythologie, der Felsbrocken auf Schiffe wirft, die aus Afrika nach Europa fahren, und „Hunter“ (Jäger) sprechen eine unmissverständliche Sprache. In diesen Projekten wird Software und Hardware entwickelt, um Robotern das Hetzen von Menschen beizubringen: nach der Art einer Hundemeute . Koordiniert werden sie dabei von Drohnen und mobilen IT-Hubs. In der Metaphorik der EU-Forschungsdirektion: „Welcome to Eden“ , wo der Totenkopf regiert.

Der Besuch der Websites der EU-Forschungsförderung und das Nachverfolgen ihrer Zuwendungen auf den Seiten der Hersteller ist notwendige Aufklärungsarbeit, ohne die wir die Welt bald nicht mehr werden verstehen können.

An Wehrtechnologie lässt sich deutlicher als an anderen technischen Innovationen ablesen, wie wir uns selbst entwerfen und wie wir künftig unseren Alltag gestalten wollen.

Algorithmen– so der Name von Handlungsvorschriften, die einer Maschine in Computersprache sagen, was sie Schritt für Schritt tun soll – Algorithmen gelten den Befürwortern von autonomen technischen Systemen als sichere Lösung für das Problem einer effizienten Befehlsdurchführung, die keiner menschlichen Überwachung mehr bedarf.

Man einigt sich, wie bei der Auswahl einer Schallplatte in einer Musikbox, vorher darauf, welches Programm man hören möchte. Alles weitere läuft dann angeblich „wie am Schnürchen“ ab. Algorithmen, so lautet das akzeptanzerhöhend gemeinte Versprechen, seien zudem lernfähig: sie bauen Lösungen für Fehler automatisch in ihr Programm ein und führen so in gewissem Umfang ein Eigenleben. Diese Vision vom „schlauen Wurm“ scheint mit der Vorstellung einer komfortablen Entwicklung „ohne eigenes Zutun“ hin zu „höherer Intelligenz“ verbunden zu sein. Sie ist jedoch technisch fragwürdig. Denn „Selbstlernen“ funktioniert nur auf Basis von zur Verfügung gestellten Trainingsdaten und mit Angabe des gewollten Ergebnisses. Dieses Ziel muss aber ein Mensch vorgeben – der Programmierer oder der Auftraggeber. Es ist zu spüren, dass die Idee vom intelligent sich selbständig weiter entwickelnden Algorithmus den ersten Schritt eines Versuchs darstellt, sich aus der Verantwortung zu stehlen.

Die Schönheit und der Horror von künstlicher Intelligenz und Algorithmen besteht eben in jenem Streben nach Autonomie des Codes, in dem Wunschdenken, dass es sich um potentiell selbst programmierende Technologien handelt, die „aus Erfahrung lernen“ und klüger als ihre Erfinder werden. Es klingt fast nach einer Drohung: versuche nicht zu fliehen, denn es ist zwecklos. Wenn ihre „weichen Ziele“ weglaufen, werden die schlauen Verfolger-Algorithmen sich blitzschnell automatisch anpassen und effizientere Jagd-Methoden erfinden.

Hinrichtung als “Riesenchance”

Heute beläuft sich die geschätzte Anzahl vorsätzlich mit Drohnen getöteter Menschen auf mehr als 5500 seit Einführung der Technologie. Auf einen mutmasslichen Terroristen kommen 28 sicherlich unschuldige Zivilisten – das ist nicht nur ein hoher Kollateralschadenkoeffizient. Es ist sicherlich auch dasjenige Werkzeug, das in der Geschichte der Menschheit einzigartig dasteht hinsichtlich der physischen Entkopplung von Henker und Hingerichtetem, der Entkopplung von Schuld und Strafe. Niemals zuvor ist unter prinzipiell funktionierenden rechtsstaatlichen Bedingungen das Urteil so weit im Vorfeld einer Schuldanalyse vollstreckt worden. Niemals zuvor wurde ein widerrechtlicher Vorgang dieser Art derart stabil im staatlichen Aktionsinstrumentarium verankert. Sicher, es gibt Vorläufer für die Tötung auf Verdacht, in historischen Ausnahmesituationen wie Revolution oder Krieg. Aber es scheint nicht abwegig zu behaupten, dass die Digitalisierung, die das distanzierte Vollstrecken aus dem Warroom ermöglicht, diese Strukturveränderung begünstigt. Die “Riesenchance”, von den USA ergriffen, um Störfaktoren im politischen “Ökosystem” zu beseitigen und um von eigener Schuld abzulenken, ist eine fundamentale Verletzung des Menschenrechts. Die Methode der Zielermittlung und -verfolgung vereint Suchmaschinen, Datenbanken und die Akteure an den Computern in einem nur aus großer Ferne sauber scheinenden Prozess.

Listen

Jutta Weber konstatiert in ihrem Text “Keep adding. On kill lists, drone warfare and the politics of databases” (2016, publiziert in in: Environment and Planning; Society and Space), die ‘disposition matrix’, eine Tötungs-Datenbank, sei das Hauptwerkzeug, mit dem die US-Regierung ihren globalen ‘war on terror’ führe und durch die gezielte Hinrichtungen mehr und mehr institutionalisiert würden. Die “Materialität der Datenbanken und die Algorithmen der themen- oder personenbezogenen Datenauswertung” sind einer “Technorationalität unterworfen, die auf Rekombination beruht”, welche die “Produktion möglicher künftiger Ziele für einen Daten-basierten Tötungs-Apparat begünstigt, in dem menschliche und nicht-menschliche Entscheidungsprozesse intim miteinander verwoben sind.”

Gezielte Tötungen haben bisher hauptsächlich stattgefunden in Afghanistan, im Irak und in Libyen. Ausserhalb konventioneller Kriegsschauplätze werden Drohnen zum Töten in Pakistan, Yemen, Somalia and Syrien eingesetzt. Viele Wissenschaftler wie Weber befassen sich daher mit Strategien, sog. LAWS (lethal autonomous weapon systems) zu bannen. Ihr weltweit größter Zusammenschluss heißt ICRAC.

Durch das technische Prinzip, Datenbanken und Algorithmen für Weg- und Zielentscheidungen zu nutzen und dabei der menschlichen Entscheidung eine starke nicht-menschliche Komponente beizugesellen und die Vermischung der Entscheidungsebenen, wie Weber sagt: “opak”, also vorsätzlich unentwirrbar zu gestalten, letztlich durch die daraus resultierende Preisgabe rechtlicher Fundamente und Persönlichkeitsschutzrechte sind autonome Fahrzeuge und “letale autonome Waffensysteme” strukturell enger miteinander verbunden, als auf den ersten Blick einleuchtet.

Der Gläserne Dschungel

Ende September 2017 warnt die Stiftung Warentest vor “connected cars” und den Apps der Autohersteller: sie seien “Datenschnüffler”. Wer die Apps einschalte, würde zum “gläsernern Nutzer”. Durch E-Call, die Pflicht, ab 31. März 2018 alle Neuwagen mit einem Notrufsystem über eine Mobil­funk-Sim-Karte auszurüsten, sei dem Datenabfluss Tür und Tor geöffnet. Im Tesla beispielsweise verkündet schon die “Kundendatenschutzrichtlinie“, dass Informationen “möglicherweise auch über Dritte, etwa öffentliche Datenbanken, Marketingfirmen, Werkstätten und soziale Medien wie Facebook bezogen werden.” Auch die onboard-Kamera wirkt mit beim Datensammeln und übermittelt bei Bedarf an Behörden oder Arbeitgeber.

Die Politik der Listen und ihrer Rasterung verändert grundlegend unsere bislang prinzipiell auf menschlicher Autonomie und dezentral operierender Individualität basierende Lebensführung. Sie setzt das zentral lenkbare Leben an ihre Stelle.

Die von Weber attestierte Opazität, der unentwirrbare Daten-Dschungel, der um uns wächst, verwischt die Grenzen zwischen verdächtigem und unverdächtigem Handeln. Man ist potentiell schuldig, von der Norm der Datenbank abweichendes Verhalten zu zeigen.

Es ist daher fraglich, ob der Einsatz von autonomen Geräten mit unseren ethischen Idealen und gesetzlichen Vorgaben zur Selbstbestimmung überhaupt kompatibel ist. Die technische Autonomie könnte uns leicht eine bedingungslose Militarisierung des Zivilen eintragen.

find, fix, finish

Mit einer umfassenden Autonomisierung von Privat- und Güterverkehr rückt ein NATO-Projekt der mittleren 70er Jahre wieder in den Blick: das der satellitenbasierten universellen Planung aller Güter- und Personenbewegungen, an dem mehrere Generationen US-amerikanischer Präsidenten mitgearbeitet haben. Ronald Reagan projizierte es in den Weltraum, Bill Clinton wollte es nutzen, um die Feinde Amerikas rund um den Erdball innerhalb von 5 Minuten zu finden und zu neutralisieren, Barack Obama hat das 3F-Programm (“find, fix, finish”) perfektioniert. All der Aufwand an Fahrzeugen, Logistik und Steuerungstechnik – laut Virilio einzig und allein, “um jede menschliche Bewegung auf der Erde in Frage zu stellen.” (in: Paul Virilio, Fahren Fahren Fahren, Berlin 1978 (franz. Original 1975), Seite 53)

Das Regime der Drohnen, von den USA als einzig effizienter Schutz der westlichen Gesellschaften propagiert, illustriert diesen Gedanken eindrücklich.

Der Kommunismus hat die Bewegungsfreiheit in Frage gestellt, weil er meinte, er wisse besser als seine Bürger, was ihnen nütze. Um sich dagegen zu positionieren, hat das Industriekapital den Bürgern der westlichen Hemisphäre suggeriert, gut sei allein, was ihnen persönlich am meisten Vorteil verschaffe. Am nützlichsten sei die Anschaffung aufwändiger extrem teurer Fortbewegungsmittel.

Der neoliberale Finanzkapitalismus, das zum autoritär-militärischen, postdemokratischen Staat und seinen autonomen Fahrzeugen gehörende Wirtschaftssystem, vertritt die Auffassung, dass Bewegung besser kontrolliert werden müsse.

Denn wer sich frei bewegt, ist schwer beherrschbar und damit kaum den allgegenwärtigen Umsatz-Interessen unterzuordnen.

Die digitale Zugbrücke

Im April und August 2019 hat die UNO in Genf Treffen einberufen, um ein mögliches Verbot Letaler Autonomer Waffen-Systeme (LAWS) zu diskutieren.

Die Treffen fanden im Rahmen der sogenannten CCW-Sitzungen statt, in denen zwischenstaatlich Übereinkommen geregelt werden „über das Verbot oder die Beschränkung des Einsatzes bestimmter konventioneller Waffen, die übermäßige Leiden verursachen oder unterschiedslos wirken können“. Unter CCW-Vereinbarung wurden Waffen verboten wie Streumunition, gegen Personen eingesetzte Minen und Blend-Laser.

Noch nie zuvor waren so viele NGOs bei diesen Treffen anwesend wie jetzt, wo es um die LAWS geht. Eine Koalition gegen „Killerroboter“ warnte, dass der Einsatz solch abstossender Waffen unethisch und illegal sei und die Gefahr befördere, internationale Konflikte zu destabilisieren.

Aber während 88 Länder einem Verbot zustimmten, arbeitet der CCW-Prozess auf Konsens Basis, bei dem alle Beteiligten zustimmen müssen, um wirksam zu werden. Russland, Australien, Südkorea, USA und Israel lehnten bislang ein vollständiges Verbot ab. Das CCW wird sich im November 2018 erneut treffen, um die Tagesordnung für die nächsten Treffen im Jahr 2019 festzulegen.

Ohne die Bürger gegen LAWS zu mobilisieren, riskieren wir künftig Konflikte, die sinnbildlich gesprochen in Lichtgeschwindigkeit geführt werden und in einer neuen Art von Materialschlacht, einem Kriegs-Spasmus enden, während technische Systeme unablässig weiter ihre Ziele suchen, bis es keine mehr gibt, weder in Städten noch an Grenzen. Algorithmen würden entscheiden, wer leben darf und wer in Schrott verwandelt wird.

Intelligenter Stacheldraht

In Zeiten der Krise hört man täglich den Ruf nach geschützten Zonen und Aussperrung unerwünschter Neuankömmlinge. Es ist nur ein winziger Schritt von der bewachten Wohnsiedlung zur „Festung Europa“. Die „gated community“ scheint das Modell für den Kontinent: eine gigantische Burg mit digitalen Zugbrücken.

Auf einmal stellen wir fest, dass die Grenze ubiquitär ist: wir finden ihre Struktur in Malls wieder, an Flughäfen, in intelligenten Eigenheimen und an den Schlagbäumen vor den Sperrzonen: überall die gleichen sozialen Selektionsmuster.

Algorithmus ist der Name des neuen Stacheldrahts. Das ist keine dystopische Vision. Wir zitieren hier aus gegenwärtig laufenden EU-geförderten Wissenschafts- und Forschungsprogrammen wie Horizon 2020: nach dem gewitzten Plan der Ingenieure einer europäischen Selbstverbunkerung liegt der Horizont des Horrors in Sichtweite.

Stimuliert von der stets höheren Dosis Bilder beständig anschwellender Ströme von Migranten und angesichts einer dauernden Gefahr von Terroranschlägen und Unruhen in Folge der Staatsschuldenkrisen in Europa versprechen Programme für „smarte Grenzkontrollen“ eine pragmatische Antwort auf die drückende Frage nach der Sicherung von Besitz und Leben.

Wir sind Zeugen des rapiden Wachstums einer Branche, die sich auf private und staatliche Sicherheit kapriziert und sich auf die einträgliche Kriegsarena in den Städten und die „asymmetrische Kriegsführung“ entlang der Schengen-Außengrenze einschießt. Der damit einhergehende Einsatz „intelligenter“ digitaler Werkzeuge maskiert perfekt die brutale Gewalt der gegenwärtigen Entwicklungen als „lebenserhaltende chirurgische Operation“.

Man erklärt Migration und eine aus der Balance geratene Gesellschaft zum „technischen Problem“, und schon vereinigen sich Waffenhersteller und die Finanzwelt, um die Lösung zu liefern: denn was sich technisch lösen lässt, erspart neue Gesetze und erst recht ein Sozialprogramm, das nur kostet statt einzutragen – anders als der einträgliche Ankauf teurer Sicherheitstechnologie.

Wer geschützt hinter den Mauern der Festung sitzt, fühlt, dass Recht und Ordnung aufrecht erhalten bleiben. Überleben heisst heute heute aufzupassen, dass man nicht auf die andere Seite der Mauer gerät!

Was wir bislang relativ abstrakt das „digitale Zeitalter“ genannt haben, nimmt nun physische Gestalt an.

Das Versprechen von endloser Wohlfahrt, das auf dem Vertrauen in die Verlässlichkeit beruht, kann nicht ins Werk gesetzt werden ohne eine vollständige Dekonstruktion der hergebrachten ökonomischen Weltordnung (die bereits in vollem Umfang im Gange ist), nicht ohne Einsatz struktureller Gewalt und nicht ohne massiven Abfluss des Besitzes aus allen weniger begüterten Teilen der Gesellschaft in Richtung „reich“.

Das, so argumentiert die bekannte Soziologin Saskia Sassen, ist der wahre Kern der „Exklusion“, die das alte Konzept der „Ungleichheit“ ablöst. (siehe: Expulsions. Brutality and Complexity in the Global Economy, Cambridge, MA, 2014)

Milieu

Wenn demokratische Staaten mit umfassender Digitalisierung aller Zugänge, ihrer Finanzoperationen und ihrer Dienstleistungskultur ein „totales“ maschinisches Milieu installieren, das umfassende Sicherheit garantieren soll, indem es ausnahmslos und unsentimental alle nicht-Zugehörígen erfasst, dann eliminiert dies endgültig den menschlichen Faktor, ohne den demokratisches Handeln unvorstellbar wird.

Algorithmisch kontrollierte Waffensysteme werden nicht länger exklusiv im „Krieg gegen den Terror“ eingesetzt. Sie befinden sich bereits im Arsenal demokratischer Staaten. Es muss für ihren umfassenden Einsatz „zum Wohle der Nation“ eigentlich nur der Terrorismusbegriff gehörig aufgeweitet werden.

Algorithmisch kontrollierte, mithin (teil-)autonome Waffensysteme stehen schon vor den Toren Europas und sollen helfen, die 50.000 Kilometer lange Schengen-Grenze bereits im Vorfeld abzudichten. Dieses Horrorszenario ist keine Zukunftsmusik: im Juni 2016 verbreitete ICRAC (die britische NGO „International Committee for Robot Arms Control“) die Meldung von Yeni Safak, dass das türkische Militär mit den Bauarbeiten an der syrischen Grenze begonnen habe und alle 300 Meter ein Turm aufgestellt werde, der mit vollautomatisierten Produkten der Firma Aselsan bestückt wird. Jedermann, der von Syrien Richtung Türkei kommend, die „wipe out zone“ vor dem Turm betritt, könnte damit ohne Ansehen der Person von Maschinen exekutiert werden.

Es scheint geradezu grotesk und dennoch kommt man an dieser Stelle nicht umhin, daran zu erinnern, dass angesichts solcher Installationen zum Schutz der Europäischen Gemeinschaft die Frage nach der Kompatibilität mit dem Menschenrecht zu stellen ist – und zwar nicht als akademisch-philosophische Frage, sondern mit politischer Konsequenz.

Sind Aselsan-Türme die Einlösung unser Vorstellung einer smarten sicheren Zukunft? Sind wir bereit, ihre Existenz als gegeben hinzunehmen? Oder wollen wir dagegen kämpfen, uns mobilisieren gegen den Verlust der Menschlichkeit?

Exklusion

Es scheint widersprüchlich: angesichts dramatischer Umwelt-Veränderung und gesellschaftlicher Verwerfungen von tektonischer Dimension, beide nicht zuletzt die Folgen einer langen Geschichte der Ausbeutung menschlicher und natürlicher „Ressourcen“, ein Prozeß, der im kybernetischen Zeitalter beschleunigt und durch den Übergang der analogen in die binäre Welt gewaltig geschmiert wurde, angesichts dessen entscheidet sich die heute herrschende Klasse, genau jene Mittel einzusetzen, die den Konflikt zustande gebracht und immer weiter verschärft haben. Sie ziehen die digitalen Zugbrücken rund um Europa hoch.

Doch genau dieser Widerspruch scheint von einer gewissen politischen Logik zu sein:

Wer Teil des Problems ist, so die von Elmar Altvater bezweifelte Anmerkung, soll und kann auch Teil seiner Lösung werden.

Die „Habenichtse“ klopfen an das Tor. Sie haben nicht, was sie haben müssten, um eingelassen zu werden: keine Papiere, kein Geld.

Folglich: keinen Zutritt. Es sei denn, ihre fast kostenlose Arbeit wird gebraucht auf den Plantagen in der Festung .

Egalité, einst einer der drei Kampfbegriff der französischen Revolution, die Gleichheit wird nun zur Falle für die „Ungleichen“.

Digitalität erlaubt den politischen Entscheidern, sich hinter schimmernd schönen Technologien zu verstecken. Die dem Algorithmus immanente Gewalt bleibt unsichtbar.

Mit stoischer „fairness“ entscheidet der Code, jedes individuelle Schicksal zu ignorieren und alle und alles über einen Kamm zu scheren. Das sieht zunächst nach Gleichbehandlung aus.

Doch die „Technopolitik der Exklusion“  manifestiert schlussendlich den politischen Willen, die „Überflüssigen“ aus dem Programm „Zivilisation“ auszusondern. Um der Selektion einen humanitären Anstrich zu verpassen, findet sie nach sauberen Kriterien statt, nach solchen, die in jeder Maschine zum gleichen Resultat führen.

Menschlichkeit

Wenn wir dem Sound der autonomen Technik lauschen, hören wir Echos von Zygmunt Baumans „flüssiger Moderne“ und der Idee aus seinem Buch „Verworfenes Leben“ , in dem er über eine ganze Klasse von Menschen als „fehlerbehaftete Konsumenten“ spricht. Der Horror daran ist, dass es so zu sein scheint, wie in dem Science-Fiction- Film „Soylent Green“, als hätten wir Technologien entwickelt, um uns selbst zu fressen, weil aus diesem Prozess mehr und mehr Geld generiert werden kann.

Denken Sie an die gegenwärtige Mixtur aus Migranten, politischer Feigheit, Internierungslagern, denken Sie an den Aufstieg politischer Hyänen, die öffentlich das Ende aller Verpflichtungen aus humanitären Verträgen fordern.

Das zusammen formt meine Auffassung einer „toxischen Männlichkeit“, personifiziert durch Präsidenten wie Trump, der nun zum Rollenmodell der neuen Rechten aufsteigt, die uns mit Stimmen wie von mythischen Sirenen ihr Lied davon singen, dass wir wieder groß werden können.

Wo bleibt die fürsorgliche Dimension, die uns als Menschen auszeichnet, die sich eher auf Macht durch Gemeinsamkeit als auf Macht über andere konzentriert? Unsere Menschlichkeit zu verlieren wäre ein allzu hoher Preis.