• aktualisiert:

    Kampfroboter im Datenkrieg

    Sollte es so etwas wie eine Drohnenethik geben? Immerhin kamen die fliegenden Roboter bereits in vielen Kampfgebieten zum Zuge und ersetzen dabei Menschen, die sich sonst dem Gegner als mögliche Ziele aussetzen würden. Die Frage nach der Ethik von Kampfrobotern wird diese Woche im englischen Brighton diskutiert. Unter dem Stichwort „robotandyou“ kann man im Internet schon vorab mitreden. In den chats taucht da immer wieder die Frage auf, was „kognitive Systeme“ überhaupt sind und ob man solchen Maschinen in Schlüsselentscheidungen trauen darf. In den angelsächsischen Ländern wird längst über die Ethik solcher kognitiven Systeme diskutiert, sei es über Militärroboter oder über computergesteuerte Autos, deren Entwicklung in vollem Gange ist.

    Am Wochenende hat das Smithsonian Museum in Washington den „Den unglaublichen bionischen Menschen“ vorgestellt, einen Ro... Foto: dpa

    Sollte es so etwas wie eine Drohnenethik geben? Immerhin kamen die fliegenden Roboter bereits in vielen Kampfgebieten zum Zuge und ersetzen dabei Menschen, die sich sonst dem Gegner als mögliche Ziele aussetzen würden. Die Frage nach der Ethik von Kampfrobotern wird diese Woche im englischen Brighton diskutiert. Unter dem Stichwort „robotandyou“ kann man im Internet schon vorab mitreden. In den chats taucht da immer wieder die Frage auf, was „kognitive Systeme“ überhaupt sind und ob man solchen Maschinen in Schlüsselentscheidungen trauen darf. In den angelsächsischen Ländern wird längst über die Ethik solcher kognitiven Systeme diskutiert, sei es über Militärroboter oder über computergesteuerte Autos, deren Entwicklung in vollem Gange ist.

    Die ängstliche Frage, die immer im Hintergrund steht, ist die, ob Roboter eine Persönlichkeit entwickeln können. Ob sie also vom Menschen ununterscheidbar sein können. Immerhin wurde jetzt zum 23. Mal der Loebner-Preis in Zusammenarbeit mit der Universität Cambridge verliehen, mit dem Computerprogramme prämiert werden, die am „menschenähnlichsten“ sind. Aber obwohl die Jury ein Preisgeld von 4 000 Dollar vergeben hatte, war sie doch wieder nicht völlig zufrieden mit der Imitation von Menschen. Auch wenn diese den Computern damit auf die Sprünge helfen, dass sie diesen auch irrational-menschliches Verhalten antrainieren.

    Was passiert aber, wenn Militärroboter solche menschenähnlichen Eigenschaften bekommen? Oder sollen sie sogar Menschliches vermeiden? Aufschlussreich ist, was der amerikanische Philosoph Patrick Lin, Berater des amerikanischen Geheimdienstes CIA, in dem Magazin „The Atlantic“ empfiehlt. Lin vertritt die Auffassung, dass Roboter nicht bösartig oder hasserfüllt handeln und daher nicht emotional zu Kriegsverbrechen führen können wie sexuellem Missbrauch oder Vergewaltigungen. Sie hätten weder Gefühle, noch Adrenalin oder Hunger. Und sie leiden weder an Schlaflosigkeit oder niedriger Moral, was unsere Urteilsfähigkeit beeinträchtigt. Nach Lin können die Kampfroboter durch den „Nebel des Kriegs“ sehen, um Unrecht und zufälliges Töten zu vermeiden: „Und sie können objektiv sein, als unerschrockene Beobachter, um die ethische Führung in Kriegszeiten zu sichern. Daher können Roboter ihre Arbeit besser machen als wir, und vielleicht können sie ethischer handeln, zumindest im maximalen Stress kriegerischer Situationen.“

    Diese Vorstellungen setzen bereits autonom agierende Militärroboter voraus, die Lin in gut zehn Jahren erwartet. Diese Roboter allerdings Menschen als überlegen anzusehen, kann nur als Kapitulation alles Menschlichen verstanden werden. Dass aber so in der Forschung gedacht wird, kann vorausgesetzt werden. Und ebenso sicher ist es, dass diese computergesteuerten Roboter alle Daten übersenden werden, deren sie habhaft werden können. Erschreckend ist auch die Aussage von Lin, dass man Soldaten nicht foltern würde, wenn sie unempfindlich durch Schmerzen wären, entweder weil sie selbst mit Robotertechnik versehen wären, genetisch verändert oder mit Drogen behandelt. Diese Verhinderung von Folter als ethisch ins Feld zu führen, ist selbst höchst unethisch. Aber es entspricht den Forscherträumen von der Perfektionierung des Menschen, die allerdings dessen Selbstüberwindung bedeuten würde. Schmerzfreie Wesen wären auch nicht mehr menschenähnlich, die Forschung wäre über das Ziel hinausgeschossen. Da klingt die Auskunft des englischen „The Guardian“ beinahe harmlos, dass im kommenden Frühling mit der Ausarbeitung eines europäischen Roboterrechts (RoboLaw) für selbstfahrende Autos begonnen wird.

    Längst werden die Militärroboter auch zivil angewandt. So etwa beim Aufspüren von Pädophilen in Südkorea, oder auch bei großen Sportereignissen wie bei der Fußballweltmeisterschaft 2006 in Seoul oder bei den Olympischen Spielen in Peking 2008. Um Datensicherheit kümmert sich hier niemand. Zunehmend werden Roboter in Krisensituationen eingesetzt, um menschliche Opfer oder Traumatisierungen zu vermeiden. Werden Roboter aber wirklich moralischer handeln, wenn sie ein Kind als Ziel ausgemacht haben? Zweckabwägungen werden auch hier eine Rolle spielen. Dass Computer es künftig besser machen werden als Menschen, kann sich nur als verhängnisvolle Illusion entlarven.