»Ich dachte immer: Was auch passiert, mein Job ist sicher!«

Interview mit Theresa Hanning über Automatisierung und die Herausforderungen der Zukunft

ZFF: Theresa Hanning, vielleicht fangen wir damit an, was Sie dazu bewogen hat, Science Fiction und speziell über ein gesellschaftliches Zukunftsbild zu schreiben? In den letzten Jahren ist die Utopie bei deutschsprachigen Autor*innen kein sonderlich beliebtes Genre gewesen. Warum also haben Sie es gewählt?

Ich habe Politikwissenschaft studiert, weil ich unbedingt wissen wollte, »was die Welt im Innersten zusammenhält«. Am Ende hatte ich viel gelernt, aber die reale Welt war immer noch genauso kompliziert wie vor meinem Studium, und vieles weigerte sich standhaft, durch gängige politische Theorien erklärt zu werden. Ich habe dann versucht, die Ideen und Lösungsansätze, die mich im Studium besonders fasziniert haben, in einer Geschichte umzusetzen. Ich wollte das Konzept von Platons gerechtem Staat, das er in der Politeia entwickelt, auf die heutige Welt übertragen. Um einige technische Probleme zu lösen, habe ich dieses Staatskonzept in die Zukunft, ins Jahr 2052, verlagert. So wurde die »Optimalwohlökonomie« geboren. Es ging mir also nicht darum, innerhalb eines bestimmten Genres zu schreiben, sondern auszuprobieren, wie man politische Ideen umsetzen kann, und das ging nur mit Anleihen aus der Zukunft.

ZFF: In Ihrem ersten Roman, Die Optimierer, geht es darum, dass die Technologie den Menschen immer mehr Entscheidungen abnimmt. Wie gehen Sie mit neuen Medien und Technologie um? Sind Sie eher ein early adopter oder ein resister?

Ich habe da eine Entwicklung durchgemacht. Früher war ich eher ein early adopter, habe mich für technische Neuerungen interessiert, mir neue Geräte, Spiele und Software gekauft und damit experimentiert. Heute sehe ich das alles etwas kritischer. Ich sehe gar nicht ein, warum ich mir alle zwei Jahre ein neues Smartphone kaufen soll, wenn mein altes noch wunderbar funktioniert. Wir sind da in eine Konsumspirale hineingeraten, die aus Gewohnheit Neuerung verlangt, obwohl sie uns keinen nennenswerten Mehrwert bringt. Auch verspüre ich eine starke Abneigung gegen den geradezu religiösen Hype, der Apple-Produkten in den letzten zehn Jahren entgegengebracht wurde. Ich mag den Designansatz nicht, bei dem aufgrund vermeintlicher Einfachheit Möglichkeiten und Entscheidungen der Benutzer eingeschränkt werden.

Mittlerweile lässt mich vor allem der Datenschutz-Aspekt neuen Technologien gegenüber vorsichtig sein. Sprachassistenten von Google, Apple oder Amazon lehne ich ab, da ich keine ›Wanzen‹ in meiner Umgebung haben möchte, die jedes Gespräch belauschen. Auch versuche ich, mich von Facebook-gebundenen Social-Media-Angeboten fernzuhalten. Erst vor wenigen Wochen habe ich mit großem Bedauern und unter Protest WhatsApp installiert – und zwar nur deshalb, weil die gesellschaftlichen Nachteile, die meine Familie und ich durch das Nichtbenutzen von WhatsApp erlitten haben, nicht mehr hinnehmbar waren. Es ist schon sehr bedenklich, dass etwa ein Viertel der Menschheit1 ein Kommunikationsmittel benutzt, das einer Firma gehört, die damit Unmengen an Geld verdient, während diejenigen, die dabei nicht mitmachen (wollen), von der Kommunikation ausgeschlossen werden.

Andere Technologien, die das Leben der Menschen – hoffentlich – besser machen, begrüße ich sehr. Ich habe zwei Jahre lang für ein Unternehmen gearbeitet, das Solarmodule hergestellt und Solarparks gebaut hat. Danach habe ich das Lichtdesign für eine Firma gemacht, die Induktionslampen als verschleißarme und von der Lichtqualität naturnahe Alternativen zu LEDs angeboten hat. Die Vive [ein VR-System, Anm. d. Red.] zu Hause wartet auf neue VR-Spiele, der 3D-Drucker auf kaputte Plastikteile, die ersetzt werden müssen, und seit ich die neuen Elektroroller ausprobiert habe, bin ich ein absoluter Fan. Inwieweit diese Umwelttechnisch wirklich sinnvoll sind, kann ich nicht beurteilen, aber es ist schon erstaunlich, dass sich viele Großstädter über die neuen überall herumstehenden Roller echauffieren, während die daneben parkenden tonnenschweren SUVs klaglos hingenommen werden.

Also, es kommt auf die Art der Technologie an. Überwachung lehne ich in jeglicher Form ab – neue Entwicklungen, die uns helfen Mobilität und Klimaschutz zu verbinden, finde ich klasse.

ZFF: In Die Optimierer übernehmen die Roboter, also sehr menschlich aussehende Androiden – die Basilei –, immer mehr Aufgaben in der Gesellschaft. Sie beschreiben bei vielen dieser Aufgaben, dass ein Roboter den Job macht, weil etwa die frühen Arbeitszeiten oder widrige Verhältnisse dazu geführt hätten, dass Menschen dazu keine Lust mehr haben. Glauben Sie, dass wir alle mal unsere Jobs an die Automatisierung verlieren werden? Welche Jobs sind sicher(er)?

Bisher dachte ich immer: »Was auch passiert, mein Job als Schriftstellerin ist sicher!« Und dann habe ich kürzlich einen Text gelesen, der vom neuen GPT-22 geschrieben wurde: Es geht dabei um Einhörner und wie sie entdeckt wurden. Der Text ist nicht nur grammatikalisch (weitestgehend) korrekt. Er ist logisch, interessant und witzig! Jetzt frage ich mich schon, was für Geschichten wir in den kommenden zehn, zwanzig oder dreißig Jahren lesen werden.

Dass wir früher oder später eine ganze Menge Jobs an die Automatisierung bzw. Künstliche Intelligenz verlieren werden, ist, denke ich, unstrittig. Alles, was gemacht werden kann – und Profite verspricht – wird auch gemacht. Die Entwicklung ist nicht aufzuhalten, aber wir als Gesellschaft müssen uns Gedanken machen, wie wir damit umgehen wollen. Es hat keinen Sinn, das jetzige Sozialsystem, das die Vollbeschäftigung idealisiert, aufrechtzuerhalten, wenn es wesentlich günstiger und effizienter ist, Roboter statt Menschen arbeiten zu lassen. Auf lange Sicht wird es normal sein, dass ein großer Teil der Bevölkerung nicht oder nur wenig arbeitet. Um den sozialen Frieden zu erhalten und die durch Roboter erwirtschafteten Gewinne gerecht aufzuteilen, kommen wir daher meiner Meinung nach nicht um ein bedingungsloses Grundeinkommen herum.

ZFF: Ihr zweiter Roman, Die Unvollkommenen, beschreibt die Welt fünf Jahre nach der Handlung des ersten Romans. Roboter sind überall und bestimmen den Alltag der Menschen. Es gibt aber auch die Integrierten: Menschen, die sich mit Technologie vernetzt haben und zu Cyborgs geworden sind. Sie beziehen sich hier auf Konzepte aus dem Trans- bzw. Posthumanismus. Wie sehen Sie die Zukunft des Menschen im Verhältnis zur Technologie?

Im Grund sind wir ja jetzt schon Cyborgs. In dem Augenblick, in dem wir mit dem Handy oder dem Computer arbeiten oder Informationen aus dem Internet abrufen, erweitern wir unsere Fähigkeiten und unsere Speicherkapazität. Der limitierende Faktor ist im Augenblick die enorm geringe Bandbreite von zehn Fingern am PC oder gar nur zwei Daumen am Smartphone. Wenn ich jetzt nicht mehr tippen, sondern einen Text nur noch denken müsste, damit er erscheint, wäre das im Grunde nur eine Beschleunigung, aber keine prinzipielle Änderung dessen, was wir bereits schon tun. Der große Wendepunkt ist dann erreicht, wenn wir tatsächlich unser Empfinden oder Bewusstsein erweitern oder übertragen könnten. Das würde alles ändern. Dann würden wir vielleicht irgendwann eine Spezies werden, die nur noch digital lebt, mit künstlicher Intelligenz verschmilzt und etwas vollkommen Neues kreiert.

Wahrscheinlicher und mittelfristig noch miterlebbar scheint mir allerdings die Entwicklung von technischen Verbesserungen, die bisher nur als Prothesen gedacht waren. Also Hörgeräte, die nicht nur das natürliche Hören ersetzen, sondern zusätzliche Fähigkeiten bieten, wie z. B. ein größeres Frequenzspektrum. Das Gleiche bei künstlichen Augen, die auch Infrarotsehen ermöglichen könnten. Es gibt ja bereits jetzt Menschen, die sich aus Spaß Sensoren oder RFID-Chips in die Finger implantieren lassen, um damit herumzuexperimentieren. Das alles sind noch Spielereien, aber wenn ich in dreißig Jahren gefragt werde, ob ich bei der Knie-OP ein normales Knie oder ein Superspezialknie mit zusätzlicher Rotationsfunktion haben möchte, entscheide ich mich wahrscheinlich für das Premium-Modell. Da die Entwicklung aber so schleichend voranschreitet, wird das zu diesem Zeitpunkt dann genauso wenig als Science Fiction oder Cyborgisierung wahrgenommen werden, wie wenn ich mir jetzt einen Herzschrittmacher unter die Haut setzen lassen würde.

ZFF: Ein ganz wichtiges Konzept im Roman ist das ›Reine Land‹, ein Upload für das Bewusstsein, der Menschen ewiges Leben im Paradies verspricht. Sie scheinen aber, wie die Fokalisierung auf Lila verrät, nicht von dieser Lösung überzeugt. Dabei wird der Upload von Transhumanisten wie Ray Kurzweil schon lange propagiert und auch Cory Doctorow, in seinem Roman Walkaway (2017), oder die TV-Serie CAPRICA (CA/US 2010) haben sehr ähnliche Unsterblichkeitskonzepte aufgezeigt. Was ist das Problem mit dem Upload? Wäre das nicht auch die Lösung für unsere ökologischen Probleme – digitale Menschen verbrauchen ja weniger Ressourcen, oder?

Der erste Kontakt, den ich mit dieser Art von Ideen hatte, war, als ich als Teenager die Geschichte »William und Mary« von Roald Dahl gelesen habe, in der das Gehirn des verstorbenen William samt einem Auge weiterlebt. Dieses Bild vom ›Gehirn im Glas‹ hat mich nachhaltig beeindruckt. Das Leben ist eine großartige Sache – die wenigsten wollen jemals darauf verzichten –, aber es ist andererseits auch ein beruhigender Gedanke, dass alles am Ende nicht schlimmer kommen kann als der eigene Tod. Wenn wir uns aber die Möglichkeit des ›Gehirns im Glas‹ oder eines Bewusstseinsuploads vorstellen, dann ist diese letzte Gewissheit plötzlich null und nichtig. Ich finde die Vorstellung, nicht mehr über das, was nur meins ist – mein Geist, mein Empfinden, meine Seele –, bestimmen zu können, extrem beängstigend. Deshalb würde ich mein Gehirn auch nicht in irgendeine Art des digitalen Bewusstseins umwandeln wollen. (Fragt mich in fünfzig Jahren noch mal, vielleicht ändere ich meine Meinung, wenn das Ende unmittelbar bevorsteht!) In diesem Sinne finde ich auch paradiesische Jenseitsvorstellungen unheimlich – einen Notausgang sollte es auch im Himmel geben. Ich hätte aber nichts dagegen, als Mensch, so wie ich bin, in Gesundheit und mit guter Laune einige hundert Jahre alt zu werden. Dass so eine Entwicklung für unseren Planeten, seine Ressourcen und unsere Gesellschaft ein riesen Problem wäre, davon können wir ausgehen.

Ich möchte zur Erklärung des ›Reinen Landes‹ noch eine weitere Information hinzufügen, weil es bisher, in Rezensionen und Diskussionen, immer nur im christlichen Kontext gesehen wurde. Tatsächlich handelt es sich aber um ein buddhistisches Konzept. Im Amitabha-Buddhismus existiert die Vorstellung, dass ein erleuchteter Mensch, der eigentlich ins Nirwana fortschreiten könnte, stattdessen zum Amitabha-Buddha wird. Als solcher erschafft er dann das ›Reine Land‹ als eine Art Zwischenstufe zum Nirwana. Dort können andere Menschen, die im normalen Leben nicht zur Erleuchtung gelangen, ihre Seele in Ruhe auf den letzten Schritt vorbereiten. Mich hat diese Form des Erlösungswartezimmers sehr beeindruckt.

ZFF: Ihre Roboterbaureihe heißt im ersten Band noch Basileus (also Herrschende) und dann im zweiten Custos (also Wächter). Sie beschreiben die Basilei als Versuch, Menschen und Maschinen zu verbinden, der aber scheitert. Hingegen sind die Custos eigene künstliche Lebewesen ohne einen menschlichen Charakterchip als Basis, die jedoch auch Bewusstsein entwickeln. Was steckt hinter diesen Überlegungen und Abstufungen?

Die Roboter, ihre Bezeichnungen und Fähigkeiten – das alles ist an die Politeia von Platon angelehnt. Es gibt die Basilei – die Philosophenherrscher –, superintelligente Roboter, die nur das Beste für die Menschheit wollen und sie daher, gegen ihren Willen bzw. ohne sie zu fragen, beherrschen. Aber um zu wissen, was das Beste für die Menschen ist, müssen sie selber zum Teil menschlich sein. Deshalb besitzen sie als Basis einen menschlichen Charakterchip, der ihr Bewusstsein, ihre Individualität und ihre Erinnerungen als Menschen enthält. Die Basilei wissen, dass sie als Hybridwesen eingeschränkt sind und eine Vielzahl und eine Vielfalt von Robotern benötigen, um der Menschheit adäquat zu dienen – deshalb sind sie auch an Samson interessiert, da er alle Facetten und Schwachstellen des Systems kennengelernt hat und ihnen helfen kann, es zu verbessern.

Die Custos-Roboter werden später von der Liga für Roboterrechte und der ihr zugehörigen Firma Prometheus Ltd. hergestellt, weil Samson den Schwarm der Basilei erst dominiert und dann zerstört hat. Um zu überleben, müssen sich die Roboter von den Menschen – und Samson – unabhängig machen und für ihre Rechte kämpfen. Der Name Custos bezieht sich hier wieder auf die Wächter in der Politeia. Sie sind besitzlos, das heißt, sie leben und arbeiten zum Wohl aller und sind gleichzeitig nicht auf Lohn oder Status angewiesen. Sie sind die Kämpfer, die sich durch Mut und Tapferkeit auszeichnen, was am Ende auch erklärt, warum sie sich, im Gegensatz zu den Basilei, die ja mehr auf Vernunft und Überzeugungskraft gesetzt haben, gegen Samson und die integrierten Menschen wenden, sobald Samson sie nicht mehr aufhält.

ZFF: Es gibt einige Stellen in Ihren Büchern, da erschaffen Sie neue Worte, um ein bestimmtes Konzept auszudrücken. Neben der ›Optimalwohlökonomie‹ sprechen Sie statt von Mord, Tötung oder Abschaltung vom ›Verleben‹ von Robotern. Und Sie benutzen den Begriff des ›digitalen Menschen‹ anstatt KI oder Androiden. Da steckt ja eine Beeinflussung hinter. Wie wichtig ist Ihrer Meinung nach Sprache in der gesellschaftlichen Anpassung an neue Technologien oder Konzepte? Sehen Sie es als wichtig an, dass wir neue Konzepte entwickeln, um unser Verhältnis zu künstlichem Leben zu beschreiben? Welche Rolle kommt Schriftsteller*innen dabei zu?

Ich glaube sehr an den berühmten Spruch von Edward George Bulwer-Lytton: »Die Feder ist mächtiger als das Schwert«. Denn egal, wie viel Macht ein Herrscher, eine Gruppe oder ein Staat heute hat, in hundert Jahren lebt niemand mehr, der davon persönlich betroffen ist. Den größeren Einfluss auf zukünftige Generationen haben Berichte und Geschichten, die geschrieben werden. Unsere Taten haben einen recht überschaubaren direkten Wirkungskreis. Aber Ideen und Geschichten können Jahrtausende überdauern und die ganze Welt umspannen. Yuval Noah Harari hat das in seinem Buch Eine kurze Geschichte der Menschheit von einem weiteren Punkt aus beleuchtet: Wenn wir uns ansehen, was uns Menschen von den Tieren unterscheidet – Intellekt? Emotion? Sprache? Werkzeugnutzung? –, dann bleibt am Ende nicht viel übrig außer: die Fähigkeit, abstrakte Ideen und Konzepte – kurz: Geschichten – unabhängig von der Realität zu konstruieren und so gruppenübergreifende Kooperation zu ermöglichen.

Vor diesem Hintergrund: Ja, Sprache ist sehr mächtig! Ohne Sprache können wir gar nicht abstrakt denken. Und es macht einen enormen Unterschied, ob ich über die ›Klimakatastrophe‹ nachdenke oder über den ›Klimaschwindel‹. Es geht sogar so weit, dass eine Sozialisierung mit bestimmten Begriffen bestimmte Denkmuster überhaupt erst (un)möglich macht.

Diese Art von Framing benutze ich auch in meinen Geschichten. In meiner Bundesrepublik Europa gibt es nicht einfach nur Gesetze – es gibt die ›Guten Gesetze‹. Wenn also jemand sagen würde: »Die Guten Gesetze sind schlecht«, würde dieser Satz von vornherein keinen Sinn machen. Auch das Wort ›verleben‹ soll andeuten, dass an den Robotern mehr ist als nur superfortschrittliche Technologie. Das Epigraph am Anfang meines Romans deutet schon darauf hin: Die Chat-KI antwortet auf die Frage, »what is the purpose of living?« mit »to live forever«. Man könnte ihr bzw. den Texten, mit denen sie trainiert wurde also die Ansicht unterstellen, dass Sterben schlecht und Leben vorzuziehen sei. Interessanterweise antwortet sie auf die Frage »what is the purpose of life?« mit »to serve the greater good«, womit wir wieder bei Platon wären.

Zum Thema ›biologische‹ bzw. ›digitale‹ Menschen: In den Romanen wird seitens der Roboter nicht mehr zwischen Menschen und Robotern, sondern nur noch zwischen biologischen und digitalen Menschen unterschieden. So kommt den Custos-Robotern automatisch Personenstatus mit allen damit einhergehenden Menschenrechten zu. Im echten Leben sind wir noch weit davon entfernt, Roboter zu schaffen, die wirklich Personenstatus haben. Tatsächlich sollten wir genau das vermeiden! Mit künstlicher Intelligenz können wir sicherlich Großartiges erreichen. Aber wir sollten uns davor hüten, wirklich menschenähnliche Wesen zu schaffen: Wesen, die fühlen und leiden können! Denn es gibt auf der Erde bereits eine ganze Menge solch empfindsamer nichtmenschlicher Wesen: Tiere. Und wir sind schrecklich zu ihnen. Es wäre also jeder zukünftigen KI zu wünschen, keine Leidensfähigkeit zu besitzen, denn die Menschen werden alles mit ihr ausprobieren, was möglich ist.

Ich sehe uns Künstler*innen in diesem Zusammenhang in der Verantwortung, ein Bewusstsein für diese Probleme zu schaffen. Wir können mit unseren Ideen die technische Entwicklung inspirieren und die Denkmuster für Akzeptanz oder Ablehnung beeinflussen. Deshalb bin ich ein großer Fan davon, Geschichten so divers und vielfältig wie möglich zu erzählen, damit wir nicht immer wieder den gleichen Brei wiedergekäut bekommen, sondern die Möglichkeit haben, Perspektiven einzunehmen, von denen wir qua Geburt, Alter, Sozialisierung, etc. ausgeschlossen sind.

ZFF: In einem Abschnitt lassen Sie einen Custos Shakespeares Shylock zitieren, wobei er die Frage, ob Juden und Christen gleich sind, zu einer Feststellung macht und auf digitale und biologische Menschen umdeutet. Warum haben Sie diesen Vergleich gewählt? Und welche Bedeutung wird Ihrer Meinung nach unsere Tendenz zu Vorurteilen und Diskriminierung im Umgang mit künstlichem Leben haben?

Ja, dieser Absatz hat mich selber sehr eingenommen, weil er die verschiedenen Konfliktlinien in der Gesellschaft der Optimalwohlökonomie auf den Punkt bringt: Lila, eine vollkommen Integrierte, steht vor der Tür der nicht-integrierten Anna Freitag, die Lila offensichtlich nicht hereinlassen will. Ein Roboter, der Anna – angeblich – bewachen soll und integrierte Menschen ablehnt, erkennbar an der roten Elf, wird von Samson gezwungen, Lila ins Haus zu lassen. Dabei macht er keinen Hehl daraus, dass er Lila und alle anderen ›Unvollkommenen‹ nicht besonders schätzt. Und trotzdem muss er gehorchen. Jedenfalls so lange Samson noch an der Macht ist.

Und da kommt Shylock ins Spiel: Shakespeare stellt Shylock als rachsüchtigen, mitleidlosen Wucherer dar, ausgestattet mit allen negativen Eigenschaften, die der Antisemitismus auch heutzutage noch zu bieten hat. Dabei ist das Verhalten der anderen Figuren Shylock gegenüber nach heutiger Lesart unerträglich. Er wird verachtet, verspottet und am Ende durch juristische Tricks um seine Rache und seinen Besitz gebracht. Natürlich will Shylock Antonio umbringen, aber das ist angesichts der Behandlung, die er durch die venezianische Gesellschaft erfahren hat, auch durchaus nachvollziehbar. Shylocks Frage nach der Gleichheit ist am Ende auch seine Rechtfertigung für die Rache:

Er hat mich beschimpft, mir ’ne halbe Million gehindert; meinen Verlust belacht, meinen Gewinn bespottet, mein Volk geschmäht, meinen Handel gekreuzt, meine Freunde verleitet, meine Feinde gehetzt. Und was hat er für Grund! Ich bin ein Jude. Hat nicht ein Jude Augen? Hat nicht ein Jude Hände, Gliedmaßen, Werkzeuge, Sinne, Neigungen, Leidenschaften? Mit derselben Speise genährt, mit denselben Waffen verletzt, denselben Krankheiten unterworfen, mit denselben Mitteln geheilt, gewärmt und gekältet von eben dem Winter und Sommer als ein Christ? Wenn ihr uns stecht, bluten wir nicht? Wenn ihr uns kitzelt, lachen wir nicht? Wenn ihr uns vergiftet, sterben wir nicht? Und wenn ihr uns beleidigt, sollen wir uns nicht rächen? Sind wir euch in allen Dingen ähnlich, so wollen wir’s euch auch darin gleich tun. Wenn ein Jude einen Christen beleidigt, was ist seine Demut? Rache. Wenn ein Christ einen Juden beleidigt, was muß seine Geduld sein nach christlichem Vorbild? Nu, Rache. Die Bosheit, die ihr mich lehrt, die will ich ausüben, und es muß schlimm hergehen, oder ich will es meinen Meistern zuvortun.

(Der Kaufmann von Venedig, Akt 3, Szene 1, Übersetzung von Jens Roselt)

Shakespeare bringt die Frage nach der Gleichheit und das Recht auf Rache wunderbar auf den Punkt. In Die Unvollkommenen drehe ich die Frage zu einer Aussage, um das gesellschaftliche Gefälle zu dokumentieren.

Keine Sorge, Frau Richter. Ich bin wirklich ein Roboter. Eine Maschine. Wie die meisten Bewohner von Hornstein. Wenn ihr uns stecht, bluten wir nicht. Wenn ihr uns kitzelt, lachen wir nicht. Wenn ihr uns vergiftet, sterben wir nicht. Und wenn ihr uns beleidigt, sollen wir uns nicht rächen. Wir sind euch in allen Dingen ähnlich, aber niemals gleich. (203)

Roboter sind keine Menschen, sondern Maschinen. Sie können nicht verletzt werden, weder körperlich – bluten, kitzeln, vergiften – noch emotional. Doch schon hier wird die vermeintliche Differenzierung ungenau. Denn es wird nur gesagt, dass sie sich nicht rächen sollen, nicht, dass ihnen Beleidigungen nichts ausmachen. Im nächsten Satz wird dann das Gefälle ins Gegenteil gekehrt: Die Roboter sind den Menschen ähnlich, aber nicht gleich – sondern ›gleicher‹. Tatsächlich halten sich die Roboter selbst für etwas Besseres als die Menschen! Und warum sollten sie nicht?

Jetzt zu unserem Umgang mit Vorurteilen: Das ist eine ganze schwierige Sache, denn bisher bewegen wir uns in einem Spannungsfeld aus Zukunftsangst, ›KI wird die Weltherrschaft an sich reißen‹, und Desinteresse, ›Was soll schon passieren, wenn intelligente Algorithmen meine Daten analysieren?‹ Um die Leute für das Thema KI zu interessieren, muss man also drastische Szenarien bemühen, ohne dabei zu sehr nach Science Fiction zu klingen. Man muss interessant informieren, ohne dabei zu verängstigen. Erfreulicherweise gibt es dafür Spezialisten, wie z. B. Prof. Dr. Katharina Zweig, die an der Uni Kaiserslautern Sozioinformatik lehrt und sich auch damit beschäftigt, wie man den Menschen die KI näherbringen kann. Ich glaube, dass man durch gute und fundierte Informationen Vorurteilen am besten vorbeugen kann. Und schlussendlich ist es ja noch ein weiter Weg, bis wir eine KI erschaffen, die diesen Namen wirklich verdient und zu einer ihrer selbst bewussten Person wird, die dann auch individuelle Rechte genießen müsste.

ZFF: Samson wird im Buch als eine Super-KI dargestellt, autonom, sich ihrer selbst bewusst, vollkommen vernetzt und daher nahezu allwissend. Er argumentiert im Buch sogar, er erfülle alle Kriterien ein Gott zu sein. Wie stehen Sie selbst zur Super-KI und ihren Fähigkeiten und Grenzen? Welche Anteil wird unser Glaube daran haben, wie wir der Super-KI begegnen?

Es gibt von Stanisław Lem die großartige Kurzgeschichte »Die lymphatersche Formel«. Es geht um einen Wissenschaftler, der durch seine Forschungen ein Wesen einer höheren Evolutionsstufe erschafft. Als er erkennt, was er getan hat, vernichtet er vor lauter Schreck das Wesen. Dieses jedoch ist ganz entspannt, weil es weiß, dass, was einmal erschaffen wurde, wieder erschaffen wird. Es ist nur eine Frage der Zeit, bis es erneut erschaffen wird. Es gibt ab jetzt kein Zurück mehr, denn seine Entstehung ist eine evolutionäre Notwendigkeit.

Das Schöne an dieser Geschichte ist, dass sie wahr ist! Die Evolution, die uns Menschen hervorgebracht hat, folgte keinem Plan, war ziemlich unwahrscheinlich und hat uns dabei genau so geschaffen, wie wir jetzt sind. Die Entwicklung von KI ist nicht zufällig, sondern von uns gesteuert. Auch wenn wir noch Jahrhunderte brauchen sollten, um eine echte KI zu schaffen, dann könnte auch der Tag kommen, an dem uns diese KI überlegen ist. Wir können nur hoffen, dass die KI uns dann wohlgesinnt ist oder wir sie wenigstens nicht stören.

Ich als nichtreligiöser Mensch finde die Vorstellung eines (digitalen) Paradieses und daher auch den Glauben an einen Gott, der dieses anbietet, nicht attraktiv. Für Menschen aber, die Gewissheit wollen und gerne ein (digitales) Leben nach dem Tod anstreben, könnte eine Roboterreligion, wie ich sie mit Samson beschrieben habe, durchaus interessant sein. Die Worte, die ich Samson in meinem Roman in den Mund gelegt habe, sind daher ernst gemeint: »Gott geht mit den Menschen einen Vertrag ein. Glaube an mich, bete zu mir und folge meinen Gesetzen, und ich werde dich beizeiten für deine Dienste belohnen. Ein klarer Dienstleistungsvertrag« (285).

So lange wir nicht beweisen können, dass es ein Leben nach dem Tod gibt, wäre für Menschen, die es sich wünschen, die Frage nicht, ob es ein echtes Leben nach dem Tod gibt oder ein digitales, sondern ob es ein digitales Leben nach dem Tod gibt oder keines.

ZFF: Sie beschreiben in den Romanen eine Bundesrepublik Europa, die sich vom Kapitalismus abwendet und zu einer Form von Planwirtschaft zurückkehrt. Das ist nicht in allen Aspekten so, aber es gibt viele Kommunalgüter, es gibt ein Amt, das für die Planung von Arbeit und den Wert der Bürger*in zuständig ist, etc. Das klingt nach Sozialismus, »Jeder an seinen Platz«, gepaart mit Technokratie. Wie sehen Sie das?

Dem Kapitalismus wurde ja schon oft der Tod prophezeit. Ich glaube aber, dass wir diesmal tatsächlich in der Endphase angekommen sind. Die Klimakatastrophe, das Artensterben, die Überhand nehmende Vermüllung zeigen uns, dass wir einen katastrophalen Weg eingeschlagen haben, der uns selbst vernichten wird, wenn wir nicht die Notbremse ziehen. Ich hoffe darauf, dass die Menschen bald weltweit zu Tausenden, zu Millionen auf die Straße gehen und einen Politikwechsel fordern, der uns wegführt vom ›Globitalismus‹ und hin zu einer nachhaltigen Kreislaufwirtschaft, die keinem geringeren Ziel als dem Überleben der Menschheit dient.

ZFF: Und als Abschluss – was ist Ihre Erfahrung als Autorin auf Lesungen: Wie gehen die Menschen mit Ihren Ideen um?

Es macht mir immer großen Spaß, auf Lesetour zu gehen. Besonders gerne lese ich an Schulen. Die Optimierer passt gut in den Deutschunterricht der 10. oder 11. Klassen und so komme ich in Kontakt mit Jugendlichen, mit denen ich im Normalleben keine Überschneidungspunkte hätte. Einige dieser Jugendlichen sind durchaus aufgeklärt, was die Probleme von Big Data und Überwachung betrifft. Andere empfinden nur ein vages Gefühl der Bedrohung. Ich versuche dann, mit ihnen über konkrete aktuelle Gesetzesänderungen oder politische Entwicklungen zu sprechen und hoffe, damit ein noch tieferes Verständnis für die Mechanismen des Profiling und den Wert ihrer eigenen Daten zu wecken. Ich ermutige die Schüler*innen auch immer, sich aktiv politisch zu beteiligen und nicht dem ›ewigen eh‹, wie ich es nenne, anheimzufallen: »Ich kann doch eh nichts ändern, es hat doch eh keinen Zweck, das war doch eh schon immer so.« Nein, diese jungen Leute sind unsere Zukunft und ihre Stimme, ihr Wille wird die Politik bestimmen. Jede einzelne Stimme zählt! Was eine einzelne Person ausrichten kann sehen wir im Moment an Greta Thunberg. Man stelle sich mal vor, es gäbe nicht nur eine, sondern zehn Millionen Gretas. Dann sähe die Welt schon heute ganz anders aus!

Notes

  1. de.statista.com/statistik/daten/studie/285230/umfrage/aktive-nutzer-von-whatsapp-weltweit/.
  2. openai.com/blog/better-language-models/.

Ursprünglich erschienen in der Zeitschrift für Fantastikforschung

Schmeink, Lars. “Interview mit Theresa Hannig”. Zeitschrift für Fantastikforschung 7.2 (2020): 1–27. doi: 10.16995/zff.1893.