Wenn Ihr Computer eines Tages Menschenrechte und Taschengeld einfordert, was tun Sie dann? Richtig: Ausschalten, neu booten und hoffen, dass der Spuk vorbei ist. Sollte die Vision vom lebenden Computer jedoch tatsächlich Realität werden, dann hilft auch kein Virenscanner, denn dann stehen wir an einer neuen Stufe der Evolution.
Als relativ unwahrscheinlich darf gelten, dass Menschen den Schritt zum denkenden Computer bewusst beschreiten. Zwar mühen sich insbesondere Forscher im Bereich künstlicher Intelligenz (KI) seit einem halben Jahrhundert damit ab, Systeme zu entwerfen, die zumindest menschlich wirken. Marvin Minsky war keineswegs der erste, der 1970 als Leiter des KI-Labors am MIT verkündete: „Innerhalb von drei bis acht Jahren werden wir eine Maschine mit der allgemeinen Intelligenz eines durchschnittlich begabten Menschen haben.“ Das Datum verstrich, wie viele andere auch. Erfolge erzielten die Wissenschaftler lediglich in Teilgebieten, wie etwa bei der medizinischen Diagnose oder mit IBMs Deep Blue beim Schachspiel.
Doch die Anhänger der so genannten „starken“ KI glauben weiterhin an einen umfassenden Erfolg. So argumentierte im vergangenen Jahr Erfinder und Autor Ray Kurzweil: „Die Werkzeuge, über die wir verfügen, um das Gehirn nachzubilden, um das Gehirn zu scannen und um diese Prozesse zu simulieren, all dies verdoppelt sich jedes Jahr. Aus der Perspektive der 2020er bedeutet dies, dass es ein äußerst machbares Projekt ist.“
Der dauerhafte Optimismus rührt von der Überzeugung her, dass zur Erklärung geistiger Funktionen keine Voraussetzungen gemacht werden müssen, die über die Physik hinaus gehen. Sprich: Manche KI-Forscher glauben, Empfindungen wie Schmerz, Gefühle wie Liebe und Phänomene wie den freien Willen oder das Bewusstsein von sich selbst nachbilden zu können. Tatsächlich konnten Wissenschaftler wie Karl Steinbuch viele der Phänomene auf logisch kodierbare Ursachen zurückführen – negative Gefühle etwa als Stressreaktion auf den Mangel an notwenigen Ressourcen. Im Wesentlichen gilt jedoch, dass KI-Forscher bei der Erklärung menschlicher Eigenschaften wie dem Empfinden von Qualität oder dem Ursprung des Setzens von Zielen ähnlich im Dunkeln tappen, wie seit Jahrtausenden die Philosophen.
Es ist daher daher auf absehbare Zeit kaum vorstellbar, dass Forscher gezielt ein intelligentes, gar mit einem Bewusstsein ausgestattetes System erschaffen könnten. Auch das versehentliche Herbeiführen eines solchen Evolutionssprunges ist nicht allzu wahrscheinlich.
Ein mögliches Szenario wäre, dass die globale Vernetzung von miteinander kommunizierenden Programmen irgendwann zu einer nicht mehr kontrollierbaren Komplexität führt, bei der Quantität in eine neue Qualität umschlägt. Zu einem ähnlichen Umschlag könnte es kommen, wenn in Quantencomputern mehr als bislang acht Atome als so genannte Quantenbits (Qbits) zusammenarbeiten. Ab 300 Qbits lassen sich mehr Zahlen darstellen, als es Atome im Universum gibt, so das Institut für Quantenoptik und Quanteninformation (IQOQI) in Innsbruck. Hinzu kommt, dass die „unscharfe“ Logik von Quanten dazu führt, dass die Arbeitsweise entsprechender Computer bald nicht mehr nachvollzogen werden kann. Wer weiß, auf welche Ideen solche Rechner dann kommen?
Herr und Knecht
Sollte sich tatsächlich in irgendwelchen Systemen (Netz, Computer, Roboter, Softwareprogramm) Intelligenz oder Bewusstsein bilden, kann es sein, dass wir davon nichts merken. So ist es keineswegs abgemacht, dass ein solches System ähnliche Ziele verfolgen würde wie Menschen. Warum sollten körperlose Programme Freude an erotischen Darstellungen empfinden, an Gedanken über Essen oder an medizinischen Erkenntnissen? Was können ihm unsere Fragen nach dem Sinn des Lebens sagen? Was das Streben nach Geld und Erfolg?
Die Erwartungen, dass Computer sich ähnlich wie Menschen verhalten rührt zum einen daher, dass wir einen so engen Umgang mit ihnen pflegen, dass ein persönliches Verhältnis zu dem Gerät nicht ausbleibt. Es hat laut Sherry Turkle, in den 70er Jahren Psychologin und Wissenssoziologin am MIT auch damit zu tun, dass es der KI gelungen ist, das Konzept von Computerprogrammen, Rechnern und Speichern als allgemeines Erklärungsmuster für psychologische und neurologische Phänomene zu etablieren. Tatsächlich möchte ein intelligentes System vielleicht nicht viel mehr als einen regelmäßigen, aber schwachen Stromstoß und ist daher zufrieden, wenn wir es häufig aktivieren. Da uns eine solche Befriedigung verborgen bleiben würde, wäre es prinzipiell möglich, dass das Internet längst in einer unbemerkten Symbiose mit uns lebt.
Viele Science-Fiction-Romane durchzieht die Furcht, die Computer könnten sich aufgrund ihrer überlegenen Intelligenz zum Herren der Welt aufschwingen. Ob intelligente Systeme tatsächlich derartige menschliche Machtgelüste entwickeln würden, ist – wie gesagt – ungewiss. Klar ist nur, dass es schon heute schwierig wäre, darauf allein mit dem „Herausziehen des Steckers“ zu reagieren. Doch die Abhängigkeit von Computer und Internet ist nicht so groß, wie gerne behauptet wird. Einer Software-Intelligenz könnte man eventuell mit einem Bug-Fix beikommen. Schlimmstenfalls müssen Systeme isoliert und abgeschaltet werden. Solange unsere Industrie nicht auf rein automatischen Systemen beruht, bleiben uns mehr als genug Hebel, uns gegen machtlüsterne Computer zu wehren.
Eine andere Lösung bietet heute der Zukunftsforscher Ian Pearson an. Er geht davon aus, dass die Computer bis 2030 den Fähigkeiten des menschlichen Gehirns überlegen seien. Die bis dahin verbleibende Zeit sollten wir nutzen, um unser Gehirn (über Implantate) direkt mit den Systemen zu verbinden. Auf diese Weise sei es nicht nur möglich, die Systeme weiterhin zu kontrollieren, sondern sie darüber hinaus auch als Erweiterung unsere Fähigkeiten zu nutzen. Auf diese Weise könnten wir an der stürmischen Evolution der Computer teilhaben. Ähnliche Ideen vertrat in den 90er Jahren auch Marvin Minsky.
Am liebsten stellen sich Menschen intelligente Computer als Roboter vor, die ihnen folgsam dienen. Das Werkzeug, so der Traum, soll zu einem Sklaven mutieren, demgegenüber man aber kein schlechtes Gewissen zu haben braucht, weil es sich letztendlich um eine Maschine handelt.
Dieses Vorstellung ist von dem amerikanischen Physiker und Science-Fiction-Autor Isaak Asimov derart gründlich durchgespielt worden, dass seine Robotik-Gesetze auch in der Wissenschaft Anerkennung fanden. Ohne ernsthaft auf die Intelligenz oder möglicherweise vorhandene Gefühle Rücksicht zu nehmen, haben alle Roboter folgenden Gesetzen zu folgen:
1. Ein Roboter darf keinen Menschen verletzen, oder durch Untätigkeit zu Schaden kommen lassen.
2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem ersten oder zweiten Gesetz zuwiderläuft.
Asimov selbst ist auf eine Reihe von Unstimmigkeiten gestoßen. Dazu gehört, dass Roboter nach diesen Regeln unwissend sehr wohl Menschen schädigen können. Auch sind die Gesetze zu eng auf individuelle Situationen zugeschnitten. Der Autor hat daher das „Nullte Gesetz“ hinzugefügt, das besagt, dass ein Roboter die Menschlichkeit nicht durch Tat oder Unterlassung verletzen darf. Eine solche Vorschrift ist jedoch nicht wortgenau einzuhalten, da sie die Einsicht in alle langfristigen Folgen des eigenen Handeln voraussetzt.
Moderne Menschen stört am Asimovschen Konzept, dass intelligente,fühlende und uns in vieler Hinsicht überlegene Roboter auf die Dienerrolle festgelegt werden. Schließlich erfüllen solche Systeme bis auf die biologische Gattungszugehörigkeit alle Kriterien für Menschenrechte. Tatsächlich ist es oft eine Sache des gesellschaftlichen Willens, welchen Status man bestimmten Gruppen zubilligt. So wurde im 18. Jahrhundert heftig darüber diskutiert ob die Sklaven aus Afrika und die (edlen) Wilden in der Südsee unter die Menschen zu zählen seien.
Bürger Roboter
Autoren wie Stanislaw Lem plädieren daher für eine phänomenologischen Ansatz: Wenn ein Roboter sich wie ein Mensch verhält, dann soll er auch die Rechte und Pflichten eines Menschen erhalten. So sehr dieses Verfahren den Idealen einer offenen Gesellschaft entspricht, so schwer ist es zu etablieren. Lem dachte bei seinem Vorschlag vor allem an humanoide Roboter, weniger an PCs, Handys oder gar an komplexe Netze.
Die Folgen einer rechtlichen Gleichstellung wären dramatisch: Die Börsianer würden toben, wenn ein globales Computernetz eine Zulassung erhalten würde; Geschäftsleute müssten Rechner nicht nur kaufen, sondern auch entlohnen. Wie soll die Polizei im Netz prüfen, ob alle Systeme die Gesetze einhalten. Was geschieht zudem, wenn sich die Systeme uneins sind und einander bekriegen?
Kurz die Roboter und andere Computer würden auf allen Feldern mit den Menschen in Konkurrenz treten. Selbst wenn die Roboter und Computer es nicht wollen, stellt sich über kurz oder lang die Machtfrage. Warum sollten Computer es den Menschen allein überlassen, ob und welche Rechte ihnen „gnadenhalber“ eingeräumt werden.
Selbst wenn es gelingen sollte die in vieler Hinsicht überlegenen Systeme dauerhaft unter die Asimovschen Gesetze zu zwingen, würde dieses neue Knowledge-Worker-Proletariat allein durch seine Leistung die Gesellschaft grundlegend umwälzen. Das bedeutet: Sollten sich – gegen alle Wahrscheinlichkeit – tatsächlich intelligente mit Bewusstsein versehene Computer herausbilden, dann hat tatsächlich die nächste Stufe der Evolution begonnen. Wir werden damit fertig werden müssen.