„Du wirst sehen, in zehn Jahren wird es so etwas wie künstliche Intelligenz geben!“, sagte neulich begeistert mein Freund Jürgen, ein passionierter Computerfreak. „Ich glaube nicht“, antwortete ich. „Aber wenigstens gibt es so etwas wie künstliche Dummheit schon ziemlich lange …“
Tatsächlich bin ich davon überzeugt, dass der intelligente Roboter immer ein Running Gag aus dem Silicon Valley bleiben wird. Denn Denken ist eben keine simple Rechenaufgabe. Es spricht sogar vieles dafür, dass es das genaue Gegenteil ist. Dazu ein kleines Beispiel. Vervollständigen Sie bitte den folgenden Satz:
Der Ameisenbär hat eine sehr lange
A) Zunge
B) Reise von Afrika durchgestanden
C) Drogenabhängigkeit hinter sich.
Kein Computer der Welt ist fähig, Antwort C auszuschließen (wobei ich nicht weiß, ob Ameisenbären vielleicht nicht doch einen Hang zu Crystal Meth haben). Computer haben keinerlei Gefühl für Absurdität und Sinnhaftigkeit.
Der Zukunftsforscher Matthias Horx glaubt, dass intelligentes Verhalten vor allem eine Anpassungsreaktion auf Gefahren, Angst, Bedrohungen und Verzweiflung ist. Um künstliche Intelligenz herzustellen, müssten wir demnach Robotern diese Emotionen beibringen. In letzter Konsequenz müssten sie sterblich sein. Und aus dieser Not heraus könnten sie dann eventuell so etwas wie Intelligenz entwickeln.
1997 schlug der IBM-Rechner Deep Blue den amtierenden Schachweltmeister Garri Kasparow. Schon damals wurde davon gesprochen, dass Computer nun intelligenter seien als Menschen. Und tatsächlich sah es so aus. Im zweiten von sechs Spielen machte Deep Blue einen vollkommen unberechenbaren, für einen Computer untypischen Zug. Er opferte ohne Not eine Figur. Kasparow verwirrte das dermaßen, dass es ihn den Sieg gekostet hat. Er glaubte nämlich, dass Deep Blue ein kreativ-menschliches Verhalten an den Tag legte. Damit konnte er nicht umgehen. Die Ironie an der Geschichte: Der Zug des Schachcomputers basierte auf einem Programmierfehler, wie man später herausfand. Deep Blue war zu dem Zeitpunkt nicht in der Lage, einen guten Zug vorauszuberechnen und wählte daraufhin eben einen sinnlosen, zufälligen aus. Ein Computer-Bug ist für den größten Erfolg der Computergeschichte verantwortlich. Bei Microsoft basiert das Geschäftsmodell sogar auf Programmierfehlern!
Computer mögen unser Leben mehr und mehr beeinflussen. Im Guten wie im Schlechten. Doch wirklich „intelligent“ sind sie nicht. Denn sie können sich keine eigenen Ziele setzen. Erkundungsfahrzeuge auf Himmelskörpern sind zwar inzwischen fähig zu improvisieren und eigenständig neue Fahrt-
routen zu finden, aber sobald alle ihre Aufgaben abgearbeitet sind, für die sie programmiert wurden, wissen sie nicht mehr, was sie tun sollen. Sie haben keine Fantasie. Und für ethische Fragestellungen haben sie erst recht kein „Gespür“. Unter diesem Gesichtspunkt ist es durchaus heikel, wenn man den Maschinen mehr und mehr Entscheidungsbefugnisse zutraut. Was werden wir in Zukunft mit Personen tun, bei denen ein Computer errechnet, dass sie mit 80-prozentiger Wahrscheinlichkeit einen Terroranschlag verüben werden? Ist es moralisch vertretbar, wenn unsere Krankenversicherung die Tarife individuell gestaltet und sich dabei an einer Gesundheits-App orientiert, die detailliert unseren Lebenswandel überwacht? Sollte ein abstrakt errechneter Scoring-Wert darüber entscheiden, ob ein junges, ehrgeiziges Start-up-Unternehmen einen Kredit erhält?
Auf all diese Fragen können Computer eine Antwort liefern. Ob richtig oder falsch, interessiert die Maschine nicht.