„Können Computer denken?“


Von Heinz Hauffe

„Wenn Computer wenigstens dumm wären“
(John Skcurd)

Abstract

Seit die „programmgesteuerten Ziffernrechenmaschinen“ (wie die Computer zunächst hießen) erfunden wurden, gibt es Debatten, ob dieselben denken können. Anhand punktueller Beispiele wird dieser Frage nachgegangen, wobei herauskommt, dass Computer der derzeitigen Generation nicht denkfähig sind. Ob sie aber prinzipiell nicht denken können, ist eine heiß umstrittene, jedoch bisher noch nicht entschiedene Frage.

Zur Einleitung ein paar Beispiele

 
Beispiel 1: Schach und Go

Mitte der 80er-Jahre des letzten Jahrhunderts spielte ich sehr gerne Schach mit dem Programm Chess 4.7 der Northwestern University, dem damaligen Weltmeister unter den Schachprogrammen. Natürlich ohne optischen Aufputz – keine Dame lachte hämisch, wenn sie einen schluchzenden Bauern schlug. Die Partie lief streng linear, auf meinem Schreibtisch stand ein handliches Schachbrett, am Bildschirm erschien die codierte Zugfolge nach dem Muster e2–e4.

Das Programm sparte auch nicht mit Kommentaren, als da waren „be careful“, „oh, you had that“ oder – wenn ich einen Zug verpatzte – „that was easy“. Mehr aber nicht. Zunächst hatte ich den Eindruck von einem intelligenten Gegenüber, dem ich zubilligte, den Turing-Test[1] bestanden zu haben, bis ich nach meinem einzigen Remis mit dem Programm aussteigen wollte: Auf „bye“, „logout“ etc. antwortete Chess 4.7 stets mit „illegal move“. Die stereotypen Reaktionen des Computers ließen jedenfalls nur den Schluss zu, dass er, wenn er denken könnte, unter chronischem paranoiden Querulantenwahn leide.

Dabei waren Schachprogramme ja sozusagen die „Drosophila“ der Künstlichen Intelligenz (so wie diese in Haushalten oft als lästig empfundene Fliege der Genetik dienlich war). Ein Schachprogramm ist übersichtlich: Jeder Figur wird ein bestimmter Wert zugeordnet, ebenso jeder Stellung, entsprechend dem Wert der bedrohten Figuren. Die Anzahl möglicher Züge ist endlich, ergo lassen sich Vor- und Nachteile der Züge berechnen, insbesondere wenn das Programm bereits mögliche Gegenzüge mit einkalkuliert (Keil, A. 1974).

Inzwischen sind die Schachprogramme sehr verbessert worden: Deep Blue gelang es 1996 als erstem Computer der Welt, den amtierenden Schachweltmeister Garri Kasparow zu schlagen.

Dagegen scheint das japanische Brettspiel Go, dessen Prinzip in einer Umzingelung gegnerischer Steine besteht, resistent gegen eine etwaige Programmierung zu sein (Brown, D., Dowsey, S. 1979). Die Stellungen sind nur dem menschlichen Auge verständlich, die Anzahl möglicher Setzungen von Steinen unüberschaubar. Selbst die Mustererkennung scheint hier zu versagen. Erst nach einer Vorgabe von sechs Steinen konnte ein Go-Programm gegen einen professionellen Spieler gewinnen.

 
Beispiel 2: „Machina speculatrix“

Die „Machina speculatrix“ (W. G. Walter 1963, S. 92–107) ist eine „elektronische Schildkröte“, ausgestattet mit einem Motor, einem Steuerungsmechanismus und einer Photozelle. Bei starkem Licht gibt es einen negativen Phototropismus, bei schwachem Licht einen positiven. Eine Kopflampe schaltet sich aus, sobald Licht auf die Photozelle trifft. Dadurch werden Hindernisse umfahren und bei schwacher Batterie Stromquellen aufgesucht.

Unvorhergesehen war das Verhalten der Machina speculatrix vor einem Spiegel: Sie trippelt davor herum wie ein Narziss – eine Simulation von Selbsterkenntnis?

 
Beispiel 3: Umgang mit Texten

Die urspünglich euphorischen Erwartungen an computererzeugte Übersetzungen (ab etwa 1952, vgl. Taube, M. 1966, S. 27–45) sind in den letzten Jahrzehnten erheblich gedämpft worden. Die Textqualität reicht an Humanübersetzungen bisher nicht heran. Lediglich Texte aus isolierten Fachgebieten lassen sich mit befriedigender Qualität maschinell übersetzen (etwa Texte mit Wetterdaten). Gleichwohl können maschinengenerierte Übersetzungen als Grundlage für die Weiterverarbeitung durch Humanübersetzer dienlich sein.

Grundlage der Übersetzungsprogramme sind zweisprachige Wörterbücher oder Terminologiedatenbanken und Grammatikmodule (Syntaxanalysatoren oder „Parser“), von deren Güte die Qualität der übersetzten Texte entscheidend abhängt.

Ein Test des u.a. von AltaVista angebotenen Übersetzungdienstes Systran (Hauffe, H. 1998) ergab holprige, aber durchaus verständliche Texte. Eine Kostprobe: Der Versuch, den Satz

  • „Sorry, the page you requested has moved“ übersetzen zu lassen, zeitigte als Ergebnis
  • „Traurig, ist die Seite, die Sie angefordert haben, bewogen worden“.

Wieder zeigt sich hier, dass der Computer nicht mitgedacht hat. Er suchte enfach im Wörterbuch „sorry“ auf und fand „traurig“. Dass die Redewendung auch „bedaure“ heißen könnte, war nicht abgespeichert. Erheiternd sind auch Versuche mit der „Stillen Post“, wenn etwa ein Text x-mal übersetzt, zurückübersetzt usw. wird (Geisel, S. 2001). Der Gratisübersetzer Babelfish lieferte z. B. aus dem Satz

  • „Das Wetter drückt auf die Zürcher Feststimmung“ nach x Durchläufen die Rückübersetzung
  • „Die Wetterseite Durchlauf für die geregelte Tendenz der Einwohner Zürich“ (hier stimmt nicht einmal mehr die Grammatik).

Menschliche Übersetzungen etwa in Gebrauchsanweisungen oder Speisekarten sehen allerdings oft auch nicht besser aus!

Die Crux all dieser Übersetzungsprogramme besteht darin, dass sie, um perfekt zu sein, eigentlich ein „Weltwissen“ benötigten, was fast nicht machbar ist. Sollte man sich eher an die sarkastische Bemerkung Jean Pauls halten, der da meint: „Wer übersetzt werden kann, verdient nicht übersetzt zu werden“?

Dabei können Computer durchaus zur Erzeugung von Texten herangezogen werden. Ein Programm, dem die generative Grammatik (Chomsky, N. 1969) zugrundeliegt, in dem die Satzstruktur per Zufallsgenerator erzeugt wird und dem ein Vokabular zur Verfügung gestellt wird, produziert z. B. folgende Sätze (Hauffe, H. 1972; vgl. Adrian, M. 1969):

  • (Heidegger): „Der Sinn verwirft das existenziale Wesen“; „Die eigentliche verborgene Freiheit verbirgt die Zeitlichkeit“; „Das Dasein der Realität birgt die Form“. …
  • (Surrealismus): „Die süchtige Blume ergibt sich der Fee“; „Der Stern liebt erregt und ewig den Baum“; „Die Nacht trotzt dem glücklichen weißen Feuer“. …
  • (Psychoanalyse): „Der Vater reagiert mit der phallischen unbewußten oralen Energie“; „Der Liebesverlust symbolisiert die Libido mit dem unbewußten Todestrieb“; „Das Kind identifiziert schuldhaft das autoerotische Trauma mit dem Überich“…

Natürlich versteht der Computer diese Sätze nicht, zumal er nichts Vergleichbares gespeichert hat. Man könnte Maschinen zubilligen, etwas zu „verstehen“, wenn man dem Vorschlag H. Schleicherts (1971) folgt:

„Verstehen ist ein Einordnen, Eingliedern von Information (bzw. von Zeichenfolgen) in ein bereits vorhandenes System von Informationen (bzw. von Zeichenfolgen).“

Eine plötzliche Redundanzerhöhung dieses Systems käme dann einem „Aha-Erlebnis“ gleich.

Simulierung von Denkpozessen

Es gibt Maschinen, die sich so verhalten, „als ob“ sie denken würden. Fiktionen oder Annahmen, deren Unmöglichkeit oder Unwahrscheinlichkeit feststeht, können dennoch gute Dienste leisten (vgl. Vaihinger, H.).

Die Wissenschaft, die sich mit der Frage befasst, ob Maschinen denken können oder nicht, ist die „Künstliche Intelligenz“ (oft auch im Deutschen als „Artificial Intelligence“ bezeichnet, da „Intelligence“ im Englischen auch „Ermittlung“ bedeutet).

„Künstliche Intelligenz“ kann bezeichnet werden als

  • Wissenschaft der Anführungszeichen (Computer rechnen, suchen, vergleichen, „denken“, „dichten“, sondern Lyrik ab).
  • Wissenschaft, Maschinen zu veranlassen, Dinge zu tun, die Intelligenz erfordern würden, wenn sie vom Menschen getan werden (Marvin Minsky).
  • Entwicklung einer systematischen Theorie der intellektuellen Prozesse (Donald Michie), also einer Enttabuisierung des Geistes.

Denken ist „das innerliche, aktive Schalten und Walten mit den eigenen Vorstellungen, Begriffen, Gefühls- und Willensregungen, Erinnerungen, Erwartungen usw. mit dem Ziele, eine zur Meisterung der Situation brauchbare Direktive zu gewinnen… Denken besteht also in einem stetigen Umgruppieren aller möglichen Bewusstseinsinhalte und einem Herstellen bzw. Unterbrechen von Verknüpfungen zwischen diesen, wobei sich eine Folge von Inhalten ausgliedern kann, die eine vergleichsweise feste Form annimmt und „Gedanke“ genannt werden kann (Kröners Wörterbuch der Philosophie, s. v. „Denken“, S. 101).

Wenn man in obiger Definition des Denkens „Bewusstseinsinhalte“ durch „Zeichenketten“ ersetzt, wäre von einem behavioristischen Standpunkt aus die Frage „Können Maschinen denken?“ zu bejahen.

Die Methode des Vergleichs von Zeichenketten kann erstaunlich produktiv sein. ELIZA, ein Programm von Joseph Weizenbaum (vgl. Hofstadter, D. R. 1985, S. 638–639), spielt die Rolle eines Psychotherapeuten und produziert anhand eines Vorrats von einigen hundert Schlüsselwörtern „intelligente“ Sätze, z. B.

  • „Mutter“ – „Erzählen Sie mir mehr von Ihrer Familie“
  • „deprimiert“ – „Es tut mir leid, dass Sie unglücklich sind“

Patienten ließen sich auch nach ihrer Aufklärung die Illusion eines beseelten Partners nicht rauben.

Gehirn und Computer: Analogien und Ähnlichkeiten

Ist es zulässig, „Bewusstseinsinhalte“ durch „Zeichenketten“ zu ersetzen? Ein Blick auf das physikalische Substrat möge hier hilfreich sein:

Gehirn

Computer

Neuronen

Chips, elektronische Bauelemente

elektrochemische Signale

elektromagnetische Signale

Kohlenstoff, Sauerstoff, Wasserstoff, Kalium, Natrium etc. 

Silizium, Germanium, Kupfer etc.

Ionen, Atome

Ionen, Atome

Protonen, Neutronen

Protonen, Neutronen

Elektronen

Elektronen

Sollte die Identität der kleinsten Bestandteile von Gehirn und Computer ein Indiz dafür sein, dass Computer „im Prinzip“ denken können? Die Abläufe in Computern der derzeitigen Generation sind meist linear, sequenziell und unflexibel, doch Neurocomputer verarbeiten Daten parallel und assoziativ und werden gehirnähnlicher. Künstliche neuronale Netze sind Modelle der natürlichen neuronalen Netze, aber nicht mehr.

Der gravierendste Unterschied besteht jedoch darin, dass das Gehirn ein Überlebensorgan ist; Denken dient also der Selbsterhaltung des Lebewesens. Laut Vaihinger ist also das Gehirn eigentlich für reines theoretisches Denken untauglich.

Dreyfus argumentiert, dass, um ein Gerät mit menschenähnlicher Intelligenz zu erhalten, es erforderlich wäre, ihm eine menschenähnliche Existenz in der Welt zu geben. Ein solches Gerät braucht einen Körper, ähnlich zu unserem, und eine soziale Kultur (etwa eine Gesellschaft) ähnlich zu unserer. Maschinen stehen nicht im Kampf ums Dasein, da die Betriebsmittel von ihren Erfindern und Erbauern bereitgestellt werden. Wenn Computer selbst um ihr Dasein sorgen müssten, etwa selbst nach Steckdosen suchen müssten, würden die internen Vorgänge in ihnen noch denkähnlicher werden.

Fazit

Die Erforschung der intellektuellen Prozesse hat zwar einige Fortschritte zu verzeichnen, doch endgültige Ergebnisse gibt es noch nicht. Vielleicht bringt das internationale „Human Brain Project“ (Shepherd G. M. et al: 1998, Nelson. M. E. 2011) doch Annäherungen in diese Richtung? Das Ziel ambitioniert zu nennen, ist zurückhaltend: Das Projekt will nichts weniger, als das menschliche Gehirn in einem Computer modellieren.

Berührungspunkte zu weltanschaulichen Fragen (etwa „Unsterblichkeit der Seele“?) mögen hier bremsend wirken. Dabei darf sich die Forschung nicht von einer „Placeboangst“ beeinflussen lassen, die sich dagegen sträubt, dass lieb gewordene Denkschemata als Illusionen erkannt und über Bord geworfen werden müssen.

Literatur

Adrian, M.: Computer texts. In: Reichardt, J.: Cybernetic Serendipity. New York 1969, S. 53–54

Brown, D. /Dowsey, S.: The challenge of Go. In: „New Scientist“, 81 (1979), S. 303–305

Dick, E.: Arbeitsweisen der Künstlichen Intelligenz. In: „InfoTech“, Dez. 1989, S. 6–14

Domke, M.: Neurocomputer. In: „InfoTech“, Dez. 1989, S. 15–24

Dreyfus, H. L.: Die Grenzen künstlicher Intelligenz. Was Computer nicht können. Bodenheim 1991 (What Computers Can‘t Do, 1972)

Geisel, S.: Der Traum von der Abschaffung der Wörter. Das Pfingstwunder und die babylonische Sprachverwirrung im Zeitalter des Internets. In: „Neue Zürcher Zeitung“, 16. Juli 2001, S. 23

Hauffe, H.: Generative Grammatik. Unveröff. Ms. 1972

Hauffe, H.: AltaVista-Übersetzungsdienst. In: „Online-Mitteilungen“, Nr. 62 (1998), S. 3–5

Hofstadter, D.R.: Gödel, Escher, Bach. Stuttgart 1985

Keil, A.: Computerprogramm zum Schachspielen. In: „Elektronik“, 23 (1974), S. 477–482

Kröners Wörterbuch der Philosophie. Stuttgart 1968

Leidlmair, K.: Künstliche Intelligenz und Heidegger. Über den Zwiespalt zwischen Natur und Geist. München 1991

Nelson, M.E.: Electrophysiological models of neural processing. In: „Wiley Interdisciplinary Reviews – Systems Biology ans Medicine“, 3 (2011), S. 74–92

Rojas, R.: Theorie der Neuronalen Netze. Eine systematische Einführung. 4. korrigierter Nachdruck. Berlin u. a. 1996

Schleichert, H.: Verstehen – Versuch eines Modells. In: Diemer, A. (Hrsg.): Der Methoden- und Theorienpluralismus in den Wissenschaften. Meisenheim 1971, S. 74–95.

Shepherd, G. M. et al.: The Human Brain Project: neuroinformatics tools for integrating, searching and modeling multidisciplinary neuroscience data. In: „Trends in Neurosciences“, 21 (1998), S. 460–468

Taube, M.: Der Mythos der Denkmaschine. Reinbek 1966

Turing, A.: Kann eine Maschine denken? In: „Kursbuch“, 8 (1967), S. 106–138

Vaihinger, H.: Die Philosphie des Als-Ob. Berlin 1911

Walter, W.G.: Das lebende Gehirn. München 1963

Anmerkung

[1] Der Turing-Test wurde 1950 von Alan Turing vorgeschlagen, um festzustellen, ob eine Maschine ein dem Menschen gleichwertiges Denkvermögen hat. Im Zuge dieses Tests führt ein menschlicher Fragesteller über eine Tastatur und einen Bildschirm ohne Sicht- und Hörkontakt mit zwei ihm unbekannten Gesprächspartnern eine Unterhaltung. Der eine Gesprächspartner ist ein Mensch, der andere eine Maschine. Beide versuchen, den Fragesteller davon zu überzeugen, dass sie denkende Menschen sind. Wenn der Fragesteller nach der intensiven Befragung nicht klar sagen kann, welcher von beiden die Maschine ist, hat die Maschine den Turing-Test bestanden, und es wird der Maschine ein dem Menschen ebenbürtiges Denkvermögen unterstellt (© Wikipedia). Vgl. Turing, A. 1967.

Bearbeitungsstand: Donnerstag, 27. September 2012

Mit Unterstützung von:

Verweis in neuem Fenster öffnen

Ja, senden Sie mir die GENIUS-Briefe gratis zum Kennenlernen an diese meine E-Mail-Adresse:

Mir ist bekannt, dass ich obige Zusendung jederzeit stornieren kann. Dazu muss ich nur auf die letzte Zeile in jedem GENIUS-Brief klicken.
Meine E-Mail-Adresse wird nur für Versandzwecke gespeichert.
 

 
Genius – Gesellschaft für freiheitliches Denken, Verein mit Sitz in Wien. ZVR 127778490
c/o Mag. Erich Wachernig, Hegergasse 3/7, 1030 Wien, Telefon +43/0/650 7982 151, EMail: verein@genius.co.at
Wiedergabe von Genius-Lesestücken nur mit Zustimmung der Genius-Gesellschaft