DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

MEMO ZU: 6 THESEN ZUM LEBEN: KREATIVITÄT, KOOPERATION, KOMMUIKATION, MEHR ALS JETZT, SEXUALITÄT, DAS BÖSE – PHILOSOPHIESOMMER 2016 in der DENKBAR Frankfurt am So, 15.Mai 2016

Hier wieder ein kurzer Bericht zum Philosophiesommer 2016 in der Denkbar, Treffen am So 15.Mai 2016 (siehe die zugehörige Einladung)

Die Einleitung geriet etwas lang, vielleicht auch angesichts der vielen neuen Gesichter. Letztlich hielten wir aber unseren vorgeschlagenen Zeitplan ein. Sehr erfreulich war die breite Streuung der versammelten Kompetenzen, was sich dann in den Beiträgen widerspiegelte.

EINLEITUNG: SPANNUNGSFELD MENSCH – INTELLIGENTE MASCHINE

Ausgangspunkt war die spannungsvolle Diskussion vom letzten Treffen, bei dem zwar das Spannungsfeld Mensch einerseits, intelligente Maschinen andererseits, zur Sprache kam, wir uns aber nicht auf ein klares Thema für die Fortsetzung einigen konnten. Dies führte zur Formulierung von sechs Thesen zu Grundmerkmalen des biologischen Lebens, so wie sie sich am Beispiel des homo sapiens sapiens nach heutigem Kenntnisstand ablesen lassen. Diese Thesen sind gedacht als mögliche Orientierungspunkte für die weitere Diskussion des Spannungsfeldes Mensch – intelligente Maschinen.

STICHWORTE ZU INTELLIGENTE MASCHINEN

Analog zu den sechs Thesen zum biologischen Leben wurden ein paar Meilensteine zum Begriff der intelligenten Maschine in den Raum gestellt, an denen man das Reden über intelligente Maschinen fest machen kann.

STANDARD FÜR EINEN COMPUTER

Es wurde verwiesen auf den berühmten Artikel On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. Band 42, 1937, S. 230–265, von Alan Mathison Turing (19121954), in dem er im Kontext eines mathematischen Beweises ein einfaches Gedankenkonstrukt einführte, was später zu seinen Ehren Turingmaschine genannt wurde. Dieses Gedankenkonstrukt, die Turingmaschine, ist bis heute der gedankliche Standard, die Norm, für Fragen der Entscheidbarkeit von Problemstellungen in der Computerwissenschaft. Nach heutigem Kenntnisstand kann kein realer Computer mehr als dieses gedankliche Konstrukt genannt Turingmaschine (und dies gilt auch für alle denkbaren reale Computer der Zukunft).

INTELLIGENTE MASCHINEN

Es war auch dann Turing, der 1950, als es gerade erste Ungetüme von Computer gab, die noch nicht allzu viel konnten, die Frage diskutierte, ob Computer einmal so intelligent werden könnten wie ein homo sapiens sapiens (siehe: Computing Machinery and Intelligence. In: Mind. LIX, Nr. 236, 1950, ISSN  0026-4423, S. 433–460 ). Er räsonierte darüber, dass Computer, wenn sie genauso lernen dürften wie Kinder, eigentlich auch alles wissen könnten, wie Kinder. Auf dem Weg zur intelligenten Maschine sah er weniger technische Probleme, sondern soziale psychologische: Menschen werden Probleme haben, intelligenten lernende Maschinen neben sich in ihrem Alltag zu haben.

EMOTIONALE MASCHINEN

Einer der einflussreichsten und wichtigsten Wissenschaftler der künstlichen Intelligenzforschung, Marvin Minsky (1927 – 2016) veröffentlichte wenige Jahre vor seinem Tod ein Buch über die emotionale Maschine ( The Emotion Machine, Simon & Schuster, New York 2006). Es ist – formal gesehen – kein streng wissenschaftliches Buch, aber dennoch bedenkenswert, da er hier im Lichte seines Wissens durchspielt, wie man die menschlichen Erfahrungen von diversen Gefühlszuständen mit dem zu diesem Zeitpunkt bekannten Wissen über Computer rekonstruieren – sprich erzeugen – könnte. Er sieht in solch einem Projekt kein prinzipielles Problem.(Anmerkung: Es könnte interessant sein, dieses Buch zusammen mit Psychologen und Psychotherapeuten zu diskutieren (evtl. ergänzt um Gehirnforscher mit einem psychologischen Training)).

SUPERINTELLIGENZ UND WERTE

Einen weiteren Aspekt bringt der in Oxford lehrende Philosoph Nick Bostrom ins Spiel. In seinem Buch Superintelligenz (Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford 2014) sieht er bzgl. der Möglichkeit, super-intelligenter Maschinen grundsätzlich auch keine grundsätzliche Schwierigkeit, wohl aber in der Wertefrage: nach welchen Werten (Zielgrößen, Präferenzen) werden sich diese super-intelligenten Maschinen richten? Werden sie sich gegen den Menschen wenden? Kann der Mensch ihnen solche Werte einspeisen, die diese super-intelligente Maschinen dem Menschen wohlgesonnen sein lassen? Er selbst findet auf diese Fragen keine befriedigende Antwort. Auch wird durch seine Analysen deutlich (was Bostrom nicht ganz klar stellt), dass die Wertefrage grundsätzlich offen ist. Die Menschen selbst demonstrieren seit Jahrtausenden, dass sie keine Klarheit besitzen über gemeinsame Werte, denen alle folgen wollen.

SECHS THESEN ZUM BIOLOGISCHEN LEBEN

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Angesichts des zuvor skizzierten ungebrochenen Glaubens an die Möglichkeiten einer Superintelligenz bei gleichzeitigem ungelösten Werteproblem bei den Menschen selbst stellt sich die Frage, ob wir Menschen als späte Produkte des biologischen Lebens nicht doch Eigenschaften an und in uns tragen, die mehr sind als eine beliebige Meinung. Aus der Vielzahl der neuesten wissenschaftlichen Erkenntnisse zum biologischen Leben und zum homo sapiens sapiens hatte Gerd Doeben-Henisch sechs in Form von Thesen ausgewählt und der Diskussion vorangestellt.

1. KREATIVITÄT JENSEITS DES BEKANNTEN: Die Explosion des Lebens fand statt auf der Basis eines Erfolgswissens aus der Vergangenheit (repräsentiert im DNA-Molekül) ohne Wissen um die Zukunft. Inmitten eines Nicht-Wissens wurde nicht nur das erprobte Wissen aus der Vergangenheit genutzt, sondern der Reproduktionsprozess erlaubte eine Vielzahl von Alternativen, die alle im Moment des Ereignisses das radikale Risiko des Scheiterns beinhalteten. Diese basale Form der Kreativität war die Methode, Leben zu finden, und das Risiko des Scheiterns der Preis: Ohne Tod kein Leben.
2. KOOPERATION ÜBR GRENZEN HINWEG: Die Explosion des Lebens fand statt durch Erlangung der Fähigkeit, mit völlig fremden Systemen (die oft lebensbedrohlich waren) in eine Kooperation geradezu galaktischen Ausmaßes einzutreten, die eine WinWin-Situation für alle Beteiligte bildete. Das Zustandekommen solcher WinWin-Situationen war in den ersten Milliarden Jahren zufällig; der Erhalt der gefundenen Vorteile beruhte auf der grundlegenden Fähigkeit des Lebens, Erfolge zu konservieren.
3. ÜBERWINDUNG DES JETZT: Solange die biologischen Systeme nicht über Gedächtnis, Abstraktionsfähigkeit, basalem Denken verfügten, waren sie im Jetzt der Sinneseindrücke gefangen. Es gab kein Gestern und kein Morgen. Nach der Explosion des Lebens ab ca. -450 Mio Jahren kam es zu einem einzigartigen Punkt: nach 13.8 Mrd Jahren konnte sich das Leben in Gestalt der Hominiden, speziell dann des homo sapiens sapiens, plötzlich selbst anschauen und verfügte ab da über das Potential, sich selbst zu verändern.
4. KOORDINIERUNG INDIVIDUELLER VIRTUELLER WELTEN: Mit der Überschreitung des Jetzt durch interne Konstruktionen entsteht im einzelnen Individuum ein rekonstruierendes virtuelles Abbild der realen Welt. Damit die vielen einzelnen dieses virtuelle Wissen gemeinsam nutzen können, braucht es neue, leistungsfähige Formen der Koordinierung durch symbolische Kommunikation. Erfindungen wie die Sprache, die Schrift, der Buchdruck usw. belegen eindrucksvoll, was symbolische Interaktion vermag.
5. JENSEITS VON SEXUALITÄT: Während die bisherige Form der Sexualität als Strategie der Mischung genetischer Informationen kombiniert mit endogenem Handlungsdruck bei den handelnden Individuen über Jahrmillionen den Erhalt des Lebens offensichtlich ermöglicht hat, führen die neuen Lebensverhältnisse der großen Siedlungsdichten und der drohenden Überbevölkerung zur Frage, wie sich der Mensch von den endogenen Handlungsdrücken hinreichend befreien kann. Mann – Frau war gestern?
6. DYNAMIK DES BÖSEN – WO LEBT DAS GUTE: tiefsitzende Triebstrukturen im Menschen (Macht, Geld, Dünkel, …) sind seit Jahrtausenden bekannt. Mit den neuen globalen Informationstechnologien können sie sich schneller und effektiver im globalen Maßstab organisieren als nationale politische Systeme. Globale Kartelle des Machtmissbrauchs und der der Kriminalität bedrohen die neuzeitlichen Freiheitsansätze des Kreativen (neben anderen Faktoren).

FREIER DISKURS
Bei diesem breiten Spektrum des Themas war klar, dass nicht alle angesprochenen Aspekte gleichzeitig diskutiert werden konnten.

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

SEXUALITÄT
Die ersten Gesprächsbeiträge griffen die These zur Sexualität auf. Eher grundsätzliche Überlegungen thematisierten, dass Sexualität als ein grundlegendes und übergreifendes Prinzip zu sehen ist; die einzelnen Individuen sind hier nur – in gewisser Weise – nur ‚Marionetten‘ in dem großen Spiel des Lebens. Das Leben will überleben, der einzelne muss entsprechend funktionieren. Dass die biologisch vorgegebene eingebaute endogene Drucksituation im Laufe der Jahrtausende innerhalb der unterschiedlichen Kulturen mit ihren Wertesystemen zu vielfältigen Formen der Regulierungen geführt hat (meist zu Lasten der Frauen), ist manifest. Versuche der Menschen, die strenge Kopplung zwischen Sexualität und Reproduktion zu lockern gab es immer. Erst in neuester Zeit verfeinerten sich die Techniken, bieten sich Möglichkeit in die chemischen oder gar genetischen Prozesse einzugreifen bzw. durch die Reproduktionsmedizin die Reproduktion mehr und mehr aus dem biologischen System auszulagern. War schon immer die Anzahl der Kinder ein Indikator für den aktuellen Wohlstand, so führt heute die zunehmende Bevölkerungsdichte erneut zu Überlegungen, den bisherigen Reproduktionsmechanismus zu verändern. Für alle die neuen Maßnahmen und Technologien zur Veränderung der Reproduktion spielt der Einsatz von Computern eine immer größere Rolle. Zugleich wird der Computern für die Sexualität in Form von Sexrobotern auch immer mehr eingesetzt. Bräuchten super-intelligente Maschinen auch ein Äquivalent zur Sexualität, um sich zu vermehren?

INTELLIGENTE MASCHINEN

Die Position der intelligenten Maschinen blieb auffällig abstrakt. Was können sie eigentlich wirklich leisten? Richtig intelligente Maschinen scheint es noch nicht wirklich zu geben. Generell wurde nicht ausgeschlossen, dass super-intelligente Maschinen eine neue Variante der Evolution ermöglichen können. Haben diese super-intelligente Maschinen dann einen eigenen Willen? Würden sie aus sich heraus zu dem Punkt kommen, dass sie die Menschen abschaffen würden? Können wir den super-intelligente Maschinen solche Werte einpflanzen, dass sie den Menschen grundsätzlich wohlgesonnen sind (hier sei erinnert an die vielen geistreichen Science Fiction von Isaak Asimov (1919 – 1992), der unter anderem die Robotergesetze erfunden hatte, die genau diese Idee umsetzen sollten: menschenfreundliche Roboter ermöglichen).

NICHT SCHWARZ-WEISS DENKEN

Im Gespräch zeichnete sich auch eine Position ab, die viele Argumente auf sich vereinte, nämlich jene, die weniger konfrontativ Mensch und super-intelligente Maschinen gegenüberstellt, sondern von einer symbiotischen Wechselbeziehung ausgeht. Der Mensch entwickelt schrittweise die neuen Technologien, und in dem Masse, wie diese real erfahrbar werden, beginnt die ganze Gesellschaft, sich damit auseinander zu setzen. Systemisch gibt es damit beständige Rückkopplungen, die – falls die gesellschaftliche Dynamik (Öffentlichkeit, freie Meinung, Diskurs..) intakt ist – nach Optimierungen im Verhältnis zwischen Menschen und Maschinen sucht. Natürlich gibt es massive wirtschaftliche Interessen, die versuchen, die neuen Möglichkeiten für sich zu nutzen und versuchen, alle Vorteile einseitig zu akkumulieren; es ist dann Aufgabe der ganzen Gesellschaft, dieser Tendenz entsprechend entgegen zu wirken. Dabei kann es sehr wohl zu Neujustierungen bisheriger Normen/ Werte kommen.

WEISHEIT DES LEBENS
Wenn man bedenkt, welch ungeheuren Leistungen das biologische Leben seit 3.8 Mrd Jahren auf der Erde vollbracht hat, wie es Lebewesen mit einer gerade zu galaktischen Komplexität geschaffen hat (der Körper des homo sapiens sapiens hat nach neuen Schätzungen ca. 34 Billionen (10^12) Körperzellen (plus noch mehr Bakterien in und am Körper), die alle als Individuen im Millisekundentakt zusammenwirken, während dagegen die Milchstraße, unsere Heimatgalaxie, ca. nur 100 – 300 Mrd. Sonnen besitzt), dann kann man nicht grundsätzlich ausschließen, dass diese Leben implizit über eine ‚Weisheit‘ verfügt (man könnte auch einfach von ‚Logik‘ sprechen), die möglicherweise größer, tiefer umfassender ist, als jede denkbare Superintelligenz, weil diese, wann und wo auch immer, nicht von außerhalb des Systems entsteht, sondern innerhalb des Systems.

NÄCHSTES THEMA

Da viele Teilnehmer sagten, dass sie sich unter diesen intelligenten Maschinen immer noch nichts Rechtes vorstellen können, wurde ein anwesender Experte für intelligente Maschinen (aus der Gattung homo sapiens sapiens) gebeten, für das nächste Treffen eine kleine Einführung in die aktuelle Situation zu geben.

Ein Überblick zu allen bisherigen Themen des Philosophiesommers (und seiner Vorgänger) nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 3-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Hinter den Augen …

Das eingesperrte Gehirn

Die Antwort auf die Frage, warum Menschen so unterschiedlich wahrnehmen, warum sie dies tun und anderes lassen, liegt irgendwo da im ‚Inneren‘ des Menschen, dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt; dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen uns so zu verhalten, wie wir es erleben.

Wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden einzelne neuronale Zellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen von einer Art von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.(Anmerkung: Siehe: Sinnesorgan, Sensory Receptor, Sensory System)

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, so dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Mrd Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘.) (siehe weiter unten.).

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden. (Anmerkung: Siehe Sensory Memory) Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben. In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie. (Anmerkung: Siehe Neuropsychology)

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses. (Anmerkung: Memory) Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten Sinnesspeichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeitspeicher und multimodalem Arbeitsgedächtnis liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten Sinnesspeichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir nicht ‚über‘ unser Gehirn nach, sondern wir benutzen es direkt. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘) (Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hir einschlägig ist: ‚The view from nowhere‘, 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis (Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde‘, usw. (Anmerkung: Siehe dazu: Internationales Einheitensystem) Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!“> … in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt(Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.“> … .

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir solch eine Interpretation verweigern, dann würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen. Was immer der Andere tun würde, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test'(Anmerkung: Turing-Test, den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitiere kann. (Anmerkung: Es war in dem Artikel: „Alan Turing: Computing Machinery and Intelligence“, Mind 59, Nr. 236, Oktober 1950, S. 433–460) Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten. (Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr“) Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Fortsetzung mit Kapitel 4 (neu).

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500

Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

EIN ABEND MIT DEM SALON SLALOM

Loser Kontakt

Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:

http://salonslalom.wordpress.com/termine/hinter-dem-phanomen-lauert-das-ich-aber-was-kommt-dann/. Der Ort war also, wie man aus der Ankündigung entnehmen kann, im INM (Institut für Neue Medien, url: http://www.inm.de), da einige Mitglieder explizit das INM mal kennen lernen wollten (in Frankfurt nicht ganz unbekannt).

Wintereinbruch

Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.

Harakiri?

Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.

Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:

Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…

Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.

Phänomene und hinter den Phänomenen

Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,

Vielschichtigkeit des Menschen (vier verschiedene Bilder von Wikipedia (en) zusammengesetzt (siehe Quellenangaben unten)

um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.

Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.

Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).

Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).

Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?

 

Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.

Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.

Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.

Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.

Die klassische Musikproduktion und Rezeption wird heute ergänzt durch eine technische Muskproduktion auf der Basis der Mathematik. Damit dehnen sich die potentiellen Klangräume schier unendlich aus.

Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.

Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).

The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…

Mathematik und Computer

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.

Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.

Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.

Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).

Intelligenz bei Tieren und Computern

Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.

Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.

Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.

Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.

Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.

Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.

Zentrale Komponenten eines minimalen lernenden Classifier Systems (ohne Anzeige des Bedürfnisses Hunger). Mit Hilfe des Fitnesswertes können alle jene Komponenten hervorgehoben werden, die im Zusammenwirken einen Pfad generieren. Fitnessgeber können auch ‚eingebaut‘ sein

Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.

Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?

Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.

Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.

In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.

Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:

Verhaltensformel Mensch: phi: I x IS —> IS x O

Verhaltensformel UTM: phi: I x IS —> IS x O

Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.

Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:

You are the message of the universe (Rap-like…)  Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..

PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….

PS2: Es gab noch eine recht intensive Diskussion.

PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechen kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Defintion entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müßte man von daher vielleicht sagen, dass wir in diesem Experiment zegen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.

PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…

Literaturnachweise

Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
Wilson, S.W. ZCS: a zeroth level classifier system, Evolutionary Computation, 2(1), 1-18 (1994)

Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Vorgeschichte

Dieser Blogeintrag geht zurück auf einen Vortrag, den ich auf der Jahrestagung der deutschen Sektion von YPO (Young Presidents Organization) gehalten habe. Der ursprüngliche Titel lautete „Das Digitale als Synomym für berechenbare Prozesse“. Als der Text zu diesem Vortrag fertig war (am Tag davor) deutete sich schon an, dass der Vortrag eigentlich eine weitere, sogar eine weiterführende Botschaft enthielt, die sich im ursprünglichen Titel nicht so widerspiegelte. Während ich den Vortrag dann hielt wurde mir klar, dass – in der Tat – der eigentliche Inhalt ein anderer war; der ursprüngliche Titel war nicht falsch, aber zu ‚eng‘.

Da ich jeden Vortrag nur einmal halte und mir für den Vortrag immer eine Problemstellung vornehme, die ich selber gerne geklärt haben möchte ohne zum Zeitpunkt er Themenstellung schon zu wissen, ob es wirklich so gehen wird, gibt es immer diese fluktuierenden Überlegungen und Formulierungen vorher, in denen das mögliche Thema um seine finale Gestalt ringt. Bislang war es immer so, dass es unmittelbar vor dem Vortrag eine starke Klarheit gab, im Vortrag selbst und in den anschließenden Fragen das Ganze nochmals heftig ‚aufleuchtete‘ und in den nachebbenden Gedanken und Gesprächen sich dann der ‚finale Gedanke‘ gezeigt hat.

So auch hier. Die benutzten Diagramme sind mit denen im Vortrag identisch, der Wortlaut nicht genau, aber dem Inhalt nach.

Ankündigungstext ohne Leser

Der folgende Text wurde von mir als Ankündigungstext verfasst, wurde dann aber doch nicht publiziert. Er gibt so ein wenig den ‚Flair‘ im Vorfeld wieder:

Wir leben in einer Zeit, in der die Computertechnik immer mehr Bereiche des täglichen Lebens durchdringt, uns in eine Symbiose mit dem Digitalen zwingt, der wir uns nur schwer bis gar nicht entziehen können: Im Haushalt, in der Haustechnik, beim Entwerfen und Bauen von Häusern, in der Musik, beim Fernsehen, bei der Filmproduktion, in den Verwaltungen, in der industriellen Produktion, bei der Verkehrssteuerung, in jedem Auto, in jedem Flugzeug, bei der täglichen Kommunikation,…und, und, und,…. Wie ist dies möglich? Wie kann eine Technologie für uns zu einer Art ‚zweiten Natur‘ werden? Wie kann eine einzige Technologie nahezu alle Lebensbereiche durchdringen? Wie kann Technik Eigenschaften annehmen, die wir eigentlich nur dem Menschen zuschreiben: Wahrnehmen, Begriffe bilden, Schlüsse ziehen, Wiedererkennen, Kreativ sein, Gefühle haben, Ansätze von Selbstbewusstsein? Wo führt dies hin? Wird uns die Computertechnik irgendwann doch überflüssig machen?

In seinem Vortrag wird Prof. Doeben-Henisch diesen Fragen nachgehen. Er führt zurück zum Ursprung des Computers, ins Zentrum der mathematischen Dispute um die Jahrhundertwende, die dann in den Personen von Kurt Goedel und Alan Matthew Turing zum neuen philosophisch-mathematischen Begriff ‚endlicher Prozess‘ bzw. zum Begriff der ‚Berechenbarkeit‘ führten. Der Mensch selbst stand Modell für das mathematische Konzept der Turingmaschine (1936/7), das dann wenige Jahre später zu realen Maschinen führte, die mit Relais, dann Röhren, schließlich mit Halbleitern demonstrierten, dass und wie man ‚rechnende Maschinen‘ bauen kann. Innerhalb von 60 Jahren eroberte diese Technologie die ganze Welt. Die binären Zustände der Computer zeigten sich mächtig genug, sich nahezu alles einzuverleiben: Zahlen, Texte, Bilder, Geräusche, Musik, Objekte, Gebäude, Pflanzen, Tiere, Abläufe, ganze Städte. Zur Zeit versuchen Forscher weltweit, Maschinen mit ‚künstlichem Geist‘ zu schaffen. Als Vorlage dient das menschliche Gehirn. Prof. Doeben-Henisch wird zeigen, warum wir im Moment keine Argumente haben, warum dies nicht gehen könnte.

Die Überlegungen zu den Grundlagen des menschlichen Geistes führen auch hinein in die Frage nach der Natur des Menschen, in seine Geschichte, in die Geschichte der Entstehung des Menschen, in die innere Logik der Evolution des Lebens auf der Erde. Die Forschung hat uns in den letzten 80 Jahren aufregende neue Einblicke in die Struktur des Lebens vermittelt, die wiederum verschränkt sind mit der Entwicklung des bekannten Universums selbst. Man kann sehen, dass das Digitale als lingua universalis berechenbarer Prozesse sich schon im Inneren des Biologischen selbst als ‚Sprache des Lebens‘ findet. Das Leben selbst als großer ‚Computer‘ oder, umgekehrt, der ‚Computer‘ als neue Spielart jenes Prinzips, das wir als Leben bezeichnen?

Dies sind einige der zentralen Themen, die im Vortrag angesprochen werden. Der Vortrag endet mit dem offensichtlichen Faktum der Ko-Evolution von Universum – Erde – biologischem Leben und digitaler Technologie. Was bedeutet dies für uns?

 

VORTRAG

(Anmerkung: Der geschriebene Text entspricht natürlich nicht exakt dem Wortlaut des frei vorgetragenen Vortrags)

Meine sehr verehrten Damen und Herren,

nachdem Sie in den vorausgehenden Vorträgen schon einiges gehört haben zu den vielfältigsten Phänomenen, die das Digitale in unserem heutigen Alltag hervorbringt, möchte ich mich in meinem Vortrag mehr der Frage  nach der Maschinerie hinter diesen Phänomenen widmen. Was sind das für Strukturen, die all dies möglich machen? Welches Prinzip ist so mächtig, dass es all diese verschiedenartigen Phänomene hervorbringen kann, die dem Menschen in seinen Lebensvollzügen immer näher kommen, ja, bisweilen sogar schon zu inneren Bestand von diesen werden?

Für die Beantwortung dieser Frage werde ich Sie mit drei Konzepten bekannt machen, die auf erstaunliche Weise untereinander zusammenhängen: das Konzept der rechnenden Maschine, das neue Bild des Menschen und die Einbettung beider Konzepte in den Gang der Evolution. Und sie werden dann sehen, dass diese Zusammenschau der drei Konzepte etwas ganz Neues aufscheinen lässt, nämlich das Konzept ‚Geist‘ als jene Größe, die in all diesen Prozessen als etwas ‚aufscheint‘, was ’schon immer da ist‘. Würde dieser erste Eindruck zutreffen, dann würde es bei den Versuchen der ‚Erschaffung‘ eines ‚künstlichen‘ Geistes weniger darum gehen, etwas ‚Neues‘ zu ‚erschaffen‘, sondern mehr darum, etwas, das ’schon immer da ist‘, mit neuen Methoden ’sichtbar‘ zu machen.

Ich werde zum Ende daher auch kurz auf ein Experiment hinweisen, in dem wir genau dies tun: den ‚Geist‘ in Form eines ‚künstlichen‘ Geistes sichtbar machen.

Beginnen wir mit uns selbst, dem dem Menschen, dem homo sapiens sapiens.

DER MENSCH

VIELSCHICHTIG

 

Vielschichtigkeit des Menschen (Quellen: Synthese aus vier Bildern von Wikipedia (en), siehe Literaturnachweise)

[Bild: vier Sichten des Menschen] Ich möchte mit einem Schaubild beginnen, das zeigt, wie vielschichtig wir Menschen bei näherer Betrachtung sind. Sie sehen einmal links die Oberfläche des Menschen, wie sie sich uns darbietet, wenn wir uns nackt zeigen. Doch bei der Frage, ob wir den Menschen mit dieser Oberfläche gleich setzen sollen, werden wir dies verneinen müssen. Wir wissen heute, dass hinter bzw. unter dieser Oberfläche eine Fülle von hochkomplexen Organen zu finden ist, die durch ihre kontinuierliche Arbeit alle unsere Lebensprozesse ermöglichen. Was wären wir ohne Herz, Nieren, Lunge, Leber, Magen, Darm usw.? Zugleich wissen wir, dass all diese wunderbaren Organe im Chaos enden würden, gäbe es nicht das Nervensystem mit dem Gehirn, das all diese Tätigkeiten – ergänzend zum Blutkreislauf und zum Immunsystem –– koordiniert, anregt, steuert. Und dann noch das augenfällige System von Knochen und Gelenken, in sich ein überaus lebendes System, ohne das alle Haut und Organe in einen Zellklumpen zusammenstürzen würden, der alsbald verenden würde. Vier überaus komplexe Systeme, die vielfach ineinander greifen und in diesem Zusammenwirken das Gesamtkunstwerk menschlicher Körper in seiner Grundstruktur ermöglichen. Wissen wir damit, was und wer der Mensch ist? Haben wir die Psyche, den Geist, die Seele vergessen?

Bevor ich darauf eine Antwort versuche, hier ein kurzer Szenenwechsel. Im Film würden man sagen, ein harter Schnitt.

FORMALISIERUNG DER VIELFALT ALS  SYSTEM

Formalisierung des Menschen als System mit Input und Output

[Bild: Box mit Eingang/ Ausgang und Verhaltensfunktion] Was Sie auf diesem Bild sehen können, ist ein Diagramm und eine kleine Formel.

Dieses Diagramm und diese Formel entspricht ein wenig der Art, wie ein mathematisch geschulter Ingenieur die zuvor präsentierte Vielfalt des Menschen hinschreiben könnte.

 

Die Box mit Überschrift ‚System‘ kann einen Menschen repräsentieren, der aus seiner Umgebung Stimuli – abgekürzt ‚S‘ – als Input ‚I‘ empfangen kann (also Augen, Ohren, Tastempfindungen usw.) und der über seinen Output ‚O‘ Reaktionen ‚R‘ an die Umgebung abgeben kann, also diverse Bewegungen, Schallereignisse, usw. Im Innern des Systems gibt es verschiedene interne Zustände (internal states, IS), die zum Funktionieren des Systems wichtig sind. Z.B. die diversen Organe, das Nervensystem, die Knochen, usw. Und zwischen all diesen Elementen, dem Input, den internen Zuständen und dem Output, gibt es einen funktionalen Zusammenhang, der im Bild einfach mit dem griechischen Buchstaben ‚phi‘ (Φ, φ) benannt wird.

 

Alternativ zu solche einem Diagramm würde man aber auch einfach die kürzere Formel hinschreiben, die genau das gleiche zum Ausdruck bringt: der funktionale Zusammenhang ‚phi‘ nimmt Inputwerte und aktuelle Zustände als Ausgangspunkt und berechnet daraus mögliche Änderungen der inneren Zustände und einen Output. Also, Beispiel, sie sitzen in einem Auto und sehen (=Input) eine rote Ampel. Da sie gelernt haben, bei Rot tunlichst stehen zu bleiben (=IS), verändern sie ihre Fußstellung und bremsen (=IS, O).

Dieses kleine Beispiel mag auch ein wenig verdeutlichen, wie Ingenieure vorgehen, wenn sie die vielfältige Wirklichkeit mit der Sprache der Mathematik vereinfachen und dadurch all die wunderbaren Dinge bauen können, die Sie jeden Tag wie selbstverständlich benutzen. Ohne diese mathematische Sprache würden wir noch immer steinzeitlich leben.

Betrachten wir noch ein weiteres Beispiel im Kontext des Menschen, das uns helfen wird, die Brücke zur rechnenden Maschine zu bauen.

 

GEHIRN UND NERVENZELLE

Gehirn als Teil der menschlichen Organe; daneben ein einzelnes Neuron (Quelle: zwei Bilder aus Wikipedia komponiert, aus Wikipedia (en), siehe Literaturnachweise)

[Bild: Gehirn links, Nervenzelle rechts] Werden wir ein wenig bescheidener und nehmen uns nur einen Teil des Menschen vor, sein Gehirn. Nach neuen Schätzungen umfasst ein Gehirn etwa 100 Mrd Neuronen (Kandel et al. 2012:S.21). Diese sind in der Regel nicht direkt miteinander verbunden.

 

Die typische Struktur eines Neurons sieht man rechts vom Gehirn. Es gibt genau einen Ausgangs (das Axon), der sich vieltausendfach verzweigen kann, sowie viele tausend Eingänge. In dem kleinen hervorgehobenen Kreis kann man die Eigenart der neuronalen Verbindungen erkennen: das Endstück eines Axons endet kurz vor der Oberfläche des Neurons; es bleibt ein kleiner synaptischer Spalt.

NERVENZELLE UND MEMBRAN

Neuron links mit Vergrößerung einer Synapse rechts. Neuronbild aus Wikipedia (en). Quelle siehe Literaturverzeichnis

[Bild: Neuron und Membran schematisiert] In dem nachfolgenden Bild ist dies schematisierend und vergrößert dargestellt. Die Oberfläche der empfangenden Zelle stellt eine Membran dar, die man postsynaptische Membran nennt, die zusammen mit dem Endstück des Axons eine Synapse bildet. Die Kommunikation zwischen Endstück und potsysnaptischer Membran wird über Moleküle (Transmittermoleküle) realisiert, die beim Auftreten eines elektrischen Potentials im Axon aus den Vesikeln entlassen werden. Diese diffundieren durch den synaptischen Spalt und können dort, falls sie ‚passen‘ an Rezeptormolekülen von Ionenkanälen andocken. Jede postsysnaptische Membran hat mehrere Tausend solcher Ionenkanäle. Docken diese Transmittermoleküle an den Rezeptoren an, öffnen sich die Ionenkanäle. Es findet dann ein schlagartiger Austausch von Ionen in und außerhalb der Membran statt. Dieser schlagartiger Austausch hat einen ebenso plötzlichen Wechsel des elektrischen Potentials zur Folge, was dann zu dem bekannten Ein-Aus-Signal eines Neurons führen kann.

 

Gäbe es nur Ionenkanäle, dann wäre mit dem einmaligen Öffnen der Kanäle – bildlich gesprochen – alles Pulver verschossen. Diese Membran würde nie mehr ein weiteres Signal erzeugen können. Das aber ist eigentlich ihre Aufgabe. Zu diesem Zweck gibt es noch einige tausend Ionenpumpen. Diese sind in der Lage Ionen gegen ein Konzentrationsgefälle von außen nach Innen oder umgekehrt zu pumpen. Dazu benötigen sie Energie. Da sie insgesamt langsamer arbeiten als der Ionenaustausch durch die Kanäle stattfindet, entstehen zwischen den einzelnen Signalereignissen Refraktionszeiten, in denen keine Schaltvorgänge möglich sind.

 

Sie sehen also, schon die vielen tausend Membranen einer einzigen Nervenzelle (es können bei einer Zelle mehr als 1 Mio sein!) bilden kleine, komplexe Maschinen, deren Funktion Signalerzeugung und Signalfluss im Gehirn ermöglicht.

 

Während ein Neurowissenschaftler zur Beschreibung einer Nervenzelle und des Gehirns auf alle diese unfassbar komplexen Details eingehen muss, kann ein Ingenieur, der ein künstliches Gehirn bauen möchte, sich fast entspannt zurücklehnen und die Frage stellen, welche Eigenschaften an einem Neuron denn wesentlich sind, um sein Schaltverhalten zu erfassen.

Eine typische Antwort würde so aussehen:

 

NERVENZELLE MATHEMATISCH

Formalisierung eines Neurons durch Konzentration auf die Schalteigenschaften

[Bild: Nervenzelle mathematisch] Sie sehen wieder ein Box, dieses Mal ‚Neuron‘ genannt. Der ‚Input‘ zu dieser Box bilden die Endstücke von anderen Neuronen. Im Bild sind es drei Eingänge, es könnten aber n-viele sein. Dazu ein Ausgang, das Axon, das sich auf n-viele viele andere Neuronen – letztlich auch auf sich selbst – verteilen kann. In der Box können Sie drei einfache Formeln erkennen, die drei aufeinander folgende Verarbeitungsstufen repräsentieren. In der ersten Stufe werden die mit wij gewichteten Aktionspotentiale aij der einzelnen Eingänge summiert zum Wert net_j. Dann wird mittels der Aktivierungsfuntkion f_act berechnet, ob diese summierten Eingangssignale zusammen mit dem letzten Aktionspotential a_j einen vorgegebenen Schwellwert theta (θ) überschreiten oder nicht. Falls der Schwellwert überschritten wird, wird ein neues Aktionspotential a_j erzeugt, das dann schließlich mit der Ausgabefunktion f_out in einen geeigneten Ausgabewert umgerechnet wird.

 

Genauso wenig wie eine einzelne Schwalbe bekanntlich einen Frühling macht, genauso wenig kann man mit einem einzelnen Neuron etwas interessantes anfangen. Der Ingenieur muss sich also noch etwas einfallen lassen, wie er die vielen Neuronen zusammenbringt. Vielleicht ahnen Sie schon, was jetzt kommt:

 

KÜNSTLICHES GEHIRN

Übergang von einm Zeitpunkt zum nächsten, beschrieben mit Vorschrift ’syn‘

[Bild: Mengen von Neuron-Verbindungen] Eine einfache Möglichkeit, die Gesamtheit aller Neuronen zu betrachten, besteht darin, jeweils zwei, die miteinander in Verbindung stehen, als ein Paar zu betrachten, das bestimmte Verbindungswerte besitzt, und dann die Menge aller dieser Paare als eine Einheit zu einem bestimmten Zeitpunkt. Im Bild ‚CON‘ genannt, die Menge aller Connections.

 

Was dann noch bleibt ist die Beschreibung der Dynamik dieser Zellen, die Art der Veränderungen von einem Zeitpunkt zum nächsten. Dieser Veränderungszusammenhang wird im Bild ‚dyn‘ genannt, eine mathematische Vorschrift, die sagt, wie ich vom Zustand der Zellen zu einem Zeitpunkt zum Zustand der Zellen beim nächsten Zeitpunkt komme.

 

Damit ist für den Ingenieur alles gesagt, was gesagt werden muss. Ob dieses künstliche Gehirn Bilder erkennen soll, Sprache sprechen, sich erinnern können soll, usw. all dies ist damit erfasst. Sollte der Ingenieur in der Praxis feststellen, dass er wichtige Eigenschaften übersehen hat, dann fügt er sie einfach in seine Formeln ein.

Gehen wir nach diesem Ausflug ins Gehirn nochmals zur Ausgangsbox mit dem Menschen zurück.

 

NOCHMALS SYSTEMBOX

Integration des Teilomodells ‚Gehirn‘ in das allgemeine Systemmodell vom ‚Menchen‘

[Bild: Nochmals die Systembox, jetzt mit Verfeinerungen] Soeben haben wir das Gehirn als eine Teilbereich des Körpers näher betrachtet. Wollen wir diese Erkenntnisse in der allgemeinen Box verorten, dann müssen wir sagen, dass die Menge CON eine Teilmenge der Menge IS der internen Zustände ist, und die Verarbeitungsvorschrift ‚dyn‘ ist ein Teil der allgemeinen Verhaltensfunktion φ des Menschen.

 

Sie können an diesem Beispiel einmal sehen, wie man mit der Sprache der Mathematik komplizierteste Sachverhalte auf einfache Strukturen zurückführen kann, und – und darauf kommt es in unserem Zusammenhang besonders an – dass der Mensch – also wir selbst – bei dieser Betrachtungsweise eine Struktur besitzt, die uns durch diese Struktur vergleichbar macht mit allen anderen Strukturen.

Eine der Strukturen, mit denen ich die Struktur des Menschen vergleichen möchte, ist die Struktur eines endlichen Prozesses.

Um zu beschreiben und zu erklären was ‚berechenbare Prozesse‘ sind, müssen wir einen kleinen Ausflug in die Welt der Logik und Mathematik machen.Ich hoffe dann zeigen zu können, warum die berechenbaren Prozesse und wir Menschen mehr gemeinsam haben, als die meisten vermuten, und warum das Reden vom ‚Geist‘, auch vom ‚künstlichen Geist‘ heute eine ganz andere Bedeutung bekommen hat, als es bislang üblich war.

 

DIGITALE MASCHINE

DISKUSSION DER MATHEMATIKER

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

[Bild: Schema einer formalen Theorie] Natürlich werde ich hier nicht auf die Details der Diskussionen im Kontext der sogenannten Grundlagenkrise der Mathematik zum Ende des 19. und zu Beginn des 20.Jahrhunderts eingehen können. Nur so viel sei hier gesagt, dass die Logiker und Mathematiker dieser Zeit ein Problem damit hatten, die Grundlagen der Mathematik so zu beschreiben, dass keine Paradoxien entstehen konnten, erst recht keine direkten Widersprüche in den formalen Systemen und natürlich wünschte man sich vollständige Systeme, d.h. formale Systeme, in denen man alle Aussagen, die im Sinne des Systems wahr sein sollen, auch beweisbar sind.

 

Eine der wichtigsten mathematischen Schulen innerhalb dieser Diskussionen war die Schule um David Hilbert, der die Lösung des Problems einer befriedigenden Darstellung der Mathematik darin sah, eine Reihe von möglichst einfachen formalen Systemen zu schaffen (basierend auf einer endlichen Menge von Axiomen), deren Widerspruchsfreiheit und Vollständigkeit mit sogenannten ‚endlichen Mitteln‘ gezeigt werden kann. Alle komplizierteren Theorien sollten dann auf diese einfachen Systeme zurückgeführt werden.

Im Alltag mag es uns nicht als Problem erscheinen, von ‚endlichen Mitteln‘ zu sprechen. Aber wenn es darum geht, allgemein zu beschreiben, was hinreichend geeignete endliche Mittel sind, um eine mathematische Theorie als widerspruchsfrei und vollständig zu erweisen, dann zeigt sich plötzlich, dass dies nicht so einfach ist, wie sich dies Hilbert und seine Schule erhofft hatten.

GOEDEL – TURING

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

[Bild: Goedel und Turing historisch] Es war Kurt Goedel, der 1930-31 zeigen konnte, dass das Grundlagenprogramm von Hilbert und seiner Schule prinzipiell unmöglich war. Er zeigte, dass eine mathematische Theorie, die mindestens so stark wie die Arithmetik ist, aus prinzipiellen Gründen nur eines von beiden sein kann: entweder widerspruchsfrei (konsistent) oder vollständig, aber nicht beides zugleich. Dieses Ergebnis trifft in das Herz jeder mathematischen Theorie, bis heute. Es zeigt, dass es prinzipielle Grenzen in der Beweisbarkeit von mathematischen Wahrheiten gibt.

Diese Probleme treten immer dann auf, wenn es darum geht, innerhalb (!) einer formalen Theorie (mindestens so stark wie eine Prädikatenlogik erster Stufe) die Widerspruchsfreiheit und Vollständigkeit zu beweisen. Natürlich kann man das Problem dadurch zu umgehen versuchen (was sehr viele versucht haben), eine zusätzliche ‚Beschreibungsebene‘ einzurichten, von der aus sie dann ‚über‘ (Griechisch ‚meta‘) die Objekte der anderen ebene ‚reden‘. Solche Art von Hierarchisierungen oder Typisierungen oder Metaebenen entsprechen der üblichen Arbeitsweise des menschlichen Gehirns. Allerdings bildet diese Strategie bei näherem Hinsehen keine wirkliche Lösung. Zwar verschwinden in der Objekttheorie all jene Elemente, die ‚über sich selbst‘ reden können, aber die Metaebene selbst, die ja auch den Berechenbarkeitsforderungen mathematischer Beweise genügen müssen, enthalten dann genau all jene Elemente wieder, die zu der von Kurz Goedel aufgedeckten Schwachstelle führen.

Eine letzte philosophische Würdigung dieser Sachverhalte scheint mir noch auszustehen.

Mit diesen Überlegungen sind wir beim Thema Berechenbarkeit angekommen.

Die Diskussion unter Mathematikern hängt von Beweisen ab, die geführt werden. Diese Beweise müssen mit sogenannten endlichen Mitteln geführt werden, damit sie nachvollziehbar sind. Goedel selbst hatte ein geniales Verfahren ersonnen, um unter Benutzung von natürlichen Zahlen seine Beweise zu führen. Aber er war von seinem eigenen Beweis nie begeistert, obgleich niemand ihn bis heute widerlegen konnte.

Es war dann einem gewissen Alan Matthew Turing vorbehalten fünf Jahre später die Beweise von Goedel nochmals mit anderen Mitteln zu führen. Und diese Beweismittel – später Turingmaschine genannt – fanden nicht nur die Zustimmung von Goedel, sondern von nahezu allen nachfolgenden Generationen. Bis heute ist die Turingmaschine das wichtigste mathematische Konzept für alle Berechenbarkeitsbeweise – und damit der mathematische Referenzpunkt für alles, was wir heute Computer nennen.

Weil dem so ist, weil das Konzept der Turingmaschine eine solch eminente philosophische und mathematische Bedeutung zukommt, lassen Sie mich dieses Konzept kurz vorstellen. Es ist so einfach, dass die meisten, die es zum ersten Mal kennen lernen, sofort fragen: und das soll alles sein? Ich versichere Ihnen, das ist alles und – und das möchte ich dann zum Abschluss zeigen – das Konzept der Turingmaschine findet sich auch schon im Kern von allem Biologischen. Ein Befund, den man nun nicht unbedingt erwarten muß.

TURINGMASCHINE

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

[Bild: Theorieprozess TM] So wie Newton angeblich beim Fallen eines Apfels seine entscheidende Einsicht in das Wesen des Gravitationsgesetzes bekommen haben soll, so beschreibt Turing selbst in dem entscheidenden Artikel von 1936-7, dass es die Arbeit eines Buchhalters im Büro war, die ihn inspiriert hat. So, wie der Buchhalter mit einem Stift auf einem Blatt Papier Zahl an Zahl fügt, so stellte er sich eine ideale Maschine vor (siehe im Bild rechts oben), die auf einem Band mit lauter Kästchen, entweder über ein Schreib-Lese-Fenster lesen kann, was in dem Kästchen geschrieben ist oder ein neues Zeichen in das Kästchen schreiben kann. Darüber hinaus kann die ideale endliche Maschine den Schreib-Lesekopf nur um ein Feld nach links oder rechts bewegen. Das ist alles. Das Verhalten der idealen endlichen Maschine wird gesteuert über eine endliche Liste von Befehlen

TM BEISPIEL

Bild einer 4-zeiligen Turingmaschine, Vereinfachung eines Beispiels von einer Webseite (Quelle: siehe Literaturvereichnis). Auf der Webseite kann man dieses Beispiel sowohl erweitern als auch real ausführen.

[Bild: TM mit vier Zeilen] In einem einfachen Beispiel einer TM können Sie solche Befehlszeilen erkennen: in der ersten Spalte steh der Name eines Zustandes (z0), dann folgt ein Feld mit dem Zeichen, das gelesen werden kann, dann eine Feld mit dem Namen des Folgezustandes (z0), dann das Zeichen, das in diesem Fall geschrieben werden soll, und schließlich ein Zeichen, welche Bewegung ausgeführt werden soll.

Im Beispiel würde man die erste Zeile etwa wie folgt lesen: Im Zustand z0 wird beim Lesen des Zeichens ‚#‘ der Zustand z0 beibehalten, für das Zeichen ‚#‘ würde das neue Zeichen ‚1‘ geschrieben und der Schreib-Lesekopf wird um 1 Feld nach rechts bewegt.

Im Beispiel umfasst das ganze Verhaltens-Programm 4 Zeilen.

Das ist alles. Das ist die berühmte Turingmaschine, die sich als weltweiter Standard zur Prüfung der Berechenbarkeit eines Prozesses durchgesetzt hat. Was immer bislang an anderen Formalismen gefunden wurde, sofern solch ein Formalismus endliche Berechenbarkeit beschreiben soll, war er niemals stärker als eine Turingmaschine.

Oder anders ausgedrückt:

Sofern es nicht möglich ist, zu zeigen, dass eine Turingmaschine, angesetzt auf ein Problem, nach endlichen vielen Schritten zu einem Ergebnis kommt, solange kann man nicht behaupten, dass dieses Problem (Turing-)berechenbar ist.

Auf der Basis der Turingmaschine wurden in den vergangenen Jahrzehnten eine ganze Reihe interessanter Unentscheidbarkeitsresultate bewiesen. Auf die kann ich hier jetzt nicht eingehen. In meinen Augen habe diese Ergebnisse alle eine sehr hohe philosophische Relevanz.

Wie eingangs festgestellt, sehe ich einen interessanten Zusammenhang zwischen der Turingmaschine, dem Menschen und der Evolution des Biologischen. Lassen Sie uns daher einen kurzen Blick darauf werfen.

EVOLUTION, KOEVOLUTION, …

GENOTYP UND PHÄNOTYP

Wechselwirkung zwischen Genotyp und Phänotyp einerseits und Phänotyp mit umgebender ökologischer Nische andererseits

[Bild: Genotyp und Phänotyp] Ausgangspunkt dieser Überlegungen ist das erstaunliche Faktum, dass die Vielfalt und Komplexität der Körper – der sogenannte Phänotyp – zurückführbar ist auf die zugrunde liegenden genetischen Informationen – auf den sogenannten Genotyp –. In einem Wachstumsprozess wird – ausgehend von einer einzigen Zelle – ein Körpergebilde mit vielen Billionen Zellen aufgebaut, die alle in einem sinnvollen funktionalen Zusammenhang enden.

Es lohnt, sich klar zu machen, dass dieses unfassbare Wunderwerke eine sehr lange, komplexe Entstehungsgeschichte hat, die selbst im universalen Maßstab ihresgleichen sucht.

EVOLUTION ALS TEIL DER ENTWICKLUNG DES UNIVERSUMS

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

[Bild: Entwicklung des Universums mit Evolution] Das Schaubild zeigt maßstabsgetreu wichtige Entwicklungsstationen im bekannten Universum an. Unsere Position auf der Zeitachse ist unmittelbar dort, wo das grüne Dreieck endet. Das grüne Dreieck zeigt an, ab wann zellbasiertes Leben auf der Erde nachweisbar ist. Die Erde begann ca. vor 4.55 Mrd Jahren. Die chemische Evolution, die dann zu ersten einfachen Zellen führte, setzte ungefähr vor 4 Mrd. Jahren ein, 200 Mio Jahre später eben erste einfachste Zellstrukturen. Es dauerte dann etwa 2.8 Mrd Jahre bis es zu ersten multizellulären Lebensformen kam, die dann einige hundert Mio Jahre später zur Besiedlung des Landes führte. Von diesem Zeitpunkt bis zu uns dauerte es nochmals 700 Mio Jahre.

Nach heutigem Wissensstand wird es nur ca. 1 Mrd Jahre dauern, bis in der Zukunft das Leben auf der Erde wegen der beginnenden Aufblähung der Sonne praktisch unmöglich werden wird.

Sind schon diese zeitlichen Verhältnisse atemberaubend, so ist es noch spannender, wenn man der Frage nachgeht, wie es denn überhaupt zur Ausbildung dieser extrem komplexen Strukturen kommen konnte.

Das Schwierigste ist dabei nicht einmal die biologische Evolution, die mit dem Auftreten der ersten Zellen vor ca. 3.8 Mrd. Jahren begann, sondern die härteste, bis heute nicht geknackte Nuss, ist eine Erklärung, wie es überhaupt zu den ersten Zellen kommen konnte. Denn selbst bei den einfachsten Zellen wirken schon so viele komplexe Strukturen zusammen, dass eine Erklärung der schrittweisen Entstehung dieser Strukturen im Rahmen der sogenannten chemischen Evolution bislang nicht völlig aufgehellt ist.

Kehren wir zu den ersten Zellen zurück.

Ich hatte angekündigt, dass die TM als Grundmodell der Berechenbarkeit sich im Herzen des Biologischen wiederfindet.

RIBOSOM ALS TURINGMASCHINE

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

[Bild: links Ribosom, rechts Turingmaschine] Dies können Sie hier sehen:

Links sehen sie das Prozeßmodell, wie ein Ribosom – ein spezielles RNA-Molekül – Proteine erzeugt, indem es Informationen von einem Boten-RNA-Molekül bekommt und zugleich Aminosäurebasteine von Transfer-RNA-Molekülen. Der Dirigent im Hintergrund ist ein DNA-Molekül, dessen Bausteine als Informationseinheiten auf das Ribosom einwirken.

Was sie hier sehen ist das Herzstück allen biologischen Lebens und – möglicherweise – eines der wahren Wunder des ganzen Universums. Das, was allen bekannten Gesetzen der Physik zuwiderläuft und sich jeder anderen bekannten Erklärung entzieht das ist dieses DNA-Molekül. Das DNA-Molekül repräsentiert eine frei kombinierbare Anordnung von Aminosäuren, für die es in den möglichen Kombinationen keinerlei zwingende Gründe gibt. Durch die Verknüpfung mit dem proteinerzeugenden Mechanismus mittels mRNA, tRNA und Ribosom stellt die DNA aber eine Quelle von unerschöpflich vielen Bauplänen für Körperstrukturen dar.

Im Lichte des Konzepts der Turingmaschine bieten sich folgende Interpretationen an. Wie im Bild eingezeichnet lässt sich das Ribosom als eine Turingmaschine interpretieren, die als Input Eingaben von der mRNA und der tRNA bekommt und diese dann in eine Ausgabe als Protein verwandelt. Da das Ribosom, wie wir wissen, aber bzgl. seiner Eingaben nicht rückwärts gehen kann, sondern immer nur vorwärts, schöpft es die Möglichkeiten einer Turingmaschine nicht einmal ganz aus; es entspricht damit eher noch einer abgeschwächten TM mit Namen ‚endlicher deterministischer Automat‘.

Zentral bleibt das Faktum, dass wir im innersten Kern des Biologischen berechenbare Prozesse finden, die von einem DNA-Molekül gesteuert werden, das mit seinen Eigenschaften dem Konzept eines Zeichens sehr nahe kommt.

QUINTESSENZ des BIOLOGISCHEN

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

[Bild: Zusammenfassung Biologisches] Fassen wir diese verschiedenen Aspekte des Biologischen nochmals zusammen:

Ausgangspunkt aller biologischer Phänomene ist das kosmische Faktum, dass die Entropie bislang noch nicht maximal ist. Aus den lokalen Entropiegefällen ist daher ‚freie Energie‘ verfügbar, die in Gestalt von chemischen, biochemischen und dann biologischen Prozessen lokal Strukturen entstehen lassen, die immanent in Richtung immer größerer Komplexität drängen. Dafür gibt es bislang keine befriedigende naturwissenschaftliche Theorie.

In Gestalt der zellbasierten biologischen Evolution können wir ein komplexes Zusammenspiel zwischen Genotyp und Phänotyp einerseits beobachten, aber simultan genauso wichtig das Zusammenspiel zwischen Phänotyp und umgebender Welt. Während der zufallsgesteuerte Genotyp den Raum möglicher Strukturen frei absuchen kann, führt die Bindung des Genotyps an den Phänotyp über die Interaktion mit der umgebenden Welt zu einem übergeordneten Selektionsprozess, der nur jene Phänotypen und damit daran gekoppelte Genotypen akzeptiert, die zur Umgebung passen. Daraus ergibt sich, dass die biologische Evolution simultan und unausweichlich immer nur als Ko-Evolution funktionieren kann.

Damit stellt sich die Frage, ob wir es bei der Emergenz des Geistigen als Eigenschaft des Biologischen mit einer Neuerschaffung des Geistes zu tun haben, oder ’nur‘ mit der Sichtbarmachung des stehts schon vorhandenen ‚Geistigen‘?

Hält man sich diesen Gesamtzusammenhang vor Augen, dann kann der direkte Vergleich zwischen dem Menschen und einer Turingmaschine in einem neuen Licht erscheinen.

MENSCH und KÜNSTLICHER GEIST

MENSCH TURINGMASCHINE

Oben Systemformel Mensch, unten Systemformel Turingmaschine (TM) und dann Universelle Turingmaschine (UTM)

[Bild: Formel Mensch und (U)TM] Sie sehen auf diesem Schaubild nochmals die schon bekannte Verhaltensformel des Menschen, die sich dadurch auszeichnet, dass wir vom Menschen annehmen können, dass er sich innerhalb seines wissensbasierten Verhaltens bis zu einem gewissen Grade kontinuierlich verändern kann. Man nennt dies Lernen.

Die ’normale‘ Turingmaschine kann dies zunächst nicht. Sie ist vollständig determiniert. Allerdings nur auf den ersten Blick.

Schon Turing hat gezeigt, dass man eine deterministische Turingmaschine sehr leicht zu einer universellen sich selbst modifizierenden Maschine ‚umbauen‘ kann, indem man einen Teil des Bandes dazu benutzt, dort die Beschreibung einer beliebigen Turingmaschine (oder eines Gehirns, oder…) zu speichern. Die ursprüngliche deterministische Turingmaschine kann dann diese andere Turingmaschine simulieren bis dahin, dass sie diese andere Beschreibung in Abhängigkeit von Umgebungsereignissen abändern kann. Damit ist eine universelle Turingmaschine (UTM) voll lernfähig.

Zieht man diese Möglichkeit in Betracht, dann gibt es weder strukturell noch verhaltensmässig einen wesentlichen Unterschied zwischen einem Menschen (sofern er mit der obigen Formel adäquat erfasst wird) und einer universellen Turingmaschine.

Bei solch einer Betrachtungsweise verwundert es dann nicht, dass Turing selbst in verschiedenen Aufsätzen offen darüber spekuliert hatte, dass eine universelle Turingmaschine im Prinzip die vom Menschen her bekannte Geistigkeit nicht nur nachzuahmen sondern in bestimmten Bereichen sogar übertreffen könnte. Letztlich sah er nur praktische Hindernisse auf dem Weg dahin, insbesondere die Schwierigkeit, eine Maschine an all den Lernprozessen teilhaben zu lassen, die Menschen normalerweise durchlaufen.

Künstlicher Geist?

Wenn man sich all diese Gedanken in einer Gesamtschau nochmals vor Augen stellt, dann kann man den Eindruck gewinnen, dass all das, was wir traditionell ‚Geist‘ nennen, also diverse Eigenschaften, die wir mit dem Verhalten des Menschen zusammen bringen, möglicherweise so zu verstehen ist, dass hier Eigenschaften ’sichtbar‘ werden von jenen ‚impliziten‘ Eigenschaften der dynamischen Materie, aus dem alles ist. Die mit den bisherigen Gesetzen der empirischen Wissenschaften nicht erklärbaren biologischen Phänomene wären dann ’nur‘ ‚Ausfaltungen‘ von empirischen Eigenschaften, die genau wie alles andere impliziten ‚Gesetzen‘ folgen.

Wenn dies stimmen würde, dann müsste die ‚Konstruktion‘ eines künstlichen Geistes immer dann möglich sein, wenn man die ‚Randbedingungen‘ für das ‚Aufscheinen‘ (Emergenz?) der geistigen Phänomene bereitstellen würde.

In einer Diskussion in der Nacht des 9.Oktobers dieses Jahres entstand angesichts dieser Sachlage die Idee, in der Stadt Goethes, den künstlichen Geist unter Beteiligung der Öffentlichkeit offiziell entstehen zu lassen.

In einer öffentlich kontrollierten Entstehung des künstlichen Geistes hätten alle eine Chance, ein wesentliches Prinzip dieses unseres Universums und deren Anwendung bzw. Nutzung besser verstehen zu können.

Es geht nicht darum, den Geist neu zu erfinden, sondern das, was vor allem Denken schon da ist, sichtbar zu machen.

Erkennnis ist nicht nur ein Wissensproblem, sondern auch ein Akzeptanzproblem: sind wir bereit zu akzeptieren wer wir wirklich sind: Teil eines universalen Geistwerdungsprozesses, der uns eine immer größere Mitwirkungsmöglichkeit zuweist (womit nicht ausgeschlossen ist, dass es irgendwo in den unendlichen Weiten des Universums ähnliche Prozesse gibt).

An dieser Stelle höre ich jetzt auf, obgleich es ja gerade erst anfängt…

[Anmerkung (11.April 2015): Nach zwei Jahren Diskussion konnte im April die Webseite zum Emerging Mind Projekt eröffnet werden. Offizieller Start ist der 10.November 2015. In diesem Projekt geht es genau um das, was in dem vorausgehenden Beitrag diskutiert wurde, die öffentliche Erzeugung eines Künstlichen Geistes samt den dazugehörigen begleitenden philosophischen Diskussionen und künstlerischen Aktionen.]

LITERATURVERWEISE

 

  1. Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
  2. Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
  3. Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
  4. Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  5. Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
  6. Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
  7. Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27sproblems (Last access Sept-30, 2012)
  8. Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL:
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/(Last Access Sept-30, 2012)
  9. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
  10. TM – Beispiel aus dem Internet, vereinfacht. Siehe http://keinerspieltmitmir.de/turing/ (letzter Besuch: 12.Nov.2012)
  11. Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
  12. Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936;
    Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint
    in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at:
    http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012)
  13. Wikipedia (en): Body Surface at http://en.wikipedia.org/wiki/Human body (letzter Besuch: 12.Nov.2012)
  14. Wikipedia (en). Brain at http://en.wikipedia.org/wiki/Human brain (letzter Besuch: 12.Nov.2012)
  15. Wikipedia (en): Human skeleton at http://en.wikipedia.org/wiki/Human_skeleton (letzter Besuch 12.Nov.2012)
  16. Wikipedia (en):  Organs beyond the Body Surface at http://en.wikipedia.org/wiki/Human anatomy (letzter Besuch: 12.Nov.2012)
  17. Wikipedia (en): Neuron at http://en.wikipedia.org/wiki/Neuron (letzter Besuch: 12.Nov.2012)

Eine Übersicht über alle bisherigen Beiträge anhand der Titel findet sich HIER