Archiv für den Monat: November 2012

KURZNOTIZ 26.Nov.2012

ERSTEINTRAG. 26.Nov.2012

LETZTE ÄNDERUNG: 27.Nov.2012 (Als Zusatz)

 

  1. In dem Münchenvortrag wurde der Rahmen angedeutet, innerhalb dessen sich sowohl das Verhältnis Mensch und Computer einordnen lässt wie überhaupt Computer – Mensch – biologische Evolution. Fast alle Detailfragen blieben offen; dazu fehlte rein äußerlich einfach die Zeit.
  2. Für die Fragen nach dem Warum, Wozu, Wie, Wohin etc. gibt es bislang aber kaum überzeugende Antworten, eigentlich keine einzige; zumindest kenne ich keine.
  3. In der Literatur wird bei der Frage nach der Rolle und Bedeutung des Menschen fast immer auf seine äußerlichen Unterschiede zu den anderen biologischen Arten abgehoben, es wird — im Lichte des stark vereinfachten Evolutionsmodells — nach Faktoren in der Umwelt der homo sapiens sapiens Vorläufer gesucht, die ihn zum aufrechten Gang, zum Sprechen usw. ‚gebracht‘ haben. Dabei wird die ‚eigentliche Logik der Evolution‘, wie sie sich im Gesamtrahmen manifestiert, weitgehend ausgeklammert. Entsprechend wenig überzeugend sind die Antwortversuche.
  4. Bei mir verstärkt sich die Vermutung, dass die zentralen ‚Umbrüche‘ jene sind, in denen (i) Energie zu Materie ‚kondensiert‘, (ii) aufgrund von noch vorhandener freier Energie sich Atome zu komplexeren Verbindungen (Molekülen) zusammenfügen können, (iii) es zur — bis heute nicht ganz aufgeklärten — Entstehung der Dichotomie von Genotyp und Phänotyp kommen konnte; ein Vorgang, der mehrere kleinere Revolutionen zugleich beinhaltet, u.a. die Ausbildung von ‚reinen informationshaltigen Strukturen‘ (RNA, DNA); (iv) die Ausbildung von ‚hierarchischen Informationsstrukturen‘ im Genotyp (siehe u.a. Duve (Besprechung noch im Gang); mathematische Begründung bei Holland (Besprechung kommt noch)); (v) mit der weiteren Entwicklung des Phänotyps mit immer komplexeren Strukturen u.a. die Ausbildung von Gehirnen, die die Geschwindigkeit von Lernprozessen um den Faktor 10^7 beschleunigten (unter Beibehaltung der hierarchischen Informationsstrukturen!)!; (vi) ein Abfallprodukt dieser phänotypischen Komplexitätsbildung ist die symbolische Kommunikation. Diese ermöglicht eine neuartige Echtzeitkoordinierung der Informationsverarbeitung der individuellen Gehirne. Dies ermöglicht noch komplexere Informationsbildungen, die über aktuelle Zeitpunkte hinweg Eigenschaftsmengen der messbaren Welt abbilden lassen; (vii) ein weiteres Abfallprodukt ist die Replikation von gehirnbasierten Intelligenzleistungen durch technologiebasierten Intelligenzleistungen (salopp: ‚Computerbasierte Informationstechnologien‘). Dies steigert weiter die Komplexität, den Umfang und die Geschwindigkeit von Informationsstrukturen.
  5. Insgesamt lässt sich eine mehr als exponentielle Beschleunigung in dem Umfang der Komplexität wie auch in der Geschwindigkeit von Lernprozessen beobachten. Innerhalb der letzten ca. 60 Jahre ist ein Mehrfaches von dem passiert, was in den vorausgehenden 13 Milliarden Jahren passiert ist.
  6. Von daher ist kaum verwunderlich, wenn die offiziellen ‚Weltbilder‘ (’selbst gemachten Bilder von der Welt’…) geradezu dramatisch hinter der Realität hinterher hinken. Noch immer dienen die Bilder der großen Weltreligionen der Mehrheit der Menschen als Orientierungshilfen, obgleich sie mit dem Gang des Lebens auf dieser unseren Erde so gut wie nichts gemeinsam haben. Was immer man mit dem viel bemühten Begriff ‚Gott‘, ‚Deus‘, ‚Theos‘, ‚Alah‘, ‚Jahwe‘, ‚Elohim‘ usw. meinen mag, alles spricht dafür, dass dieser Gott ganz, ganz anders ist, als wir uns dies gerne vorstellen. Es würde mich nicht überraschen, wenn wir irgendwann feststellen würden, dass das mit ‚Gott‘ Gemeinte ‚in jedem Lebewesen‘ von Anfang an und unauflöslich ‚lebt‘. Es wirkt auch merkwürdig, wenn Menschen sich anmaßen, als Menschen über ‚Gott‘ zu reden; noch merkwürdiger wirkt es, wenn bestimmte Religionsgemeinschaften das mit ‚Gott‘ Gemeinte ausschließlich ‚für sich‘ reklamieren‘, als ob der ‚behauptete Schöpfer von allem‘ sich irgendwo in diesem gigantischen Prozess dann plötzlich eine kleine Schar von Menschlein auserwählt, um damit seine eigene gigantische Schöpfung ins Unrecht zu setzen (und da jede Gemeinschaft das für sich beansprucht, haben wir also diesen Gott gleich in mehrfacher Ausfertigung; dies klingt alles ‚allzu menschlich‘ und nicht wirklich ‚göttlich‘). Solche Gedanken erscheinen mir irgendwie lächerlich (und es ist ja auch auffällig, dass über die Begründung von solchen merkwürdigen Anschauungen niemand ernst nachdenkt; Denkverbote sind aber immer die schlechtesten Empfehlungen auf dem Weg zur Wahrheit).
  7. Im europäischen Bereich der Welt (die anderen kenne ich zu wenig) kann man dem Wettlauf mit der Wahrheit eine gewisse Dramatik nicht absprechen: während sich in der griechischen Philosophie im umfassenden Erkenntnisstreben noch irgendwie alles vereinte — wenngleich verständlicherweise die heute mögliche Präzision noch fehlte — kam es im Gefolge des Christentums (und damit implizit auch des Judentums) (und des Islams?) zu einer ‚Ideologisierung‘ im Umgang mit der Wahrheit. Nur unter größten Schwierigkeiten und Schmerzen konnten sich dann nach mehr als ca. 1500 Jahren die ‚Naturerkenntnis‘ aus dieser Umklammerung befreien und in Gestalt von lebensfördernder ‚Technik‘ und ‚Medizin‘ eine gewisse gesellschaftliche Anerkennung erringen. Auf der ‚Strecke‘ geblieben ist der Gesamtzusammenhang der Wahrheit. Die ‚philosophische Restgruppe‘ firmierte dann zwar weiterhin offiziell unter ‚Philosophie‘, ‚Theologie‘, später ideologisch etwas weichgespülter unter ‚Geisteswissenschaften‘, aber durch die selbstgewählte Aussperrung von experimentell begründeter Wahrheit und mathematischer Sprache umkreisten diese Wissenschaften die ‚menschlichen und gesellschaftlichen Phänomene‘ mit gepflegten Wortereignissen, bei denen nur die Eingeweihten ahnen konnten, was gemeint sein konnte. Erst seit Ende des 19.Jahrhunderts, Anfang des 20.Jahrhunderts kann man Versuche identifizieren, einzelne Bereiche des geisteswissenschaftlichen Bereiches zu ‚verwissenschaftlichen‘ (Paradebeispiel Psychologie, in der aber bis heute alle Schattierungen von wissenschaftlich bis quasi ‚freigeistig‘ vertreten sind).
  8. Es wäre verfehlt, hier mit ‚moralischen‘ Kategorien zu operieren. War — und ist! — es doch auch die natürliche Komplexität der Phänomene selbst, die sich einem schnellen Zugriff experimentalwissenschaftlichen Denkens entzog. Erst durch die gewaltigen Fortschritte der letzten 100 Jahre erscheint es möglich, die zuvor gedanklich schwer durchdringlichen Phänomene des Lebens, des Handelns, der Kultur, der Ästhetik usw. einem experimentell-analytischen Denken zugänglich zu machen.
  9. Nachdem nun aber klar wird, dass diese ‚Undurchdringlichkeit‘ keine absolute, sondern nur eine relative ist, wenn nun aber klar wird, dass die geisteswissenschaftlichen Phänomene genauso einer experimentell-analytischen Denkweise zugänglich sein können wie alle anderen Phänomene auch, dann müssen wir uns auch dieser gedanklichen Herausforderung stellen. Philosophie kann sich nicht in Philosophiegeschichte erschöpfen, Theologie nicht in ideologisch festgezurrten Gemeinplätzen, Kulturwissenschaft darf nicht weiterhin einfach ’seinsvergessen‘ nur mit den Oberflächenphänomenen effekthascherisch spielen. Die kulturellen Phänomene gründen in Phänotypen, denen eine konkrete materielle Logik zugrunde liegt, hinter der eine milliardenschwere Zeitwucht steht, die ganz offensichtlich nicht ganz beliebig zu sein scheint. Wie können wir ‚wie die Mücken‘ um das ‚Licht der Alltagsphänomene‘ ‚tanzen‘ während eine gigantische kosmische Maschinerie ein Schauspiel inszeniert, in dem 1000 Jahre wie eine Mikrosekunde wirken?
  10. Sich realisierende Erkenntnis, die Wahrheit akzeptiert, verliert mehrfach ihre Unschuld. Wahrheitsbezogene Erkenntnis ist nicht beliebig. Sie ‚lebt‘ in einer ‚Relation‘ zwischen dem ‚Erkennendem‘ und jenem, das sich dem Erkennenden ‚aufzwingt‘ (das altbekannte ‚Andere‘ der existentialistischen Philosophie und das Widerständige der experimentellen Forscher (… und auch jenes ‚Gegenüber‘ des Mystikers, das er nicht manipulieren kann, sondern das sich ihm gegenüber ‚verhält’…), eben als das ‚wirklich Andere‘, wenngleich wir wissen, dass wir das ‚Andere‘ immer nur im Modus unserer körperlichen Zustände erleben können (kein Gehirn kann das ‚Außen‘ zum Körper ‚direkt‘ erkennen). Und es ist auch klar, dass nicht jeder von vornherein quasi ‚von selbst‘ ‚voll wahrheitsfähig‘ ist. So, wie die Kinder einige Jahre benötigen, um überhaupt geordnet sprechen zu können, so müssen wir alle viele Jahre damit zubringen, den alltäglichen Strom der Phänomene zu sortieren und in Zusammenhänge setzen. Die Geschichte nur des formalen Denkens (Logik, Mathematik) alleine zeigt schon, wie schwer sich die Menschen in allen Jahrhunderten damit getan haben, geschweige denn die vielen anderen Denkformen. Ein ‚philosophierender Forscher‘ wird zum ‚Partner‘ in einem Prozess, der als solcher ‚auf ihn zukommt in einer Eigenständigkeit‘, die allerdings nicht vollständig ‚absolut‘ ist. Hier liegt ein Paradox verborgen: je mehr der Forscher sein ‚Gegenüber‘ kennt, um so mehr kann er es ‚verändern‘, und damit sich selbst, da er selbst Teil dieses Gegenstandes ist! D.h. wir beziehen unsere Wahrheit aus der ‚Vorgabe‘, aber in dem Maße wir diese Vorgabe ‚verstehen‘, können wir sie verändern!! Weitergedacht könnten wir prinzipiell das ganze Universum verändern, wenn wir im Verstehen weiter voranschreiten. Damit würde das biologische Leben immer mehr die Form dessen annehmen, was traditionellerweise ‚Gott‘ genannt wird. Würde das Biologische damit ‚wie Gott‘ oder würde ‚Gott‘, der klassischerweise ‚in allem wohnt‘ damit nur auf besondere Weise ’sichtbar‘? Das Biologische als ‚Ausstülpung‘ (manche mögen lieber ‚Emergenz‘) des universalen Geistes? Das sind noch ziemlich hilflose Überlegungen. Die ‚volle Wahrheit‘ wird vermutlich um Dimensionen interessanter und spannender sein. Aber es wird höchste Zeit, dass wir uns von den alten Bildern befreien. Sie erzählen von einer Welt, die es so gar nicht gibt.

 

Eine Übersicht über alle bisherigen Themen anhand der Titel findet sich HIER

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Vorgeschichte

Dieser Blogeintrag geht zurück auf einen Vortrag, den ich auf der Jahrestagung der deutschen Sektion von YPO (Young Presidents Organization) gehalten habe. Der ursprüngliche Titel lautete „Das Digitale als Synomym für berechenbare Prozesse“. Als der Text zu diesem Vortrag fertig war (am Tag davor) deutete sich schon an, dass der Vortrag eigentlich eine weitere, sogar eine weiterführende Botschaft enthielt, die sich im ursprünglichen Titel nicht so widerspiegelte. Während ich den Vortrag dann hielt wurde mir klar, dass – in der Tat – der eigentliche Inhalt ein anderer war; der ursprüngliche Titel war nicht falsch, aber zu ‚eng‘.

Da ich jeden Vortrag nur einmal halte und mir für den Vortrag immer eine Problemstellung vornehme, die ich selber gerne geklärt haben möchte ohne zum Zeitpunkt er Themenstellung schon zu wissen, ob es wirklich so gehen wird, gibt es immer diese fluktuierenden Überlegungen und Formulierungen vorher, in denen das mögliche Thema um seine finale Gestalt ringt. Bislang war es immer so, dass es unmittelbar vor dem Vortrag eine starke Klarheit gab, im Vortrag selbst und in den anschließenden Fragen das Ganze nochmals heftig ‚aufleuchtete‘ und in den nachebbenden Gedanken und Gesprächen sich dann der ‚finale Gedanke‘ gezeigt hat.

So auch hier. Die benutzten Diagramme sind mit denen im Vortrag identisch, der Wortlaut nicht genau, aber dem Inhalt nach.

Ankündigungstext ohne Leser

Der folgende Text wurde von mir als Ankündigungstext verfasst, wurde dann aber doch nicht publiziert. Er gibt so ein wenig den ‚Flair‘ im Vorfeld wieder:

Wir leben in einer Zeit, in der die Computertechnik immer mehr Bereiche des täglichen Lebens durchdringt, uns in eine Symbiose mit dem Digitalen zwingt, der wir uns nur schwer bis gar nicht entziehen können: Im Haushalt, in der Haustechnik, beim Entwerfen und Bauen von Häusern, in der Musik, beim Fernsehen, bei der Filmproduktion, in den Verwaltungen, in der industriellen Produktion, bei der Verkehrssteuerung, in jedem Auto, in jedem Flugzeug, bei der täglichen Kommunikation,…und, und, und,…. Wie ist dies möglich? Wie kann eine Technologie für uns zu einer Art ‚zweiten Natur‘ werden? Wie kann eine einzige Technologie nahezu alle Lebensbereiche durchdringen? Wie kann Technik Eigenschaften annehmen, die wir eigentlich nur dem Menschen zuschreiben: Wahrnehmen, Begriffe bilden, Schlüsse ziehen, Wiedererkennen, Kreativ sein, Gefühle haben, Ansätze von Selbstbewusstsein? Wo führt dies hin? Wird uns die Computertechnik irgendwann doch überflüssig machen?

In seinem Vortrag wird Prof. Doeben-Henisch diesen Fragen nachgehen. Er führt zurück zum Ursprung des Computers, ins Zentrum der mathematischen Dispute um die Jahrhundertwende, die dann in den Personen von Kurt Goedel und Alan Matthew Turing zum neuen philosophisch-mathematischen Begriff ‚endlicher Prozess‘ bzw. zum Begriff der ‚Berechenbarkeit‘ führten. Der Mensch selbst stand Modell für das mathematische Konzept der Turingmaschine (1936/7), das dann wenige Jahre später zu realen Maschinen führte, die mit Relais, dann Röhren, schließlich mit Halbleitern demonstrierten, dass und wie man ‚rechnende Maschinen‘ bauen kann. Innerhalb von 60 Jahren eroberte diese Technologie die ganze Welt. Die binären Zustände der Computer zeigten sich mächtig genug, sich nahezu alles einzuverleiben: Zahlen, Texte, Bilder, Geräusche, Musik, Objekte, Gebäude, Pflanzen, Tiere, Abläufe, ganze Städte. Zur Zeit versuchen Forscher weltweit, Maschinen mit ‚künstlichem Geist‘ zu schaffen. Als Vorlage dient das menschliche Gehirn. Prof. Doeben-Henisch wird zeigen, warum wir im Moment keine Argumente haben, warum dies nicht gehen könnte.

Die Überlegungen zu den Grundlagen des menschlichen Geistes führen auch hinein in die Frage nach der Natur des Menschen, in seine Geschichte, in die Geschichte der Entstehung des Menschen, in die innere Logik der Evolution des Lebens auf der Erde. Die Forschung hat uns in den letzten 80 Jahren aufregende neue Einblicke in die Struktur des Lebens vermittelt, die wiederum verschränkt sind mit der Entwicklung des bekannten Universums selbst. Man kann sehen, dass das Digitale als lingua universalis berechenbarer Prozesse sich schon im Inneren des Biologischen selbst als ‚Sprache des Lebens‘ findet. Das Leben selbst als großer ‚Computer‘ oder, umgekehrt, der ‚Computer‘ als neue Spielart jenes Prinzips, das wir als Leben bezeichnen?

Dies sind einige der zentralen Themen, die im Vortrag angesprochen werden. Der Vortrag endet mit dem offensichtlichen Faktum der Ko-Evolution von Universum – Erde – biologischem Leben und digitaler Technologie. Was bedeutet dies für uns?

 

VORTRAG

(Anmerkung: Der geschriebene Text entspricht natürlich nicht exakt dem Wortlaut des frei vorgetragenen Vortrags)

Meine sehr verehrten Damen und Herren,

nachdem Sie in den vorausgehenden Vorträgen schon einiges gehört haben zu den vielfältigsten Phänomenen, die das Digitale in unserem heutigen Alltag hervorbringt, möchte ich mich in meinem Vortrag mehr der Frage  nach der Maschinerie hinter diesen Phänomenen widmen. Was sind das für Strukturen, die all dies möglich machen? Welches Prinzip ist so mächtig, dass es all diese verschiedenartigen Phänomene hervorbringen kann, die dem Menschen in seinen Lebensvollzügen immer näher kommen, ja, bisweilen sogar schon zu inneren Bestand von diesen werden?

Für die Beantwortung dieser Frage werde ich Sie mit drei Konzepten bekannt machen, die auf erstaunliche Weise untereinander zusammenhängen: das Konzept der rechnenden Maschine, das neue Bild des Menschen und die Einbettung beider Konzepte in den Gang der Evolution. Und sie werden dann sehen, dass diese Zusammenschau der drei Konzepte etwas ganz Neues aufscheinen lässt, nämlich das Konzept ‚Geist‘ als jene Größe, die in all diesen Prozessen als etwas ‚aufscheint‘, was ’schon immer da ist‘. Würde dieser erste Eindruck zutreffen, dann würde es bei den Versuchen der ‚Erschaffung‘ eines ‚künstlichen‘ Geistes weniger darum gehen, etwas ‚Neues‘ zu ‚erschaffen‘, sondern mehr darum, etwas, das ’schon immer da ist‘, mit neuen Methoden ’sichtbar‘ zu machen.

Ich werde zum Ende daher auch kurz auf ein Experiment hinweisen, in dem wir genau dies tun: den ‚Geist‘ in Form eines ‚künstlichen‘ Geistes sichtbar machen.

Beginnen wir mit uns selbst, dem dem Menschen, dem homo sapiens sapiens.

DER MENSCH

VIELSCHICHTIG

 

Vielschichtigkeit des Menschen (Quellen: Synthese aus vier Bildern von Wikipedia (en), siehe Literaturnachweise)

[Bild: vier Sichten des Menschen] Ich möchte mit einem Schaubild beginnen, das zeigt, wie vielschichtig wir Menschen bei näherer Betrachtung sind. Sie sehen einmal links die Oberfläche des Menschen, wie sie sich uns darbietet, wenn wir uns nackt zeigen. Doch bei der Frage, ob wir den Menschen mit dieser Oberfläche gleich setzen sollen, werden wir dies verneinen müssen. Wir wissen heute, dass hinter bzw. unter dieser Oberfläche eine Fülle von hochkomplexen Organen zu finden ist, die durch ihre kontinuierliche Arbeit alle unsere Lebensprozesse ermöglichen. Was wären wir ohne Herz, Nieren, Lunge, Leber, Magen, Darm usw.? Zugleich wissen wir, dass all diese wunderbaren Organe im Chaos enden würden, gäbe es nicht das Nervensystem mit dem Gehirn, das all diese Tätigkeiten – ergänzend zum Blutkreislauf und zum Immunsystem –– koordiniert, anregt, steuert. Und dann noch das augenfällige System von Knochen und Gelenken, in sich ein überaus lebendes System, ohne das alle Haut und Organe in einen Zellklumpen zusammenstürzen würden, der alsbald verenden würde. Vier überaus komplexe Systeme, die vielfach ineinander greifen und in diesem Zusammenwirken das Gesamtkunstwerk menschlicher Körper in seiner Grundstruktur ermöglichen. Wissen wir damit, was und wer der Mensch ist? Haben wir die Psyche, den Geist, die Seele vergessen?

Bevor ich darauf eine Antwort versuche, hier ein kurzer Szenenwechsel. Im Film würden man sagen, ein harter Schnitt.

FORMALISIERUNG DER VIELFALT ALS  SYSTEM

Formalisierung des Menschen als System mit Input und Output

[Bild: Box mit Eingang/ Ausgang und Verhaltensfunktion] Was Sie auf diesem Bild sehen können, ist ein Diagramm und eine kleine Formel.

Dieses Diagramm und diese Formel entspricht ein wenig der Art, wie ein mathematisch geschulter Ingenieur die zuvor präsentierte Vielfalt des Menschen hinschreiben könnte.

 

Die Box mit Überschrift ‚System‘ kann einen Menschen repräsentieren, der aus seiner Umgebung Stimuli – abgekürzt ‚S‘ – als Input ‚I‘ empfangen kann (also Augen, Ohren, Tastempfindungen usw.) und der über seinen Output ‚O‘ Reaktionen ‚R‘ an die Umgebung abgeben kann, also diverse Bewegungen, Schallereignisse, usw. Im Innern des Systems gibt es verschiedene interne Zustände (internal states, IS), die zum Funktionieren des Systems wichtig sind. Z.B. die diversen Organe, das Nervensystem, die Knochen, usw. Und zwischen all diesen Elementen, dem Input, den internen Zuständen und dem Output, gibt es einen funktionalen Zusammenhang, der im Bild einfach mit dem griechischen Buchstaben ‚phi‘ (Φ, φ) benannt wird.

 

Alternativ zu solche einem Diagramm würde man aber auch einfach die kürzere Formel hinschreiben, die genau das gleiche zum Ausdruck bringt: der funktionale Zusammenhang ‚phi‘ nimmt Inputwerte und aktuelle Zustände als Ausgangspunkt und berechnet daraus mögliche Änderungen der inneren Zustände und einen Output. Also, Beispiel, sie sitzen in einem Auto und sehen (=Input) eine rote Ampel. Da sie gelernt haben, bei Rot tunlichst stehen zu bleiben (=IS), verändern sie ihre Fußstellung und bremsen (=IS, O).

Dieses kleine Beispiel mag auch ein wenig verdeutlichen, wie Ingenieure vorgehen, wenn sie die vielfältige Wirklichkeit mit der Sprache der Mathematik vereinfachen und dadurch all die wunderbaren Dinge bauen können, die Sie jeden Tag wie selbstverständlich benutzen. Ohne diese mathematische Sprache würden wir noch immer steinzeitlich leben.

Betrachten wir noch ein weiteres Beispiel im Kontext des Menschen, das uns helfen wird, die Brücke zur rechnenden Maschine zu bauen.

 

GEHIRN UND NERVENZELLE

Gehirn als Teil der menschlichen Organe; daneben ein einzelnes Neuron (Quelle: zwei Bilder aus Wikipedia komponiert, aus Wikipedia (en), siehe Literaturnachweise)

[Bild: Gehirn links, Nervenzelle rechts] Werden wir ein wenig bescheidener und nehmen uns nur einen Teil des Menschen vor, sein Gehirn. Nach neuen Schätzungen umfasst ein Gehirn etwa 100 Mrd Neuronen (Kandel et al. 2012:S.21). Diese sind in der Regel nicht direkt miteinander verbunden.

 

Die typische Struktur eines Neurons sieht man rechts vom Gehirn. Es gibt genau einen Ausgangs (das Axon), der sich vieltausendfach verzweigen kann, sowie viele tausend Eingänge. In dem kleinen hervorgehobenen Kreis kann man die Eigenart der neuronalen Verbindungen erkennen: das Endstück eines Axons endet kurz vor der Oberfläche des Neurons; es bleibt ein kleiner synaptischer Spalt.

NERVENZELLE UND MEMBRAN

Neuron links mit Vergrößerung einer Synapse rechts. Neuronbild aus Wikipedia (en). Quelle siehe Literaturverzeichnis

[Bild: Neuron und Membran schematisiert] In dem nachfolgenden Bild ist dies schematisierend und vergrößert dargestellt. Die Oberfläche der empfangenden Zelle stellt eine Membran dar, die man postsynaptische Membran nennt, die zusammen mit dem Endstück des Axons eine Synapse bildet. Die Kommunikation zwischen Endstück und potsysnaptischer Membran wird über Moleküle (Transmittermoleküle) realisiert, die beim Auftreten eines elektrischen Potentials im Axon aus den Vesikeln entlassen werden. Diese diffundieren durch den synaptischen Spalt und können dort, falls sie ‚passen‘ an Rezeptormolekülen von Ionenkanälen andocken. Jede postsysnaptische Membran hat mehrere Tausend solcher Ionenkanäle. Docken diese Transmittermoleküle an den Rezeptoren an, öffnen sich die Ionenkanäle. Es findet dann ein schlagartiger Austausch von Ionen in und außerhalb der Membran statt. Dieser schlagartiger Austausch hat einen ebenso plötzlichen Wechsel des elektrischen Potentials zur Folge, was dann zu dem bekannten Ein-Aus-Signal eines Neurons führen kann.

 

Gäbe es nur Ionenkanäle, dann wäre mit dem einmaligen Öffnen der Kanäle – bildlich gesprochen – alles Pulver verschossen. Diese Membran würde nie mehr ein weiteres Signal erzeugen können. Das aber ist eigentlich ihre Aufgabe. Zu diesem Zweck gibt es noch einige tausend Ionenpumpen. Diese sind in der Lage Ionen gegen ein Konzentrationsgefälle von außen nach Innen oder umgekehrt zu pumpen. Dazu benötigen sie Energie. Da sie insgesamt langsamer arbeiten als der Ionenaustausch durch die Kanäle stattfindet, entstehen zwischen den einzelnen Signalereignissen Refraktionszeiten, in denen keine Schaltvorgänge möglich sind.

 

Sie sehen also, schon die vielen tausend Membranen einer einzigen Nervenzelle (es können bei einer Zelle mehr als 1 Mio sein!) bilden kleine, komplexe Maschinen, deren Funktion Signalerzeugung und Signalfluss im Gehirn ermöglicht.

 

Während ein Neurowissenschaftler zur Beschreibung einer Nervenzelle und des Gehirns auf alle diese unfassbar komplexen Details eingehen muss, kann ein Ingenieur, der ein künstliches Gehirn bauen möchte, sich fast entspannt zurücklehnen und die Frage stellen, welche Eigenschaften an einem Neuron denn wesentlich sind, um sein Schaltverhalten zu erfassen.

Eine typische Antwort würde so aussehen:

 

NERVENZELLE MATHEMATISCH

Formalisierung eines Neurons durch Konzentration auf die Schalteigenschaften

[Bild: Nervenzelle mathematisch] Sie sehen wieder ein Box, dieses Mal ‚Neuron‘ genannt. Der ‚Input‘ zu dieser Box bilden die Endstücke von anderen Neuronen. Im Bild sind es drei Eingänge, es könnten aber n-viele sein. Dazu ein Ausgang, das Axon, das sich auf n-viele viele andere Neuronen – letztlich auch auf sich selbst – verteilen kann. In der Box können Sie drei einfache Formeln erkennen, die drei aufeinander folgende Verarbeitungsstufen repräsentieren. In der ersten Stufe werden die mit wij gewichteten Aktionspotentiale aij der einzelnen Eingänge summiert zum Wert net_j. Dann wird mittels der Aktivierungsfuntkion f_act berechnet, ob diese summierten Eingangssignale zusammen mit dem letzten Aktionspotential a_j einen vorgegebenen Schwellwert theta (θ) überschreiten oder nicht. Falls der Schwellwert überschritten wird, wird ein neues Aktionspotential a_j erzeugt, das dann schließlich mit der Ausgabefunktion f_out in einen geeigneten Ausgabewert umgerechnet wird.

 

Genauso wenig wie eine einzelne Schwalbe bekanntlich einen Frühling macht, genauso wenig kann man mit einem einzelnen Neuron etwas interessantes anfangen. Der Ingenieur muss sich also noch etwas einfallen lassen, wie er die vielen Neuronen zusammenbringt. Vielleicht ahnen Sie schon, was jetzt kommt:

 

KÜNSTLICHES GEHIRN

Übergang von einm Zeitpunkt zum nächsten, beschrieben mit Vorschrift ’syn‘

[Bild: Mengen von Neuron-Verbindungen] Eine einfache Möglichkeit, die Gesamtheit aller Neuronen zu betrachten, besteht darin, jeweils zwei, die miteinander in Verbindung stehen, als ein Paar zu betrachten, das bestimmte Verbindungswerte besitzt, und dann die Menge aller dieser Paare als eine Einheit zu einem bestimmten Zeitpunkt. Im Bild ‚CON‘ genannt, die Menge aller Connections.

 

Was dann noch bleibt ist die Beschreibung der Dynamik dieser Zellen, die Art der Veränderungen von einem Zeitpunkt zum nächsten. Dieser Veränderungszusammenhang wird im Bild ‚dyn‘ genannt, eine mathematische Vorschrift, die sagt, wie ich vom Zustand der Zellen zu einem Zeitpunkt zum Zustand der Zellen beim nächsten Zeitpunkt komme.

 

Damit ist für den Ingenieur alles gesagt, was gesagt werden muss. Ob dieses künstliche Gehirn Bilder erkennen soll, Sprache sprechen, sich erinnern können soll, usw. all dies ist damit erfasst. Sollte der Ingenieur in der Praxis feststellen, dass er wichtige Eigenschaften übersehen hat, dann fügt er sie einfach in seine Formeln ein.

Gehen wir nach diesem Ausflug ins Gehirn nochmals zur Ausgangsbox mit dem Menschen zurück.

 

NOCHMALS SYSTEMBOX

Integration des Teilomodells ‚Gehirn‘ in das allgemeine Systemmodell vom ‚Menchen‘

[Bild: Nochmals die Systembox, jetzt mit Verfeinerungen] Soeben haben wir das Gehirn als eine Teilbereich des Körpers näher betrachtet. Wollen wir diese Erkenntnisse in der allgemeinen Box verorten, dann müssen wir sagen, dass die Menge CON eine Teilmenge der Menge IS der internen Zustände ist, und die Verarbeitungsvorschrift ‚dyn‘ ist ein Teil der allgemeinen Verhaltensfunktion φ des Menschen.

 

Sie können an diesem Beispiel einmal sehen, wie man mit der Sprache der Mathematik komplizierteste Sachverhalte auf einfache Strukturen zurückführen kann, und – und darauf kommt es in unserem Zusammenhang besonders an – dass der Mensch – also wir selbst – bei dieser Betrachtungsweise eine Struktur besitzt, die uns durch diese Struktur vergleichbar macht mit allen anderen Strukturen.

Eine der Strukturen, mit denen ich die Struktur des Menschen vergleichen möchte, ist die Struktur eines endlichen Prozesses.

Um zu beschreiben und zu erklären was ‚berechenbare Prozesse‘ sind, müssen wir einen kleinen Ausflug in die Welt der Logik und Mathematik machen.Ich hoffe dann zeigen zu können, warum die berechenbaren Prozesse und wir Menschen mehr gemeinsam haben, als die meisten vermuten, und warum das Reden vom ‚Geist‘, auch vom ‚künstlichen Geist‘ heute eine ganz andere Bedeutung bekommen hat, als es bislang üblich war.

 

DIGITALE MASCHINE

DISKUSSION DER MATHEMATIKER

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

[Bild: Schema einer formalen Theorie] Natürlich werde ich hier nicht auf die Details der Diskussionen im Kontext der sogenannten Grundlagenkrise der Mathematik zum Ende des 19. und zu Beginn des 20.Jahrhunderts eingehen können. Nur so viel sei hier gesagt, dass die Logiker und Mathematiker dieser Zeit ein Problem damit hatten, die Grundlagen der Mathematik so zu beschreiben, dass keine Paradoxien entstehen konnten, erst recht keine direkten Widersprüche in den formalen Systemen und natürlich wünschte man sich vollständige Systeme, d.h. formale Systeme, in denen man alle Aussagen, die im Sinne des Systems wahr sein sollen, auch beweisbar sind.

 

Eine der wichtigsten mathematischen Schulen innerhalb dieser Diskussionen war die Schule um David Hilbert, der die Lösung des Problems einer befriedigenden Darstellung der Mathematik darin sah, eine Reihe von möglichst einfachen formalen Systemen zu schaffen (basierend auf einer endlichen Menge von Axiomen), deren Widerspruchsfreiheit und Vollständigkeit mit sogenannten ‚endlichen Mitteln‘ gezeigt werden kann. Alle komplizierteren Theorien sollten dann auf diese einfachen Systeme zurückgeführt werden.

Im Alltag mag es uns nicht als Problem erscheinen, von ‚endlichen Mitteln‘ zu sprechen. Aber wenn es darum geht, allgemein zu beschreiben, was hinreichend geeignete endliche Mittel sind, um eine mathematische Theorie als widerspruchsfrei und vollständig zu erweisen, dann zeigt sich plötzlich, dass dies nicht so einfach ist, wie sich dies Hilbert und seine Schule erhofft hatten.

GOEDEL – TURING

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

[Bild: Goedel und Turing historisch] Es war Kurt Goedel, der 1930-31 zeigen konnte, dass das Grundlagenprogramm von Hilbert und seiner Schule prinzipiell unmöglich war. Er zeigte, dass eine mathematische Theorie, die mindestens so stark wie die Arithmetik ist, aus prinzipiellen Gründen nur eines von beiden sein kann: entweder widerspruchsfrei (konsistent) oder vollständig, aber nicht beides zugleich. Dieses Ergebnis trifft in das Herz jeder mathematischen Theorie, bis heute. Es zeigt, dass es prinzipielle Grenzen in der Beweisbarkeit von mathematischen Wahrheiten gibt.

Diese Probleme treten immer dann auf, wenn es darum geht, innerhalb (!) einer formalen Theorie (mindestens so stark wie eine Prädikatenlogik erster Stufe) die Widerspruchsfreiheit und Vollständigkeit zu beweisen. Natürlich kann man das Problem dadurch zu umgehen versuchen (was sehr viele versucht haben), eine zusätzliche ‚Beschreibungsebene‘ einzurichten, von der aus sie dann ‚über‘ (Griechisch ‚meta‘) die Objekte der anderen ebene ‚reden‘. Solche Art von Hierarchisierungen oder Typisierungen oder Metaebenen entsprechen der üblichen Arbeitsweise des menschlichen Gehirns. Allerdings bildet diese Strategie bei näherem Hinsehen keine wirkliche Lösung. Zwar verschwinden in der Objekttheorie all jene Elemente, die ‚über sich selbst‘ reden können, aber die Metaebene selbst, die ja auch den Berechenbarkeitsforderungen mathematischer Beweise genügen müssen, enthalten dann genau all jene Elemente wieder, die zu der von Kurz Goedel aufgedeckten Schwachstelle führen.

Eine letzte philosophische Würdigung dieser Sachverhalte scheint mir noch auszustehen.

Mit diesen Überlegungen sind wir beim Thema Berechenbarkeit angekommen.

Die Diskussion unter Mathematikern hängt von Beweisen ab, die geführt werden. Diese Beweise müssen mit sogenannten endlichen Mitteln geführt werden, damit sie nachvollziehbar sind. Goedel selbst hatte ein geniales Verfahren ersonnen, um unter Benutzung von natürlichen Zahlen seine Beweise zu führen. Aber er war von seinem eigenen Beweis nie begeistert, obgleich niemand ihn bis heute widerlegen konnte.

Es war dann einem gewissen Alan Matthew Turing vorbehalten fünf Jahre später die Beweise von Goedel nochmals mit anderen Mitteln zu führen. Und diese Beweismittel – später Turingmaschine genannt – fanden nicht nur die Zustimmung von Goedel, sondern von nahezu allen nachfolgenden Generationen. Bis heute ist die Turingmaschine das wichtigste mathematische Konzept für alle Berechenbarkeitsbeweise – und damit der mathematische Referenzpunkt für alles, was wir heute Computer nennen.

Weil dem so ist, weil das Konzept der Turingmaschine eine solch eminente philosophische und mathematische Bedeutung zukommt, lassen Sie mich dieses Konzept kurz vorstellen. Es ist so einfach, dass die meisten, die es zum ersten Mal kennen lernen, sofort fragen: und das soll alles sein? Ich versichere Ihnen, das ist alles und – und das möchte ich dann zum Abschluss zeigen – das Konzept der Turingmaschine findet sich auch schon im Kern von allem Biologischen. Ein Befund, den man nun nicht unbedingt erwarten muß.

TURINGMASCHINE

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

[Bild: Theorieprozess TM] So wie Newton angeblich beim Fallen eines Apfels seine entscheidende Einsicht in das Wesen des Gravitationsgesetzes bekommen haben soll, so beschreibt Turing selbst in dem entscheidenden Artikel von 1936-7, dass es die Arbeit eines Buchhalters im Büro war, die ihn inspiriert hat. So, wie der Buchhalter mit einem Stift auf einem Blatt Papier Zahl an Zahl fügt, so stellte er sich eine ideale Maschine vor (siehe im Bild rechts oben), die auf einem Band mit lauter Kästchen, entweder über ein Schreib-Lese-Fenster lesen kann, was in dem Kästchen geschrieben ist oder ein neues Zeichen in das Kästchen schreiben kann. Darüber hinaus kann die ideale endliche Maschine den Schreib-Lesekopf nur um ein Feld nach links oder rechts bewegen. Das ist alles. Das Verhalten der idealen endlichen Maschine wird gesteuert über eine endliche Liste von Befehlen

TM BEISPIEL

Bild einer 4-zeiligen Turingmaschine, Vereinfachung eines Beispiels von einer Webseite (Quelle: siehe Literaturvereichnis). Auf der Webseite kann man dieses Beispiel sowohl erweitern als auch real ausführen.

[Bild: TM mit vier Zeilen] In einem einfachen Beispiel einer TM können Sie solche Befehlszeilen erkennen: in der ersten Spalte steh der Name eines Zustandes (z0), dann folgt ein Feld mit dem Zeichen, das gelesen werden kann, dann eine Feld mit dem Namen des Folgezustandes (z0), dann das Zeichen, das in diesem Fall geschrieben werden soll, und schließlich ein Zeichen, welche Bewegung ausgeführt werden soll.

Im Beispiel würde man die erste Zeile etwa wie folgt lesen: Im Zustand z0 wird beim Lesen des Zeichens ‚#‘ der Zustand z0 beibehalten, für das Zeichen ‚#‘ würde das neue Zeichen ‚1‘ geschrieben und der Schreib-Lesekopf wird um 1 Feld nach rechts bewegt.

Im Beispiel umfasst das ganze Verhaltens-Programm 4 Zeilen.

Das ist alles. Das ist die berühmte Turingmaschine, die sich als weltweiter Standard zur Prüfung der Berechenbarkeit eines Prozesses durchgesetzt hat. Was immer bislang an anderen Formalismen gefunden wurde, sofern solch ein Formalismus endliche Berechenbarkeit beschreiben soll, war er niemals stärker als eine Turingmaschine.

Oder anders ausgedrückt:

Sofern es nicht möglich ist, zu zeigen, dass eine Turingmaschine, angesetzt auf ein Problem, nach endlichen vielen Schritten zu einem Ergebnis kommt, solange kann man nicht behaupten, dass dieses Problem (Turing-)berechenbar ist.

Auf der Basis der Turingmaschine wurden in den vergangenen Jahrzehnten eine ganze Reihe interessanter Unentscheidbarkeitsresultate bewiesen. Auf die kann ich hier jetzt nicht eingehen. In meinen Augen habe diese Ergebnisse alle eine sehr hohe philosophische Relevanz.

Wie eingangs festgestellt, sehe ich einen interessanten Zusammenhang zwischen der Turingmaschine, dem Menschen und der Evolution des Biologischen. Lassen Sie uns daher einen kurzen Blick darauf werfen.

EVOLUTION, KOEVOLUTION, …

GENOTYP UND PHÄNOTYP

Wechselwirkung zwischen Genotyp und Phänotyp einerseits und Phänotyp mit umgebender ökologischer Nische andererseits

[Bild: Genotyp und Phänotyp] Ausgangspunkt dieser Überlegungen ist das erstaunliche Faktum, dass die Vielfalt und Komplexität der Körper – der sogenannte Phänotyp – zurückführbar ist auf die zugrunde liegenden genetischen Informationen – auf den sogenannten Genotyp –. In einem Wachstumsprozess wird – ausgehend von einer einzigen Zelle – ein Körpergebilde mit vielen Billionen Zellen aufgebaut, die alle in einem sinnvollen funktionalen Zusammenhang enden.

Es lohnt, sich klar zu machen, dass dieses unfassbare Wunderwerke eine sehr lange, komplexe Entstehungsgeschichte hat, die selbst im universalen Maßstab ihresgleichen sucht.

EVOLUTION ALS TEIL DER ENTWICKLUNG DES UNIVERSUMS

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

[Bild: Entwicklung des Universums mit Evolution] Das Schaubild zeigt maßstabsgetreu wichtige Entwicklungsstationen im bekannten Universum an. Unsere Position auf der Zeitachse ist unmittelbar dort, wo das grüne Dreieck endet. Das grüne Dreieck zeigt an, ab wann zellbasiertes Leben auf der Erde nachweisbar ist. Die Erde begann ca. vor 4.55 Mrd Jahren. Die chemische Evolution, die dann zu ersten einfachen Zellen führte, setzte ungefähr vor 4 Mrd. Jahren ein, 200 Mio Jahre später eben erste einfachste Zellstrukturen. Es dauerte dann etwa 2.8 Mrd Jahre bis es zu ersten multizellulären Lebensformen kam, die dann einige hundert Mio Jahre später zur Besiedlung des Landes führte. Von diesem Zeitpunkt bis zu uns dauerte es nochmals 700 Mio Jahre.

Nach heutigem Wissensstand wird es nur ca. 1 Mrd Jahre dauern, bis in der Zukunft das Leben auf der Erde wegen der beginnenden Aufblähung der Sonne praktisch unmöglich werden wird.

Sind schon diese zeitlichen Verhältnisse atemberaubend, so ist es noch spannender, wenn man der Frage nachgeht, wie es denn überhaupt zur Ausbildung dieser extrem komplexen Strukturen kommen konnte.

Das Schwierigste ist dabei nicht einmal die biologische Evolution, die mit dem Auftreten der ersten Zellen vor ca. 3.8 Mrd. Jahren begann, sondern die härteste, bis heute nicht geknackte Nuss, ist eine Erklärung, wie es überhaupt zu den ersten Zellen kommen konnte. Denn selbst bei den einfachsten Zellen wirken schon so viele komplexe Strukturen zusammen, dass eine Erklärung der schrittweisen Entstehung dieser Strukturen im Rahmen der sogenannten chemischen Evolution bislang nicht völlig aufgehellt ist.

Kehren wir zu den ersten Zellen zurück.

Ich hatte angekündigt, dass die TM als Grundmodell der Berechenbarkeit sich im Herzen des Biologischen wiederfindet.

RIBOSOM ALS TURINGMASCHINE

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

[Bild: links Ribosom, rechts Turingmaschine] Dies können Sie hier sehen:

Links sehen sie das Prozeßmodell, wie ein Ribosom – ein spezielles RNA-Molekül – Proteine erzeugt, indem es Informationen von einem Boten-RNA-Molekül bekommt und zugleich Aminosäurebasteine von Transfer-RNA-Molekülen. Der Dirigent im Hintergrund ist ein DNA-Molekül, dessen Bausteine als Informationseinheiten auf das Ribosom einwirken.

Was sie hier sehen ist das Herzstück allen biologischen Lebens und – möglicherweise – eines der wahren Wunder des ganzen Universums. Das, was allen bekannten Gesetzen der Physik zuwiderläuft und sich jeder anderen bekannten Erklärung entzieht das ist dieses DNA-Molekül. Das DNA-Molekül repräsentiert eine frei kombinierbare Anordnung von Aminosäuren, für die es in den möglichen Kombinationen keinerlei zwingende Gründe gibt. Durch die Verknüpfung mit dem proteinerzeugenden Mechanismus mittels mRNA, tRNA und Ribosom stellt die DNA aber eine Quelle von unerschöpflich vielen Bauplänen für Körperstrukturen dar.

Im Lichte des Konzepts der Turingmaschine bieten sich folgende Interpretationen an. Wie im Bild eingezeichnet lässt sich das Ribosom als eine Turingmaschine interpretieren, die als Input Eingaben von der mRNA und der tRNA bekommt und diese dann in eine Ausgabe als Protein verwandelt. Da das Ribosom, wie wir wissen, aber bzgl. seiner Eingaben nicht rückwärts gehen kann, sondern immer nur vorwärts, schöpft es die Möglichkeiten einer Turingmaschine nicht einmal ganz aus; es entspricht damit eher noch einer abgeschwächten TM mit Namen ‚endlicher deterministischer Automat‘.

Zentral bleibt das Faktum, dass wir im innersten Kern des Biologischen berechenbare Prozesse finden, die von einem DNA-Molekül gesteuert werden, das mit seinen Eigenschaften dem Konzept eines Zeichens sehr nahe kommt.

QUINTESSENZ des BIOLOGISCHEN

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

[Bild: Zusammenfassung Biologisches] Fassen wir diese verschiedenen Aspekte des Biologischen nochmals zusammen:

Ausgangspunkt aller biologischer Phänomene ist das kosmische Faktum, dass die Entropie bislang noch nicht maximal ist. Aus den lokalen Entropiegefällen ist daher ‚freie Energie‘ verfügbar, die in Gestalt von chemischen, biochemischen und dann biologischen Prozessen lokal Strukturen entstehen lassen, die immanent in Richtung immer größerer Komplexität drängen. Dafür gibt es bislang keine befriedigende naturwissenschaftliche Theorie.

In Gestalt der zellbasierten biologischen Evolution können wir ein komplexes Zusammenspiel zwischen Genotyp und Phänotyp einerseits beobachten, aber simultan genauso wichtig das Zusammenspiel zwischen Phänotyp und umgebender Welt. Während der zufallsgesteuerte Genotyp den Raum möglicher Strukturen frei absuchen kann, führt die Bindung des Genotyps an den Phänotyp über die Interaktion mit der umgebenden Welt zu einem übergeordneten Selektionsprozess, der nur jene Phänotypen und damit daran gekoppelte Genotypen akzeptiert, die zur Umgebung passen. Daraus ergibt sich, dass die biologische Evolution simultan und unausweichlich immer nur als Ko-Evolution funktionieren kann.

Damit stellt sich die Frage, ob wir es bei der Emergenz des Geistigen als Eigenschaft des Biologischen mit einer Neuerschaffung des Geistes zu tun haben, oder ’nur‘ mit der Sichtbarmachung des stehts schon vorhandenen ‚Geistigen‘?

Hält man sich diesen Gesamtzusammenhang vor Augen, dann kann der direkte Vergleich zwischen dem Menschen und einer Turingmaschine in einem neuen Licht erscheinen.

MENSCH und KÜNSTLICHER GEIST

MENSCH TURINGMASCHINE

Oben Systemformel Mensch, unten Systemformel Turingmaschine (TM) und dann Universelle Turingmaschine (UTM)

[Bild: Formel Mensch und (U)TM] Sie sehen auf diesem Schaubild nochmals die schon bekannte Verhaltensformel des Menschen, die sich dadurch auszeichnet, dass wir vom Menschen annehmen können, dass er sich innerhalb seines wissensbasierten Verhaltens bis zu einem gewissen Grade kontinuierlich verändern kann. Man nennt dies Lernen.

Die ’normale‘ Turingmaschine kann dies zunächst nicht. Sie ist vollständig determiniert. Allerdings nur auf den ersten Blick.

Schon Turing hat gezeigt, dass man eine deterministische Turingmaschine sehr leicht zu einer universellen sich selbst modifizierenden Maschine ‚umbauen‘ kann, indem man einen Teil des Bandes dazu benutzt, dort die Beschreibung einer beliebigen Turingmaschine (oder eines Gehirns, oder…) zu speichern. Die ursprüngliche deterministische Turingmaschine kann dann diese andere Turingmaschine simulieren bis dahin, dass sie diese andere Beschreibung in Abhängigkeit von Umgebungsereignissen abändern kann. Damit ist eine universelle Turingmaschine (UTM) voll lernfähig.

Zieht man diese Möglichkeit in Betracht, dann gibt es weder strukturell noch verhaltensmässig einen wesentlichen Unterschied zwischen einem Menschen (sofern er mit der obigen Formel adäquat erfasst wird) und einer universellen Turingmaschine.

Bei solch einer Betrachtungsweise verwundert es dann nicht, dass Turing selbst in verschiedenen Aufsätzen offen darüber spekuliert hatte, dass eine universelle Turingmaschine im Prinzip die vom Menschen her bekannte Geistigkeit nicht nur nachzuahmen sondern in bestimmten Bereichen sogar übertreffen könnte. Letztlich sah er nur praktische Hindernisse auf dem Weg dahin, insbesondere die Schwierigkeit, eine Maschine an all den Lernprozessen teilhaben zu lassen, die Menschen normalerweise durchlaufen.

Künstlicher Geist?

Wenn man sich all diese Gedanken in einer Gesamtschau nochmals vor Augen stellt, dann kann man den Eindruck gewinnen, dass all das, was wir traditionell ‚Geist‘ nennen, also diverse Eigenschaften, die wir mit dem Verhalten des Menschen zusammen bringen, möglicherweise so zu verstehen ist, dass hier Eigenschaften ’sichtbar‘ werden von jenen ‚impliziten‘ Eigenschaften der dynamischen Materie, aus dem alles ist. Die mit den bisherigen Gesetzen der empirischen Wissenschaften nicht erklärbaren biologischen Phänomene wären dann ’nur‘ ‚Ausfaltungen‘ von empirischen Eigenschaften, die genau wie alles andere impliziten ‚Gesetzen‘ folgen.

Wenn dies stimmen würde, dann müsste die ‚Konstruktion‘ eines künstlichen Geistes immer dann möglich sein, wenn man die ‚Randbedingungen‘ für das ‚Aufscheinen‘ (Emergenz?) der geistigen Phänomene bereitstellen würde.

In einer Diskussion in der Nacht des 9.Oktobers dieses Jahres entstand angesichts dieser Sachlage die Idee, in der Stadt Goethes, den künstlichen Geist unter Beteiligung der Öffentlichkeit offiziell entstehen zu lassen.

In einer öffentlich kontrollierten Entstehung des künstlichen Geistes hätten alle eine Chance, ein wesentliches Prinzip dieses unseres Universums und deren Anwendung bzw. Nutzung besser verstehen zu können.

Es geht nicht darum, den Geist neu zu erfinden, sondern das, was vor allem Denken schon da ist, sichtbar zu machen.

Erkennnis ist nicht nur ein Wissensproblem, sondern auch ein Akzeptanzproblem: sind wir bereit zu akzeptieren wer wir wirklich sind: Teil eines universalen Geistwerdungsprozesses, der uns eine immer größere Mitwirkungsmöglichkeit zuweist (womit nicht ausgeschlossen ist, dass es irgendwo in den unendlichen Weiten des Universums ähnliche Prozesse gibt).

An dieser Stelle höre ich jetzt auf, obgleich es ja gerade erst anfängt…

[Anmerkung (11.April 2015): Nach zwei Jahren Diskussion konnte im April die Webseite zum Emerging Mind Projekt eröffnet werden. Offizieller Start ist der 10.November 2015. In diesem Projekt geht es genau um das, was in dem vorausgehenden Beitrag diskutiert wurde, die öffentliche Erzeugung eines Künstlichen Geistes samt den dazugehörigen begleitenden philosophischen Diskussionen und künstlerischen Aktionen.]

LITERATURVERWEISE

 

  1. Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
  2. Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
  3. Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
  4. Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  5. Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
  6. Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
  7. Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27sproblems (Last access Sept-30, 2012)
  8. Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL:
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/(Last Access Sept-30, 2012)
  9. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
  10. TM – Beispiel aus dem Internet, vereinfacht. Siehe http://keinerspieltmitmir.de/turing/ (letzter Besuch: 12.Nov.2012)
  11. Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
  12. Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936;
    Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint
    in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at:
    http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012)
  13. Wikipedia (en): Body Surface at http://en.wikipedia.org/wiki/Human body (letzter Besuch: 12.Nov.2012)
  14. Wikipedia (en). Brain at http://en.wikipedia.org/wiki/Human brain (letzter Besuch: 12.Nov.2012)
  15. Wikipedia (en): Human skeleton at http://en.wikipedia.org/wiki/Human_skeleton (letzter Besuch 12.Nov.2012)
  16. Wikipedia (en):  Organs beyond the Body Surface at http://en.wikipedia.org/wiki/Human anatomy (letzter Besuch: 12.Nov.2012)
  17. Wikipedia (en): Neuron at http://en.wikipedia.org/wiki/Neuron (letzter Besuch: 12.Nov.2012)

Eine Übersicht über alle bisherigen Beiträge anhand der Titel findet sich HIER

EINSCHUB – ‚RADICALLY UNPLUGGED‘ ALS ERKENNTNISFORM

(1) Eigentlich versuche ich das Buch von Duve zu Ende zu besprechen. Während des Semesterbetriebes muss ich aber in vielen Prozessen parallel denken und arbeiten. Es gibt dann immer diese ‚Zeitscheiben‘ (wie das klingt, die Zeit in ‚Scheiben‘ geschnitten, wie Salami oder Käse…) und jede Zeitscheibe ist eine kleine ‚Welt für sich‘, als ob es das andere nicht gibt. Allerdings ist unser Körper (das unbekannte Wesen, letztlich), der diese verschiedenen Zeitscheibenwelten ‚beherbergt‘ und untereinander auf geheimnisvolle Weise verknüpfen kann, so als ob die eine Zeitscheibe mit der anderen ‚redet’….In diesem Sinne spricht jetzt hier eine ‚Zeitscheibe‘ während die andere (Besprechung Duve) ‚ruht’…
(2) Ich mache seit Jahren ‚Selbstversuche‘ mit experimenteller Musik. Ich wusste lange nicht, wie ich dies einschätzen sollte: Völliger ‚Humbug‘, ‚Zeitverschwendung‘, ‚Lächerlich‘, …mittlerweile bin ich aber sicher, dass dies eine fast unausweichliche Verhaltensweise ist, wenn man in der immer stärkeren Automatisierung und Virtualisierung unser Kultur seinen eigenen ‚Realitätskern‘ nicht verlieren will. Es ist sicher auch kein Zufall, dass die ’nachwachsende‘ Generation (wie das klingt ’nachwachsend‘, aber es ist mehr als wahr, wenn es auch den individuellen Egoismus und die individuelle Eitelkeit von so manchem stark ankratzt…) im Bereich Musik (zumindest abseits der populären Schiene, die immer nur das gewohnt Konventionelle reproduziert (man will ja ‚gefallen‘, es geht nicht um Erkenntnis…)) extrem experimentell vorgeht (die Musikerin Dominique Dillon de Byington, genannt Dillon ist hier nur ein Beispiel von vielen (hundert?)).
(3) Diese meine Einschätzung hängt damit zusammen, dass im täglichen Erkenntnisvollzug jeder von uns in erster Linie und unausweichlich in der ‚Schleife des Bekannten‘ hängt. Unser Körper (und hier speziell das Gehirn) verfügt über die wunderbare Gabe, wahrnehmbare Ereignisse (niemand spricht über die unfassbar große Menge der ’nicht-wahrnehmbaren‘ Ereignisse!) mit Hilfe von bestimmten Mustern (das hatte schon Kant und viele andere Philosophen zum Nachdenken gebracht) in ‚abstrakteren‘ Einheiten zu ‚organisieren‘ und uns damit ein ‚Bild‘ von einer ‚alltäglich geordneten‘ Welt aufbereitet, die wir für ‚wahr‘ nehmen und wir unser Verhalten entsprechend diesem Bild ausrichten.
(4) Der wichtige Punkt ist hier die ‚Unausweichlichkeit‘ in dem Sinne, dass unser Gehirn-Körper auch ohne unser ‚Zutun‘ so ‚arbeitet‘ und auf diese Weise in jeder wahrnehmbaren Zeitscheibe (ja, unser Körper arbeitet mit Zeitscheiben einer messbaren Länge!) ein ‚Produkt‘ abliefert, das wir als ‚Welt‘ bezeichnen.
(5) Solange sich die ‚reale‘ Welt mit den Bildern der ‚Gehirn-Körper-Generierten‘ Welt in Übereinstimmung befindet, ergibt sich ein gewisser Gleichklang, Einklang, Harmonie, eine ‚Flüssigkeit‘, eine ‚Vertrautheit‘, die uns in ‚gewohnten Bahnen‘ laufen lässt. Weichen die realen Ereignisse von den ‚erwarteten‘ ab, gibt es ‚Unruhe‘; bei solchen Gelegenheiten haben wir die Chance, zu bemerken (zu erkennen?), dass die ‚Welt im Kopf‘ nicht die ‚Welt da draußen‘ ist. Die einen unternehmen viele Anstrengungen, entweder solche ‚Beunruhigungen‘ von vornherein zu ‚unterbinden‘ (! lieber ‚Ruhe‘ als ‚Wahrheit‘!), oder sie zu unterdrücken, falls sie dann doch auftreten. Gelingt dies alles nicht, gibt es die Aggressiven, die die Quelle der Beunruhigung auszuschalten versuchen, die ‚Possenreißer‘, die das Ungeplante per Humor zersteuben wollen, … die Bandbreite möglicher Reaktionen ist groß. Das ‚Unerwartete‘ bewusst zu integrieren ist auf jeden Fall anstrengender als es nicht zu tun.
(6) Als Kinder ist dieser beständige Konstruktionsprozess das ‚Normale‘; wir nennen das ‚Lernen‘. Dass Kinder dabei ziemliche Dramen durchleben können ist nicht unbedingt Allgemeingut bei den Erwachsenen…
(7) Manche ziehen aus dem Unverhofften, Unerwarteten ‚Nutzen‘; sie verändern ihr Bild von sich, den anderen, der Welt….
(8) Die Frage ist auch, inwieweit wir im Laufe des Lebens diese grundlegende Lernfähigkeit verlieren können. Ich werde niemals den Kontrast vergessen, den ich als Jugendsozialarbeiter erlebt habe, als ich in einer deutschen Großstadt nachmittags mit Kindergruppen (7-11 Jahre) gearbeitet hatte und abends mit den ‚Älteren‘ (ca. 17-22 Jahren). Innerhalb von 5 bis 10 Jahren können junge Menschen nahezu alle positiven Fähigkeiten verlieren, die sie als Kinder mal hatten. Der Einfluss der täglichen Umgebung erscheint erschreckend gewaltig destruktiv: aus selbstbewussten kreativen neugierigen Wesen werden stumpfe ideenlose hoffnungslose Wesen ohne Selbstvertrauen, die Menschen, die unsere Zukunft tatkräftig gestalten sollen, ohne zu wissen, wer sie selbst sind….
(9) Wie auch immer, selbst wenn man viele Dinge in seinem Leben konstruktiv gemeistert haben mag. Die Tendenz, sich im Erfolg letztlich doch zu verstetigen, in gebahnte Bahnen zu erstarren, sich im Gewohnten zu betäuben, ist massiv. Als ich vor ein paar Jahren dazu kam, nach mehr als 35 Jahren Pause wieder Musik zu machen, ohne Training, unmusikalisch, keine Zeit zu großen Übungen, alleine, in einem Mehrparteienmietshaus (Lärm praktisch unmöglich), psychologisch in einer schlechten Situation: was denken die Leute (ganz zu schweigen von meiner Frau), da blieb mir nur eines, ‚radically unplugged music (RUM)‘ als ‚legale‘ Form des Musikmachens zu erklären. Quasi als Manifest gegen die Diktatur der herrschenden Gewohnheiten, die u.a. die meisten Radio- und Fernsehkanäle besetzt halten, als ‚Aufschrei‘ des unterdrückten Individuums, das angesichts dieser allseitigen ‚Vernormung‘ dessen was sein darf zu ersticken droht, an ‚Atemnot‘, weil alles, was man als einzelner tun kann, bevor man es tut, schon gesellschaftlich ’nichts‘ ist. Globalisierung als Elimination des Individuums im Ansatz. Zerstörung von Kreativität und Erkenntnis im Ansatz. Menschenverachtend. Zynismus pur…
(10) Als ich gestern — während ich etwas schrieb — zufällig im Hintergrund die Sendung ‚Punk in Myanmar‘ in zdf-kultur sah (siehe: http://aufnahmezustand.zdf.de/ZDF/zdfportal/programdata/cd946bca-3138-33a7-9ff7-c183e90cd233/20065425?doDispatch=1″), merkte ich, wie ich von diesem Bericht sehr beeindruckt war. Dieser Bericht verstand es, die Situation der jungen Menschen in der Diktatur Myanmar so in Szene zu setzen, dass jedem Zuschauer klar werden konnte, warum diese jungen Leute so waren, wie sie sind, und dass diese den Nerv des möglichen Lebens in einer lebensfeindlichen Umgebung in — auf ihre Weise — aufopfernder Weise zu Gehör bringen wollten. Die persönlichen Risiken, die sie dabei eingingen, ihr Engagement, war sehr beeindrucken. Beeindruckend auch die einzige Sängerin, die schließlich aber wegen ihres Vaters wieder aufhörte, zu singen. Am tiefsten beeindruckte mich die Mutter des einen, eine emeritierte Professorin für Chemie. Wahnsinn welche Personalität, Liebe und Tiefe. Wie sie mit der Andersartigkeit ihres Sohnes und der ganzen Bewegung umging trotz der Ablehnung und Aggressivität der Umgebung!!!!! Hier erschien die Musik als Teil des Lebens, des Lebenskampfes, des Lebenlernens, als authentische Tätigkeit in dem Kampf um Wahrheit, Authentizität, Lebensgefühl schlechthin.
(11) Myanmar erscheint weit weg von Deutschland aus gesehen. Aber in gewisser Weise ist es direkt um uns herum. Auch wir erleben unzählige Prozesse um uns herum, die ‚lebensfeindlich‘ sind, die die uns unsere Ideen stehlen, uns unserer Lebensgefühle zu entfremden drohen, und auch wir sind beständig herausgefordert, uns aus dem Alltagsschlaf heraus zu reißen und uns zu fragen: ist es das wirklich? Soll es so sein oder sollte es nicht ganz anders sein? Jeder weiß, dass wir genügend offene Rechnung mit der Gegenwart haben…
(12) In mir verstärkt sich das Gefühl, dass die Methode ‚Radically Unplugged‘ etwas wirklich Grundlegendes ist, die Art und Weise betrifft, in der wir mit uns selbst und der Welt um uns herum umgehen. In einer Welt der globalisierenden Virtualisierung und Normierung durch diktatorische Kapitalmassen haben wir als Individuen nur noch die Authentizität. Diese alleine reicht zwar nicht, ist aber eine fundamentale Voraussetzung. Ohne diese sind wir nur mehr das dreihundert-billionste Bit in einem gigantischen Datenmeer, das von so vielen verschiedenen ‚Geistern‘ angetrieben wird, dass …..
(13) Merkwürdigerweise können wir im Prinzip alles ändern… nicht nur, indem wir alles zerstören, was in ein paar Milliarden Jahre ohne unser Zutun aufgebaut wurde, nicht nur, aber das ‚konstruktive Gestalten‘, eher eine Form des ‚Miterschaffens‘, ist extrem lernabhängig, dialogisch, … wir müssen verstehen, wer wir sind, wozu wir da sind, was dieses ganze Universum soll, um vielleicht weniger zu zerstören und ein wenig beizutragen. Der kosmologische Prozess selbst hat uns ins Szene gesetzt, ohne dass wir es wollten. Es wäre mehr als erstaunlich, wenn diese implizit kosmologische Weisheit nicht auch für die Option eines konstruktiven Mitwirkens eine Option parat halten würde… unsere aktuelle Dummheit ist aber vielleicht noch zu groß, als dass wir es verstehen können…

RUM Links

Insgesamt wird empfohlen, entweder richtig gute Kopfhörer zu benutzen oder eine richtig gute Soundanlage. Normale PC-Lautsprecher sind einfach zu schlecht; man hört irgendein Gequäcke aber keinen wirklichen ‚Sound’…

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER