Archiv der Kategorie: Gehirn – künstliches

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 5

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 28.August 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE ÄNDERUNG: 1.Dez.2018, Wiederholung der vorausgehenden Diskussion gestrichen. Kumulierte Zusammenfassungen sind HIER.

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

KAP.6 TOPOBIOLOGIE: WAS MAN VOM EMBRYO LERNEN KANN

  1. Der Ausgangspunkt ist weiterhin die Frage, welche materiellen Prozesse zu jenen materiellen Strukturen geführt haben, die für uns den homo sapiens repräsentieren. Diese materiellen Strukturen des homo sapiens zeigen eine Fülle von Verhaltenseigenschaften (Dynamiken), die wir als Hinweise auf ‚Geist‘ klassifizieren. Bisher wurden diese vorausgehenden formierenden Prozesse schon begrenzt auf die beiden Pole ‚Genotyp‘ und ‚Phänotyp‘ mit der Arbeitshypothese, dass die Eigenschaften des Genotyps weitgehend (wie weitgehend eigentlich? Kann man das quantifizieren?) die Eigenschaften des Phänotyps festlegen. Edelman selbst konkretisiert diese beiden Pole noch weitergehender mit der Frage, wie ein ‚ein-dimensionaler genetischer Kode‘ letztlich ein ‚drei-dimensionales Lebewesen‘ definieren kann.(vgl. S.63)
  2. Die Redeweise vom ‚genetischen Kode‘ setzt voraus, dass es eine Instanz gibt, die die Eigenschaften des Moleküls, das als ‚genetischer Kode‘ angesehen wird, als ‚Kode‘ ‚interpretieren‘ kann, d.h. diese Kode-erkennende-und-interpretierende Instanz (letztlich wieder ein Molekül) ist in der Lage, zwischen den materiellen Eigenschaften des Gen-Repräsentierenden Moleküls (normalerweise als DNA-Molekül vorliegend) und einer möglichen Proteinstruktur eine ‚Abbildung‘ vorzunehmen, die aus dem Bereich des ‚abstrakten Kodes‘ hinaustritt in den Bereich realer, 3-dimensionaler materieller Strukturen und Prozesse.
  3. Edelman beschreibt die konkreten Details des Gen-repräsentierenden-Moleküls M_gen (als DNA-Molekül; spezielle Abschnitte eines DNA-Moleküls repräsentieren ‚Gene‘), beschreibt die einzelnen Kode-Elemente (genannt ‚Kodons‘, ‚codons‘), die den späteren Transformationsprozess in materielle Strukturen steuern. Dieser Transformationsprozess geschieht aber nicht direkt, sondern über einen Zwischenschritt, in dem das Gen-repräsentierenden-Molekül M_gen in ein spiegel-identisches Gen-repräsentierendes-Molekül M_gen* (als RNA-Moleküle) übersetzt wird, das den Zellkern einer Zelle verlässt und dort dann von einer Kode-erkennende-und-interpretierende Instanz (‚cellular device‘) schrittweise in Aminosäuren übersetzt wird, die aneinander gekettet lange Moleküle (Polypeptide) bilden, die sich weiter als drei-dimensionale Strukturen ausformen, die schließlich Proteine repräsentieren. Aufgrund ihrer drei-dimensionalen Struktur kommen den Proteinen ‚Formen‘ (’shapes‘) zu, mit denen sich charakteristische ‚Eigenschaften‘, ‚Funktionen‘ verbinden. Schon diese Proteinformen kann man als Zwischenstufen zu einem Phänotyp ansehen. Unter anderem können sich Proteine zu komplexen ‚Zellen‘ zusammen finden (einem weiteren, komplexen Phänotyp), die ihren eigenen Zellkern haben mit einem spezifischen Genotyp. Verschiedene Proteine können ganz verschiedene Zellen bilden! (vgl. SS.52-57)
  4. Schon dieser Transformationsprozess von einem Gen-repräsentierenden-Molekül M_gen zu einer Zelle deutet in den einzelnen Phasen vielfältige Möglichkeiten der Variation, der Veränderung an. Doch, eine einzelne Zelle macht noch kein Lebewesen. Eine Lebensform wie der homo sapiens besteht – wie wir heute wissen – aus vielen Billionen (10^12) einzelnen Zellen, allein das Gehirn aus ca. 90 Milliarden neuronalen Zellen (ohne Glia-Zellen). Wie muss man sich diesen Weg von einer (!) befruchteten Zelle zu vielen Billionen Zellen in Form eines Lebewesens vorstellen?
  5. Dieser Transformationsprozess von einer befruchteten Eizelle ‚Zygote‘ genannt (‚zygote‘) zum ausgewachsenen Lebewesen wird von der Teilwissenschaft der ‚Embryologie‘ (‚embryology‘) behandelt. Die befruchtete Zelle (eine Vereinigung einer ‚Samenzelle‘ (’sperm cell‘) und einer ‚Eizelle‘ (‚egg cell‘) unterläuft eine lange Serie von Teilungen. Zellen können aber noch mehr als sich nur teilen: sie können ‚migrieren‘ (‚migrate‘), ‚absterben‘, ‚anhaften aneinander‘, und sich ‚differenzieren‘ (‚differentiate‘), d.h. abhängig von bestimmten chemischen Signalen in ihrer Umgebung werden unterschiedliche Gene aktiviert, um ganz spezifische Proteine zu erzeugen. Dadurch können Zellen (das Phänotyp) ganz unterschiedliche Dynamiken, unterschiedliche Verhaltensweisen zeigen. Differentiation von Zellen ist somit kontextabhängig, d.h. setzt die Nähe zu bestimmten anderen Molekülen (die als Signale fungieren) voraus, wobei die Signale Sender voraussetzen, die in Form von Zellen auftreten.(vgl. S.57f)
  6. Aufgrund dieser grundlegenden Fähigkeit der Differentiation (also eines signalabhängigen Verhaltens (Edelman spricht hier von ‚Ortsabhängigkeit‘; mit dem griechischen Wort ‚topos‘ für Ort spricht er dann auch von ‚Topobiologie‘; diese Wortwahl ist aber gefährlich, da sie primär Raumstrukturen nahelegt, obgleich der Prozess selbst nur Signale kennt (natürlich in einem Raum)) können Zellen, selbst wenn sie sich im Verlaufe des Transformationsprozesses zu unterschiedlichen ‚Schichten‘ (‚layer‘) anordnen, über Entfernungen hinweg ‚Signale senden‘, die kontextbedingt ausgelöst werden. Die schrittweise ‚Gestaltwerdung‘ von immer komplexeren Strukturen wird damit ‚aus sich selbst‘ gesteuert. Je nach aktueller Anordnung bestehen spezifische Kontexte, die spezifische neue Signale auslösen, die die ’nächsten Schritte‘ einleiten. Dabei spielen offensichtlich zwei Faktoren ineinander: (i) das in den Genen hinterlegte ‚Programm‘ konstituiert ein allgemeines ‚Schema‘, ein ‚Template‘, das einen grundlegenden Bauplan, eine grundlegende Architektur skizziert, und (ii) die jeweils konkreten individuellen Zellen, die assoziiert mit unterschiedlichen Kontexten durch den Raum wandern, bilden ein konkretes ‚Bedingungsgefüge‘, eine aktuelle ‚Selektionsmatrix‘, die darüber entscheidet, wann und wie Teile des generellen Bauplans konkretisiert werden. Der Möglichkeitsraum des genetischen Programms wird über die Konkretheit der selektierenden Zellen eingeschränkt, auf konkrete Punkte ‚herunter spezifiziert‘. Dieser Vorgang bietet zahlreiche Variationsmöglichkeiten. Mittlerweile hat man entdeckt, dass der Signalprozess stark hierarchisch sein kann insofern es ‚homöotische‘ (‚homeotic‘) Gene gibt, die die Proteinproduktion bestimmter Gene kontrollieren. (vgl. SS.58-63)
  7. Edelman benutzt den Begriff ‚Epigenetik‘ in den geschilderten Kontexten als jene Faktoren, Ereignisse, Prozesse, die zusätzlich zu den Genen selbst für die Umsetzung der Transformation von Genen in Proteinen, in Zellen, in Zellverbände verantwortlich sind.(vgl. S.62)
  8. Nach diesem embryologischen Einblick in die Entwicklungsdynamik eines Organismus kann Edelman skizzieren, wie die charakteristischen Strukturen des Gehirns eines homo sapiens sich gebildet haben können und warum diese Strukturen artspezifisch sind, d.h. diese Strukturen sind typisch für den homo sapiens; alle Exemplare der Lebensform ‚homo sapiens‘ haben die gleiche Struktur. Zugleich gilt aber auch, dass selbst eineiige Zwillinge sich im Detail dieser Strukturen unterscheiden können und tatsächlich unterscheiden. Das Zusammenspiel von allgemeinem genetischen Programm und den ‚konkreten individuellen Zellen‘ in ihren jeweils ’spezifischen Kontexten‘ bietet solch ungeheure Variationsmöglichkeiten, dass das gleiche artspezifische genetische Programm sich im Detail immer unterscheiden wird. Diese in der Art des Transformationsprozesses angelegte Variabilität ist aber eben nur die eine Seite. Die andere Seite ist die arttypische Struktur, die einen Organismus, ein Gehirn spezifiziert, wodurch eine ‚Architektur‘ definiert wird, die unterschiedlichste Funktionen an unterschiedliche ‚Komponenten‘ bindet, die zudem typische ‚Interaktionsmuster‘ zeigen. Exemplare des homo sapiens haben daher alle eine typische Weise des ‚Wahrnehmens‘, des ‚Erinnerns‘, des ‚Denkens‘, des ‚Fühlens‘, usw.(vgl. S.63f)

DISKUSSION FORTSETZUNG

  1. Die fundamentale Tatsache, dass es Moleküle gibt, die andere Moleküle als ‚Kode‘ benutzen können, um Transformationsprozesse zwischen einer Sorte von Molekülen (DNA, RNA) in eine andere Sorte von Molekülen (Polypeptide, Proteine) steuern zu können, nimmt Edelman als Faktum hin, thematisiert es selbst aber nicht weiter. Er benennt diese ‚interpretierenden Moleküle‘ auch nicht weiter; sein Begriff ‚cellular device‘ ist eher nichtssagend. Dennoch ist es gerade diese Fähigkeit des ‚Übersetzens’/ ‚Interpretierens‘, die fundamental ist für den ganzen Transformationsprozess von einem Genom in einen Phänotyp bzw. in eine ganze Kette von hierarchisch aufeinander aufbauenden Phänotypen. Setzt man diese Übersetzungsfähigkeit voraus, ist das ganze folgende Transformationsgeschehen – so komplex es im Detail erscheinen mag – irgendwie ‚trivial‘. Wenn ich in mathematischer Sicht irgendwelche Mengen habe (z.B. verschiedene Arten von Moleküle), habe aber keine Beziehungen definiert (Relationen, Funktionen), dann habe ich quasi ‚Nichts‘. Habe ich aber z.B. eine Funktion definiert, die eine ‚Abbildung‘ zwischen unterschiedlichen Mengen beschreibt, dann ist es eine reine Fleißaufgabe, die Abbildung durchzuführen (z.B. die Übersetzung von DNA über RNA in Aminosäuren, dann Polypeptide, dann Proteine). Das die Biochemie und Mikrobiologie samt Genetik so viele Jahre benötigt hat, die Details dieser Prozesse erkennen zu können, ändert nichts daran, dass diese Transformationsprozesse als solche ‚trivial‘ sind, wenn ich die grundlegende Transformationsfunktion definiert habe. Wo aber kommt diese grundlegende Abbildungsfunktion her? Wie kann es sein, dass ein ordinäres chemisches Molekül ein anderes ordinäres chemisches Molekül als ‚Kode‘ interpretiert, und zwar genau dann so, wie es geschieht? Betrachtet man ’normale‘ Moleküle mit ihren chemischen Eigenschaften isoliert, dann gibt es keinerlei Ansatzpunkt, um diese grundlegende Frage zu beantworten. Offensichtlich geht dies nur, wenn man alle Moleküle als eine Gesamtheit betrachtet, diese Gesamtheit zudem nicht im unbestimmten Raum, sondern in Verbindung mit den jeweils möglichen ‚realen Kontextbedingungen‘, und dann unter Berücksichtigung des potentiellen Interaktionsraumes all dieser Moleküle und Kontexte. Aber selbst diese Raum repräsentiert im mathematischen Sinne nur Mengen, die alles und nichts sein können. Dass man in diesem Raum eine Funktion implantieren sollte, die dem Dekodieren des genetischen Kodes entspricht, dafür gibt es im gesamten Raum keinerlei Ansatzpunkt, es sei denn, man setzt solche eine Funktion als ‚Eigenschaft des Raumes‘ voraus, so wie die Physiker die ‚Gravitation‘ als Eigenschaft des Raumes voraussetzen, ohne irgendeinen Ansatzpunkt im Raum selbst zu haben, als die beobachtbare Wirkung der Gravitation. Die Biologen können feststellen, dass es tatsächlich einen Transformationsprozess gibt, der solch eine Abbildungsbeziehung voraussetzt, sie haben aber keine Chance, das Auftreten dieser Abbildungsbeziehung aus den beobachtbaren materiellen Strukturen abzuleiten!!!
  2. In der Beschreibung von Edelmans Position habe ich schon angemerkt, dass seine Wortwahl ‚Topobiologie‘ möglicherweise unglücklich ist, da es letztlich nicht der dreidimensionale Raum als solcher ist, der entscheidend ist (wenngleich indirekt die Drei-Dimensionalität eine Rolle spielt) sondern der ‚Kontext in Form von interaktiven Nachbarschaften‘: welche andere Zellen stehen in Interaktion mit einer Zelle; welche Signale werden empfangen. Indirekt spielt dann auch der ‚vorausgehende Prozess‘ eine Rolle, durch den eben Kontexte erzeugt worden sind, die nur in bestimmten Phasen des Prozesses vorliegen. Man hat also eher einen ‚Phasenraum‘, eine Folge typischer Zustände, die auseinander hervorgehen, so, dass der bisherige Prozess die nächste Prozessphase hochgradig determiniert. Dies ähnelt einer ‚algorithmischen‘ Struktur, in der eine Folge von Anweisungen schrittweise abgearbeitet wird, wobei jeder Folgeschritt auf den Ergebnissen der vorausgehenden Abarbeitungen aufbaut und in Abhängigkeit von verfügbaren ‚Parameterwerten‘ den nächsten Schritt auswählt. Im Unterschied zu einem klassischen Computer, bei dem die Ausführungsumgebung (normalerweise) festliegt, haben wir es hier mit einem algorithmischen Programm zu tun, das die jeweilige Ausführungsumgebung simultan zur Ausführung ‚mit erschafft‘! Wenn Computermetapher, dann eben so: ein Programm (Algorithmus), das seine Ausführungsumgebung (die Hardware) mit jedem Schritt selbst ‚erschafft‘, ‚generiert‘, und damit seine Ausführungsmöglichkeiten schrittweise ausbaut, erweitert. Dies setzt allerdings voraus, dass das genetische Programm dies alles schon ‚vorsieht‘, ‚vorwegnimmt‘. Die interessante Frage ist dann hier, wie ist dies möglich? Wie kann sich ein genetisches Programm ‚aus dem Nichts‘ entwickeln, das all diese ungeheuer komplexen Informationen bezüglich Ausführung und Ausführungsumgebung zugleich ‚aufgesammelt‘, ’strukturiert‘, ‚verpackt‘ hat, wo die Gesamtheit der modernen Wissenschaft bislang nur Fragmente versteht?
  3. Während Neurowissenschaftler (Edelman eingeschlossen) oft mit unsinnigen Computervergleichen versuchen, die Besonderheit des menschlichen Gehirns herauszustellen, kann man ja auch mal umgekehrt denken: wenn die Entwicklung des Gehirns (und des gesamten Organismus) Ähnlichkeiten aufweist mit einem Algorithmus, der seine eigene Ausführungsumgebung während der Ausführung (!!!) mit generiert, ob sich solch ein Prozess auch ‚rein technisch‘ denken ließe in dem Sinne, dass wir Maschinen bauen, die aus einer ‚kleinen Anfangsmenge von Materie‘ heraus ausgestattet mit einem geeigneten ‚Kode‘ und einem geeigneten ‚Interpretierer‘ sich analog selbst sowohl materiell als auch kodemäßig entwickeln? Da die biologischen Systeme zeigen, dass es grundsätzlich geht, kann man solch einen technischen Prozess nicht grundsätzlich ausschließen. Ein solches Gedankenexperiment macht aber sichtbar, worauf es wirklich ankommt: eine solche sich selbst mit-bauende Maschine benötigt auch einen geeigneten Kode und Interpretationsmechanismus, eine grundlegende Funktion. Ohne diese Funktion, geht gar nichts. Die Herkunft dieser Funktion ist aber gerade diejenige grundlegende Frage, die die gesamte empirische Wissenschaft bislang nicht gelöst hat. Es gibt zwar neuere Arbeiten zur Entstehung von ersten Zellen aus Molekülen unter bestimmten realistischen Kontexten, aber auch diese Forschungen beschreiben nur Prozesse, die man ‚vorfindet‘, die sich ‚zeigen‘, nicht aber warum und wieso es überhaupt zu diesen Prozessen kommen kann. Alle beteiligten materiellen Faktoren in diesen Prozessen als solchen geben keinerlei Ansatzpunkte für eine Antwort. Das einzige, was wir bislang wissen, ist, dass es möglich ist, weil wir es ‚beobachten können‘. Die ‚empirischen Phänomene‘ sind immer noch die härteste Währung für Wahrheit.

Fortsetzung folgt HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DIE NATUR DER ERKLÄRUNG – Kenneth Craig – Diskussion

PDF

ÜBERBLICK

Craik führt in diesem Buch eine breit angelegte Diskussion im Spannungsfeld von Philosophie, Psychologie, Physiologie, Physik und Technik, die einige Hauptthemen erkennen lässt: ein Plädoyer für ein kausales Verständnis der realen Welt, für die Rekonstruktion von Bewusstsein durch Rückgriff auf das Nervensystem, für die zentrale Rolle mentaler Modelle, sowie für die wichtige Rolle von Sprache in allem Erklären.

I. KONTEXT

Alle Themen, die Craik in seinem Buch ”The Nature of Explanation” [Cra43] anspricht, sind Themen, die in verschiedenen Blogeinträgen schon zur Sprache gekommen sind. Das Buch wird daher etwas intensiver diskutiert, um damit die Position des Blogs weiter zu klären. Dabei ist zu beachten, dass Craik nicht nur eine große Linie verfolgt, sondern im Verlauf des Textes viele andere Themen anspricht, die irgendwie auch mit der großen Linie zusammenhängen. Dies macht die Lektüre manchmal etwas mühsam, wenngleich immer interessant. Dem Interesse des Blogs folgend werden daher nur einige Hauptthemen hier weiter diskutiert. Eine Lektüre dieser Themen ersetzt nicht die eigene Lektüre seines Buches.

II. ERKLÄRUNG DURCH KAUSALITÄT

K.Craik - Stichworte aus Kap.1-4
K.Craik – Stichworte aus Kap.1-4

Das Schaubild 1 enthält nur einige der einschlägigen Stichworte von Craig aus den ersten vier Kapiteln, und auch nur kursorisch.

Aus den vielen Argumenten, die gegen die Möglichkeit einer Erklärung durch Kausalität sprechen, stammt das prominenteste von David Hume (1711 – 1776), für den die Beschaffenheit der sinnlichen Wahrnehmung keinen direkten Schluss auf eine kausaler Beziehung der Art ’B ist da durch A’ zulässt. Zu einem bestimmten Augenblick
haben wir einen Momenteindruck, beim nächsten Augenblick auch. Zwischen verschiedenen Augenblicken kann es zwar Unterschiede geben, aber diese lassen nicht zwingend eine Interpretation in Richtung einer kausalen Beziehung zu.

Neben sehr vielen anderen Positionen bespricht Craik auch die Position der modernen Physik sofern sie quantenmechanische Modelle benutzt. Angesichts einer prinzipiellen Messungenauigkeit (Heisenberg, Unschärferelation) und unbeobachtbaren Objekten soll eine direkte kausale Zuschreibung nicht mehr möglich sein. Es gibt nur noch
Regelmäßigkeiten in Form von statistischen Tendenzen. Craik kritisiert in diesem Zusammenhang, dass man aus den Grenzen der Beobachtbarkeit nicht notwendigerweise darauf schließen kann, dass es deswegen grundsätzlich
keine Kausalität mehr gäbe. Ferner weist er anhand vieler Beispiele darauf hin, dass die Theorien der Wahrscheinlichkeit als Theorien starke implizite Annahmen über die vorausgesetzten Ereignismengen machen, die grundlegende Wechselwirkungen, auch in Form kausaler Beziehungen, voraussetzen.

Aus der Sicht Craiks ist die Position Humes nicht ganz korrekt, da das sinnliche Material immer schon in eine Raumstruktur eingebettet ist, die implizite Wechselbeziehungen realisiert (zwei gleichartige Objekte können nicht zugleich auf ein und derselben Raumstelle sein); ferner gehört die Zeitstruktur zur Wahrnehmung (darin über die
rein sinnlichen Anteile hinausgehend), die zumindest potentielle Abfolgen erkennen lassen (B folgt auf A in der Zeit). Dies impliziert zwar nicht unmittelbar eine kausale Beziehung, bietet aber einen Anknüpfungspunkt für eine Hypothese und Experimente. Im Rahmen der Zeitstruktur kann man z.B. allerlei Veränderungen beobachten, z.B.
auch eine Veränderung von Energieleveln. Diese bieten Ansatzpunkte für Hypothesen und Experimente.

Für Craik realisiert sich empirische Wissenschaft durch das Ernst nehmen von vorfindlichen Gegebenheiten, von Fakten, bezogen auf die man Hypothesen bzgl. möglicher Zusammenhänge formulieren kann. Diese Hypothesen kann man dann in Experimenten überprüfen. Sofern sich die Hypothesen bestätigen lassen, soll dies eine gewisse Zufriedenheit auslösen. Geprüfte Zusammenhänge ermöglichen Verstehen, Einsicht, erlauben Voraussagen, mit Voraussagen kann man zukünftige Situationen vorweg nehmen, um sich dadurch auf kommende Situation einzustellen.
Ferner erlaubten geprüfte Zusammenhänge auch unterschiedliche praktische Nutzungen.
Fehlen geprüfte Zusammenhänge, dann kann dies zu Enttäuschungen, ja zu Frustrationen führen. Man kann dann nichts ableiten, nichts voraus sagen, nicht wirklich planen; auch eine praktische Nutzung ist nicht möglich. Man versteht das auslösende Phänomen dann nicht wirklich.

III. DENKEN UND NERVENSYSTEM

K.Craik - Die Erkennungsleistung des Systems Mensch
K.Craik – Die Erkennungsleistung des Systems Mensch

Nach zahlreichen vorausgehenden kritischen Anmerkungen zu unterschiedlichen Positionen in der Philosophie und in den Wissenschaften, geht Craik davon aus, dass der Mensch in einer realen Welt vorkommt. Einige der Ereignisse in dieser Welt können von Sinnesorganen beobachtet werden. Beobachten heißt hier, dass diese Ereignisse sowohl
in interne neuronale Ereignisse übersetzt werden, zusätzlich aber auch in eine symbolischer Sprache  mittels der Bezug genommen werden kann auf viele interne Gegebenheiten, Ereignisse und Prozesse. Das Andere der Symbole ist dann ihre Bedeutung (’meaning’). Was immer auch intern im einzelnen geschieht, es gibt unterschiedliche Prozesse, die abstrakt als Denken, Schlüsse ziehen, Voraussagen machen beschrieben werden. Ein wesentliches Element dieser Prozesse ist das Generieren von internen, mentalen Modellen, deren Analogien mit der realen
Außenwelt so groß sind, dass wichtige Eigenschaften und Prozesse der Außenwelt in ihren kausalen Beziehungen so nachgebildet werden können, dass auf ihrer Basis einigermaßen zuverlässige Voraussagen über die Zukunft gemacht werden können, die sich überprüfen lassen.

Craik wirft auch die Frage auf, welche Eigenschaften am Nervensystem es wohl sind, die alle diese Leistungen ermöglichen? Anhand verschiedener Verhaltensphänomene (visueller Reiz, Retina, Adaption, Differenzierung, Ähnlichkeit, bewusst – unbewusst, Reflexe, Zahlen und deren Nutzung, Gedächtnis, Lernen, Gefühle, …) diskutiert er
dann die Anforderungen, die an das System gestellt werden und überlegt, ob und wie diese Anforderungen rein technisch bzw. mittels des Nervensystems eingelöst werden könnten. Diese Überlegungen sind in ihrem grundsätzlichen Charakter interessant, aber der Stand des Wissens in seiner Zeit zum Nervensystem und zu neuronalen Modellen
war nicht ausreichend, um alle diese Phänomene verbindlich diskutieren zu können.
Immer wieder stellt er die zentrale Rolle der symbolischen Sprache heraus, mittels der sich komplexe Strukturen und Modelle generieren lassen, mit denen Erklärungen möglich werden, Voraussagen und auch die Koordinierung zwischen den Gehirnen.

Bei seiner Beschreibung der realen Welt fällt auf, dass er stark fixiert ist auf einfache physikalische Strukturen; die Besonderheit und Komplexität biologischer Systeme tritt wenig hervor. Dies obgleich er ja die komplexen Strukturen von Menschen sehr wohl diskutiert.

Er sieht allerdings schon ein Eigengewicht der mentalen logischen Strukturen gegenüber der ’reinen Maschinerie’ des Nervensystems, insofern das Nervensystem als solches funktioniert unabhängig von Logik und Bedeutung. In wissenschaftlichen Kontexten aber muss auch Logik und Bedeutung stimmen, andernfalls gelingt die Argumentation
nicht. Allerdings, auch hier gilt, dass auch eine Logik und mögliche Bedeutungen im mentalen Bereich ebenfalls Leistungen des Nervensystems sind. Das gerade ist das Besondere. Reine Introspektion kann zwar die phänomenale Seite des Geistes enthüllen, nicht aber seine neuronale Seite. Dazu bedarf es mehr als Introspektion.

Craik postuliert auch den Faktor der Gefühle (’feelings’) und der Emotionen (’emotions’) als grundlegend für das Verhalten. Zufriedenheit und Unglücklich sein sind starke Motive für das gesamte Verhalten. Wissenschaft lebt davon, Kunst, aber auch viele psychische Krankheiten scheinen mit einem Missmanagement der Gefühle zu tun zu haben.
Das Wechselspiel zwischen Gefühlen und dem gesamten Lebensprozess umschließt nach Craik viele Faktoren, viele dabei oft unbewusst, so dass das Erkennen der Zusammenhänge in der Regel nicht einfach ist. Klassische Ethik und Moral dagegen tendieren zu Vereinfachungen, die dann sachlich unangemessen sind.

IV. DISKURS

Die vorgestellten Gedanken von Craik sind, wohlgemerkt, nur eine Art Extrakt, viele interessante Details bleiben ungesagt. Für das Anliegen des Blogs kann dies aber u.U. genügen.

Das Thema empirische Wissenschaft, Messen, Erklären usw. steht in Übereinstimmung mit dem, was bislang angenommen wurde. Craik ist sehr bemüht, die Perspektive der Introspektion zu übersteigen, da er zu Recht erkennt, dass diese allein nicht ausreicht. Zugleich sieht er sehr wohl eine gewisse Eigenständigkeit der introspektiven Dimension. Was er aber nicht leistet, das ist ein Aufweis, wie man methodisch sauber beide Dimensionen kombiniert [Anmerkung: Dass eine empirischer Herangehensweise allein die Gesamtheit des Phänomens aber auch nicht erreichen kann, dies spricht Craik nicht
an. Letztlich haben wir es hier mit einem methodischen Deadlock zu tun: Introspektion benötigt zusätzlich empirische Methoden, empirische Methoden benötigen zusätzlich sehr dringend Introspektion. Dieses methodische Problem ist bis heute nicht befriedigend gelöst.] Im Blog gab es dazu zumindest einige Versuche.

Die gezielte Nachfrage danach, wie man welche der introspektiv und im Verhalten zugänglichen Eigenschaften des Menschen mittels neuronaler Mechanismen modellieren könnte, wurde hier im Blog noch nicht diskutiert. Es gibt dazu einige Skript aus Vorlesungen, die aber bislang keinen Eingang in den Blog gefunden haben [Anmerkung: Dazu findet sich mehr in dem korrespondierenden Blog uffmm.org.4].  Die Frage
ist aber tatsächlich philosophisch relevant. Die Frage wurde vom Autor cagent bislang deswegen in diesem Blog kaum diskutiert, weil er der Frage nachging, ob und wieweit man neuronale Netze durch andere mathematisch äquivalente Mechanismen ersetzen kann um dann die Fragen nach der Substitution dann mit diesen anderen Strukturen zu untersuchen. In den letzten Jahren sind neuronale Netze so populär geworden, dass sich kaum jemand noch dafür interessiert, ob und welche alternativen Formalismen es auch tun würden und möglicherweise einfacher. Grundsätzlich ist seit langem bekannt, dass neuronalen Netze nicht mehr können als im Konzept der Turingmaschine definiert ist. Man muss also aus theoretischen Gründen keine Neuronalen Netze benutzen, wenn
sie denn nicht speziell besondere Vorteile bieten.

Die Lektüre von Craik hat allerdings dazu ermutigt, die Idee der parallelen Analyse von Verhalten, Introspektiv zugänglichem Bewusstseinsraum, sowie Physiologie des Gehirns im Körper weiter Raum zu geben, immer natürlich auch mit Blick auf evolutionäre Entwicklungen unter Einschluss der Kultur. Ferner sollte dabei die parallele Entwicklung intelligenter Maschinen mit reflektiert werden, sehr wohl in Bezugssetzung zu den biologischen Systemen.

Vor lauter Faszination durch die moderne Technik geht vielfach unter, dass die Naturwissenschaften in den letzten 10 Jahren ungeheuerlich interessante Aspekte des biologischen Lebens (und der umgebenden Welt) zutage gefördert haben, die das Bild vom Menschen im Universum eigentlich radikal verändern könnten. Obwohl die Roboter und die KI-Programme vergleichsweise simple Strukturen darstellen, die jeder intelligente Schüler verstehen könnte, wenn man es ihm denn erzählen würde, stoßen wir im biologischen Leben auf immer unfassbare Komplexitäten und Verschiebungen von Perspektiven, die eigentlich alle Aufmerksamkeit erfordern würden.

QUELLEN
[Cra43] Kenneth Craik. The Nature of Explanation. Cambridge University Press, Cambridge (UK), 1 edition, 1943.

FORTSETZUNG

Für eine Fortsetzung der Diskussion siehe HIER.

 KONTEXTE

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

PERSON OF INTEREST – SICHERHEIT STATT DEMOKRATIE – EVOLUTION IST ANDERS – Teil 2

KONTEXT

  1. In einem vorausgehenden Blogeintrag hatte ich die Fernsehserie Person of Interest mit diskutiert. Zu dem Zeitpunkt kannte ich nur Staffel 3; mittlerweile kenne ich auch Staffel 4, die aktuell letzte Staffel der Serie. Wie schon zuvor angemerkt, kann man eine Fernsehserie nicht mit einem normalen Kinofilm vergleichen; die Spielregeln für die Anordnung der Bilder und Inhalte sind anders. Eine Serie lebt von ihren Episoden, zwischen denen Pausen liegen, und eine Serie scheut ein klares Ende, lauern doch wirtschaftliche Interessen im Hintergrund, die ein Hinauszögern so lange wie möglich aufrechterhalten wollen. Neben der Story ist eine Serie ein Unterhaltungsmedium und eine Geldquelle, die möglichst lange erhalten bleiben soll.

MAKRO-MIKRO-EBENE

  1. Fragt man also nach dem möglichen Inhalt der Serie Person of Interest, muss man wenigstens zwischen einer Makro- und einem Mikroebene unterscheiden (schließt weitere Ebenen nicht aus): auf der Makroebene werden Geschichten erzählt, die sich über mehrere Episoden erstrecken; auf der Mikroebene liegt das Geschehen, was sich auf eine Episode beschränkt. Das Verhältnis zwischen Makro-Geschichte(n) und Mikro-Geschichten könnte man als einen Indikator für die Kompaktheit einer Serie ansehen: wie intensiv wird eine Geschichte erzählt. Im Fall von Person of Interest Staffeln 3+4 würde ich das Verhältnis von Makro zu Mikro-Geschichten auf etwa 1:3 bis 1:4 ansetzen. Die Kompaktheit kann auch etwas mit der Aufnahmefähigkeit der Zuschauer zu tun haben; je kompakter, um so ansruchsvoller.

MAKRO-GESCHICHTE

  1. In der Makrogeschichte, die nur häppchenweise enthüllt wird, geht es um zwei Computerprogramme, die die Datenströme in den verschiedenen Netzen aufnehmen und verarbeiten können; darüber hinaus konstruieren diese Programme eigene Modelle, mit denen diese Daten interpretiert werden und – vor allem – Schlüsse gezogen werden, was zu tun ist. Dieses Tun geschieht direkt über Manipulation von Datenströmen in den Netzen oder über Interaktion mit realen Menschen, die über die Kommunikation mit der Maschine ihre Meinungen bilden und sich in ihrem Verhalten beeinflussen lassen.
  2. Interessant ist der soziale-politische Kontext dieser Programme: das erste Programm, genannt die Maschine, wurde ursprünglich von der Regierung beauftragt und eingesetzt, um Bedrohungen für den Staat frühzeitig zu entdecken und abzuwehren. Sein Hauptentwickler E1 hatte es mit einigen ethischen Prinzipien ausgestattet, die den schlimmsten Missbrauch verhindern sollten. Das zweite Programm, parallel entwickelt von einem Freund von E1, nennen wir ihn E2, war unvollendet geblieben und besaß keine ethischen Vorgaben. Dieses Programm wurde von einem machtbewussten Geschäftsmann – nennen wir ihn G1 – gewaltsam in eigenen Besitz gebracht. Zusätzlich konnte er Regierungsvertreter überzeugen, dass er im Auftrag der Regierung – aber in eigener Regie – die verschiedenen Netze anzapfen durfte, um für die Regierung eine Überwachung der Welt durchführen zu können, deren Ergebnisse dann der Regierung übermittelt werden. Vorbereitend zum Start des neuen Programms mit Namen Samaritan hatte der Geschäftsmann G1 eine Terrorgruppe gesteuert, die die Regierung unter Druck gesetzt hatte, das alte Programm, die Maschine, zu stoppen. Wie sich im Verlaufe von Staffel 3+4 herausstellte, hatte es die Maschine aber geschafft, sich mittlerweile als verborgenes Add On in jeden Computer und in das öffentliche Stromnetz einzunisten. Dort war es für das neue Programm Samaritan lange Zeit unsichtbar und arbeitete parallel zum neuen Programm weiter.

MIKRO-GESCHICHTEN

  1. Der hohe Anteil an Mikro-Geschichten, oft sehr fragmentarisch, ist unterhaltsam gemacht, trägt aber wenig zur Hauptgeschichte bei. Allerdings bieten die Mikrogeschichten Raum um die Hauptpersonen häppchenweise ein wenig mehr auszuleuchten, die Verwicklungen ihrer Psyche, ihrer Motive und Emotionen sichtbar zu machen. Die dominierenden Muster von Gewalt, Action und Erschießung anderer Menschen werden hier ansatzweise durchbrochen, um die individuellen Menschen hinter den abstrakten Rollen etwas sichtbar zu machen. Doch ereignet sich die Handlung meistens in extremen Milieus mit extremen Typen; Normalität, Alltag, reale Gesellschaft kommt in dieser Serie so gut wie nicht vor. Die Mikrogeschichten könnten auch in jeder anderen Serie vorkommen.

MAKRO-GESCHICHTE: FRAGEN

  1. Die Makrogeschichte, sofern sie stattfindet, bietet viele interessante Fragestellungen. Die eine Frage (F1) ist jene nach der Reichweite einer autonomen selbstlernenden künstlichen Intelligenz [KI]: wie weit kann diese sich der Kontrolle von Menschen entziehen und sich vom Diener zum Herren des Geschehens entwickeln? Zusätzlich kann man fragen (F2), welche Ziele solch eine autonome selbstlernende KI entwickeln wird? Was werden die Präferenzen solcher Programme sein? Was finden sie gut, was schlecht? Dazu viele weitere spezielle Fragen im Detail.
  2. Während das erste Programm, die Maschine, den Eindruck erweckt, als ob es, trotz seiner Autonomie, gewisse ethische Prinzipien einhält (es ist nicht ganz klar, welche und warum), erweckt das zweite Programm, Samaritan, den Eindruck, als ob es sich sehr schnell zum Herren des Geschehens entwickelt und von einem reinen Dienstleister zum kreativen Machthaber mutiert, der nach einigen gezielten Experimenten planvoll in das Weltgeschehen eingreift. Am Schluss von Staffel 4 sieht es so aus, als ob Samaritan direkt eine Weltherrschaft in seinem Sinne anstrebt. Das erste Programm, die Maschine, wurde schließlich doch aufgespürt und in buchstäblich letzter Minute konnte es aus dem öffentlichen Stromnetz auf einen tragbaren Computer heruntergeladen und mit seinen Kernalgorithmen gesichert. Wie es jetzt weitergeht, ist offen.

DISKURS

  1. Die technischen Details dieses Plots sind nicht wichtig, wohl aber die großen Linien. Beide Computerprogramme entwickeln ihre Kraft erst, als ihre Algorithmen an entsprechende Netze mit Datenströmen angeschlossen wurden. Ohne Daten laufen alle Algorithmen leer, und ohne Daten würde auch ein menschliches Gehirn verkümmern und der Körper absterben.
  2. Da Algorithmen aus sich heraus nicht wissen können, was Wahr in der Welt ist, brauchen sie reale Daten der realen Welt, anhand deren sie entscheiden können, was Wahr in der Welt ist. Wenn diese Daten korrupt sind, gefälscht, Täuschungen, dann läuft der Algorithmus ins Leere (das geht unserem Gehirn nicht besser: unser Gehirn ist nur über Sinnesorgane mit der Welt da draußen verbunden; wenn wir die Welt falsch oder unvollständig wahrnehmen, sind auch die Weltbilder des Gehirns falsch oder unvollständig). Daher die Tendenz, immer mehr Datennetze anzuzapfen, immer mehr Überwachung von realen Personen zu ermöglichen, bis dahin, dass (für Samaritan) realen Personen Sonden einoperiert werden, die wichtige Zustände dieser Personen direkt an den Algorithmus übermitteln.
  3. Am Ende von Staffel 4 wird der Zuschauer in einer diffusen Vielfalt von technischen Möglichkeiten, potentiellen Bedrohungen, und vagen Heilsversprechen zurück gelassen. Was die Bedrohungen angeht, so sind diese heute schon sehr real. Nach verfügbaren Informationen muss man davon ausgehen, dass die US-Regierung seit mindestens fünf Jahren mit solchen totalen Überwachungsprogrammen experimentiert; komplementiert werden diese Algorithmen durch die geschäftlichen Interessen global operierender Firmen, die mit den Verhaltensdaten von Privatpersonen und Firmen real Geld verdienen. Um an diese Daten heran zu kommen, gibt es nicht nur die öffentliche Überwachung durch immer mehr Videokameras und Überwachung von Datenverkehr in den Netzen und durch Satelliten, sondern zusätzlich immer mehr Sensoren in den Alltagsgeräten und privaten Kommunikationsgeräten. Ergänzt um Datenbrillen bei jedem ist schon jetzt die Überwachung fast total.
  4. Sieht man diese Entwicklung parallel zur Tatsache, dass nur wenige Staaten dieser Erde demokratisch genannt werden können und dass diese wenigen demokratischen Staaten deutliche Tendenzen aufweisen, zur Aushöhlung aller demokratischen Mechanismen der Machtkontrolle, dann ist diese Entwicklung verheerend. Die Kontrolle des Datenraums ist mittlerweile weit schlimmer als der Einmarsch einer Armee mit Panzern. Bei den verantwortlichen Politikern kann man dafür praktisch kein Problembewusstsein erkennen. Speziell im Fall der US-Regierung muss man sich sogar fragen, ob die jeweiligen Präsidenten nicht schon längst nur Marionetten eines außer Kontrolle geratenen Sicherheitsapparates sind.
  5. Die Staffeln 3+4 illustrieren diese Tendenzen und Möglichkeiten durch Inszenierung entsprechender Situationen und Handlungssequenzen. Sie bieten aber keine wirkliche theoretisch-technische Erklärungen, liefern keine Denkansätze in Richtung politischer Systeme oder Wirtschaftsmodelle. Der Zuschauer verbleibt in der Rolle des passiven, dummen Konsumenten, dem das Schauspiel einer Machtübernahme geboten wird, ohne Ansatzpunkt, was er selber denn tun könnte. Die einzigen Hacker, die in der Serie auftauchen, waren böse und letztlich gesteuert von anderen Bösen. Die wenigen Guten, die zumindest das Wort Individuum und Wert des Einzelmenschen im Munde führen, wirken wie ein Häuflein verirrter Privatpersonen im Format von Profikillern, keine normalen Bürger, und die Moral von der Geschichte lautet eher: schließe dich dem allgemeinen Trend an. Widerstand zwecklos. Dann wäre das ganze ein Werbefilm für die Einführung der totalen Kontrolle zum angeblichen Nutzen für die ganze Menschheit.
  6. Betrachtet man den evolutionären Zusammenhang der Geschichte des Lebens auf der Erde, dann erscheint eine zunehmende Vernetzung und Einsatz von Algorithmen zur Unterstützung der Menschen in der rapide anwachsenden Komplexität in der Tat unausweichlich. Allerdings kann man sich fragen, ob dieser evolutionärer Schub darin bestehen soll, die fantastische Kreativität menschlicher Gehirne zu eliminieren durch Versklavung an einen unkontrollierten Algorithmus, dessen Dynamiken noch keiner wirklich erforscht hat, oder aber dass man diese neuen digitalen Technologien nutzen würde, um die Kreativität der Menschen für die Gesamtheit des Lebens noch mehr nutzen zu können. Bei ca. 100 x 10^9 Nervenzellen in einem einzelnen Gehirn würde eine Verknüpfung dieser Gehirne bei z.B. 7 x 10^9 Menschen auf der Erde zu einem Zusammenwirken – im optimalen Fall – von 7 x 10^20 Nervenzellen führen können. Diese können alle, wenn man es erlaubt und unterstützt, kreativ sein. Welch ungeheure Kraft um die Zukunft zu gestalten. Stattdessen hat man den Eindruck, dass viele Mächtige heute versuchen, diese große Kreativität zu normieren, zu eliminieren, unter Kontrolle zu bringen, nur, um die mehrfach beschränkten und auf Konkurrenz und Freund-Feind-Schema getrimmten Weltmodelle einzelner Sicherheitsleute, Militärs, Politiker und Kapitaleigner in den Köpfen der Menschen zu implantieren. Man kann nicht erkennen, dass irgendwelche Werte, geschweige den die Menschenrechte, dabei eine Rolle spielen.
  7. Unter dem Schlagwort Sicherheit ist mittlerweile alles erlaubt. Warum also noch Sicherheit, wenn gerade sie alles zerstört, was man vielleicht schützen wollte? Wie viel Sicherheit verträgt eine Demokratie?
  8. Die Geschichte des Lebens auf der Erde enthält eine klare unmissverständliche Botschaft: Leben kann es nachhaltig nur geben, wenn die die Kreativität stärker ist als die Sicherheit! Totale Sicherheit führt direkt zum Tod des Systems.

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

Vortrag am 19.Mai 2015 im Literaturhaus Frankfurt in der Veranstaltung PR-Slam & Ham 2015

In meiner Präsentation hatte ich eine Reihe von Schaubildern gezeigt, die ich dann mündlich kommentiert habe. Einen geschriebenen Text gab es nicht. Ich habe aber die Erläuterung nochmals ’nachgesprochen‘. Aus den 20 Min sind dann ca. 70 Min geworden. Die Bilder unten bilden das Rückgrat der Geschichte; sie sind nummeriert. Im gesprochenen Text nehme ich auf diese Bilder Bezug.

Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!

 

AUDIODATEI DES KOMMENTARS (70 Minuten! mp3)

Gehirn im Körper mit Bild 1: Bewusstsein - Beobachter
Bild 1: Gehirn im Körper mit Bewusstsein – Beobachter
Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene
Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene
Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis
Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis
Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex
Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex
Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart
Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart
Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen
Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen
Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen
Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen
Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)
Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Die Vision, die in dem Audiobeitrag gegen Ende entwickelt wird, soll in dem Emerging-Mind Projekt konkret umgesetzt werden, als Impuls, als Anstoß, als Provokation, als Community, die sich mit dem Thema philosophisch, wissenschaftlich, künstlerisch und theologisch auseinandersetzt.

Eine Übersicht über alle Einträge von cagent in diesem Blog nach Titeln findet sich HIER.

PSYCHOLOGIE DER SUCHE – UND MANCH ANDERES. Zur Philosophiewerkstatt vom 9.Nov.2014

A) PSYCHOLOGIE DER SUCHE
B) SELBSTORGANISATION DES DENKENS
C) NEUE MUSIK
D) SUBJEKTIVE GEWISSHEIT – OBJEKTIVER RAHMEN
E) MENSCH UND COMPUTER
F) SELBSTVERNICHTUNG DES MENSCHEN?
G) PROGRAMMENTWURF FÜR So 14.Dez.2014

1. Nach dem Start der philosophieWerkstatt v2.0 am 12.Oktober (siehe einen subjektiven Bericht davon hier) hat sich die Zahl der TeilnehmerInnen mehr als verdoppelt. Dies erweiterte den Raum der Erfahrungen, die in das Gespräch eingehen können. Aber eine größere Anzahl verändert auch den Fluss eines Gespräches. Man muss lernen, wie man damit umgeht.

A) PSYCHOLOGIE DER SUCHE

2. Das Gespräch startete mit einem kurzen Bericht von der ersten Sitzung (siehe das Schaubild vom letzten Bericht). Darauf bezogen gab es unterschiedliche Rückmeldungen, die aber dieses Mal nicht alsbald zu dem ‚Gesprächsfluss‘ führte, wie er die erste Sitzung charakterisierte, sondern erweckte bei den Beteiligten den Eindruck eines auf der Stelle Tretens. Man hatte subjektiv individuell Erwartungen, aber diese fand man im aktuellen Gesprächsgeschehen nicht wieder.

Stichwortsammlung 9.Nov.2014 (rosa Ellipsen)
Stichwortsammlung 9.Nov.2014 (rosa Ellipsen)

3. In solchen Situationen einer ‚quälenden Ungewissheit‘ ist es eine häufige Versuchung, nach altbekannten Rezepten zu greifen, um ‚irgendetwas‘ zu machen, damit man überhaupt etwas macht; ‚quälende Ungewissheit‘ wird jedenfalls bei den meisten als ‚unangenehm‘ empfunden.

4. Jeder, der schon mal ein Problem in einer bestimmten Zeit lösen musste, kennt diese Situation. Man muss (oder will) eine Lösung finden, aber aktuell hat man sie noch nicht. Was tut man? Wo fängt man an? Wo sollte man suchen? Man spürt seine eigene Unzulänglichkeit. Man zweifelt an sich. Man wird unruhig? Man fragt sich, ob es die richtige Entscheidung war, sich in diese Situation zu bringen… und Ähnliches.

5. Die Gruppe hat diese Situation eines gemeinsamen Suchens ohne aktuell subjektiv befriedigende Situation sehr konstruktiv gelöst. Keiner stand auf und ging einfach weg. Jeder versucht, die Situation konstruktiv anzunehmen und doch noch eine Lösung zu finden.

6. Eine Phase von Gesprächen in kleineren Gruppen löste die Lähmung auf, führte zu lebhaften inspirierenden Gesprächen und führte dann zu einem ‚Plan‘ für das weitere Vorgehend bei der nächsten Sitzung.

B) SELBSTORGANISATION DES DENKENS

7. Die individuell-gemeinschaftliche Suche nach etwas, was in sich noch nicht so bekannt ist, wo der Weg tatsächlich ein wesentlicher Teil des Zieles ist, unterliegt gewissen Randbedingungen, die gewisse Verhaltensweisen bedingen.

8. So macht es natürlich einen Unterschied, ob man einen Abend bei ‚Punkt Null‘ beginnt, ohne Voraussetzungen in der Vergangenheit; man kann direkter zu den Punkten kommen. Da nur 1/3 der Teilnehmer vom 12.Okt.2014 auch am 9.Nov. anwesend waren, wussten 2/3 am aktuellen Abend nichts von der Vorgeschichte. Die Vermischung von letzter Sitzung und aktueller Sitzung wirkte daher weniger inspirierend sondern eher wie ein Bremsklotz. Die Gruppe erarbeitete die Hypothese, jede Sitzung mit einem bestimmten Thema anzufangen, das von einer Mehrheit als ‚gesprächswürdig‘ angesehen wird.

9. Ferner spielt natürlich die Anzahl eine Rolle. Je mehr Gesprächsteilnehmer anwesend sind, umso schwieriger wird ein Gespräch, da man auf immer mehr Erwartungshorizonte eingehen muss. Dies wird ab 4-5 Personen schon zunehmend schwer. Eine Klärung der eigenen Position zu einem Thema sollte daher einen Kommunikationsraum haben, der ‚Leichtgängig‘ ist. Die Gruppe erarbeitete daher die weitere Arbeitshypothese, zumindest zu Beginn des Treffens eine oder zwei Gesprächsphasen in kleinen Gruppen zu organisieren, die dann als Gruppe fokussiert ihre Ergebnisse allen anderen vorstellen. Anhand des Bildes, das dann aus diesen Gruppengesprächen entstehen, könnte man dann immer gemeinsame Reflexions- und Gesprächsphasen einschieben.

10. Auf diese Weise kann man überschaubare, persönliche Gesprächsprozesse erhalten, kann sich jede Gruppe dort abholen, wo sie steht, kann sich zusätzliche ein übergreifendes ‚Gedankenbild‘ entwickeln, das man im Kontext bekannter Erkenntnisse/ Modelle/ Theorien diskutiert.

C) NEUE MUSIK

11. Der Veranstalter macht unter dem Namen cagentArtist seit ca. 6 Jahren Experimente mit Klangräumen auf der Suche nach ’neuen Klängen‘. Dabei hat er vielfältige Erfahrungen gemacht beim ‚Suchen‘ nach neuen Klängen. Wie sucht man nach etwas, was man noch nicht kennt? Er hat dazu eine Methode entwickelt die das Individuum ins Zentrum stellt, die unabhängig ist von individuellen Fähigkeiten, von vieljährigen Trainingsprogrammen, unabhängig von ‚herrschendem Geschmack‘, von welchen Monopolen auch immer. Es geht um eine Begegnung mit neuen Klängen ‚für jeden‘, ‚zu jeder Zeit‘, ‚unabhängig‘ vom Monopol eines Senders, einer Redaktion, eines Sinfonieorchesters, vom Mainstream: ‚Bottom-Up‘, ‚Graswurzel‘ …. Das Bild vom großen Künstler, der eine ‚göttliche Inspiration‘ empfängt, die er ‚meisterlich‘ in eine ‚Form gießt‘, die die ‚hohe Musik‘ verkörpert, ist eine Ideologie. Sie begründet zu Unrecht eine Machtstruktur der ‚Musikwissenden hier‘ und der ‚Musikunmündigen‘ ansonsten. Dies führt zu einer Entmündigung fast aller Menschen in Sachen Musik. Oder der ‚Mainstream‘ als ‚Terror‘. Es geht um eine ‚Demokratisierung‘ des Umgangs mit Musik.

12. Es entstand im Gespräch die Idee, zu Beginn jeder Sitzung ein kurzes Musikstück aus dem Bereich der neuen Musik anzuhören und dann kurz über die ‚Emotionen‘ zu sprechen, die es auslöst, über den Weg, wie diese Klänge entstanden sind, und ob und wie man selbst einen Weg zu Klängen hätte.

D) SUBJEKTIVE GEWISSHEIT – OBJEKTIVER RAHMEN

13. In einer kurzen, aber ‚emotional wirksamen‘ Phase, gab es Dialoge zum Thema ’subjektive Gewissheit‘, z.B. dass hier ‚objektiv‘ ein Tisch sei, weil ich ihn anfassen kann, und den objektiven Erkenntnissen der modernen Physiologie und Gehirnforschung andererseits, dass das Gehirn als Zentrum vielfältiger Informationsverarbeitung im Körper, natürlich nicht den ‚Tisch als solchen‘ ‚wahrnimmt‘, sondern nur die ‚Wirkungen‘ übermittelt bekommt, die der ‚Tisch da draußen‘ auf die beteiligten Sinnesorgane auslöst. Aus den Daten der Sinnesorgane (auch der ‚inneren‘ (propriozeptiven) Sinnesorgane) konstruiert dann das Gehirn sein Bild von der ‚Welt da draußen‘.

14. Es gab bei einzelnen Schwierigkeiten, die subjektive Erkenntnis mit den Daten der modernen empirischen Wissenschaften zu verschränken. Die Schwierigkeit bestand darin, den Wahrheitsgehalt der subjektiven Erkenntisse in den objektiv-empirischen Erkenntniszusammenhang ‚einzubetten‘; die subjektive Erkenntnis wird damit nicht ‚aufgehoben‘, wohl aber ‚zusätzlich interpretiert‘.

15. Die ‚Objektivität‘ wird damit nicht vernichtet, sondern gestärkt. ‚Wahrheit‘ verschwindet nicht, sondern wird dadurch nur differenzierter. Dass es Menschen gibt, die sich ‚Philosophen‘ nennen und die aus den Erkenntnissen der modernen Wissenschaften eine allgemeine ‚Relativierung‘ ableiten, erscheint nicht zwingend, müsste aber in einem längeren differenzierten Gespräch erklärt werden.

E) MENSCH UND COMPUTER

16. Im Nachgespräch einer kleinen Gruppe wurde höchst intensiv die Frage diskutiert, ob und wieweit ein Computer einen Menschen ’nachbilden‘ oder gar ‚ersetzen‘ können. Es wurden sehr viele kluge Dinge gesagt. Die Kernfrage einer Teilnehmerin, wieweit das an die Körperlichkeit gebundene ‚Kinderkriegen‘ durch eine Frau und die damit einhergehende ‚Weiterentwicklung‘ eines Menschen/ der Menschheit durch Maschinen (Computer) ’nachgebildet‘ werden könnte, blieb trotz einiger Argumente noch etwas offen.

F) SELBSTVERNICHTUNG DES MENSCHEN?

17. Im Zusammenhang der aktuellen Diskussion um die kommende ‚Weltherrschaft der Maschinen‘ (Singularitätshypothese, Transhumanismus) kann man den Eindruck gewinnen, dass die Diskussionsteilnehmer ‚wie besoffen‘ von den Fähigkeiten der ’neuen Maschinen‘ sind, ohne sich dabei noch irgendwelche Gedanken über den Menschen zu machen. Das Wunder des Lebens auf der Erde (und damit im Universum), das sich seit ca. 4 Mrd.Jahren in extrem komplexen und erstaunlichen Prozessen abgespielt hat, wird vollständig ausgeklammert. Die vielen grundlegenden Fragen, die sich hier stellen, die alle noch nicht beantwortet sind, werden gar nicht erst diskutiert.

18. Dass die ‚alten Menschenbilder‘ der bisherigen Traditionen (insbesondere auch der großen Religionen (Hinduismus, Judentum, Buddhismus, Christentum, Islam) bei heutigem Wissensstand vielfach nicht mehr adäquat sind, ist eine Sache, aber dann den Menschen quasi einfach in der Versenkung schwinden zu lassen als sich der Herausforderung eines ’neuen Menschenbildes‘ zu stellen, ist nicht nur methodisch unsauber sondern natürlich ein direkter Angriff auf die Gesamtheit des Lebens im Universum schlechthin. Der Mensch schafft sich selbst ab; das ist mehr als Genozid (was eigentlich von der UN geächtet ist).

19. Während ‚Religion‘ eigentlich etwas Existentiell-Empirisches ist, das seine ‚Wurzeln‘ im ‚Transzendenten‘ zu ’spüren‘ meint, scheinen die ‚Institutionen‘ der Religionen eher ‚Machtgetrieben‘ zu sein, die im Konfliktfall das Existentiell-Empirische der Religion bekämpfen. Das Existentiell-Empirische wertet den einzelnen Menschen (jedes Lebewesen!?) grundlegend auf. Religiöse Erfahrung verbindet jeden potentiell mit Gott, was aber eine institutionelle Macht in Frage stellt.

20. Im Kontext der Diskussion um das ‚Neue Menschenbild‘ erscheinen die von den religiösen Institutionen ‚propagierten‘ Menschenbilder daher tendenziell ‚verzerrt‘, ‚partiell‘, ‚irreführend‘. Wenn dies zutrifft – als Autor gehe ich davon aus –, dann helfen die Menschenbilder der institutionellen Religionen uns momentan wenig in der Auseinandersetzung um das ‚Neue Menschenbild‘. Im Gegenteil, sie blockieren den Zugang zu dem ‚je größeren Bild‘ vom Menschen im Universum, vom Leben im Universum, und damit bedrohen sie die ‚Zukunft‘ des Lebens unmittelbar.

G) PROGRAMMENTWURF FÜR So 14.Dez.2014

21. Für die nächste Sitzung wurde von den Anwesenden daher folgender Programmvorschlag formuliert:
22. Eingangsbeispiel eines Experimentes zur ‚Neuen Musik‘ mit kurzem Gespräch
23. Kurze Einführung zum Thema ‚Emotionen‘
24. Erste Gesprächsrunde in kleinen Gruppen (3-4) zum Thema
25. Berichte der Gruppen und Diskussion
26. Eventuell Wiederholung Gesprächsgruppen und gemeinsame Diskussion
27. Mögliche Aufgabenstellung für nächstes Treffen
28. Offener Ausklang

Erste Vorübelegungen zur philosophieWerkstatt v2.0 am 14.12.2014 finden sich HIER.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

KANN ES DOCH EINEN KÜNSTLICHEN GEIST GEBEN?

Vorgeschichte

Dieser Blogeintrag geht zurück auf einen Vortrag, den ich auf der Jahrestagung der deutschen Sektion von YPO (Young Presidents Organization) gehalten habe. Der ursprüngliche Titel lautete „Das Digitale als Synomym für berechenbare Prozesse“. Als der Text zu diesem Vortrag fertig war (am Tag davor) deutete sich schon an, dass der Vortrag eigentlich eine weitere, sogar eine weiterführende Botschaft enthielt, die sich im ursprünglichen Titel nicht so widerspiegelte. Während ich den Vortrag dann hielt wurde mir klar, dass – in der Tat – der eigentliche Inhalt ein anderer war; der ursprüngliche Titel war nicht falsch, aber zu ‚eng‘.

Da ich jeden Vortrag nur einmal halte und mir für den Vortrag immer eine Problemstellung vornehme, die ich selber gerne geklärt haben möchte ohne zum Zeitpunkt er Themenstellung schon zu wissen, ob es wirklich so gehen wird, gibt es immer diese fluktuierenden Überlegungen und Formulierungen vorher, in denen das mögliche Thema um seine finale Gestalt ringt. Bislang war es immer so, dass es unmittelbar vor dem Vortrag eine starke Klarheit gab, im Vortrag selbst und in den anschließenden Fragen das Ganze nochmals heftig ‚aufleuchtete‘ und in den nachebbenden Gedanken und Gesprächen sich dann der ‚finale Gedanke‘ gezeigt hat.

So auch hier. Die benutzten Diagramme sind mit denen im Vortrag identisch, der Wortlaut nicht genau, aber dem Inhalt nach.

Ankündigungstext ohne Leser

Der folgende Text wurde von mir als Ankündigungstext verfasst, wurde dann aber doch nicht publiziert. Er gibt so ein wenig den ‚Flair‘ im Vorfeld wieder:

Wir leben in einer Zeit, in der die Computertechnik immer mehr Bereiche des täglichen Lebens durchdringt, uns in eine Symbiose mit dem Digitalen zwingt, der wir uns nur schwer bis gar nicht entziehen können: Im Haushalt, in der Haustechnik, beim Entwerfen und Bauen von Häusern, in der Musik, beim Fernsehen, bei der Filmproduktion, in den Verwaltungen, in der industriellen Produktion, bei der Verkehrssteuerung, in jedem Auto, in jedem Flugzeug, bei der täglichen Kommunikation,…und, und, und,…. Wie ist dies möglich? Wie kann eine Technologie für uns zu einer Art ‚zweiten Natur‘ werden? Wie kann eine einzige Technologie nahezu alle Lebensbereiche durchdringen? Wie kann Technik Eigenschaften annehmen, die wir eigentlich nur dem Menschen zuschreiben: Wahrnehmen, Begriffe bilden, Schlüsse ziehen, Wiedererkennen, Kreativ sein, Gefühle haben, Ansätze von Selbstbewusstsein? Wo führt dies hin? Wird uns die Computertechnik irgendwann doch überflüssig machen?

In seinem Vortrag wird Prof. Doeben-Henisch diesen Fragen nachgehen. Er führt zurück zum Ursprung des Computers, ins Zentrum der mathematischen Dispute um die Jahrhundertwende, die dann in den Personen von Kurt Goedel und Alan Matthew Turing zum neuen philosophisch-mathematischen Begriff ‚endlicher Prozess‘ bzw. zum Begriff der ‚Berechenbarkeit‘ führten. Der Mensch selbst stand Modell für das mathematische Konzept der Turingmaschine (1936/7), das dann wenige Jahre später zu realen Maschinen führte, die mit Relais, dann Röhren, schließlich mit Halbleitern demonstrierten, dass und wie man ‚rechnende Maschinen‘ bauen kann. Innerhalb von 60 Jahren eroberte diese Technologie die ganze Welt. Die binären Zustände der Computer zeigten sich mächtig genug, sich nahezu alles einzuverleiben: Zahlen, Texte, Bilder, Geräusche, Musik, Objekte, Gebäude, Pflanzen, Tiere, Abläufe, ganze Städte. Zur Zeit versuchen Forscher weltweit, Maschinen mit ‚künstlichem Geist‘ zu schaffen. Als Vorlage dient das menschliche Gehirn. Prof. Doeben-Henisch wird zeigen, warum wir im Moment keine Argumente haben, warum dies nicht gehen könnte.

Die Überlegungen zu den Grundlagen des menschlichen Geistes führen auch hinein in die Frage nach der Natur des Menschen, in seine Geschichte, in die Geschichte der Entstehung des Menschen, in die innere Logik der Evolution des Lebens auf der Erde. Die Forschung hat uns in den letzten 80 Jahren aufregende neue Einblicke in die Struktur des Lebens vermittelt, die wiederum verschränkt sind mit der Entwicklung des bekannten Universums selbst. Man kann sehen, dass das Digitale als lingua universalis berechenbarer Prozesse sich schon im Inneren des Biologischen selbst als ‚Sprache des Lebens‘ findet. Das Leben selbst als großer ‚Computer‘ oder, umgekehrt, der ‚Computer‘ als neue Spielart jenes Prinzips, das wir als Leben bezeichnen?

Dies sind einige der zentralen Themen, die im Vortrag angesprochen werden. Der Vortrag endet mit dem offensichtlichen Faktum der Ko-Evolution von Universum – Erde – biologischem Leben und digitaler Technologie. Was bedeutet dies für uns?

 

VORTRAG

(Anmerkung: Der geschriebene Text entspricht natürlich nicht exakt dem Wortlaut des frei vorgetragenen Vortrags)

Meine sehr verehrten Damen und Herren,

nachdem Sie in den vorausgehenden Vorträgen schon einiges gehört haben zu den vielfältigsten Phänomenen, die das Digitale in unserem heutigen Alltag hervorbringt, möchte ich mich in meinem Vortrag mehr der Frage  nach der Maschinerie hinter diesen Phänomenen widmen. Was sind das für Strukturen, die all dies möglich machen? Welches Prinzip ist so mächtig, dass es all diese verschiedenartigen Phänomene hervorbringen kann, die dem Menschen in seinen Lebensvollzügen immer näher kommen, ja, bisweilen sogar schon zu inneren Bestand von diesen werden?

Für die Beantwortung dieser Frage werde ich Sie mit drei Konzepten bekannt machen, die auf erstaunliche Weise untereinander zusammenhängen: das Konzept der rechnenden Maschine, das neue Bild des Menschen und die Einbettung beider Konzepte in den Gang der Evolution. Und sie werden dann sehen, dass diese Zusammenschau der drei Konzepte etwas ganz Neues aufscheinen lässt, nämlich das Konzept ‚Geist‘ als jene Größe, die in all diesen Prozessen als etwas ‚aufscheint‘, was ’schon immer da ist‘. Würde dieser erste Eindruck zutreffen, dann würde es bei den Versuchen der ‚Erschaffung‘ eines ‚künstlichen‘ Geistes weniger darum gehen, etwas ‚Neues‘ zu ‚erschaffen‘, sondern mehr darum, etwas, das ’schon immer da ist‘, mit neuen Methoden ’sichtbar‘ zu machen.

Ich werde zum Ende daher auch kurz auf ein Experiment hinweisen, in dem wir genau dies tun: den ‚Geist‘ in Form eines ‚künstlichen‘ Geistes sichtbar machen.

Beginnen wir mit uns selbst, dem dem Menschen, dem homo sapiens sapiens.

DER MENSCH

VIELSCHICHTIG

 

Vielschichtigkeit des Menschen (Quellen: Synthese aus vier Bildern von Wikipedia (en), siehe Literaturnachweise)

[Bild: vier Sichten des Menschen] Ich möchte mit einem Schaubild beginnen, das zeigt, wie vielschichtig wir Menschen bei näherer Betrachtung sind. Sie sehen einmal links die Oberfläche des Menschen, wie sie sich uns darbietet, wenn wir uns nackt zeigen. Doch bei der Frage, ob wir den Menschen mit dieser Oberfläche gleich setzen sollen, werden wir dies verneinen müssen. Wir wissen heute, dass hinter bzw. unter dieser Oberfläche eine Fülle von hochkomplexen Organen zu finden ist, die durch ihre kontinuierliche Arbeit alle unsere Lebensprozesse ermöglichen. Was wären wir ohne Herz, Nieren, Lunge, Leber, Magen, Darm usw.? Zugleich wissen wir, dass all diese wunderbaren Organe im Chaos enden würden, gäbe es nicht das Nervensystem mit dem Gehirn, das all diese Tätigkeiten – ergänzend zum Blutkreislauf und zum Immunsystem –– koordiniert, anregt, steuert. Und dann noch das augenfällige System von Knochen und Gelenken, in sich ein überaus lebendes System, ohne das alle Haut und Organe in einen Zellklumpen zusammenstürzen würden, der alsbald verenden würde. Vier überaus komplexe Systeme, die vielfach ineinander greifen und in diesem Zusammenwirken das Gesamtkunstwerk menschlicher Körper in seiner Grundstruktur ermöglichen. Wissen wir damit, was und wer der Mensch ist? Haben wir die Psyche, den Geist, die Seele vergessen?

Bevor ich darauf eine Antwort versuche, hier ein kurzer Szenenwechsel. Im Film würden man sagen, ein harter Schnitt.

FORMALISIERUNG DER VIELFALT ALS  SYSTEM

Formalisierung des Menschen als System mit Input und Output

[Bild: Box mit Eingang/ Ausgang und Verhaltensfunktion] Was Sie auf diesem Bild sehen können, ist ein Diagramm und eine kleine Formel.

Dieses Diagramm und diese Formel entspricht ein wenig der Art, wie ein mathematisch geschulter Ingenieur die zuvor präsentierte Vielfalt des Menschen hinschreiben könnte.

 

Die Box mit Überschrift ‚System‘ kann einen Menschen repräsentieren, der aus seiner Umgebung Stimuli – abgekürzt ‚S‘ – als Input ‚I‘ empfangen kann (also Augen, Ohren, Tastempfindungen usw.) und der über seinen Output ‚O‘ Reaktionen ‚R‘ an die Umgebung abgeben kann, also diverse Bewegungen, Schallereignisse, usw. Im Innern des Systems gibt es verschiedene interne Zustände (internal states, IS), die zum Funktionieren des Systems wichtig sind. Z.B. die diversen Organe, das Nervensystem, die Knochen, usw. Und zwischen all diesen Elementen, dem Input, den internen Zuständen und dem Output, gibt es einen funktionalen Zusammenhang, der im Bild einfach mit dem griechischen Buchstaben ‚phi‘ (Φ, φ) benannt wird.

 

Alternativ zu solche einem Diagramm würde man aber auch einfach die kürzere Formel hinschreiben, die genau das gleiche zum Ausdruck bringt: der funktionale Zusammenhang ‚phi‘ nimmt Inputwerte und aktuelle Zustände als Ausgangspunkt und berechnet daraus mögliche Änderungen der inneren Zustände und einen Output. Also, Beispiel, sie sitzen in einem Auto und sehen (=Input) eine rote Ampel. Da sie gelernt haben, bei Rot tunlichst stehen zu bleiben (=IS), verändern sie ihre Fußstellung und bremsen (=IS, O).

Dieses kleine Beispiel mag auch ein wenig verdeutlichen, wie Ingenieure vorgehen, wenn sie die vielfältige Wirklichkeit mit der Sprache der Mathematik vereinfachen und dadurch all die wunderbaren Dinge bauen können, die Sie jeden Tag wie selbstverständlich benutzen. Ohne diese mathematische Sprache würden wir noch immer steinzeitlich leben.

Betrachten wir noch ein weiteres Beispiel im Kontext des Menschen, das uns helfen wird, die Brücke zur rechnenden Maschine zu bauen.

 

GEHIRN UND NERVENZELLE

Gehirn als Teil der menschlichen Organe; daneben ein einzelnes Neuron (Quelle: zwei Bilder aus Wikipedia komponiert, aus Wikipedia (en), siehe Literaturnachweise)

[Bild: Gehirn links, Nervenzelle rechts] Werden wir ein wenig bescheidener und nehmen uns nur einen Teil des Menschen vor, sein Gehirn. Nach neuen Schätzungen umfasst ein Gehirn etwa 100 Mrd Neuronen (Kandel et al. 2012:S.21). Diese sind in der Regel nicht direkt miteinander verbunden.

 

Die typische Struktur eines Neurons sieht man rechts vom Gehirn. Es gibt genau einen Ausgangs (das Axon), der sich vieltausendfach verzweigen kann, sowie viele tausend Eingänge. In dem kleinen hervorgehobenen Kreis kann man die Eigenart der neuronalen Verbindungen erkennen: das Endstück eines Axons endet kurz vor der Oberfläche des Neurons; es bleibt ein kleiner synaptischer Spalt.

NERVENZELLE UND MEMBRAN

Neuron links mit Vergrößerung einer Synapse rechts. Neuronbild aus Wikipedia (en). Quelle siehe Literaturverzeichnis

[Bild: Neuron und Membran schematisiert] In dem nachfolgenden Bild ist dies schematisierend und vergrößert dargestellt. Die Oberfläche der empfangenden Zelle stellt eine Membran dar, die man postsynaptische Membran nennt, die zusammen mit dem Endstück des Axons eine Synapse bildet. Die Kommunikation zwischen Endstück und potsysnaptischer Membran wird über Moleküle (Transmittermoleküle) realisiert, die beim Auftreten eines elektrischen Potentials im Axon aus den Vesikeln entlassen werden. Diese diffundieren durch den synaptischen Spalt und können dort, falls sie ‚passen‘ an Rezeptormolekülen von Ionenkanälen andocken. Jede postsysnaptische Membran hat mehrere Tausend solcher Ionenkanäle. Docken diese Transmittermoleküle an den Rezeptoren an, öffnen sich die Ionenkanäle. Es findet dann ein schlagartiger Austausch von Ionen in und außerhalb der Membran statt. Dieser schlagartiger Austausch hat einen ebenso plötzlichen Wechsel des elektrischen Potentials zur Folge, was dann zu dem bekannten Ein-Aus-Signal eines Neurons führen kann.

 

Gäbe es nur Ionenkanäle, dann wäre mit dem einmaligen Öffnen der Kanäle – bildlich gesprochen – alles Pulver verschossen. Diese Membran würde nie mehr ein weiteres Signal erzeugen können. Das aber ist eigentlich ihre Aufgabe. Zu diesem Zweck gibt es noch einige tausend Ionenpumpen. Diese sind in der Lage Ionen gegen ein Konzentrationsgefälle von außen nach Innen oder umgekehrt zu pumpen. Dazu benötigen sie Energie. Da sie insgesamt langsamer arbeiten als der Ionenaustausch durch die Kanäle stattfindet, entstehen zwischen den einzelnen Signalereignissen Refraktionszeiten, in denen keine Schaltvorgänge möglich sind.

 

Sie sehen also, schon die vielen tausend Membranen einer einzigen Nervenzelle (es können bei einer Zelle mehr als 1 Mio sein!) bilden kleine, komplexe Maschinen, deren Funktion Signalerzeugung und Signalfluss im Gehirn ermöglicht.

 

Während ein Neurowissenschaftler zur Beschreibung einer Nervenzelle und des Gehirns auf alle diese unfassbar komplexen Details eingehen muss, kann ein Ingenieur, der ein künstliches Gehirn bauen möchte, sich fast entspannt zurücklehnen und die Frage stellen, welche Eigenschaften an einem Neuron denn wesentlich sind, um sein Schaltverhalten zu erfassen.

Eine typische Antwort würde so aussehen:

 

NERVENZELLE MATHEMATISCH

Formalisierung eines Neurons durch Konzentration auf die Schalteigenschaften

[Bild: Nervenzelle mathematisch] Sie sehen wieder ein Box, dieses Mal ‚Neuron‘ genannt. Der ‚Input‘ zu dieser Box bilden die Endstücke von anderen Neuronen. Im Bild sind es drei Eingänge, es könnten aber n-viele sein. Dazu ein Ausgang, das Axon, das sich auf n-viele viele andere Neuronen – letztlich auch auf sich selbst – verteilen kann. In der Box können Sie drei einfache Formeln erkennen, die drei aufeinander folgende Verarbeitungsstufen repräsentieren. In der ersten Stufe werden die mit wij gewichteten Aktionspotentiale aij der einzelnen Eingänge summiert zum Wert net_j. Dann wird mittels der Aktivierungsfuntkion f_act berechnet, ob diese summierten Eingangssignale zusammen mit dem letzten Aktionspotential a_j einen vorgegebenen Schwellwert theta (θ) überschreiten oder nicht. Falls der Schwellwert überschritten wird, wird ein neues Aktionspotential a_j erzeugt, das dann schließlich mit der Ausgabefunktion f_out in einen geeigneten Ausgabewert umgerechnet wird.

 

Genauso wenig wie eine einzelne Schwalbe bekanntlich einen Frühling macht, genauso wenig kann man mit einem einzelnen Neuron etwas interessantes anfangen. Der Ingenieur muss sich also noch etwas einfallen lassen, wie er die vielen Neuronen zusammenbringt. Vielleicht ahnen Sie schon, was jetzt kommt:

 

KÜNSTLICHES GEHIRN

Übergang von einm Zeitpunkt zum nächsten, beschrieben mit Vorschrift ’syn‘

[Bild: Mengen von Neuron-Verbindungen] Eine einfache Möglichkeit, die Gesamtheit aller Neuronen zu betrachten, besteht darin, jeweils zwei, die miteinander in Verbindung stehen, als ein Paar zu betrachten, das bestimmte Verbindungswerte besitzt, und dann die Menge aller dieser Paare als eine Einheit zu einem bestimmten Zeitpunkt. Im Bild ‚CON‘ genannt, die Menge aller Connections.

 

Was dann noch bleibt ist die Beschreibung der Dynamik dieser Zellen, die Art der Veränderungen von einem Zeitpunkt zum nächsten. Dieser Veränderungszusammenhang wird im Bild ‚dyn‘ genannt, eine mathematische Vorschrift, die sagt, wie ich vom Zustand der Zellen zu einem Zeitpunkt zum Zustand der Zellen beim nächsten Zeitpunkt komme.

 

Damit ist für den Ingenieur alles gesagt, was gesagt werden muss. Ob dieses künstliche Gehirn Bilder erkennen soll, Sprache sprechen, sich erinnern können soll, usw. all dies ist damit erfasst. Sollte der Ingenieur in der Praxis feststellen, dass er wichtige Eigenschaften übersehen hat, dann fügt er sie einfach in seine Formeln ein.

Gehen wir nach diesem Ausflug ins Gehirn nochmals zur Ausgangsbox mit dem Menschen zurück.

 

NOCHMALS SYSTEMBOX

Integration des Teilomodells ‚Gehirn‘ in das allgemeine Systemmodell vom ‚Menchen‘

[Bild: Nochmals die Systembox, jetzt mit Verfeinerungen] Soeben haben wir das Gehirn als eine Teilbereich des Körpers näher betrachtet. Wollen wir diese Erkenntnisse in der allgemeinen Box verorten, dann müssen wir sagen, dass die Menge CON eine Teilmenge der Menge IS der internen Zustände ist, und die Verarbeitungsvorschrift ‚dyn‘ ist ein Teil der allgemeinen Verhaltensfunktion φ des Menschen.

 

Sie können an diesem Beispiel einmal sehen, wie man mit der Sprache der Mathematik komplizierteste Sachverhalte auf einfache Strukturen zurückführen kann, und – und darauf kommt es in unserem Zusammenhang besonders an – dass der Mensch – also wir selbst – bei dieser Betrachtungsweise eine Struktur besitzt, die uns durch diese Struktur vergleichbar macht mit allen anderen Strukturen.

Eine der Strukturen, mit denen ich die Struktur des Menschen vergleichen möchte, ist die Struktur eines endlichen Prozesses.

Um zu beschreiben und zu erklären was ‚berechenbare Prozesse‘ sind, müssen wir einen kleinen Ausflug in die Welt der Logik und Mathematik machen.Ich hoffe dann zeigen zu können, warum die berechenbaren Prozesse und wir Menschen mehr gemeinsam haben, als die meisten vermuten, und warum das Reden vom ‚Geist‘, auch vom ‚künstlichen Geist‘ heute eine ganz andere Bedeutung bekommen hat, als es bislang üblich war.

 

DIGITALE MASCHINE

DISKUSSION DER MATHEMATIKER

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

[Bild: Schema einer formalen Theorie] Natürlich werde ich hier nicht auf die Details der Diskussionen im Kontext der sogenannten Grundlagenkrise der Mathematik zum Ende des 19. und zu Beginn des 20.Jahrhunderts eingehen können. Nur so viel sei hier gesagt, dass die Logiker und Mathematiker dieser Zeit ein Problem damit hatten, die Grundlagen der Mathematik so zu beschreiben, dass keine Paradoxien entstehen konnten, erst recht keine direkten Widersprüche in den formalen Systemen und natürlich wünschte man sich vollständige Systeme, d.h. formale Systeme, in denen man alle Aussagen, die im Sinne des Systems wahr sein sollen, auch beweisbar sind.

 

Eine der wichtigsten mathematischen Schulen innerhalb dieser Diskussionen war die Schule um David Hilbert, der die Lösung des Problems einer befriedigenden Darstellung der Mathematik darin sah, eine Reihe von möglichst einfachen formalen Systemen zu schaffen (basierend auf einer endlichen Menge von Axiomen), deren Widerspruchsfreiheit und Vollständigkeit mit sogenannten ‚endlichen Mitteln‘ gezeigt werden kann. Alle komplizierteren Theorien sollten dann auf diese einfachen Systeme zurückgeführt werden.

Im Alltag mag es uns nicht als Problem erscheinen, von ‚endlichen Mitteln‘ zu sprechen. Aber wenn es darum geht, allgemein zu beschreiben, was hinreichend geeignete endliche Mittel sind, um eine mathematische Theorie als widerspruchsfrei und vollständig zu erweisen, dann zeigt sich plötzlich, dass dies nicht so einfach ist, wie sich dies Hilbert und seine Schule erhofft hatten.

GOEDEL – TURING

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

[Bild: Goedel und Turing historisch] Es war Kurt Goedel, der 1930-31 zeigen konnte, dass das Grundlagenprogramm von Hilbert und seiner Schule prinzipiell unmöglich war. Er zeigte, dass eine mathematische Theorie, die mindestens so stark wie die Arithmetik ist, aus prinzipiellen Gründen nur eines von beiden sein kann: entweder widerspruchsfrei (konsistent) oder vollständig, aber nicht beides zugleich. Dieses Ergebnis trifft in das Herz jeder mathematischen Theorie, bis heute. Es zeigt, dass es prinzipielle Grenzen in der Beweisbarkeit von mathematischen Wahrheiten gibt.

Diese Probleme treten immer dann auf, wenn es darum geht, innerhalb (!) einer formalen Theorie (mindestens so stark wie eine Prädikatenlogik erster Stufe) die Widerspruchsfreiheit und Vollständigkeit zu beweisen. Natürlich kann man das Problem dadurch zu umgehen versuchen (was sehr viele versucht haben), eine zusätzliche ‚Beschreibungsebene‘ einzurichten, von der aus sie dann ‚über‘ (Griechisch ‚meta‘) die Objekte der anderen ebene ‚reden‘. Solche Art von Hierarchisierungen oder Typisierungen oder Metaebenen entsprechen der üblichen Arbeitsweise des menschlichen Gehirns. Allerdings bildet diese Strategie bei näherem Hinsehen keine wirkliche Lösung. Zwar verschwinden in der Objekttheorie all jene Elemente, die ‚über sich selbst‘ reden können, aber die Metaebene selbst, die ja auch den Berechenbarkeitsforderungen mathematischer Beweise genügen müssen, enthalten dann genau all jene Elemente wieder, die zu der von Kurz Goedel aufgedeckten Schwachstelle führen.

Eine letzte philosophische Würdigung dieser Sachverhalte scheint mir noch auszustehen.

Mit diesen Überlegungen sind wir beim Thema Berechenbarkeit angekommen.

Die Diskussion unter Mathematikern hängt von Beweisen ab, die geführt werden. Diese Beweise müssen mit sogenannten endlichen Mitteln geführt werden, damit sie nachvollziehbar sind. Goedel selbst hatte ein geniales Verfahren ersonnen, um unter Benutzung von natürlichen Zahlen seine Beweise zu führen. Aber er war von seinem eigenen Beweis nie begeistert, obgleich niemand ihn bis heute widerlegen konnte.

Es war dann einem gewissen Alan Matthew Turing vorbehalten fünf Jahre später die Beweise von Goedel nochmals mit anderen Mitteln zu führen. Und diese Beweismittel – später Turingmaschine genannt – fanden nicht nur die Zustimmung von Goedel, sondern von nahezu allen nachfolgenden Generationen. Bis heute ist die Turingmaschine das wichtigste mathematische Konzept für alle Berechenbarkeitsbeweise – und damit der mathematische Referenzpunkt für alles, was wir heute Computer nennen.

Weil dem so ist, weil das Konzept der Turingmaschine eine solch eminente philosophische und mathematische Bedeutung zukommt, lassen Sie mich dieses Konzept kurz vorstellen. Es ist so einfach, dass die meisten, die es zum ersten Mal kennen lernen, sofort fragen: und das soll alles sein? Ich versichere Ihnen, das ist alles und – und das möchte ich dann zum Abschluss zeigen – das Konzept der Turingmaschine findet sich auch schon im Kern von allem Biologischen. Ein Befund, den man nun nicht unbedingt erwarten muß.

TURINGMASCHINE

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

[Bild: Theorieprozess TM] So wie Newton angeblich beim Fallen eines Apfels seine entscheidende Einsicht in das Wesen des Gravitationsgesetzes bekommen haben soll, so beschreibt Turing selbst in dem entscheidenden Artikel von 1936-7, dass es die Arbeit eines Buchhalters im Büro war, die ihn inspiriert hat. So, wie der Buchhalter mit einem Stift auf einem Blatt Papier Zahl an Zahl fügt, so stellte er sich eine ideale Maschine vor (siehe im Bild rechts oben), die auf einem Band mit lauter Kästchen, entweder über ein Schreib-Lese-Fenster lesen kann, was in dem Kästchen geschrieben ist oder ein neues Zeichen in das Kästchen schreiben kann. Darüber hinaus kann die ideale endliche Maschine den Schreib-Lesekopf nur um ein Feld nach links oder rechts bewegen. Das ist alles. Das Verhalten der idealen endlichen Maschine wird gesteuert über eine endliche Liste von Befehlen

TM BEISPIEL

Bild einer 4-zeiligen Turingmaschine, Vereinfachung eines Beispiels von einer Webseite (Quelle: siehe Literaturvereichnis). Auf der Webseite kann man dieses Beispiel sowohl erweitern als auch real ausführen.

[Bild: TM mit vier Zeilen] In einem einfachen Beispiel einer TM können Sie solche Befehlszeilen erkennen: in der ersten Spalte steh der Name eines Zustandes (z0), dann folgt ein Feld mit dem Zeichen, das gelesen werden kann, dann eine Feld mit dem Namen des Folgezustandes (z0), dann das Zeichen, das in diesem Fall geschrieben werden soll, und schließlich ein Zeichen, welche Bewegung ausgeführt werden soll.

Im Beispiel würde man die erste Zeile etwa wie folgt lesen: Im Zustand z0 wird beim Lesen des Zeichens ‚#‘ der Zustand z0 beibehalten, für das Zeichen ‚#‘ würde das neue Zeichen ‚1‘ geschrieben und der Schreib-Lesekopf wird um 1 Feld nach rechts bewegt.

Im Beispiel umfasst das ganze Verhaltens-Programm 4 Zeilen.

Das ist alles. Das ist die berühmte Turingmaschine, die sich als weltweiter Standard zur Prüfung der Berechenbarkeit eines Prozesses durchgesetzt hat. Was immer bislang an anderen Formalismen gefunden wurde, sofern solch ein Formalismus endliche Berechenbarkeit beschreiben soll, war er niemals stärker als eine Turingmaschine.

Oder anders ausgedrückt:

Sofern es nicht möglich ist, zu zeigen, dass eine Turingmaschine, angesetzt auf ein Problem, nach endlichen vielen Schritten zu einem Ergebnis kommt, solange kann man nicht behaupten, dass dieses Problem (Turing-)berechenbar ist.

Auf der Basis der Turingmaschine wurden in den vergangenen Jahrzehnten eine ganze Reihe interessanter Unentscheidbarkeitsresultate bewiesen. Auf die kann ich hier jetzt nicht eingehen. In meinen Augen habe diese Ergebnisse alle eine sehr hohe philosophische Relevanz.

Wie eingangs festgestellt, sehe ich einen interessanten Zusammenhang zwischen der Turingmaschine, dem Menschen und der Evolution des Biologischen. Lassen Sie uns daher einen kurzen Blick darauf werfen.

EVOLUTION, KOEVOLUTION, …

GENOTYP UND PHÄNOTYP

Wechselwirkung zwischen Genotyp und Phänotyp einerseits und Phänotyp mit umgebender ökologischer Nische andererseits

[Bild: Genotyp und Phänotyp] Ausgangspunkt dieser Überlegungen ist das erstaunliche Faktum, dass die Vielfalt und Komplexität der Körper – der sogenannte Phänotyp – zurückführbar ist auf die zugrunde liegenden genetischen Informationen – auf den sogenannten Genotyp –. In einem Wachstumsprozess wird – ausgehend von einer einzigen Zelle – ein Körpergebilde mit vielen Billionen Zellen aufgebaut, die alle in einem sinnvollen funktionalen Zusammenhang enden.

Es lohnt, sich klar zu machen, dass dieses unfassbare Wunderwerke eine sehr lange, komplexe Entstehungsgeschichte hat, die selbst im universalen Maßstab ihresgleichen sucht.

EVOLUTION ALS TEIL DER ENTWICKLUNG DES UNIVERSUMS

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

[Bild: Entwicklung des Universums mit Evolution] Das Schaubild zeigt maßstabsgetreu wichtige Entwicklungsstationen im bekannten Universum an. Unsere Position auf der Zeitachse ist unmittelbar dort, wo das grüne Dreieck endet. Das grüne Dreieck zeigt an, ab wann zellbasiertes Leben auf der Erde nachweisbar ist. Die Erde begann ca. vor 4.55 Mrd Jahren. Die chemische Evolution, die dann zu ersten einfachen Zellen führte, setzte ungefähr vor 4 Mrd. Jahren ein, 200 Mio Jahre später eben erste einfachste Zellstrukturen. Es dauerte dann etwa 2.8 Mrd Jahre bis es zu ersten multizellulären Lebensformen kam, die dann einige hundert Mio Jahre später zur Besiedlung des Landes führte. Von diesem Zeitpunkt bis zu uns dauerte es nochmals 700 Mio Jahre.

Nach heutigem Wissensstand wird es nur ca. 1 Mrd Jahre dauern, bis in der Zukunft das Leben auf der Erde wegen der beginnenden Aufblähung der Sonne praktisch unmöglich werden wird.

Sind schon diese zeitlichen Verhältnisse atemberaubend, so ist es noch spannender, wenn man der Frage nachgeht, wie es denn überhaupt zur Ausbildung dieser extrem komplexen Strukturen kommen konnte.

Das Schwierigste ist dabei nicht einmal die biologische Evolution, die mit dem Auftreten der ersten Zellen vor ca. 3.8 Mrd. Jahren begann, sondern die härteste, bis heute nicht geknackte Nuss, ist eine Erklärung, wie es überhaupt zu den ersten Zellen kommen konnte. Denn selbst bei den einfachsten Zellen wirken schon so viele komplexe Strukturen zusammen, dass eine Erklärung der schrittweisen Entstehung dieser Strukturen im Rahmen der sogenannten chemischen Evolution bislang nicht völlig aufgehellt ist.

Kehren wir zu den ersten Zellen zurück.

Ich hatte angekündigt, dass die TM als Grundmodell der Berechenbarkeit sich im Herzen des Biologischen wiederfindet.

RIBOSOM ALS TURINGMASCHINE

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

[Bild: links Ribosom, rechts Turingmaschine] Dies können Sie hier sehen:

Links sehen sie das Prozeßmodell, wie ein Ribosom – ein spezielles RNA-Molekül – Proteine erzeugt, indem es Informationen von einem Boten-RNA-Molekül bekommt und zugleich Aminosäurebasteine von Transfer-RNA-Molekülen. Der Dirigent im Hintergrund ist ein DNA-Molekül, dessen Bausteine als Informationseinheiten auf das Ribosom einwirken.

Was sie hier sehen ist das Herzstück allen biologischen Lebens und – möglicherweise – eines der wahren Wunder des ganzen Universums. Das, was allen bekannten Gesetzen der Physik zuwiderläuft und sich jeder anderen bekannten Erklärung entzieht das ist dieses DNA-Molekül. Das DNA-Molekül repräsentiert eine frei kombinierbare Anordnung von Aminosäuren, für die es in den möglichen Kombinationen keinerlei zwingende Gründe gibt. Durch die Verknüpfung mit dem proteinerzeugenden Mechanismus mittels mRNA, tRNA und Ribosom stellt die DNA aber eine Quelle von unerschöpflich vielen Bauplänen für Körperstrukturen dar.

Im Lichte des Konzepts der Turingmaschine bieten sich folgende Interpretationen an. Wie im Bild eingezeichnet lässt sich das Ribosom als eine Turingmaschine interpretieren, die als Input Eingaben von der mRNA und der tRNA bekommt und diese dann in eine Ausgabe als Protein verwandelt. Da das Ribosom, wie wir wissen, aber bzgl. seiner Eingaben nicht rückwärts gehen kann, sondern immer nur vorwärts, schöpft es die Möglichkeiten einer Turingmaschine nicht einmal ganz aus; es entspricht damit eher noch einer abgeschwächten TM mit Namen ‚endlicher deterministischer Automat‘.

Zentral bleibt das Faktum, dass wir im innersten Kern des Biologischen berechenbare Prozesse finden, die von einem DNA-Molekül gesteuert werden, das mit seinen Eigenschaften dem Konzept eines Zeichens sehr nahe kommt.

QUINTESSENZ des BIOLOGISCHEN

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

[Bild: Zusammenfassung Biologisches] Fassen wir diese verschiedenen Aspekte des Biologischen nochmals zusammen:

Ausgangspunkt aller biologischer Phänomene ist das kosmische Faktum, dass die Entropie bislang noch nicht maximal ist. Aus den lokalen Entropiegefällen ist daher ‚freie Energie‘ verfügbar, die in Gestalt von chemischen, biochemischen und dann biologischen Prozessen lokal Strukturen entstehen lassen, die immanent in Richtung immer größerer Komplexität drängen. Dafür gibt es bislang keine befriedigende naturwissenschaftliche Theorie.

In Gestalt der zellbasierten biologischen Evolution können wir ein komplexes Zusammenspiel zwischen Genotyp und Phänotyp einerseits beobachten, aber simultan genauso wichtig das Zusammenspiel zwischen Phänotyp und umgebender Welt. Während der zufallsgesteuerte Genotyp den Raum möglicher Strukturen frei absuchen kann, führt die Bindung des Genotyps an den Phänotyp über die Interaktion mit der umgebenden Welt zu einem übergeordneten Selektionsprozess, der nur jene Phänotypen und damit daran gekoppelte Genotypen akzeptiert, die zur Umgebung passen. Daraus ergibt sich, dass die biologische Evolution simultan und unausweichlich immer nur als Ko-Evolution funktionieren kann.

Damit stellt sich die Frage, ob wir es bei der Emergenz des Geistigen als Eigenschaft des Biologischen mit einer Neuerschaffung des Geistes zu tun haben, oder ’nur‘ mit der Sichtbarmachung des stehts schon vorhandenen ‚Geistigen‘?

Hält man sich diesen Gesamtzusammenhang vor Augen, dann kann der direkte Vergleich zwischen dem Menschen und einer Turingmaschine in einem neuen Licht erscheinen.

MENSCH und KÜNSTLICHER GEIST

MENSCH TURINGMASCHINE

Oben Systemformel Mensch, unten Systemformel Turingmaschine (TM) und dann Universelle Turingmaschine (UTM)

[Bild: Formel Mensch und (U)TM] Sie sehen auf diesem Schaubild nochmals die schon bekannte Verhaltensformel des Menschen, die sich dadurch auszeichnet, dass wir vom Menschen annehmen können, dass er sich innerhalb seines wissensbasierten Verhaltens bis zu einem gewissen Grade kontinuierlich verändern kann. Man nennt dies Lernen.

Die ’normale‘ Turingmaschine kann dies zunächst nicht. Sie ist vollständig determiniert. Allerdings nur auf den ersten Blick.

Schon Turing hat gezeigt, dass man eine deterministische Turingmaschine sehr leicht zu einer universellen sich selbst modifizierenden Maschine ‚umbauen‘ kann, indem man einen Teil des Bandes dazu benutzt, dort die Beschreibung einer beliebigen Turingmaschine (oder eines Gehirns, oder…) zu speichern. Die ursprüngliche deterministische Turingmaschine kann dann diese andere Turingmaschine simulieren bis dahin, dass sie diese andere Beschreibung in Abhängigkeit von Umgebungsereignissen abändern kann. Damit ist eine universelle Turingmaschine (UTM) voll lernfähig.

Zieht man diese Möglichkeit in Betracht, dann gibt es weder strukturell noch verhaltensmässig einen wesentlichen Unterschied zwischen einem Menschen (sofern er mit der obigen Formel adäquat erfasst wird) und einer universellen Turingmaschine.

Bei solch einer Betrachtungsweise verwundert es dann nicht, dass Turing selbst in verschiedenen Aufsätzen offen darüber spekuliert hatte, dass eine universelle Turingmaschine im Prinzip die vom Menschen her bekannte Geistigkeit nicht nur nachzuahmen sondern in bestimmten Bereichen sogar übertreffen könnte. Letztlich sah er nur praktische Hindernisse auf dem Weg dahin, insbesondere die Schwierigkeit, eine Maschine an all den Lernprozessen teilhaben zu lassen, die Menschen normalerweise durchlaufen.

Künstlicher Geist?

Wenn man sich all diese Gedanken in einer Gesamtschau nochmals vor Augen stellt, dann kann man den Eindruck gewinnen, dass all das, was wir traditionell ‚Geist‘ nennen, also diverse Eigenschaften, die wir mit dem Verhalten des Menschen zusammen bringen, möglicherweise so zu verstehen ist, dass hier Eigenschaften ’sichtbar‘ werden von jenen ‚impliziten‘ Eigenschaften der dynamischen Materie, aus dem alles ist. Die mit den bisherigen Gesetzen der empirischen Wissenschaften nicht erklärbaren biologischen Phänomene wären dann ’nur‘ ‚Ausfaltungen‘ von empirischen Eigenschaften, die genau wie alles andere impliziten ‚Gesetzen‘ folgen.

Wenn dies stimmen würde, dann müsste die ‚Konstruktion‘ eines künstlichen Geistes immer dann möglich sein, wenn man die ‚Randbedingungen‘ für das ‚Aufscheinen‘ (Emergenz?) der geistigen Phänomene bereitstellen würde.

In einer Diskussion in der Nacht des 9.Oktobers dieses Jahres entstand angesichts dieser Sachlage die Idee, in der Stadt Goethes, den künstlichen Geist unter Beteiligung der Öffentlichkeit offiziell entstehen zu lassen.

In einer öffentlich kontrollierten Entstehung des künstlichen Geistes hätten alle eine Chance, ein wesentliches Prinzip dieses unseres Universums und deren Anwendung bzw. Nutzung besser verstehen zu können.

Es geht nicht darum, den Geist neu zu erfinden, sondern das, was vor allem Denken schon da ist, sichtbar zu machen.

Erkennnis ist nicht nur ein Wissensproblem, sondern auch ein Akzeptanzproblem: sind wir bereit zu akzeptieren wer wir wirklich sind: Teil eines universalen Geistwerdungsprozesses, der uns eine immer größere Mitwirkungsmöglichkeit zuweist (womit nicht ausgeschlossen ist, dass es irgendwo in den unendlichen Weiten des Universums ähnliche Prozesse gibt).

An dieser Stelle höre ich jetzt auf, obgleich es ja gerade erst anfängt…

[Anmerkung (11.April 2015): Nach zwei Jahren Diskussion konnte im April die Webseite zum Emerging Mind Projekt eröffnet werden. Offizieller Start ist der 10.November 2015. In diesem Projekt geht es genau um das, was in dem vorausgehenden Beitrag diskutiert wurde, die öffentliche Erzeugung eines Künstlichen Geistes samt den dazugehörigen begleitenden philosophischen Diskussionen und künstlerischen Aktionen.]

LITERATURVERWEISE

 

  1. Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
  2. Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
  3. Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
  4. Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  5. Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
  6. Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
  7. Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27sproblems (Last access Sept-30, 2012)
  8. Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL:
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und
    http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/(Last Access Sept-30, 2012)
  9. Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
  10. TM – Beispiel aus dem Internet, vereinfacht. Siehe http://keinerspieltmitmir.de/turing/ (letzter Besuch: 12.Nov.2012)
  11. Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
  12. Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936;
    Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint
    in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at:
    http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012)
  13. Wikipedia (en): Body Surface at http://en.wikipedia.org/wiki/Human body (letzter Besuch: 12.Nov.2012)
  14. Wikipedia (en). Brain at http://en.wikipedia.org/wiki/Human brain (letzter Besuch: 12.Nov.2012)
  15. Wikipedia (en): Human skeleton at http://en.wikipedia.org/wiki/Human_skeleton (letzter Besuch 12.Nov.2012)
  16. Wikipedia (en):  Organs beyond the Body Surface at http://en.wikipedia.org/wiki/Human anatomy (letzter Besuch: 12.Nov.2012)
  17. Wikipedia (en): Neuron at http://en.wikipedia.org/wiki/Neuron (letzter Besuch: 12.Nov.2012)

Eine Übersicht über alle bisherigen Beiträge anhand der Titel findet sich HIER

NACHTGESPRÄCH im INM (Frankfurt) oder REENGINEERING VON GOETHES FAUST

  1. Heute vor 20 Jahren begannen zwei junge Wissenschaftler ihre Arbeit in einem 1992 weltweit bekannten Institut, dem Institut für Neue Medien, damals Teil der Städelschule, der Hochschule für Bildende Künste in Frankfurt ( auf ihrer Webseite http://www.staedelschule.de/ zeigt sich die Städelschule heute bar jeder Geschichte, völlig aseptisch, meinungslos…). Die beiden hießen Dr. Michael Klein (Physiker) und Dr. Gerd Doeben-Henisch (Philosoph, Theologe, Wissenschaftstheoretiker).
  2. In einem bunten Haufen von Künstlern und unterstützenden Technikern entstanden in der Zeit 1989 – 1994 am INM viele bahnbrechende interaktive Kunstwerke, die über berühmte Ausstellungen schließlich ihren Weg in die Museen der Welt fanden. Zehn der damals aktiven Künstler endeten als ProfessorenInnen (meist an Kunsthochschulen).
  3. Das Medium des Computers (zu der Zeit die sehr seltenen, weil sehr teuren, Silicon Graphics Computer) (und eine üppige finanzielle Ausstattung) lies die Künstler-Techniker-Wissenschaftler Teams den Raum der interaktiven Bilder und Töne und Handlungen kreativ erforschen. Vieles, was heute als selbstverständlich erscheint (z.B. das Morphing von Bildern, Interaktion von Tönen/ Geräuschen mit Bildern, spezielle Interface) wurde im INM erstmalig erforscht und neuartig ausprobiert. Reale Pflanzen wurden zu Schnittstellen zu interaktiven Pflanzen-Bild-Grafiken; Atmung wurde als Steuerungsparameter für großflächige bewegte Grafiken genutzt; Gehirnströme dienten der Steuerung von Scharen kleiner Roboter; der Zugang zu einer Ausstellung wurde durch Steuerpulte ersetzt; drei-dimensionale Klangräume steuerbar über eine bewegliche Bühne; und, und, und….
  4. Als das Institut der Städelschule wegen Kürzung der Zuschüsse geschlossen werden musste (Okt.1994), wurde es am gleichen Tag von den beiden Wissenschaftlern, unterstützt von der Stadt Frankfurt und der Kulturstiftung der Deutschen Bank, neu gegründet, als INM e.V.. Mit Unterstützung der ars electronica (Linz, Österreich) konnte dann u.a. das Großprojekt ‚Blind’s World I‘ (Doeben-Henisch und Team) realisiert werden.
  5. Es folgte eine bewegte Zeit mit vielen Aufs und Abs. Aus dem INM e.V. gingen allein 5 Startups hervor, die aber alle mit dem Platzen der sogenannten ‚Internetblase‘ mit in den Strudel von Insolvenzen gerissen wurden (Im Falle der Knowbotic Systems GmbH mussten die Geschäftsführer die Insolvenz zwei Tage nach dem Gewinn des ersten Preises der Stadt Frankfurt für die beste Gründung bekannt geben… welch Ironie). Allein diese Gründungsphase wäre ein eigener Roman wert.
  6. Dies und vieles mehr kam am Abend des 9.Oktobers 2012 im Rahmen der Veranstaltung ‚unplugged heads 2.0‘ des INM e.V. zur Sprache. Michael Klein zeigte eine Auswahl aus den vielen spannenden Videofilmen dieser Zeit; Gerd und Michael kommentierten.
  7. Es entwickelte sich dann ein intensives Gespräch mit allen über Kunst, Videokunst, Computerkunst, Kommerz, institutionelle Zwänge, neue Bewegungen, Lehren aus der Vergangenheit…bis sich Gerd Doeben-Henisch mit zwei der Besucher in Fortspinnung des ars electronica Experimentes The Blinds World I in das Thema des lernenden künstlichen ‚Geistes‘ verbiss.
  8. In einem gedanklichen ‚cross over‘ von Computerspielen, künstlicher Intelligenz,Kognitionswissenschaft, Entwicklungspsychologie, Linguistik, Netzcommunity entstand dann im Gespräch die Vision eines künstlerisch-wissenschaftlichen experimentellen Universum von künstlichen Strukturen, die immer mehr ‚geist-ähnliche‘ Eigenschaften in sich versammeln, in einem web- und real-öffentlichem Raum, bei dem alle zuschauen können, wo viele mit-experimentieren können. In Interaktion mit einem künstlichen Raum und realen Menschen entsteht ein künstlicher Geist, der aber nicht an die Spielregeln eines realen Körpers gebunden ist. Wie wird dieser künstliche Geist Musik machen, Bilder malen, Tanzen, Mathematik machen, sprechen? Wie werden wir uns ändern, wenn wir einem künstlichen Geist gegenüberstehen, der ‚anders‘ ist/ sein kann?
  9. In der Stadt Goethes, in Frankfurt, kann dies nur bedeuten, dass wir zum ‚Reengineering von Goethes Faust‘ aufrufen. ‚Faust III‘ wird sich ganz anders lesen als ‚Faust I/II‘. Sicher wird es irgendwann dann auch einen ‚Faust IV‘ geben. Wir denken erst mal an ‚Faust III‘. Zum 25.jährigen Jubiläum des INM im Jahr 2014 wäre dies ein gutes Thema: Im künstlerischen Gewandte versucht die Wissenschaft den Pseudo-Mythos von der Notwendigkeit des Teufels zur Wissensanreicherung als literarisches Verwirrspiel zu entlarven, und dies in einer vollständigen öffentlichen Inszenierung, mit einem ‚realen künstlichen‘ Geist.

Der Vortrag am 16.Nov.2012 in München liefert einige Argumente, warum das Experiment mit dem künstlichen Geist sehr wohl Sinn macht. Das ‚Schlimmste‘, was passieren kann, ist ja nur, dass wir u.U. besser verstehen, was wir noch übersehen haben. Das aber wäre im Sinne der Forschung ein sehr gutes Ergebnis. Bekanntlich kann man nur durch Fehler wirklich lernen! Fehlerfreiheit bestätigt immer nur den letzten Stand der aktuellen Un-Wahrheit…

 

LITERATURNACHWEISE

G.Döben-Henisch,The BLIND’s WORLD I. Ein philosopisches Experiment auf dem Weg zum digitalen Bewußtsein, In: K.Gerbel/ P.Weibel (eds.), Mythos Information. Welcome to the wired world. @rs electronica 95, Springer-Verlag, Wien, pp.227-244, 1995. Online at THE BLIND’s WORLD I (only German, without the English translation, without the fancy figures.

 

Einen Überblick über alle bisherigen Beiträge findet sich HIER.