Archiv der Kategorie: parallel

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

DIE ANDERE DIFFERENZ – TEIL2 – THEORETISCHE MODELLE

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 3.März 2012

(1) Die Charakterisierung von ‚Leben‘ über das Konzept der ‚Differenz‘ (siehe vorausgehende Blogeinträge) kann mit unterschiedlichen theoretischen Konzepten formuliert werden. Wichtig dabei ist, dass man nicht die konkreten ‚Bestandteile‘ eines biologischen Organismus betrachtet, sondern die ‚Funktion(en)‘, die durch diese verfügbar werden. So kann man z.B. die grobe Unterteilung machen in ‚Versorgungsstrukturen‘ (Energie, Bewegung, Fortpflanzung,…) und ‚Informationsstrukturen‘. Letztere unterteilt nach ‚Strukturinformationen‘ und ‚Arbeitsinformationen‘.

(2) DNA-Moleküle (und zusätzliche Moleküle) realisieren Informationen über potentielle Körperstrukturen und jenen Wachstumsprozessen, die zu deren Aufbau führen; sie gelten damit als ‚Strukturinformationen‘. Die Nervensysteme (Gehirne), die sich mittels Strukturinformationen ausbilden können, besitzen als Eigenschaft eine spezifische ‚Lernfähigkeit‘, die es ermöglicht, dass aktuelle Ereignisse im und außerhalb des Körpers registriert und verarbeitet werden können. Diese Art von Informationen gehört zur ‚Arbeitsinformation‘.

(3) Von einem gewissen Abstraktionspunkt aus betrachtet könnte man sagen, dass der ‚Zweck‘ von biologischen System letztlich die Bereitstellung von solchen Strukturen ist, die fähig sind, Arbeitsinformationen zu realisieren. Alle anderen Strukturen haben einen ‚Supportcharakter‘: damit Arbeitsinformationen realisiert werden können, muss beständig hinreichend viel Energie herbeigeschafft werden; damit hinreichende Bewegungen im Raum möglich sind, müssen entsprechende Raumstrukturen durch Knochen, Sehnen und Muskeln bereitgestellt werden; damit der gesamte Prozess erhalten bleibt, müssen alle notwendigen Strukturinformationen hinreichend gut kopiert und partiell modifiziert (Mutation) werden können.

(4) Im folgenden soll daher das Konzept der ‚biologischen Differenz‘ vor allem am Beispiel solcher Strukturen erklärt werden, die dazu dienen, Arbeitsinformationen zu realisieren; alle anderen bleiben hier momentan außer Betracht.

 Kopplung von Differenzsystemen

 Bild 1: Kooperierende Differenzsysteme

(5) In der Literatur gibt es mehr als tausend Publikationen zu sogenannten künstlichen Neuronen, mittels deren man das Verhalten von biologischen Neuronen (Nervenzellen) modellieren kann. In diesem Kontext soll – soweit dies bei all dem Hintergrundwissen heute noch möglich ist – weitgehend von diesen bekannten Modellen abgesehen werden und ausgehend von dem Differenzgedanken die Frage nach einer minimalen Modellierung nochmals gestellt werden.

(6) Wie die Handskizze in Bild 1 andeutet, reichen als Annahmen die Folgenden: (i) wesentlich muss ein Differenzsystem zwischen mindestens zwei Zuständen {‚1‘, ‚0‘} wechseln können, wobei einer dieser Zustände, der ’sensitive‘ oder ‚kritische‘, durch Zuführung von Energie E künstlich erzeugt wird (hier angenommen als Zustand ‚1‘). (ii) Spezifische Umweltereignisse können ein spezifisches Eingangsereignis σ (Klein-Sigma) erzeugen, bei dessen Auftreten das Differenzsystem vom kritischen Zustand ‚1‘ in den unkritischen Zustand ‚0‘ übergeht. (iii) Beim Verlassen des kritischen Zustands wird ein spezifisches Ausgangsereignis ξ (Klein-Xi) erzeugt, das in die Umgebung des Differenzsystems hineinwirken kann. (iv) Sofern genügend Energie vorhanden ist, kann das Differenzsystem DS durch Zuführung von Energie wieder in den kritischen Zustand ‚1‘ zurückkehren. Damit wären die minimalen Bestandteile eines biologischen Differenzsystems für Arbeitsinformationen beschrieben. Für theoretische Zwecke könnte man auf weite Strecken auch auf den Faktor Energieversorgung E verzichten. Andererseits kann der Faktor Energie E ein Parameter sein, der helfen kann, die ‚Kosten‘ eines Differenzsystems, vor allem wenn es viele sind, die im Verbund arbeiten, abzuschätzen (Biologische Differenzsysteme in realen Systemen haben noch weit mehr Elemente, diese gehören aber zur ‚Versorgungsstruktur‘, die wir hier ausklammern). Als Besonderheit von biologischen Differenzsystemen sollte man noch erwähnen, dass es im Bereich der Eingangsereignisse σ neben den ’normalen‘ Ereignissen σ+ auch solche Eingangsereignisse σ- gibt, die den gesamten Eingang neutralisieren können, d.h. Liegt ein negatives ‚hemmendes‘ Eingangsereignis vor, dann sind alle anderen positiven ‚aktivierenden‘ Eingangsereignisse wirkungslos.

 Hemmende Ereignisse

 Bild 2: Blockierende (hemmende) Eingangsereignisse

(7) Biologische Differenzsysteme kann man dann beliebig ‚kombinieren‘, entweder entlang von Außenweltmembranen, um Umweltereignisse ‚außerhalb‘ des Systems ins ‚Innere‘ des Systems zu transformieren, oder um Outputereignisse an andere Differenzsysteme weiter zu reichen. Für diese nachfolgenden Differenzsysteme sind die Outputs des einen Systems dann Inputs. Statt explizit die Differenzustände {‚1‘, ‚0‘} anzuführen, könnte man auch allgemein eine Differenzfunktion δ: σ x κ → κ‘ x ξ hinschreiben, also wenn ein Inputereignis σ auftritt und ein kritischer Zustand κ (Klein-Kappa) liegt vor, dann geht das System, in den unkritischen Zustand κ‘ über und erzeugt gleichzeitig ein Outputereignis ξ. Ein Differenzsystem wäre dann eine Struktur wie folgt < σ, κ, κ‘, ξ, δ> (ohne Energiekomponente) oder < σ, κ, κ‘, ξ, δ, E,EO> mit ι: EO —> E; ι (Klein-Iota) ist die Energiefunktion, die aus einem Energieeingangspuffer Energie in den Systemenergiepuffer E überführt.

 3-3-12_4b_differenzkoopelungparallel.png

 Bild 3: 5 Differenzsysteme {1,…,5}

(8) Eine Komposition von Differenzsystemen wäre dann eine Menge von Differenzsystemen N mit der Angabe ihrer Verbindungen Δ (Gross-Delta), also <N, Δ>. Ein einfaches Beispiel zeigt die Handskizze Nr.3: 5 Elemente sind angeordnet, und die Beschreibung der Anordnung erfolgt über eine Menge von geordneten Paaren, also z.B. der Ausgang von Element N1 geht auf den Eingang von Element N2 wird geschrieben ‚(1,2)‘, usw. Die Menge aller dieser Verbindungspaare wird geschrieben als Δ = {(1,2), (2,3), …}. Die Menge der Verbindungen Δ bildet also eine Struktur. Die Struktur gehört zur ‚Strukturinformation‘; die Informationen, die innerhalb solcher Strukturen ‚laufen‘ können, bilden die ‚Arbeitsinformation‘.

(9) Wie die Handskizze auch andeutet, arbeiten alle Elemente eines realen biologischen Differenzsystems ’simultan‘ oder ‚parallel‘. Wie verhält sich dies zum bekannten Konzept des ‚Automaten‘, wie ihn die Informatik als Grundbegriff für alle Phänomene der Berechenbarkeit benutzt? Nach der These von Church (1936) lassen sich ja alle berechenbare Prozesse zurückführen auf allgemein rekursive Prozesse, insbesondere dann auch auf die Turingmaschine. Es wäre eine interessante Frage, ob man das bislang skizzierte Differenzensystem mit einer Turingmaschine gleichsetzen könnte. Der Grundtyp eines Automaten arbeitet nicht parallel, sondern ’sequentiell‘.

 3-3-12_2b_automaton.png

 Bild 4: Automat als Grundbegriff

(10) Die Grundelemente eines Automaten, die sich letztlich von dem Konzept der Turingmaschine her ableiten, das Turing 1936/7 eingeführt hatte, bestehen auch aus Input- und Output-Ereignissen, die von einem sogenannten ‚Schreib-Lese-Band‘ stammen. Während ein Differenzsystem grundsätzlich nur einen Zustand umfasst kann ein Automat endlich viele (n) Zustände Q umfassen. Sobald es mehr als ein Zustand ist (n > 0) bilden die verschiedenen Zustände auch eine Struktur Δ ähnlich wie Differenzstrukturen, die man miteinander kombiniert. Die Struktur entsteht hier aber nicht durch fest Verbindungen zwischen Elementen, sondern durch logische ‚Übergänge‘ zwischen Zuständen; diese sind in der Regel abhängig vom jeweiligen Inputereignis σ. Vereinfachend kann man die Struktur Δ eines Automaten dann auch auffassen als eine Menge von Paaren der Art Δ = {(q1, q2), (q2, q3), …} mit ‚q_i‘ als einen der möglichen Zustände.

 3-3-12_12b_differenzkopplungpartitionierung.png

 Bild 5: Zerlegung einer Verbundsystems in individuelle Einheiten

(11) Wie steht es nun mit der sequentiellen Abarbeitung eines parallel arbeitenden Verbundes von Differenzsystemen? Generell kann man sich klar machen, dass bei einer idealen simultanen Verarbeitung diejenigen Inputereignisse σ benutzt, werden die zum Zeitpunkt t verfügbar sind (die Menge aller dieser Inputereingisse bilden den ‚Definitionsbereich‘ oder das ‚Urbild‘ der Berechnungen). Angenommen alle Differenzsysteme arbeiten gleich schnell und benötigen die Zeit (t,t‘) mit t‘ > t, dann erzeugen alle Differenzsysteme zum Zeitpunkt t‘ ein neues Ausgangsereignis ξ (Die Menge all dieser Ausgangsereignisse bilden den ‚Wertebereich‘ aller Berechnungen bzw. das ‚Bild‘). Man kann sich also abstrakt eine ‚Zerlegung‘ (Partitionierung) eines Verbundes von Differenzsystemen vorstellen, die jeweils ein Differenzsystem mit seinen speziellen Eingangs- und Ausgangsereignissen betrachtet. Wenn man jetzt jedes Differenzsystem rechnen läßt – die Reihenfolge ist irrelevant –, dann erhält man nach (t,t‘) für jedes System sein Ergebnis. Ersetzt man im Urbild alle Werte durch die neuen Bild-Werte, erhält man den Nachfolgezustand des Systems. Da es auf die Reihenfolge dieser Rechnung nicht ankommt, könnte man sie auch alle ‚hintereinander‘ (sequentiell) ausführen; dies würde am Ergebnis logisch nichts ändern. Würde die reale Zeit der Abarbeitung von Bedeutung sein, dann müsste man sicherstellen, dass bei einer angenommen Taktrate von T = t‘ – t die Einzelberechnungen mit der Geschwindigkeit T/n (n := Anzahl der beteiligten Elemente) durchgeführt würde. Für eine logische Äquivalenz ist die reale Zeit allerdings irrelevant.

(12) Die vorausgehende Überlegung deutet an, dass es prinzipiell eine Übersetzung der Parallelität in die Sequentialität geben kann. Reicht dies aus für eine Simulation durch eine Turingmaschine TM? Turing selbst hat gezeigt, wie man hier vorgehen kann. Man geht davon aus, dass man die Beschreibung eines Differenzsystem-Verbundes DS = <N, Δ> auf das Schreibleseband schreibt und in jedem Zeitpunkt auch alle Eingangsereignisse, denen dieser Verbund ausgesetzt sein soll. Dann simuliert die TM das Verhalten von DS indem – entsprechend der zuvor skizzierten Idee einer Zerlegung – die Werte für jedes Element individuell berechnet werden und dann die neuen Werte auf das Band als neue Eingangswerte eingetragen werden. Es gibt kein Argument, dass eine TM genau diese Berechnung nicht durchführen kann. Damit ist aber klar, dass eine sequentiell arbeitende Turingmaschine jeden Verbund von Differenzsystemen simulieren kann.

(13) Man kann auch leicht nachvollziehen, dass eine ‚genetische Beschreibung‘ eines Differenzsystem-Verbundes DS letztlich – wie immer die Kodierung auch vorgenommen wird – genau eine Struktur DS = <N, Δ> repräsentiert. Eine geeignete Kopier- und Mutationsfunktion (z.B. im Stile eines genetischen Algorithmus GA) könnte dann aus bestehenden Strukturen neue Strukturen generieren, die dann zum Ausgangspunkt neuer Simulationen werden.

(14) Eine andere Variante sind zelluläre Automaten. Ein zellulärer Automat (cellular automaton, CA) bezieht sich auf einen Bereich (analog dem Band eines Automaten), der im Prinzip n-dimensional sein kann. Die Funktion der Differenzsysteme haben hier Übergangsregeln der Art m —> m‘, d.h. bei Vorliegen eines bestimmten Musters m im Bereich wird dieses ersetzt durch ein Muster m‘. In der Regel ist die Menge der Regeln Δ_ca größer als 1, also Δ_ca| > 1. Alle Regeln sind gleichberechtigt, d.h. Sie werden simultan (parallel) abgearbeitet (Beispiele finden sich z.B. in dem Artikel von Gardner über Conways ‚Game of Life‘ oder im Buch von Wolfram). Ein zellulärer Automat CA besteht also aus einem Bereich W und einer Menge von Umformungsregeln Δ_ca, also CA = <W, Δ_ca>. Für jedes Element w in W werden die passenden Regeln δ aus Δ_ca angewendet, man erhält eine Folgezustand W‘. Um einen zellulären Automaten durch eine Turingmaschine zu simulieren zerlegt man den Bereich W in geeignete Teilbereiche, berechnet für jeden Teilbereich die neuen Werte w und dann setzt man den Nachfolgebereich W‘ daraus zusammen. Dieses Verfahren setzt voraus, dass die Zielbereiche in jeder Zerlegung disjunkt (voneinander unabhängig) sind. Daraus folgt, dass ein zellulärer Automat nicht mächtiger ist als eine Turingmaschine (Anmk: Man kann einen zellulären Automaten auch mittels einer kontextsensitiven Grammatik beschreiben).

(15) Die Beziehung zwischen einem Verbund von Differenzsystemen DS und einem zellulären Automaten kann man sich dadurch klar machen, dass man (siehe Bild 5) sich den Bereich W des CA vorstellt als eingeteilt in feste disjunkte Unterbereiche W_1, W_2 usw., denen bestimmte Umformungsregel ebenfalls fest zugeordnet sind. D.h. Ein Verbundsystem von Differenzsystemen ist eine eingeschränkte Version eines zellulären Automaten.

(16) Was man aus diesen Überlegungen entnehmen kann ist die Einsicht, dass biologische Differenzsysteme, sofern sie genau die Eigenschaften besitzen, die hier unterstellt wurden, sich mit den Mitteln von Automaten (maximal einer Turingmaschine) simulieren lassen. Dies wiederum bedeutet, dass man im Rahmen der Forschung (einschließlich philosophierender Wissenschaft) einen Simulationsansatz ohne Einschränkung der Allgemeinheit benutzen kann.

(17) Letzte Bemerkung: Statt mit Automaten könnte man auch mit Classifier-Systemen arbeiten (Details dazu in meinem <a href=“http://www.uffmm.org/science-technology/single/themes/computer-science/personal-sites/doeben-henisch/KNOW/gbblt/index.html“> GBBCLT-Skript</a>).

LITERATURVERWEISE

Church, A.; „An Unsolvable Problem of Elementary Number Theory“, Amer.J.Math. 58 (1936) 345-363

Gardner, M. „MATHEMATICAL GAMES. The fantastic combinations of John Conway’s new solitaire game ‚life’“, Scientific American 223 (October 1970): 120-123.

Turing, A. M. „On Computable Numbers with an Application to the Entscheidungsproblem“, In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

Wolfram, S., „A New Kind of Science“, Champaigne (IL, USA): Wolfram Media, Inc., 2002

Eine direkte Fortsetzung dieses Beitrags findet sich HIER.

Einen Überblick über alle bisherigen Blockeinträge findet sich hier