Archiv der Kategorie: Genetischer Algorithmus

K.G.DENBIGH: AN INVENTIVE UNIVERSE — Relektüre — Teil 4

K.G.Denbigh (1975), „An Inventive Universe“, London: Hutchinson & Co.

BISHER

Im Teil 1 der Relektüre von Kenneth George Denbighs Buch „An Inventive Universe“ hatte ich, sehr stark angeregt durch die Lektüre, zunächst eher mein eigenes Verständnis von dem Konzept ‚Zeit‘ zu Papier gebracht und eigentlich kaum die Position Denbighs referiert. Darin habe ich sehr stark darauf abgehoben, dass die Struktur der menschlichen Wahrnehmung und des Gedächtnisses es uns erlaubt, subjektiv Gegenwart als Jetzt zu erleben im Vergleich zum Erinnerbaren als Vergangen. Allerdings kann unsere Erinnerung stark von der auslösenden Realität abweichen. Im Lichte der Relativitätstheorie ist es zudem unmöglich, den Augenblick/ das Jetzt/ die Gegenwart objektiv zu definieren. Das individuelle Jetzt ist unentrinnbar subjektiv. Die Einbeziehung von ‚Uhren-Zeit’/ technischer Zeit kann zwar helfen, verschiedene Menschen relativ zu den Uhren zu koordinieren, das grundsätzliche Problem des nicht-objektiven Jetzt wird damit nicht aufgelöst.

In der Fortsetzung 1b von Teil 1 habe ich dann versucht, die Darlegung der Position von Kenneth George Denbighs Buch „An Inventive Universe“ nachzuholen. Der interessante Punkt hier ist der Widerspruch innerhalb der Physik selbst: einerseits gibt es physikalische Theorien, die zeitinvariant sind, andere wiederum nicht. Denbigh erklärt diese Situation so, dass er die zeitinvarianten Theorien als idealisierende Theorien darstellt, die von realen Randbedingungen – wie sie tatsächlich überall im Universum herrschen – absehen. Dies kann man daran erkennen, dass es für die Anwendung der einschlägigen Differentialgleichungen notwendig sei, hinreichende Randbedingungen zu definieren, damit die Gleichungen gerechnet werden können. Mit diesen Randbedingungen werden Start- und Zielzustand aber asymmetrisch.

Auch würde ich hier einen Nachtrag zu Teil 1 der Relektüre einfügen: in diesem Beitrag wurde schon auf die zentrale Rolle des Gedächtnisses für die Zeitwahrnehmung hingewiesen. Allerdings könnte man noch präzisieren, dass das Gedächtnis die einzelnen Gedächtnisinhalte nicht als streng aufeinanderfolgend speichert, sondern eben als schon geschehen. Es ist dann eine eigene gedankliche Leistungen, anhand von Eigenschaften der Gedächtnisinhalte eine Ordnung zu konstruieren. Uhren, Kalender, Aufzeichnungen können dabei helfen. Hier sind Irrtümer möglich. Für die generelle Frage, ob die Vorgänge in der Natur gerichtet sind oder nicht hilft das Gedächtnis von daher nur sehr bedingt. Ob A das B verursacht hat oder nicht, bleibt eine Interpretationsfrage, die von zusätzlichem Wissen abhängt.

Im Teil 2 ging es um den Anfang von Kap.2 (Dissipative Prozesse) und den Rest von Kap.3 (Formative Prozesse). Im Kontext der dissipativen (irreversiblen) Prozesse macht Denbigh darauf aufmerksam, dass sich von der Antike her in der modernen Physik eine Denkhaltung gehalten hat, die versucht, die reale Welt zu verdinglichen, sie statisch zu sehen (Zeit ist reversibel). Viele empirische Fakten sprechen aber gegen die Konservierung und Verdinglichung (Zeit ist irreversibel). Um den biologischen Phänomenen gerecht zu werden, führt Denbigh dann das Konzept der ‚Organisation‘ und dem ‚Grad der Organisiertheit‘ ein. Mit Hilfe dieses Konzeptes kann man Komplexitätsstufen unterscheiden, denen man unterschiedliche Makroeigenschaften zuschreiben kann. Tut man dies, dann nimmt mit wachsender Komplexität die ‚Individualität‘ zu, d.h. die allgemeinen physikalischen Gesetze gelten immer weniger. Auch gewinnt der Begriff der Entropie im Kontext von Denbighs Überlegungen eine neue Bedeutung. Im Diskussionsteil halte ich fest: Im Kern gilt, dass maximale Entropie vorliegt, wenn keine Energie-Materie-Mengen verfügbar sind, und minimale Entropie entsprechend, wenn maximal viele Energie-Materie-Mengen verfügbar sind. Vor diesem Hintergrund ergibt sich das Bild, dass Veränderungsprozesse im Universum abseits biologischer Systeme von minimaler zu maximaler Entropie zu führen scheinen (dissipative Prozesse, irreversible Prozesse, …), während die biologischen Systeme als Entropie-Konverter wirken! Sie kehren die Prozessrichtung einfach um. Hier stellen sich eine Fülle von Fragen. Berücksichtigt man die Idee des Organisationskonzepts von Denbigh, dann kann man faktisch beobachten, dass entlang einer Zeitachse eine letztlich kontinuierliche Zunahme der Komplexität biologischer Systeme stattfindet, sowohl als individuelle Systeme wie aber auch und gerade im Zusammenspiel einer Population mit einer organisatorisch aufbereiteten Umgebung (Landwirtschaft, Städtebau, Technik allgemein, Kultur, …). Für alle diese – mittlerweile mehr als 3.8 Milliarden andauernde – Prozesse haben wir bislang keine befriedigenden theoretischen Modelle

Im Teil 3 geht es um das Thema Determinismus und Emergenz. Ideengeschichtlich gibt es den Hang wieder, sich wiederholende und darin voraussagbare Ereignisse mit einem Deutungsschema zu versehen, das diesen Wiederholungen feste Ursachen zuordnet und darin eine Notwendigkeit sieht, dass dies alles passiert. Newtons Mechanik wird in diesem Kontext als neuzeitliche Inkarnation dieser Überzeugungen verstanden: mit klaren Gesetzen sind alle Bewegungen berechenbar. Denbigh zeigt dann anhand vieler Punkte dass die Annahme eines Determinismus wenig plausibel ist. Betrachtet man den Gang der Entwicklung dann kann man nach Denbigh etwa folgende Komplexitätsstufen unterscheiden: (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) Aus wissenschaftlicher Sicht müssen sich alle diese ‚Stufen‘ (‚level‘) einheitlich erklären lassen.

KAPITEL 5: GIBT ES IRGENDWELCHE SCHÖPFERISCHEN PROZESSE? (149 – 178)

1. Nachdem Denbigh in den vorausgehenden 4 Kapiteln die Begrenztheit vieler Konzepte in der modernen Physik in den Fokus gerückt hatte (z.B.: dass die Welt nicht deterministisch ist; dass die Naturgesetze Gedankenbilder sind und nicht automatisch eine ontologische Geltung besitzen; dass alle bekannten Prozesse in der Natur irreversibel sind; dass das Konzept einer Symmetrie nicht empirisch gedeckt ist; dass die sogenannten Konservierungsgesetze postuliert wurden bevor sie überhaupt definiert wurden; dass alles darauf hindeutet, dass die Entropie zunimmt ), konzentriert er sich im letzten 5.Kapitel auf die Frage, ob es überhaupt schöpferische/ erfinderische (‚inventive‘) Prozesse gibt.
2. Mit schöpferisch meint er nicht einen Vorgang wie in den religiösen Schöpfungsmythen, in denen quasi aus dem Nichts ein unbekanntes Etwas genannt Gott/ Schöpfer etwas hervorbringt (die Welt), die dann völlig deterministisch abläuft, sondern eher einen abgeschwächten Hervorbringungsprozess, der ohne Notwendigkeit geschieht, nicht voraussagbar ist, etwas wirklich Neues bringt, und der alle Phänomene des bekannten Universums abdeckt. Er geht sogar soweit, zu sagen, dass alle die zuvor genannten Komplexitätsstufen (i) Fundamentale Teilchen, (ii) Atome, (iii) Moleküle, (iv) Zellen, (v) Multizelluläre Systeme, (vi) Soziale Gruppen.(vgl. S.143) sich als Momente an diesem generischen Innovationsprozess erweisen lassen müssten.

3. Dieser generische Innovationsprozess ist dann allgemeiner als der übliche Emergenz-Begriff. Emergenz beschreibt üblicherweise das Auftreten spezifischer Komplexitätsstufen bzw. -eigenschaften im engeren Sinne und nicht einen generischen Prozess für alle diese Phänomene.

4. In Anlehnung an das bekannte Schema der genetischen Algorithmen (hier ein knapper Überblick zur historischen Entwicklung des Konzepts Genetischer Algorithmus (GA) sowie Classifier Systeme) stellt Denbigh letztlich drei charakterisierende Momente für seine Idee eines Innovationsprozesses vor: 1) Die Ereignisse sind zufällig ; sie sind 2) selektiv (bei biologischen Systemen oft noch verstärkt durch sexuell bedingte Vermischung im Erbmaterial (crossover)(s.160)); schließlich 3) verstärkend aufgrund des anschließenden Erfolges.
5. Er illustriert dieses Schema beim Übergang vom BigBang zu den ersten Gaswolken, dann zu den Sternen und Galaxien, dann bei der Molekülbildung, bei der Zellbildung, usw. Wichtig ist ihm auch, dass dieses Ereignismodell nicht an biologische Substrate gebunden ist, sondern eben von nicht-biologischen Systemen allgemein auch befolgt werden kann, speziell auch von modernen programmgesteuerten Maschinen (Computern).
6. Eine noch allgemeinere Charakterisierung ist jene, die diese schöpferischen Prozesse ansiedelt zwischen Ordnung und Unordnung. Ein Beispiel für hohe Ordnung wären die kristallinen Strukturen (sie sind für schöpferische Prozesse zu starr), und ein Beispiel für Unordnung wäre gasförmige Strukturen (sie sind für schöpferische Prozesse zu instabil, zu flüchtig). (Vgl.S.162f) Mit anderen Worten, bei allem Aufbau von Ordnung muss es hinreichend viel Rest-Unordnung geben, ansonsten kommen alle Prozesse zum Stillstand, oder: gefordert ist ein Zustand unterhalb maximaler Entropie.
7. Wie Denbigh auch in den vorausgehenden Kapiteln schon angedeutet hatte, sieht er spirituelle/ geistige Phänomene einschließlich des Bewusstseins als normale Phänomene des Naturprozesses. (Z.B. S.168f)
8. So sieht er die 6 Komplexitätsstufen von oben auch als Ausprägungen eines allgemeineren 3-stufigen Schemas (i) unbelebt , (ii) belebt sowie (iii) belebt mit wachsendem Bewusstsein. (Vgl. S.171)
9. Unter Voraussetzung seines 3-stufigen Innovationsmodells kann er dann das Bewusstsein als einen Prozess interpretieren, der die Fähigkeit zur Selektion für ein biologisches System dramatisch verbessert. (Vgl. S.163-165)
10. Denbigh kommt in diesem Kapitel auch nochmals auf die Problematik der nichtwissenschaftlichen Voraussetzungen der Wissenschaft zu sprechen, die ich in einem vorhergehenden Beitrag schon angesprochen hatte (der Beitrag war angeregt von der Lektüre von Denbigh).
11. Mit Zitaten von einigen berühmten Forschern und Philosophen thematisiert Denbigh nicht nur allgemein die häufig unreflektierte Voraussetzungsbehaftetheit von Wissenschaft, sondern spricht auch speziell die Tendenz des menschlichen Denkens an, die Prozesse der Natur zu verdinglichen. Während Messgeräte und unsere menschliche Wahrnehmung primär nur isolierte Ereignisse registrieren können, setzt unser Denken diese individuellen Ereignisse automatisch (sprich: unbewusst) zu abstrakten Strukturen zusammen, zu sogenannten Objekten, denen wir dann Eigenschaften und Beziehungen zuordnen. (Vgl. S.164f und Anmk.14) Auf einer größeren Zeitskala gibt es diese Objekte aber nicht, sondern da gibt es nur kontinuierliche Zustandsänderungen eines alles umfassenden Prozesses, dem man zwar Eigenschaften zuordnen kann, aber letztlich nicht isolierte Objekte. Berücksichtigt man diese Artefakten unseres Denkens, dann legt sich der Gedanken nahe, die gesamte Physik von diesem veränderten Blickwinkel aus zu betrachten und zu re-analysieren. Hier verweist Denbigh explizit auf die theoretischen Arbeiten des berühmten Physikers David Bohm (später in Kooperation mit Basil J.Hiley), dessen Ergebnisse nach vielen Jahren Arbeit Eingang in das Buch The Undivided Universe: An Ontological Interpretation of Quantum Theory gefunden haben.

12. Denbigh fasst die manifeste Schizophrenie der modernen Wissenschaft in ihrer Haltung zum Menschen in folgendes Bild: „Die moderne Wissenschaft ist ein gedankliches System, das zwar die kreative Kraft der Menschen umfassend dokumentiert, und doch macht sie den Menschen selbst zu einer Sache/ zu einem Ding (‚thing‘) – also zu einem Objekt, von dem die Wissenschaft annimmt, dass es über eine solche schöpferische Kraft gar nicht verfügt.“ (Anmk.22, S.173)

DISKUSSION

  1. Dieses Buch habe ich als extrem anregend empfunden. Es taucht viele bekannte Positionen in ein neues Licht.
  2. Erkenntnistheoretisch liegt es auf der Linie, die bislang im Blog vertreten wurde, nämlich dass man bei der Diskussion der verschiedenen Phänomene und Positionen die jeweiligen Bedingungen des Erkennens beachten sollte, wenn man zu einer Einschätzung kommen möchte. Und dazu reicht keine klassische Erkenntnistheorie, sondern man muss die  modernen Erkenntnisse aus Psychologie und Biologie einbeziehen. Die Warnung vor einer falschen Verdinglichung der Weltereinisse sollte ernst genommen werden.
  3. Ferner ist der bisherige Erklärungsansatz dieses Blogs über einen generellen Evolutionsbegriff in Übereinstimmung mit dem generellen Innovationsansatz von Denbigh. Tatsächlich erscheint Denbighs Ansatz noch radikaler, generischer.  Dies soll im weiteren mehr bedacht werden.
  4. Die klare Subsumierung alles Geistigen unter den allgemeinen Naturprozess entspricht auch der Linie im Blog. Dieses führt aber nicht — wie Denbigh auch klar herausstellt — zu einer Vereinfachung oder Abwertung des Geistigen sondern zu einem vertieften Verständnis  der potentiellen Vielfalt und Komplexität der Energie-Materie. Mit der unterschiedlichen Einordnung geht ja nicht das Phänomen verloren, sondern die begriffliche Einordnung muss neu justiert werden. Dies verlangt nicht nur eine Neupositionierung der bisherigen Geisteswissenschaften, sondern genauso auch eine Neupositionierung der Naturwissenschaften. Diese erweisen sich bislang aber als nicht minder dogmatisch wie die oft gescholtenen Geisteswissenschaften.

QUELLEN

  1. Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.
  2. David Joseph Bohm FRS[1] (December 20, 1917 – October 27, 1992) was an American scientist who has been described as one of the most significant theoretical physicists of the 20th century[2] and who contributed innovative and unorthodox ideas to quantum theory, neuropsychology and the philosophy of mind.
  3. Basil J. Hiley (born 1935), is a British quantum physicist and professor emeritus of the University of London. He received the Majorana Prize „Best person in physics“ in 2012.
  4. Review von: „The Undivided Universe: An Ontological Interpretation of Quantum Theory“ von David Bohm and Basil J. Hiley, Routledge, London and New York, 1993. 397 pp. hc, ISBN 0–415–06588–7 durch Sheldon Goldstein, Department of Mathematics, Rutgers University, New Brunswick, NJ 08903, USA(July 28, 1994)

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

GEN — MEM — SEM

(1) Bei der Betrachtung der Entwicklung des (biologischen) Lebens auf der Erde tritt als markantes Ereignis (vor ca. 3.5 Mrd Jahren) die Verfügbarkeit von selbstreproduktiven Einheiten hervor: DNA-Moleküle werden dazu benutzt um unter Zuhilfenahme anderer Moleküle Proteinstrukturen in einer geordneten Weise so zu organisieren, dass daraus wieder Zellen, multizelluläre Organismen entstehen.

 

(2) In einem Abstraktionsprozeß wurden mathematische Modelle entwickelt, die die Struktur eines DNA.-Moleküls in solch einem selbstreproduktiven Kontext als ‚Informationseinheiten‚ identifizierten, die auch als ‚Gene‚ bezeichnet wurden. Der gesamte Informationsprozess wurde als ‚Genetischer Algorithmus (GA)‚ rekonstruiert. Gegenüber dem biochemischen Modell enthält er Vereinfachungen, zugleich bilden diese aber auch eine ‚Generalisierung‚, die eine mathematische Behandlung zulassen. Dadurch konnten sehr weitreichende Untersuchungen angestellt werden.

 

(3) Die Uminterpretation von genetischen Algorithmen als Classifier Systeme betrachtet die genetische Informationen als Wenn-Dann-Regeln (auch mehrere hintereinander). Je nachdem, welche Bedingungen vorliegen, werden nur bestimmte ‚Wenns‘ ‚erfüllt‘ und nur diese ‚Danns‘ werden aktiviert. Eine ‚Wenn-Dann-Regel‘ bildet einen ‚Classifier‚. Während genetische Informationen als solche eigentlich nur einmal im Leben eines (biologischen) Systems verändert werden (in der Realität natürlich auch durch Fremdeinwirkungen öfters), nämlich bei der Weitergabe der Informationen nach bestimmten Mustern/ Regeln geändert werden können (letztlich gibt es nur zwei Fälle (i) Rekombination nach einer festen Regel oder (ii) Zufällige Veränderung), können die Informationen, die als eine Menge von Classifiern kodiert sind, durch jedes einzelne Verhalten eines Systems geändert werden. Dies entspricht eher dem Organisationsniveau des Nervensystems bzw. dem des Gehirns in einem biologischen System.

 

(4) Betrachtet man Classifier Systeme auf der Organisationsebene des Gehirns, dann liegt auf der Hand, sie primär als Modell eines einfachen Gedächtnisses (Memory) zu sehen. Die ‚Wenns‘ (Engl. if) repräsentieren dann wichtige ‚Wahrnehmungszustände‘ des Systems (sensorische wie propriozeptive oder mehr), die ‚Danns‘ (Engl. ‚then‘) repräsentieren jene Aktionen des Systems, die aufgrund solcher Wahrnehmungen ausgeführt wurden und damit potentiell über die Veränderung einer (unterstellten) Situation zu einer Veränderung dieser Situation geführt haben, die wiederum die Wahrnehmung ändern kann. Da man mathematisch Wenn-Dann-Regeln (also Classifier) als Graphen interpretieren kann mit den ‚Wenns‘ als Knoten und den ‚Danns‘ als Übergänge zwischen den Knoten, sprich Kanten, bilden die Classifier als Graph den Ausgangspunkt für ein mögliches Gedächtnis.

 

(5) Nennen wir den ersten Graphen, den wir mittels Classifiern bilden können, Stufe 0 (Level 0), dann kann ein Gedächtnis mit Stufe 0 Wahrnehmungssituationen speichern, darauf basierende Handlungen, sowie Feedback-Werte. Feedbackwerte sind ‚Rückmeldungen der Umgebung (Engl. environment). Biologische Systeme verfügen im Laufe der 3.5 Miliarden dauernden Evolution mittlerweile über ein ganzes Arsenal von eingebauten (angeborenen, genetisch fixierten) Reaktionsweisen, die das System zur Orientierung benutzen kann: Hungergefühle, Durstgefühle, Müdigkeit, diverse Schutzreflexe, sexuelle Erregung usw. Im Englischen spricht man hier auch von drives bzw. verallgemeinernd von speziellen emotions (Emotionen). In diesem erweiterten Sinn kann man biologische Systeme auf der Organisationseben des Gedächtnisses auch als emotionale Classifier Systeme (emotional classifier systems) bezeichnen. Wenn man diese systemspezifischen Rückmeldungen in die Kodierung der Wenn-Dann-Regeln einbaut — was bei Classifiern der Fall ist –, dann kann ein auf Classifiern basierendes Gedächtnis die Wirkung von wahrgenommenen Situationen in Verbindung mit den eigenen Handlungen gespeichert (store) werden. Darüberhinaus könnte man diese gespeicherten Informationen mit geeigneten Such- und Auswertungsoperationen in zukünftigen Situationen nutzen, in denen man z.B. Hunger hat und man sich fragt, ob und wo und wie man an etwas Essbares kommen könnte.

 

(6) Der Begriff mem wurde in der Literatur schon vielfach und für sehr unterschiedliche Sachverhalte benutzt. In diesem Kontext soll ein mem* einen Knoten samt aller verfügbaren Kanten in einem Classifiersystem bezeichnen, das als Gedächtnis benutzt wird. Meme* sind dann — analog wie Gene — auch Informationseinheiten, allerdings nicht zur Kodierung von Wachstumsprozessen wie bei den Genen, sondern als Basis für Handlungsprozesse. Meme* ermöglichen Handlungen und die durch Handlungen ermöglichten Veränderungen in der unterstellten Umwelt können auf das handelnde System zurückwirken und dadurch die Menge der Meme* verändern.

 

(7) Wie wir heute wissen, haben biologische System — allerdings sehr, sehr spät — auch Zeichensysteme entwickelt, die schließlich als Sprachen zum grundlegenden Kommunikationsmittel des homo sapiens wurden. Kommunikation ermöglicht die Koordinierung unterschiedlicher Gehirne.

 

(8) Die allgemeine Beschreibung von Zeichen ist Gegenstand der Semiotik als Wissenschaft der Zeichen und Zeichenprozesse. Allerdings ist die Semiotik bis heute kaum anerkannt und fristet vielfach nur ein Schattendasein neben anderen Disziplinen. Dafür gibt es dann viele Teildisziplinen wie Phonetik, Linguistik, Sprachwissenschaften, Sprachpsychologie, Neurolinguistik usw. die nur Teilaspekte der menschlichen Zeichen untersuchen, aber es historisch geschafft haben, sich gesellschaftliche Anerkennung zu verschaffen.

 

(9) Eine Schwäche der Semiotik war — und ist es bis heute –, dass sie es nicht geschafft hat, eine einheitliche Theorie der Zeichen zu erarbeiten. Schon alleine die Vielzahl der ‚Gründer‘ der Semiotik (wie z.B. Peirce, de Saussure, Morris und viele andere) und deren unterschiedlichen begrifflichen Konzepte macht es schwer bis unmöglich, zu einer einheitlichen Zeichentheorie zu kommen.

 

(10) Ich habe mehrfach versucht, die beiden sehr unterschiedlichen Ansätze von Peirce (bewusstseinsbasiert) und Morris (Verhaltensbasiert) zu formalisieren und zu vereinheitlichen. Es scheint so zu sein, dass man bei Erweiterung des classifier-basierten Mem*-Konzeptes einen formalen Rahmen hat, der es erlaubt, sowohl die bewusstseinsorientierte Sicht von Peirce wie auch zugleich die verhaltensorientierte Sicht von Morris zusammen zu führen, ohne dass man deren Konzepte ‚verunstalten‘ müsste. Im Falle von Peirce kann man sein komplexes (und in sich selbst nicht konsistentes) System von Kategorien — so scheint es — drastisch vereinfachen.

 

(11) Stark vereinfachend gesagt kann man den Zeichenbegriff verstehen als eine Beziehung  zwischen einem Zeichenmaterial (das sowohl verhaltensrelevant  wie auch wahrnehmungsrelevant vorliegt) und einem Bedeutungsmaterial (das ebenfalls entweder verhaltensrelevant UND wahrnehmunsrelevant vorliegt oder NUR wahrnehmungsrelevant). Allerdings existiert eine solche Bedeutungsbeziehung nicht als wahrnehmbares Objekt sondern ausschliesslich als gewusste Beziehung im ‚Kopf‘ bzw. im ‚Gedächtnis‘ des Zeichenbenutzers. In Anlehnung an die griechische Philosophie möchte ich ein Zeichen als sem* bezeichnen. Ein sem* basiert zwar auf potentiell vielen memen*, stellt aber als ausgezeichnete Beziehung zwischen memen* etwas Eigenständiges dar. In diesem Sinne kann — und muss — man sagen, dass seme* eine neue Ebene der Organisation von Informationen eröffnen (was grundsätzlich keine neue Einsicht ist; ich wiederhole dies hier nur, da dies die Voraussetzung für die nächste Organisationsebene von Informationen ist).

 

Fortsetzung folgt.