DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST …

KONTEXT

  1. Diesem Beitrag ging ein Blogeintrag voraus mit einer einleitenden methodischen Reflexion sowie die Identifizierung einer ersten Periode im Phänomen des biologischen Lebens auf der Erde.Periodisierung der biologischen Evolution nach speziellen Kriterien. Siehe Text.

UR-GEDÄCHTNIS, ABSTRAKTES WISSEN

  1. Ein wichtiger Punkt der ersten Periode des biologischen Lebens ist jene Struktur, welche erstmalig im Universum die Überwindung der Gegenwart durch eine gedächtnishafte Kumulierung von Eigenschaften und Beziehungen (Speichermolekül, Bauplan, Genom…) erlaubt, wodurch die Erfolge der Vergangenheit in die aktuelle Gegenwart hinein wirken können.
  2. Die Herrschaft des Augenblicks wird damit ansatzweise überwunden. Nicht mehr das aktuell Faktische (‚Seiende‘) ist die eigentliche Wahrheit,  sondern erinnerte Eigenschaften und Beziehungen werden zu einer höheren Wahrheit, einer Wahrheit zweiter Ordnung; das Abstrakte und darin Virtuelle erweist sich als die bessere Aussage über die Gegenwart. Das gegenwärtig Stattfindende, aktuell in die Sinne Springende, ist nur ein Aspekt an einem dynamischen Geschehen, das als Geschehen mehr von der Wirklichkeit, vom Leben enthüllt, als das jeweils aktuell Seiende.
  3. Rückblickend gewinnt damit der Prozess, der zur Entstehung der ersten Zelle führte, ein eminent philosophische Bedeutung: wie konnte die sogenannte tote und dumme, schlichtweg die geistlose Materie, in der Lage sein, im Meer der Atome und Moleküle auf der frühen Erde eine Prozessumgebung bereit zu halten, in der sich chemische Prozesse so abspielten, dass nicht nur neue Energieumwandlungs- und -nutzungskonzepte entstehen konnten, sondern zugleich der Prozess sich selbst in Form eines Moleküls so kodiert, dass er sich bei der Selbstreproduktion auch wieder dekodieren konnte. Für die molekularbiologischen Details dieses komplexen Prozesses sei auf entsprechende Literatur verwiesen (Neben z.B. Christian de Duve sei noch vierwiesen auf The Origin and Nature of Life on Earth: The Emergence of the Fourth Geosphere. Cambridge University Press, 2016, Smith, Eric and Morowitz, Harold J.). Philosophisch entscheidend ist  letztlich, was durch diese komplexen Prozesse an wirkender Struktur und Funktionalität oberhalb der molekularen Ebene entstanden ist, welche die sich selbst reproduzierende Zelle mit einer ersten Form von Wissen ausgestattet haben.

UR-AUTOMAT, UR-ALGORITHMUS

  1. Die Besonderheit dieses ersten Wissens (‚Proto-Wissen‘, ‚Ur-Wissen‘…) liegt in seinem algorithmischen Charakter: im Wechselspiel mit den dekodierenden Elementen einer Zelle zeigen diese Strukturen eine strukturelle Ähnlichkeit mit dem Konzept der Turingmaschine, das 1936 von Alan M.Turing entdeckt wurde, um das Phänomen der Berechenbarkeit zu beschreiben. Wie sich herausstellte, lassen sich alle Computer, die zeitlich nach Turing als reale Maschinen entwickelt wurden, bislang mit dem abstrakten Konzept der Turingmaschine beschreiben. [ANMERKUNG: Dass die neu entwickelten Quantencomputer von diesem Konzept abweichen, müsste erste noch bewiesen werden. Denn dass Prozesse ‚sehr schnell‘ sind, ‚parallel‘ stattfinden, und mehr als nur ‚zwei Zustände‘ kennen, sprengt das mathematische Konzept der Turingmaschine nicht notwendigerweise.]
  2. Diese Strukturähnlichkeit des Automatenkonzepts mit den elementaren Wissensnutzungskonzepten der ersten biologischen Zellen (und dann natürlich aller NachfolgerInnen) ist philosophisch von Interesse. Es legt die Vermutung nahe, dass das moderne algorithmische Informationsverarbeitungskonzept möglicherweise eine elementare Eigenschaft des biologischen Lebens selbst anzeigt, das ja nicht in einzelnen isolierten Komponenten besteht, sondern als ein dynamischer Zusammenhang auftritt, der auf der Basis der Eigenschaften der Materie in der Lage ist, solche Prozesse zum Laufen zu bringen, in denen sich dynamische Eigenschaften des Universums in geeignete abstrakte Kodierungen übersetzen lassen, die wiederum zu Befehlsketten für neue Prozesse werden können.

UR-ZEICHEN, UR-SEMIOTISCHER AKTEUR

  1. Mit Blick auf den weiteren Fortgang der biologischen Evolution ist auch noch folgender Perspektivwechsel von Interesse. Die Kodierung von Realität in eine repräsentierende Struktur mittels eines Materials für die Codeelemente (hier: Atomverbindungen im Kontext eines Moleküls) und die Dekodierung der im Material angeordneten Codeelemente mittels einer Dekodierungsvorschrift, kann man auch als semiotischen Prozess verstehen: die zu kodierende (auch prozesshafte) Realität bildet dann die Bedeutung (‚meaning‘), die in einem Zeichenmaterial (die Codeelemente) repräsentiert wird, und der Zusammenhang zwischen Zeichenmaterial und Bedeutung wird über eine Bedeutungsbeziehung hergestellt, welche immer eine prozesshafte Instanz sein muss, die sowohl die Kodierung wie auch die Dekodierung leisten kann. Innerhalb einer realisierten Bedeutungsbeziehung erscheint das Zeichenmaterial dann als Zeichen für die Bedeutung und umgekehrt wird die bezeichnete Realität zur Bedeutung des Zeichens.
  2. Außerhalb der Bedeutungsbeziehung gibt es weder Bedeutung noch Zeichen. Zeichen und Bedeutung sind an eine prozesshafte Instanz gebunden, durch die diese Beziehung generiert und realisiert wird. Nennt man jene prozesshafte Instanz, die Zeichenbeziehungen ermöglicht, einen semiotischen Akteur, dann ist die erste biologische Zelle der erste semiotische Akteur des Universums. Das Prozessmodell, das hier zum Tragen kommt ist – jenseits der molekularbiologischen Perspektive – das eines Automaten, das einer Turingmaschine, und damit repräsentiert die biologische Zelle – in philosophisch formaler Sicht – den ersten algorithmischen semiotischen Akteur des Universums.
  3. Zum Zeichenkonzept gehört auch, dass es konventionell ist: es ist beliebig, welches Ausdrucksmaterial die Prozessinstanz welchen möglichen Realitäten zuordnet. Das Beschränkende daran ist, dass die Zeichenbeziehung, die dann faktisch eingerichtet wurden, spezifisch sind: alle semiotischen Akteure, die die gleiche Zeichenbeziehung benutzen wollen, müssen sich bezüglich der Zeichenbeziehung koordinieren. Das Entgrenzende an einer Zeichenbeziehung ist, dass sie im Prinzip die gesamte Realität in sich aufnehmen kann. Durch einen semiotischen Prozess kann man die empirische Realität in eine abstrakt-virtuelle Realität transformieren und dabei zugleich verändern. Die veränderte virtuelle Realität kann dann dazu benutzt werden, um die empirische Realität im Hinblick auf mögliche zukünftige empirische Zustände zu befragen und neue Varianten voraus zu denken.
  4. Die Verfügbarkeit einer Zeichenbeziehung gibt damit einem individuellen System eine potentiell unbegrenzte Macht zum Verändern. Andererseits funktioniert dies nur, wenn der semiotische Akteur nicht alleine agiert, sondern als Teil einer Kollektion von semiotischen Akteuren. Jeder kann zwar die Zeichenbeziehung für sich ändern, sie gehört aber niemandem alleine. Es ist ein kollektives Wissen, das sich den einzelnen schafft und durch die Aktivität des einzelnen partiell, graduell modifizierbar ist.
  5. In der Phase der ersten semiotischen Revolution des Lebens wurde die Einheit der Zeichenbeziehung gewahrt durch die gemeinsame Nutzung der RNA- und DNA-Moleküle samt deren molekularen Kodierungs- und Dekodierungsstrukturen, die allen Zellen gleich sind. Und diese gesamte Zeichenstruktur war realisiert als eine universelle Turingmaschine.

 

REPRÄSENTATIONSPROBLEME

 

  1. Man kann sich fragen, in welcher Weise sich diese biologisch vorfindbaren Strukturen und Dynamiken im bisherigen Komplexitätskonzept identifizieren lassen? Wie lässt sich eine algorithmische semiotische Prozessstruktur mit Gedächtnis systemtheoretisch fassen? Was sagen schon Input-Output Mengen, interne Level, mit Blick auf solch komplexe Eigenschaften?
  2. Zeitlich punktuelle und beziehungsmäßig isolierte repräsentierende Strukturen können offensichtlich Phänomene, die sich in der Zeit erstrecken und in Wechselwirkungen stattfinden, nicht angemessen repräsentieren. Dazu kommen semiotische Eigenschaften und auch Erfolgskriterien der empirischen Systeme, die sich neben der Zeit auch in übergeordneten Strukturen repräsentieren (wenn überhaupt).
  3. Zusätzlich gibt es das Phänomen der Strukturveränderung STR im Laufe der Zeit, die zugleich einhergeht mit Verhaltensänderungen f. Und diese Veränderungen erfolgen nicht isoliert, sondern in einem Feld anderer Strukturen {<STR1,f1>, …, <STRn,fn>}(t1) ==> {<STR1,f1>, …, <STRn,fn>}(t1+1) und von Umgebungskontexten {C1, …, Cn}(t1)==> {C1, …, Cn}(t1+1) , die sich mit verändern.
  4. Jede einzelne biologische Struktur ist zudem Teil einer übergreifenden biologischen Population POP, die einen ähnlich kodierten Wissensspeicher G teilt, also POP = {Menge aller STRi für die gilt, dass ihr kodiertes Wissen Gi zur einer Ähnlichkeitsklasse Gi gehört}.
  5. Hier deuten sich komplexe Vernetzungsstrukturen in der Zeit an, die in dem bisherigen Komplexitätskonzept nicht befriedigend repräsentiert sind.
  6. Mit diesen ungelösten Fragen im Hinterkopf stellt sich die weitere Frage, welche der nachfolgenden Ereignisse in der biologischen Evolution eine weitere Steigerung der Komplexität manifestieren?

 

GEHIRN – BEWUSSTSEIN – GEIST

 

  1. Man kann beobachten, wie biologische Zellen sich in nahezu alle Lebensbereiche der Erde ausbreiten: im Meer, im Sediment, auf Land, in der Luft, in heißen und kalten Umgebungen, ohne und mit Sauerstoff, in immer komplexeren Verbänden von Zellen, mit immer komplexeren Strukturen innerhalb der Verbände, mit komplexer werdenden Kooperationen aufgrund von Kommunikation, als Pflanzen und Tiere, als Einzelgänger arbeitend, in Gruppen, Schwärmen, ganzen ‚Staaten‘, mit immer komplexeren Sprachen, mit Schriftsystemen, mit immer komplexeren Werkzeugen, …
  2. … die äußerlich beobachtbaren immer komplexer werdenden Verhaltensweisen korrelieren mit einer zunehmenden Verdichtung der internen Informationsverarbeitung mittels spezialisierter Zellverbände (Nervensystem, Gehirn). Die aktuelle Wahrnehmung der eigenen Körperzustände wie Eigenschaften der Umgebung wurde immer differenzierter. Die Informationsverarbeitung kann Wahrnehmungsereignisse abstrahieren, speichern und erinnern... Im Erinnerbaren lassen sich Unterschiede und Veränderungen erkennen, darin Beziehungen, zugleich kann Gegenwärtiges, Erinnertes neu kombiniert (Denken, Planen) werden. Dazu entwickelt sich die Fähigkeit, aktuell Wahrgenommenes symbolisch zu benennen, es mit anderen zu kommunizieren. Dies erschließt neue Dimensionen der Orientierung in der Gegenwart und über die Gegenwart hinaus.
  3. Wichtig ist, dass man diese neuen Fähigkeiten und Leistungen nicht direkt am Nervensystem ablesen kann (obgleich dies immer größer und dichter wird), sondern nur über das beobachtbare Verhalten, über die Wechselwirkungen mit anderen Systemen und der Umgebung. So ist das Gehirn von Säugetieren strukturell systemisch nicht wirklich verschieden, aber die Verhaltensweisen der jeweiligen Systeme im Verbund sind markant anders.
  4. Dies deutet auf eine neue Form von Dualität (oder wie andere vielleicht sagen würden), von Dialektik hin: die zunehmende Komplexität des Verhaltens korrespondiert mit einer entsprechend anwachsenden komplexen Umgebung, die ihre empirische Fundierung im Körper, im Gehirn zu haben scheint, aber andererseits kann sich diese Komplexität nur entfalten, nur zeigen, nur manifestieren, in dem Maße, wie diese äußere Komplexität empirisch verfügbar ist. Von daher ist es möglicherweise fruchtlos, zu fragen, was hier Ursache für was ist: das Gehirn für die Umgebung oder die Umgebung für das Gehirn. Manche sprechen hier ja auch von Ko-Evolution. Entscheidend ist offensichtlich der Prozess, durch den sich diese Wechselbeziehungen entfalten und wirken können. Dies impliziert, dass die beteiligten Strukturen plastisch, veränderlich sind.
  5. In der klassischen Philosophie nannte man ein komplexes Verhalten dieser Art ‚geistig‘, da man es im Organismus auf das Prinzip des Pneumas, der Psyche, des Geistes zurückführte (ohne letztlich zu wissen, was das jeweils ‚an sich‘ sein sollte). In diesem Verständnis könnte man formulieren, dass Lebensformen entstanden, deren Verhalten eine Komplexität zeigén, die man als geistig bezeichnen könnte.
  6. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS; nicht entscheidend alleine, dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  7. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.
  8. Für die Frage, wann ungefähr zeitlich solche Lebensformen auf der Erde auftreten, gibt es möglicherweise nicht den einen Zeitpunkt, sondern eher ein Zeitkorridor, innerhalb dessen sich unterschiedliche Phänomene angesammelt haben, die zusammen dann solch einen neuen Komplexitätshöhepunkt anzeigen. (Beginn Hominisation ca. -7 bis -5 Mio ; Migrationswellen ausgehend von Afrika (-130.000 bis -115.000 und -100.000 bis -50.000) ; Entstehung der Schrift  ca. -4000 im Gebiet des fruchtbaren Halbmonds)

 

KOEXISTENZ VON GEIST UND GESELLSCHAFT

  1. Da alle Handlungen des Menschen, die über den Augenblick hinausgehen, an seine Erinnerungs- und Denkfähigkeit gebunden sind, durch die der Augenblick in real erfahrene oder virtuell vorstellbare Zusammenhänge nach hinten und vorne eingebettet werden kann, wird man die gesamte Entwicklung komplexer Gesellschaften immer nur unter Voraussetzung einer entsprechenden Kommunikation und entsprechender Wissensmodelle verstehen können. Das verfügbare Wissen kann stabilisieren, konservieren und – im negativen Fall – blockieren, und im positiven Fall Alternativen aufzeigen, neue Möglichkeiten, Ursache-Wirkung Zusammenhänge deutlich machen.
  2. Daraus legt sich nahe, dass eine Theorie der Gesellschaft die handelnden semiotischen Akteure als Grundelemente umfassen sollte.
  3. Während eine biologische Population von Systemen durch den gemeinsamen biologischen Bauplan (realisiert im DNA-Molekül samt zugehöriger Dekodierungsstruktur) charakterisiert ist, definiert sich eine Gesellschaft von Systemen über gemeinsamen Wissensmodelle mit den zugehörigen semiotischen Prozessen (die Redeweise von den Memen, die Dawkins 1976 eingeführt hat, ist hier möglicherweise zu schwach) sowie den zugehörigen empirischen Umweltkontexten. Zu sagen, dass es eine Ko-Evolution zwischen Umgebung und Gesellschaft gibt ist zu schwach: entscheidend ist die Mikrostruktur des Prozesses und der hier wirkenden Faktoren in einem Multi-Agenten-Prozess mit Wissensanteilen und Bedeutung.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 4-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Wie alles anfing

Die Überlegungen im vorausgehenden Kapitel beziehen sich auf das, was heute ist, auf die Gegenwart. Wie können z.B. Philosophen die Innensicht ihres Bewusstseins beschreiben; wie können Psychologen das beobachtbare Verhalten untersuchen. Was können die Gehirnforscher über die Struktur und die Funktionen des Gehirns feststellen. Diese Aufgabe ist groß genug, dass man damit mehr als ein Leben ausfüllen kann. Hätte man diese Beschreibungsaufgaben vollständig erfüllt — bislang fehlt da noch einiges –, würden dennoch wichtige Teile am Bild fehlen, vielleicht sogar die wichtigsten, ohne die das Ganze nicht verständlich ist: der reale Entstehungsprozess; wie es zum heutigen Zustand kommen konnte? Wie ist es möglich, dass sich solch komplexen Strukturen im Universum, als Leben auf der Erde herausbilden konnten, ohne dass man eine ‚äußere‘ Einwirkung erkennen kann? Was soll das Ganze? Wohin wird dies führen? Wohin kann dies führen? Welche Rolle spielen wir Menschen dabei? Sind wir nur eines von vielen vorübergehenden Phänomenen des Lebens, das wieder vergehen wird, bevor es bemerkt wurde?

Zeichen der Veränderung

Beginnend mit dem 19.Jahrhundert kam es in Westeuropa zu grundlegenden Änderungen im bis dahin vorwiegend christlich-biblisch geprägten Menschen- und Weltbild. Immer mehr Phänomene in der Veränderung von Lebensformen im Kontext unterschiedlicher Ablagerungsschichten im Gestein und Erdreich wurden entdeckt (Anmerkung: Aus meiner Sicht ein sehr hilfreiches Buch für diese Zeit ist u.a. Peter J.Bowler, „Evolution. The History of an Idea“, Berkeley, Los Angeles (CA): University of California Press, 1983, rev.ed. 1989).

Im Falle der Fossilien waren es berühmte Naturforscher wie z.B. Cuvier (1769 — 1832) , Étienne Geoffroy Saint-Hilaire (1772 – 1844) und Charles Robert Darwin (1809 — 1882), die neben der Vielfalt auch die Veränderungen in den unterschiedlichsten geologischen Schichten erkannten. Im Fall der geologischen Schichten waren es Männer wie William Smith (1769 — 1839), Roderick Impey Murchison (1792 — 1871), Adam Sedgwick (1785 — 1873), John Phillips (1800 – 1874) und Charles Lyell (1797 — 1875), die es schafften, erste Klassifikation von Erdschichten und deren chronologischer Abfolge mit Korrelation zu Fossilien aufzustellen. Insgesamt entstanden durch viele verschiedene, z.T. kontrovers diskutierte, Untersuchungen die ersten Umrisse eines Bildes, in dem die aktuelle Gestalt der Erde und der Lebensformen eine Folge von Veränderungen, eine Geschichte, beinhalten. Die Details dieser Geschichte (Vulkanismus, Klimaänderungen, Plattentecktonik, Baupläne,…) waren in ihren genauen Wirkungen lange Zeit zwar nicht eindeutig entscheidbar, ‚dass‘ die Erde und das Leben auf der Erde aber Veränderungen durchlaufen hatten und immer noch durchlaufen, das erschien jedoch immer mehr unabweislich.

Wie lange zurück reichte diese Geschichte? Neue thermodynamische Überlegungen von William Thomson, besser bekannt als Lord Kelvin (1824 – 1907), schränkten den zur Verfügung stehenden absoluten Zeitraum für die Entwicklung der Erde und des gesamten Universums im Laufe seines Lebens immer mehr ein, schließlich bis auf eine zweistellige Millionenzahl. Wie viele seiner Zeitgenossen ging er davon aus, dass die Erde und die Sonne sich kontinuierlich abkühlen, ohne dass neue Energie zur Verfügung steht, die dieser Abkühlung entgegen wirken könnte. Es brauchte die ersten Jahrzehnte des 20.Jh. um mit Hilfe der neuen Erkenntnisse aus der (Nuklear-)Physik bzw. aus dem Spezialgebiet der Teilchenphysik verstehen zu können, dass Sterne und Planeten eigene Energievorräte besitzen und über Prozesse verfügen, durch die diese Energie in Form von beobachtbaren Veränderungen (Sonnenstrahlen, Klima, Vulkanismus, Erdbeben, …) wirksam werden können.

Immer kleiner

1905 hatte Albert Einstein ganz allgemein u.a. die Äquivalenz von Masse und Energie mit seiner bekannten Formel E=mc^{2} aufgezeigt, es brauchte aber noch weiterer gehöriger Anstrengungen, bis im Februar 1939 Lise Meitner (1878 – 1968) eine theoretische Beschreibung des ersten Kernspaltungs-Experiments veröffentlichen konnte, das Otto Hahn Ende Dezember 1938 zusammen mit seinem Assistent Fritz Straßman durchgeführt hatte. Im gleichen Jahr konnte Hans Albrecht Bethe (1906 – 2005) sein theoretisches Modell der Kernfusionsprozesse in der Sonne veröffentlichen (für die er 1967 den Nobelpreis bekam). Damit war die Tür zur Erkenntnis der verborgenen Energie in der Materie, in den Sternen, im Universum soweit geöffnet, dass dem Forscher ein glutheißer Atem entgegen schlug.

Es folgten stürmische Jahre der vertiefenden Erforschung der nuklearen Zusammenhänge, stark geprägt von den militärisch motivierten Forschungen zum Bau von Nuklearwaffen. Immer mehr Teilchen wurden im Umfeld des Atoms entdeckt, bis es dann ab den 70iger Jahren des 20.Jh zum sogenannten Standardmodell kam.

Obwohl sich dieses Standardmodell bislang in vielen grundlegenden Fragen sehr bewährt hat, gibt es zahlreiche fundamentale Phänomene (z.B. die Gravitation, die Expansion des Universums, dunkle Materie), für die das Modell noch keine erschöpfende Erklärung bietet.

Big Bang – Zeitpunkt Null

Ausgestattet mit den Erkenntnissen der modernen Physik lassen sich die Hypothesen aus dem 19.Jahrhundert zur Welt als Prozess ausdehnen auf das ganze Universum. Fasst man alle heutigen Erkenntnisse zusammen, wie dies in der sogenannten
Big Bang Theorie geschieht, nach 1990 gefasst als Lambda-CDM-Modell, führt dies auf ein Ereignis vor jeder physikalisch messbaren Zeit zurück. Ein solches Ereignis gilt den Physikern als eine Singularität. Da es im Universum auch andere Formen von Singularitäten gibt, nenne ich jene Singularität, mit der das bekannte Universum begann, hier die erste Singularität.

Durch die Weiterentwicklung der Relativitätstheorie von Albert Einstein konnten Stephen William Hawking (geb.1942),
George Francis Rayner Ellis (geb.1939) und Roger Penrose (geb.1931) aufzeigen, dass die Größen Raum und Zeit mit der ersten Singularität beginnen.

Von heute aus gesehen trat die erste Singularität vor 13.8 Mrd Jahren auf. Beginnend mit einer unendlich extremen Dichte und Hitze begann aus dem Ereignis heraus eine Ausdehnung (Raum und Zeit), die begleitet war von einer zunehmenden Abkühlung. Gleichzeitig kam es zur Herausbildung von subatomaren Teilchen, aus denen sich einfache Atome formten (Anmerkung: Die Entstehung der ersten Atome wird in der Zeitspanne 10 Sek – 20 Min verortet.). Gigantische Ansammlungen dieser ersten Elemente führten dann aufgrund der Gravitation zu Verdichtungen, aus denen Sterne und Galaxien hervorgingen (Anmerkung: Erste Sterne, die das dunkle Weltall erleuchteten werden nach ca. 100 Mio Jahren angenommen. Erste Galaxien etwa 1 Mrd Jahre später.). In den Sternen fanden Kernfusionsprozesse statt, die im Gefolge davon zur Bildung von immer schwereren Atomen führten. Ferner wird seit etwa 6.5 Mrd Jahren eine Beschleunigung bei der Ausdehnung des Universums beobachtet. Man vermutet, dass dies mit der ‚dunklen Energie‘ zu tun hat. Viele Fragen sind offen. Nach letzten Messungen geh man davon aus, dass das bekannte Universums zu 73% aus dunkler Energie besteht, zu 23% aus dunkler Materie, zu 4.6% aus ’normaler‘ Materie und zu weniger als 1% aus Neutrinos (Anmerkung: Jarosik, N. et al. (WMAP Collaboration) (2011). „Seven-Year Wilkinson Microwave Anisotropy Probe (WMAP) Observations: Sky Maps, Systematic Errors, and Basic Results“. NASA/GSFC. p. 39, Table 8. Retrieved 4 December 2010).

Fortsetzung mit Kapitel 5

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

ENDSPIEL, ENDKAMPF, ODER NEUER EVOLUTIONSSCHUB?

(Letzte Änderungen: 23.Nov.2014, 14:46h)

1. Während der Begriff ‚Endspiel‘ durch seine sportliche Konnotationen noch keinen letzten Schrecken verbreiten muss, klingt ‚Endkampf‘ biblisch-apokalyptisch: Endzeitstimmung; das Böse kämpft gegen das Gute; alles steht auf dem Spiel. ‚Evolutionsschub‘ deutet die Perspektive der Naturwissenschaften an, eine methodische Objektivität eines ‚Strukturwandels‘, der sich ’natürlich‘ aus der ‚Vorgeschichte‘ ergibt. Obwohl ich grundsätzlich der naturwissenschaftlichen Sicht zuneige als Grundlage aller Argumentationen über unsere empirisch erfahrbare Welt und damit bei weitreichenden Veränderungen eher einen ’natürlichen Strukturwandel‘ unterstelle, haben wir es bei dem aktuellen Strukturwandel mit Phänomenen zu tun, in die ’subjektive Anteile‘ von beteiligten Menschen, Gruppierungen, Parteien, Firmen usw. mit eingehen. Die ‚Natur‘ hat zwar aufgrund der Gesamtheit aller beteiligten physikalischen Eigenschaften ‚von sich aus‘ eine — möglicherweise ’spezifische‘ — ‚Tendenz‘ sich zu verändern, aber der weltweite Einfluss biologischer Systeme auf den weiteren Gang mit der ‚biologischen Eigendynamik, die – wir wir wissen – gegen grundlegende physikalische Gesetze (z.B. 2.Hauptsatz der Thermodynamik) gerichtet zu sein scheint, erscheint mittlerweile so stark, dass der biologische Faktor neben den physikalischen Prinzipien ein Gewicht gewonnen hat, welches es verbietet, rein ‚technisch‘ von einem Evolutionsschub als ‚ausrechenbarem Strukturwandel‘ zu sprechen.

2. In diesem globalen Kontext erscheint ein Thema wie Informatik & Gesellschaft auf den ersten Blick eher speziell; auf den zweiten Blick zeigt sich aber gerade in diesem Thema eine der globalen Verwerfungslinien zwischen dem ‚Zustand bisher‘ und dem ‚Zustand, der neu beginnt‘. Das Thema ‚Informatik‘ bzw. ‚Computertechnologie‘ galt eher als Teil der Technologie, die nicht eigentlich der ‚Natur‘ zugeordnet wurde. Wie überhaupt seit Aufkommen der ‚Maschinen‘ die Maschinen als Leitmuster der Technologie immer als Gegensatz zur ‚chemischen und biologischen Evolution‘ gesehen wurden. Neben vielen kulturellen Denkmustern, die solch eine ‚Trennung‘ begünstigten, war es sicher auch die mindestens von der antiken Philosophie herrührenden Trennung von ‚unbelebt‘ (die ‚Stoffe‘, ‚Subtsanzen‘, die ‚Materie‘ als solche sind ‚unbelebt‘) und ‚belebt‘ (‚atmend‘ (pneo), Atem als universelles Lebensprinzip (pneuma)), das seinen Ausdruck im ‚Geist‘ (pneuma‘) findet. Da dieser Gegensatz von ‚unbelebt‘ und ‚belebt‘ mehr als 2000 Jahre nicht wirklich aufgelöst werden konnte, konnte sich eine Art ‚Dualismus‘ ausbilden und durchhalten, der wie eine unsichtbare Trennlinie durch die gesamte Wirklichkeit verlief: alles, was nicht ‚atmete‘ war unbelebt, materiell, un-geistig; alles was atmete, belebt war, befand sich in einer Nähe zum universellen Geistigen, ohne dass man eigentlich näher beschreiben konnte, was ‚Geist‘ denn nun genau war. Nicht verwunderlich, dass sich alle großen Religionen wie ‚Hinduismus‘, ‚Judentum‘, ‚Buddhismus‘, ‚Christentum‘, ‚Islam‘ (trotz z.T. erheblicher Differenzen in den Details), diesem Dualismus ’nachbarschaftlich verbunden fühlten‘. Der intellektuell-begriffliche ‚Ringkampf‘ der christlichen Theologie und Philosophie (und streckenweise des Islam, Avicenna und andere!) mit diesem dualistischen Erbe hat jedenfalls tiefe Spuren in allen theologischen Systemen hinterlassen, ohne allerdings dieses ‚Rätsel des Geistes‘ auch nur ansatzweise aufzulösen.

3. Diesen historischen Kontext muss man sich bewusst machen, um zu verstehen, warum für viele (die meisten? Alle?) die plötzliche ‚Nähe‘ der Technologie im alltäglichen Leben, eine sich immer mehr ‚anschmiegende‘ und zugleich ‚verdrängende‘ Technologie an diesem im Alltagsdenken ‚historisch eingebrannten‘ Dualismus‘ zu kratzen beginnt, zu wachsenden Irritationen führt (andere Technologien wie Nanotechnologie und Gentechnik gehören auch in diesen Kontext, wenn auch anders).

4. Im Ankündigungstext zur erwähnten Veranstaltung Informatik & Gesellschaft (siehe auch den Kurzbericht) wurde bewusst herausgestellt, dass seit den ersten Computern eines Konrad Zuse und dem Eniac-Computer von John Presper Eckert und John William Mauchly (1946) die Computertechnologie mittlerweile nahezu alle Bereiche der Gesellschaft in einer Weise durchdrungen hat, wie wohl bislang keine andere Technologie; dass diese Technologie realer Teil unseres Alltags geworden ist, sowohl im Arbeitsleben wie auch in der Freizeit. Man kann sogar sagen, dass diese Technologie die menschliche Lebensweise schon jetzt (nach ca. 60 Jahren) real und nachhaltig verändert hat. Neue Formen der Kommunikation wurden ermöglicht, Veränderungen der Mobilität, automatisierte flexible Produktion, Computermusik, computergenerierte Bildwelten…

5. Aber diese Durchdringung von nahezu allem – was heißt das? Die neue historische Qualität dieser Technologie besteht darin, dass diese Technologie – bislang immer noch klar erkennbar als ‚Maschinen‘, bislang nicht als ‚biologische‘ Strukturen – ‚Verhaltensweisen‘ zeigt, die denen der Menschen als Prototypen von ‚geistigen‘ Wesen ähneln. Aufgrund dieser ‚Ähnlichkeit‘ werden sie Teil von ‚typisch menschlichen‘ Handlungsabläufen (Kommunizieren, Wissen verwalten, Sport und Kunst machen, Spielen, komplexe Modelle und Prozesse entwerfen und simulieren, dann auch steuern, usw.). Seit den 80iger Jahren des 20.Jahrhunderts – also nach nicht mal ca. 30-40 Jahren — hat sich diese Technologie so mit dem menschlichen Alltag verwoben, dass eine moderne industrielle Gesellschaft komplett zusammenbrechen würde, würde man diese Technologie von jetzt auf gleich abschalten.

6. Befürworter eines noch intensiveren Einsatz dieser neuen Computertechnologien z.B. im Bereich der Industrie unter dem Schlagwort ‚Industrie 4.0‘ (so z.B. Prof. Schocke in seinem Beitrag auf der Veranstaltung Informatik & Gesellschaft – Kurzbericht oder die Autoren Thomas Klein und Daniel Schleidt in der gleichnamigen FAZ Beilage vom 18.Nov.2014 auf den Seiten V2 (Klein) und V6 (Schleidt)) sehen vor allem das Potential zu noch mehr Produktionssteigerungen bei gleichzeitiger Verbesserung der Qualität und besserer Ressourcennutzung. Gleichzeitig betonen die drei Autoren die Notwendigkeit von mehr Computertechnologie in der Industrie wegen des internationalen Wettbewerbs. Von den drei genannten Autoren spricht einzig Thomas Klein auch die Kehrseite des vermehrt ‚menschenähnlichen‘ Einsatzes dieser Maschinen im Kontext von Industrie 4.0 an: das damit möglicherweise auch viele Arbeitsplätze wegfallen werden, die bislang für Menschen Arbeitsmöglichkeiten geboten haben. Klein zitiert Untersuchungen, nach denen 47% der bisherigen Arbeitsplätze in den USA in den nächsten 10 Jahren Kandidaten für eine Substitution durch Computergestützte Technologien sind. Dies sind massive Zahlen. Dalia Marin, Professorin für Volkswirtschaft, versucht diese kommende Arbeitsmarktproblematik weiter zu differenzieren. Ausgehend von der Annahme, dass mehr Automatisierung kommen wird, sieht sie neben dem Rückzug von Hochtechnologieproduktionen in die angestammten Industrieländer dort aber die grundsätzliche Entwicklung zur Vergrößerung der Kapitalquote und zur Verringerung der Lohnquote. Diese Verringerung soll vor allem den Akademikersektor treffen; teure menschliche Arbeitskräfte werden bevorzugt von billigen computerbasierten Technologien ersetzt (FAZ 21.Nov.2014, S.16). Sowohl Klein wie auch Marin betonen aber auch, dass solche Zukunftseinschätzungen problematisch sind; der Prozess ist zu komplex, als dass man ihn einfach hochrechnen könnte.

7. Was bei allen vier genannten Autoren auffällt – auch bei den Autoren der Beilage ‚Innovation‘ (FAZ 20.Nov.2014) – ist, dass sie die ‚intelligente‘ und ’smarte‘ Technologie überwiegend aus einer ‚Außensicht‘ behandeln. Sie lassen die Wirkmechanismen dieser neuen Technologien, ihre maschinelle Logik, das, was sie so leistungsfähig macht, mehr oder weniger im Dunkeln. Smarte, intelligente Technologie erscheint dadurch – ich pointiere jetzt ein wenig — wie ein Naturereignis, das geradezu mystisch über uns hereinbricht, das einfach passiert, das so ist wie es ist, das man einfach hinnehmen muss. Auch fehlt eine historische Einordnung dieser Prozesse in das große Ganze einer Evolution des Lebens im Universum. Die sehr differenzierten Sichten von Daniel Schleidt enthalten zwar ein eigenes Schaubild zur industriellen Entwicklung, aber dieses greift – nach meiner Einschätzung – zu kurz. Es zementiert nur eher den opaken Blick auf das Phänomen, macht es begrifflich unzugänglich, schottet es für die Reflexion ab. Auch die volkswirtschaftliche Ausweitung des Blicks durch Marin geht – nach meiner Einschätzung – nicht weit genug. Sie betrachtet das Problem einer möglichen und wahrscheinlichen Substitution von menschlicher Arbeit durch computerbasierte Technologien in gegebenen historischen Kontexten und hier auch nur in einer kurzen Zeitspanne. Sie thematisiert aber nicht die gesellschaftlichen Rahmenbedingungen als solche. Sehr wohl kann man die Frage nach dem aktuellen Gesellschaftsmodell stellen. Sehr wohl kann man die Frage aufwerfen, ob es ein gutes Modell ist, wenn einige wenige GFinanz- und Machteliten mit dem Rest der Menschheit nach Belieben spielen. In der Frankfurter Rundschau wird seit vielen Wochen das Thema ‚Gerechtigkeit‘ diskutiert (siehe zuletzt z.B. Mohssen Massarat, Prof. für Wirtschaft und Politik mit seiner Übersicht verschiedener Gerechtigkeitsmodelle, FR 15./16.Nov.2014, S.9) und die Lektüre eines Buches wie ‚Die Abwicklung‘ von George Packer zeigt, dass eine reflexionsfreie oligopolistische Gesellschaft wie die US-Amerikanische mehr Fragen aufwirft als sie befriedigende Antworten liefert.

8. Sieht man nur die bisherigen Diskussionsbeiträge, dann kann einen schon die klamme Frage beschleichen, warum so viele Autoren in den Spiegeln der Gegenwart immer nur noch ‚das Andere‘ sehen, die ‚Maschine‘, während der ‚Mensch‘, die ‚Menschheit‘ als Hervorbringer dieser Technologien in diesem Sichtfeld gar nicht mehr vorkommt. Es ist wie ein intellektueller blinder Fleck, der die leisesten Zuckungen von Maschinen wie eine Neugeburt feiert während das ungeheuerliche Wunder der Entstehung komplexer Lebensstrukturen auf der Erde (das bis heute in keiner Weise wirklich verstanden ist!) nicht einmal eine Randnotiz wert ist. Fokussierung auf spezifische Fragestellung hat seinen Sinn und ist und war ein Erfolgsrezept, aber in einer Zeit, in der disziplinenübergreifend komplexe Phänomene alles mit allem verzahnen, in einer solchen Zeit erscheint diese selbstgenügsame Tugend nicht mehr nur nicht angebracht, sondern geradezu kontraproduktiv zu sein. Eine falsche Fokussierung führt bei komplexen Phänomenen notwendigerweise zu Verzerrungen, zu Verfälschungen, zu falschen Bildern von der Gegenwart und einer sich daraus ergebenden Zukunft (es sei auch an die lange Diskussion in der FAZ erinnert zu den Schwachstellen moderner Betriebs- und Volkswirtschaftstheorien, die nicht nur die letzten Finanzkatastrophen nicht vorhergesehen haben, sondern auch mit ihrem Paradigma des ‚homo oeconomicus‘ empirisch weitgehend gescheitert sind.)

9. Wenn nun also Menschen selbst das Andere ihrer selbst anpreisen und sich selbst dabei ‚wegschweigen‘, ist damit die Geschichte des biologischen Lebens im Universum automatisch zu Ende oder unterliegen wir als menschlich Denkende hier nicht wieder einmal einem grundlegenden Denkfehler über die Wirklichkeit, wie andere Generationen vor uns auch schon in anderen Fragen?

10. Die Verabschiedung der UN-Menschenrechtskonvention von 1948, damals als ein Lichtblick angesichts der systematischen Greueltaten gegen die Juden (aber aber nicht nur dieser!) und der Beginn vieler anderer daran anknüpfenden Erklärungen und Initiativen erscheint vor den aktuellen gesellschaftlichen Prozessen weltweit fast schon seltsam. Dass ein totalitäres Regime wie das chinesische die Menschenrechte grundsätzlich nicht anerkennt (wohl aber chinesische Bürger, siehe die Charta 2008) ist offiziell gewollt, dass aber selbst demokratische Länder – allen voran die USA – mit den Menschenrechten scheinbar ’nach Belieben‘ umgehen, sozusagen, wie es ihnen gerade passt, dass wirkt wenig ermutigend und gibt Nahrung für Spekulationen, ob die Menschenrechte und die Mitgliedschaft in der UN nur davon ablenken sollen, was die Finanz- und Machteliten tatsächlich wollen. Die Zerstörung ganzer Gesellschaftsbereiche, die Marginalisierung großer Teile der Bevölkerung, die unbeschränkte Aufhebung der Privatsphäre ohne alle Kontrollen, die globale Ausbeutung der Schwachen durch Handelsabkommen … nur wenige Beispiele die eine andere Sprache sprechen, als jene, die in den Menschenrechten vorgezeichnet ist.

11. Noch einmal, was auffällt, ist die ‚Oberflächlichkeit‘ all dieser Bilder im wahrsten Sinn des Wortes: die schier unfassbare Geschichte der Evolution des Lebens im Universum existiert eigentlich nicht; das Wunder des Geistes inmitten materiell erscheinender Strukturen ist weitgehend unsichtbar oder ist eingesperrt in eine gesellschaftliche Enklave genannt ‚Kultur‘, die nahezu kontaktlos ist mit dem Rest des Wirtschaftens, Produzierens und Denkens; eine ‚Kultur der Sonntagsreden‘ und der ‚Belustigungen‘, ein Medium für die Eitelkeit der Reichen und der Unterhaltungsindustrie.

12. Innovation entsteht nie nur aus der Wiederholung des Alten, sondern immer auch aus der Veränderung des Alten, entsteht aus dem gezielt herbeigeführten ‚Risiko‘ von etwas ‚tatsächlich Neuem‘, dessen Eigenschaften und Wirkungen per se nicht vollständig vorher bekannt sein können.

13. Die, die aktuell neue Technologien hervorbringen und einsetzen wollen, erscheinen ‚innovativ‘ darin, dass sie diese hervorbringen, aber in der Art und Weise, wie sie das biologische Leben – speziell die Menschen – damit ‚arrangieren‘, wirken die meisten sehr ‚alt‘, ‚rückwärtsgewandt‘, …. Innovationen für das Menschliche stehen ersichtlich auf keiner Tagesordnung. Das Menschliche wird offiziell ‚konserviert‘ oder schlicht wegrationalisiert, weggeworfen, ‚entsorgt‘; hier manifestiert sich ein seltsamer Zug dazu, sich selbst zu entsorgen, sich selbst zu vernichten. Die Quelle aller Innovationen, das biologische Leben, hat in Gestalt der Menschheit einen ‚blinden Fleck‘: sie selbst als Quelle.

14. Der Mangel an Wissen war zu allen Zeiten ein Riesenproblem und Quelle vieler Notlagen und Gräueltaten. Dennoch hat die Menschheit trotz massiver Beschränkungen im Wissen neues Wissen und neue Strukturen entwickelt, die mehr Teilhabe ermöglichen, mehr Einsichten vermitteln, mehr Technologie hervorgebracht haben, ohne dass ein ‚externer Lehrer‘ gesagt hat, was zu tun ist… wie ja auch alle Kinder nicht lernen, weil wir auf sie einreden, sondern weil sie durch den bisherigen Gang der Evolution für ein kontinuierliches Lernen ausgestattet sind. … Der Geist geht dem Denken voraus, die Logik der Entwicklung liegt ‚in‘ der Materie-Energie.

15. So großartig Innovationen sein können, das größte Mirakel bleibt die Quelle selbst. Wunderbar und unheimlich zugleich.

QUELLEN

George Packer (3.Aufl. 2014), Die Abwicklung. Eine innere Geschichte des neuen Amerika. Frankfurt am Main: S.Fischer Verlag GmbH (die engl. Originalausgabe erschien 2013 unter dem Titel ‚The Unwinding. An Inner History of the New America‘. New York: Farrar, Strauss and Giroux).

Einen Überblic über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500

Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

DIE ANDERE DIFFERENZ – Teil3 – Definition des Lebens

(1) Nachdem in vorausgehenden Blogeinträgen das biologische Leben mit dem Konzept der ‚anderen Differenz‘ beschrieben wurde ergänzt um   ein paar theoretische Überlegungen zu möglichen formalen Modellen, hier nochmals kurze Überlegungen zur ‚Definition‘ von ‚Leben‘.

 

(2) Definitionen im Sinne der formalen Logik sind solche Begriffe (‚Terme‘), die als ‚Abkürzungen‘ für eine Menge ’schon bekannter Eigenschaften‘ eingeführt werden. Also Definiendum := Definiens; das ‚Definiendum‘ ist das zu Erklärende und das ‚Definiens‘ ist das schon Bekannte, mit dem erklärt wird.

 

 

(3) Solch eine Definition sieht unscheinbar aus, stellt aber einen ‚Auswahlprozess‘ dar: aus der großen Menge E der verfügbaren bekannten Eigenschaften wird eine kleine Teilmenge E‘ ausgewählt, die künftig unter einem neuen ‚Namen‘ (Label) auftreten soll, da der Autor einer solchen  Einführung Gründe hat (das wird jetzt mal unterstellt), genau diese Eigenschaften E‘ als in mindestens einer ‚Hinsicht‘ als ‚relevant‘ anzusehen.

 

(4) Sofern es sich bei solchen Eigenschaften E‘ um ‚empirische Eigenschaften‘ handelt, also Eigenschaften von Dingen, die sich im intersubjektiven Raum ‚beobachten‘ – oder gar ‚messen‘ – lassen, kann eine solche Auswahl möglicherweise eine Menge von Eigenschaften beschreiben, die ein ‚zusammenhängendes Phänomen‘ beschreiben. Beispiele wären technische Geräte (Kafffeemaschine, Mobiltelefon, Waschmaschine,….) oder Gebäude (Einfamilienhaus, Bürogebäude, Brücke, …), aber auch Pflanzen und Tiere, oder Kombinationen davon wie eine ‚Viehweide‘, ein ‚Reservat‘, ein ‚Sumpfgebiet‘, ein ‚Dschungel‘, usw. Ein ‚zusammenhängendes Phänomen‘ wäre in diesem Sinne also so etwas wie ein ‚Gegenstand‘, ein ‚Objekt‘, eventuell mit ‚unscharfen Rändern‘, wo man unsicher ist, ob dies auch noch ein ‚Haus‘, ein ‚Telefon‘ oder eine bestimmte ‚Pflanze‘ ist.

 

(5) Die Bildung einer Auswahl von Eigenschaften E‘ mit einem neuen ‚Namen‘, mit einer neuen ‚Abkürzung‘, stellt im ’normalen Leben‘ meist ein Vorgang dar, bei dem Menschen versuchen solche Eigenschaftsbündel E‘ hervor zu heben, die für den praktischen Ablauf des Lebens irgendwie eine Bedeutung haben und die in dieser spezifischen Konstellation ‚vorkommen‘. Während bei technischen Geräten der Hersteller in der Regel sagen kann, welche Eigenschaften sein Gerät ‚laut Plan‘ haben soll (und wir aufgrund von solchen Angaben auch die Korrektheit und Vollständigkeit eines Gerätes samt seiner Funktion normalerweise überprüfen können), ist es bei  ’natürlichen Gegenständen‘ zunächst mal so, dass wir nicht wissen, was ‚laut Plan‘ dazugehören soll. Geologische und klimatische Prozesse z.B. sind so komplex, dass wir bis heute nicht nur viele konkrete Experimente anstellen müssen, um Hinweise DAT_emp auf ‚beteiligte Eigenschaften‘ ‚finden‘ zu müssen, wir können aufgrund solcher empirischer Messwerte DAT_emp mit den bisher bekannten Modellen TH_emp immer nur sehr begrenze Aussagen machen, Annäherungen an den Gesamtzusammenhang. Im Falle biologischer Gegenstände haben wir gelernt, dass wir mit RNA- bzw. DNA-Molekülen die ‚Pläne‘ für die daraus sich entwickelnden Pflanzen und Tieren vorliegen haben, eine genaue Zuordnung zwischen einem solchen RNA-/ DNA-Plan und den daraus sich ergebenden individuellen Wachstumsprozessen (Ontogenese) lässt sich aber bislang nur sehr begrenzt treffen. Immerhin hat man mit diesen Plänen eine Art ‚Signatur‘ des jeweiligen zugehörigen Organismus in der Hand, und diese Signaturen kann man miteinander vergleichen. ‚Ähnlichkeiten‘ zwischen solchen Signaturen werden dann als ‚genetische Verwandtschaft‘ gedeutet; je ähnlicher umso mehr miteinander verwandt.

 

(6) Wenn es nun darum geht, zu definieren, was man unter dem neuen Begriff  ‚(biologisches) Leben‘ verstehen, dann steht man vor der Herausforderung, zu entscheiden, welche der bekannten empirischen Eigenschaften E‘ man als ‚relevant‘ ansieht für diesen Begriff. Welche Eigenschaft E’_i muss man unbedingt ‚dazutun‘ und zwar so, dass ein Verzicht auf diese Eigenschaft E’_i den Begriff wesentlich ‚unvollständig‘ machen würde, also E‘ = {E’_1, E’_2, …}.

 

(7) Wichtig hierbei ist schon der Hinweis ‚bekannt‘: wer immer sich an solch einer Begriffsbildung versucht, er wird das Problem haben, dass er/ sie immer nur aus jenen Eigenschaften E auswählen kann, die zu diesem Zeitpunkt ‚bekannt‘ sind. Das ‚verfügbare Wissen E‘ ist zu jeder Zeit t unterschiedlich gewesen, und auch innerhalb einer Zeitspanne (t, t‘) kann das verfügbare Wissen bei verschiedenen Menschen sehr unterschiedlich sein (ein Spezialist für Pflanzenkunde wird in der Regel über ein ganz anderes Wissen E_x von E verfügen wie ein Jurist E_x‘ oder ein Schreiner E_x“, also E_x ≠ E_x‘ ≠ E_x“. Wenn man also über die ‚bekannten‘ Eigenschaften E spricht, dann sollte man also mindestens einen Zeitpunkt t mit angeben, oder ein Zeitintervall (t,t‘), und zusätzlich den jeweiligen ‚Autor‘. Angenommen t‘ sei deutlich später wie t, dann würde man vielleicht vermuten, dass die bekannten Eigenschaften E zum Zeitpunkt t‘ E(t‘) alle bekannten Eigenschaften E zu einem vorausgehenden Zeitpunkt t E(t) mit beinhalten E(t) subset E(t‘). Dies muss aber keinesfalls so sein, denn entweder ist dieses Wissen zwischendurch wieder verloren gegangen (durch die Zerstörung von Bibliotheken mit dem griechischen Wissen gab es viele Jahrhunderte, in denen das Wissen ‚geringer‘ war als zu den Zeiten der Griechen; erst durch die vor der Zerstörung angefertigten Übersetzungen ins Arabische, die mit dem Islam dann über Spanien wieder nach Europa kamen, gelang das Wissen dann wieder ‚zurück‘ in die Köpfe und entfaltete im Mittelalter eine neue, ungeheure Kraft), oder aber, man gewann neue tiefgreifende Einsichten, so dass man nun ‚andere‘ Eigenschaften E* subset E(t‘) kennt, die zuvor keine Rolle gespielt haben, also E(t) cut E(t‘) = E*, die dann nun in die Definition eingehen können. Die Entwicklung des Wissens um Eigenschaften im Laufe der Zeiten E(t) –> E(t+1) –> E(t+2) –> … muss also keinesfalls ‚geradlinig‘ verlaufen; eine Population kann Eigenschaften ‚vergessen‘, die schon mal wichtig waren oder ’neue‘ finden, die zuvor nicht bekannt waren.

 

(8) Bei meinen Überlegungen, die zum Konzept der Differenz führten, habe ich mich von vielen Autoren inspirieren lassen (siehe Blogeinträge vorher oder einige meiner Buchbesprechungen bei Amazon (Deutsch und Englisch!)). Direkt nenne würde ich hier jetzt nur Gale (2009) und – insbesondere — Ward und Brownlee (2000). Storch et al (2007) ist ein Beispiel – wie man es heute leider oft findet –wo hochkarätige Experten sehr viel Detailwissen zusammengetragen haben, wo aber der eigentliche ‚Leitbegriff‘ selbst — nämlich der des Lebens – nicht thematisiert wird! In einem Buch über ‚Evolutionsbiologie‘ gibt es keinen einzigen Gedanken dazu, was eigentlich der Leitbegriff all der vielen beeindruckenden Einzeluntersuchungen ist, keinerlei theoretisches Konzept zum Leben; hier wird mit großer Detailkenntnis eine molekulare ‚Maschinerie‘ im historischen Kontext geschildert, es bleibt aber – aus philosophie-wissenschaftlicher Sicht — völlig unklar, ob dies etwas mit ‚Leben‘ zu tun haben soll, weil nirgends definiert ist, was diese Autoren unter ‚Leben‘ verstehen (wobei aus übergreifendem Wissen klar ist, dass diese vielen Details natürlich ‚irgendwie‘ etwas mit ‚Leben‘ zu tun haben, nur vergeben sich diese Autoren eine Chance, dies klar zu machen).

 

(9) Die Variabilität der bekannten Eigenschaften E(t) hängt dabei nicht nur von der generellen ‚Bekanntheit‘ ab, sondern auch, wie die unten angeführten Publikationen demonstrieren, vom ‚Standpunkt des Betrachters‘. Wenn ich mich primär nur für die chemischen Eigenschaften bestimmter Moleküle interessiere, achte ich auf andere Aspekte, als wenn ich die Frage stelle, was denn die grob als ‚biologisch‘ klassifizierten Eigenschaften E_biol subset E_emp generell charakterisiert, auch mit Blick auf andere Kontexte als die Erde. Eine solche ‚erweiterte Perspektive‘ kennzeichnet die Astrobiologie. Sie fragt explizit nach den Bedingungen, unter denen ‚Leben‘ auf der Erde möglich wurde, ist und sein wird sowie, ob und in welchem Umfang ‚Leben‘ auch woanders im Universum möglich ist. Um solch eine Frage so generell stellen zu können, muss man sich Gedanken machen, wie man den möglichst prägnant den Begriff ‚Leben‘ so fasst, dass alle Eigenschaften E_life subset E_emp, die unbedingt notwendig sind, explizit kenntlich gemacht werden, so dass man das Phänomen ‚Leben‘ im gesamten Universum ‚identifizieren‘ kann. Dazu reicht es in keinem Fall, einfach zu unterstellen, jeder wisse ja, was ‚Leben‘ sei, daher genüge es, einfach mal unterschiedliche dinge aufzuzählen, die irgendwie in diesem Zusammenhang bekannt sind. Solche Aufzählungen haben zwar den grossen Vorteil, dass sie strenggenommen niemals ‚falsch‘ oder ‚wahr‘ werden können ( da ja nicht klar ist, im Hinblick auf welche Eigenschaftsmenge sie letztlich ‚bewertet‘ werden sollen), verlieren damit aber wissenschaftlich entschieden an Wert.

 

(10) Als einzelner Mensch beurteilt man das, was man möglicherweise unter ‚Leben‘ versteht, vom Standpunkt seines ’subjektiven Erlebens‘. Dies ist eine Mischung aus ‚Aussenweltwahrnehmungen‘ mit ‚Innenwahrnehmungen‘, also im letzteren Fall von allerlei diffusen Stimmungen, Gefühlen, Bedürfnissen usw. Wir können ‚Leben‘ gar nicht ohne unseren eigenen Standpunkt, nicht ohne die Besonderheiten unseres eigenen Körpers, wahrnehmen. Von daher haben persönliche Schilderungen von ‚Leben‘ stark psychologische und autobiographische Färbungen. Durch die moderne Wissenschaft haben wir aber gelernt, wie wie zwischen den ’subjektiven Anteilen‘ unserer Welterfahrung und den empirisch beschreibbaren Eigenschaften unterscheiden können. Da unser subjektives Erleben an unser Gehirn gebunden ist, dieses in einem Körper eingebettet ist, der sowohl eine individuelle Geschichte hat (Wachstum, Lernen, Ontogenese) wie auch als Teil einer Population eine phylogenetische Geschichte besitzt (die Teil der übergreifenden biologischen Evolution ist, die wiederum eingebettet ist ein eine chemische Evolution, die wiederum nicht isoliert ist, …), wird man das subjektive Erleben auch besser einordnen können, wenn man es von diesen übergreifenden Zusammenhängen aus betrachtet (ohne dass man das subjektive Erleben darauf ‚reduzieren‘ würde; damit würde man wichtige Erkenntnisse ‚verschenken‘, die nur so verfügbar sind).

 

(11) Biologen tendieren dazu, Phänomene des Lebens von ihren ‚Mechanismen‘ her zu betrachten, was naheliegt, da ja der Biologe sich dem Phänomen des ‚Lebens‘ von seinen konkreten Erscheinungsformen her nähert. Durch Inspizierung vieler tausender, zehntausender – oder mehr — spezieller Erscheinungsformen von ‚Leben‘ wird er in die Lage versetzt zu vergleichen, zu klassifizieren, Beziehungen aufzuspüren, Abhängigkeiten zu identifizieren, um dann – möglicherweise – mittels erster ‚Modelle‘ oder ‚Theorien‘ diese vielen Phänomene zu ’systematisieren‘. Insofern geht es dann nicht nur um ‚reine Eigenschaften‘ E_biol oder E_life, sondern es geht dann auch schon um Eigenschaften E_biol, die in sich Klassifikationen darstellen, um Beziehungen (Relationen) R_biol und Dynamiken f_biol, Ax_biol, deren typisches ‚Wechselspiel‘ erst das Phänomen ‚Leben‘ so beschreibt, wie es der Experte zu erkennen meint. Also irgendwie wird man eine Struktur haben wie z.B. TH_biol = <E_biol, R_biol, f_biol, Ax_biol>. Und im Normalfall wird es so sein, dass man mit einer ersten  Theorie TH_biol_0 anfängt, und dann im Laufe der Zeit diese dann immer immer verändert TH_biol_i, bis man dann den Zustand der gerade aktuellen Theorie TH_biol_now erreicht hat.

 

(12) Während man in dem erwähnten Buch von Storch et al. keinerlei Definition zum Begriff Leben findet – erst Recht natürlich keine Theorie – findet sich im Buch von Gale (2009) zumindest eine ‚Liste von Eigenschaften‘ (Gale, 2009:17), allerdings ohne einen klaren funktionalen Zusammenhang (und damit auch keine Theorie). Sowohl Gale (S.17) wie auch Ward and Brownlee (S.56) verweisen aber auf charakteristische dynamische Eigenschaften wie ‚Wachstum‘, ‚Interaktion mit der Umwelt‘, sowie ‚Vererbung mit Variationen‘. Dies alles unter Voraussetzung von minimalen zellulären Strukturen, der Fähigkeit zur Informationskodierung, sowie der Fähigkeit, Energie aus der Umgebung aufzunehmen um diese komplexen Leistungen verfügbar machen.

 

(13) Die Physik, die sich nicht primär für das Konzept ‚Leben‘ ineressiert, sondern an mehr allgemeinen Begriffen wie ‚Energie‘ und ‚Materie‘ (und deren Zuammenspiel) interessiert ist, hat unter anderem die Gesetzmäßigkeit aufgedeckt, dass die Entropie (salopp die ‚Unordnung‘) in einem geschlossenen System einen Maximalwert annimmt. Das aktuelle Universum ist von diesem Zustand noch weit entfernt. Die ‚Differenzen‘ zur maximalen Entropie manifestieren sich als lokale ‚Ordnungen‘ in Form von ‚frei verfügbarer Energie‘. Sofern ‚Leben‘ angenähert das ist, was Gale (2009) sowie Ward and Brownlee (2000) mit ihren wenigen Begriffen nahelegen, dann hat sich das Phänomen des Lebens genau an diesen Differenzen zur maximalen Entropie gebildet, im Umfeld freier Energien, und nicht nur das, sondern das Phänomen des ‚Lebens‘ demonstriert quasi ein Antiprinzip zur Entropie: statt Strukturen ‚auszugleichen‘ werden hier Strukturen in Form frei verfügbarer Energien in andere Strukturen umgeformt, und zwar expansiv und mit einer immer größeren Komplexität. Das Phänomen des Lebens als Ganzes ist vergleichbar mit einem großen Staubsauger, der alle frei verfügbare Energie im kosmologischen Gesamtzustand unter der maximalen Entropie ‚aufsaugt‘ und damit neue, vorher nicht dagewesene Strukturen generiert, die neue Eigenschaften aufweisen, die weit über die bekannten physikalischen Phänomene hinausgehen. Angenommen, das Phänomen des Lebens als Ganzes könnte die frei verfügbaren Energien idealerweise vollständig nutzen, dann würde sich die maximale Existenzzeit des Lebens im Universum aus der Zeit ergeben, in der im Universum noch Energie frei verfügbar ist. Sicher aber sind weitere Varianten möglich, die wie heute einfach noch nicht sehen, weil unsere Wissensfähigkeit dramatisch eingeschränkt ist.

 

(14) Andererseits, während die Biologen stark an den konkreten Eigenschaften von Manifestationen des Lebens ‚hängen‘, kann man versuchen, diese Eigenschaften von einem ‚abstrakteren‘ Standpunkt aus zu betrachten, was ich in den vorausgehenden Blogeinträgen versucht hatte. Nach dem bekannten Spruch, dass man ‚den Wald vor lauter Bäumen nicht sieht‘, kann die Vielzahl der Eigenschaften biologischer Systeme das Denken daran hindern, die im Leben implizit vorhandenen Strukturen zu erkennen. In meinen Überlegungen hatte ich versuchsweise angenommen, dass die gesamte Maschinerie biologischer Systeme (z.B. der ganze ‚Körper‘), dessen Komplexität uns erschlägt, möglicherweise nur ein ‚Mittel zum Zweck‘ ist, nämlich die Rahmenbedingungen für ein neuronales System zu schaffen, dessen Zweck wiederum die Fähigkeit ist, ‚Eigenschaften der Welt‘ in ‚kognitive Strukturen‘ umzuwandeln, durch die das gesamte Universum schrittweise ‚transparent‘ wird und damit ’sich selbst‘ nahezu beliebig ‚umbauen‘ könnte. Wie wir heute wissen, lässt sich jede Form von uns heute bekanntem Wissen und Denken über minimale Potentialsysteme realisieren, die beliebig vernetzbar sind. Von diesem Leitgedanken aus liegt es nahe, die Vielfalt der Eigenschaften biologischer Systeme unter dieser Rücksicht zu analysieren. Dies führte zur Idee des minimalen Differenzsystems, vernetzbar, energetisch betrieben, kopierbar mit Veränderungen. Alles keine wirklich neue Gedanken.

 

(15) ‚Leben‘ wäre dann also jenes Phänomen im Universum, das in der Lage ist, ausgehend von den freien Energien einer nicht-maximalen Entropie beliebig skalierbare Differenzsysteme erzeugen zu können, die sich variierend kopieren lassen, und die mit ihren jeweiligen Umgebungen (und damit mit sich selbst) interagieren – und das heißt auch: kommunizieren – können. Mit welchem konkreten Material und unter welchen konkreten Randbedingungen dies auftritt, ist unwesentlich. Das ‚Geistige‘, das sich in Gestalt von ‚Lebensformen‘ zeigt, ist letztlich eine implizite Eigenschaft der gesamten umgebenden Materie-Energie, weswegen es nicht klar ist, was das Verschwinden eines konkreten Körpers (‚Tod‘) für das Phänimen des ‚Geistes‘ letztlich bedeutet. Seiner ‚Natur‘ nach kann ‚Geist‘ nicht ’sterben‘, nur eine bestimmte Realisierungsform kann sich ändern.

 

 

 Unsere Verwandten die Tiere 1

 

 

Eine Übersicht über alle bisherigen Blogeinträge findet sich hier.

 

 

 

LITERATURHINWEISE

 

Gale, J.; Astrobiology of Earth. The Emergence, Evolution, and Future of Life on a Planet in Turmoil. New York: Oxford University Press, 2009

 

Storch, V.; Welsch, U.; Wink, M.; Evolutionsbiologie. 2.Aufl. rev. and ext., Berlin – Heidelberg: Springer Verlag, 2007

 

Ward, P.D.; Brownlee, D.; Rare earth. Why Complex Life is Uncommon in the Universe. New York: Springer-Verlag New York, Inc., 2000

EMERGENZ DES GEISTES?

Hypothestische Zeitabschnitte A --D anhand von Strukturmerkmalen. Erklräung: Siehe Text

Emergenz des Geistes Hypothestische Zeitabschnitte A –D anhand von Strukturmerkmalen. Erklräung: Siehe Text

(1) Nachdem im Vortrag vom 2.Okt.2011 deutlich wurde, dass der Dualismus von 'Geist' und 'Materie' so nicht mehr aufrecht erhalten werden kann, ja, eigentlich in seiner ursprünglichen Intention zu verabschieden ist, bleibt als Begriffspaar eigentlich nur 'Energie - Materie' übrig: Materie als spezielle Zustandsform von Energie.

 

(2) Zusätzlich zeigte sich aber, dass die Materie im Lichte ihrer atomaren Feinstruktur einer 'Kombinatorik' fähig ist, die -- entgegen dem allgemeinen Gesetz der Entropie -- bei Vorhandensein von 'freier Energie' 'aus sich heraus' zu lokalen Strukturbildungen tendiert, die in Form von Molekülen, Zellen, vielzelligen Organismen usw. sich zu immer 'komplexeren' und immer 'handlungsfähigeren' Strukturen hin entwickeln.

 

(3) Ab einem bestimmten Punkt von Komplexität haben wir 'Menschen' angefangen, solche hochkomplexen agierenden Strukturen mit den Begriffen 'intelligent', 'geistig' zu belegen, bzw. wir unterstellen 'in' diesen Strukturen die Gegenwart von 'Geist', von 'Seele'.

 

(4) Nun sind diejenigen, die dieses 'Urteil' aussprechen selber diejenigen, auf die es zutrifft. D.h. diejenigen Lebewesen auf dieser Erde, die am 'meisten' von dieser agierenden Komplexität besitzen, sind diejenigen, die dieses 'an anderen' und 'an sich selbst' 'haben'. In der Logik nennt man dies 'selbstreferentiell' und selbstreferentielle Definitionen sind eigentlich keine 'wirklichen Definitionen'.

 

(5) Wie auch immer, wir können diese spezielle Eigenschaft einer speziell agierenden Komplexität beobachten, an anderen, an uns selbst, wir können diesen Phänomenen Bezeichnungen zuordnen, wir können versuchen, dies alles zu verstehen.

 

(6) Das Schaubild  zeigt einen ersten Versuch einer sehr groben Skizze der Evolution dieses Phänomens einer sich stetig entfaltenden agierenden Komplexität, die 'aus der Mitte der Materie' erwächst, gleichsam eine 'Ausfaltung' der der Materie (und letztlich der Energie) 'innewohnenden Eigenschaften', die sich in der Ausfaltung zeigen (offenbaren). Statt Ausfaltung könnte man auch von 'Emergenz' sprechen. Zugleich entsteht der Eindruck, dass sich diese Ausfaltung stetig beschleunigt!!!

 

(7) In diesem Schaubild habe ich versucht, grob verschiedene 'Organisationsebenen' in dieser Komplexität zu unterscheiden (sicher noch nicht das letzte Wort). Damit ergibt sich folgende erste Annäherung an einen Prozess einer sich 'auftürmenden' Evolution, die in 'Schichten' organisiert ist: unter Voraussetzung einer Evolution auf Organisationsebene i kann sich die Evolution auf Organisationsebene i+1 noch komplexer entwickeln.

 

(8) A: -13.6 bis - 4.6 Mrd, Atomare Evolution In den ersten 9 Mrd Jahren vom 'Big Bang' bis hin zur Entwicklung erster Galaxien, die sich ungleichmäßig im Universum verteilen, bildeten sich sowohl leichte wie auch 'schwere' Atome. Letztere sind wichtig für bestimmte Moleküle, die anschließend für die chemische und biologische Evolution wichtig wurden.

 

(9) B: -4.6 bis - 3.6 Mrd, Chemische Evolution: Ab Entstehung der Erde hat es ca. 1 Mrd Jahre gedauert, bis sich selbstreproduzierende Zellen entwickelt hatten, die dann nachhaltig die Atmosphäre (Sauerstoff) sowie die gesamte Erdoberfläche (einschließlich Weltmeere) veränderten.

 

(10) C: -3.6 Mrd bis heute, Biologische (= Genetische) Evolution: Mit dem Auftreten von selbstreproduzierenden Zellen begann die biologische Evolution, in der sich -- erst langsam, dann immer schneller -- Pflanzen, Pilze und Tiere entwickelt haben. Insbesondere homo sapiens beginnt sich soweit auszudehnen, dass einige der bekannten Kapazitätsgrenzen der Erde in wenigen Jahrzehnten erreicht zu sein scheinen.

 

(11) D: Ungefähr -550 Mio bis heute, Memetische Evolution: Die memetische Evolution ist eine Weiterentwicklung des Nervensystems innerhalb der biologischen Evolution, die es den biologischen Systemen ermöglicht, mehr und mehr sowohl Erlebtes zu speichern wie auch aktiv wieder zu erinnern, und zwar so, dass sie damit Hinweise für mögliche Handlungen für aktuelle Problemlösungssituationen bekommen.

 

(12) E: Ungefähr -10 Mio bis heute, Semetische Evolution: Die Semetische Evolution ist eine Weiterentwicklung des Nervensystems innerhalb der biologischen Evolution, die es den biologischen Systemen ermöglicht, das Erlebte und Erinnerbare mit Hilfe von Zeichenmaterial in Bedeutungsbeziehungen einzubetten, die aus bloßem Zeichenmaterial (Token, Laute,...) 'Zeichen' machen. Damit entstehen nach und nach Sprachsysteme, mit deren Hilfe sich Menschen, dann später insbesondere Individuen der Art homo sapiens, immer besser koordinieren können.

 

(13) F: Ungefähr -100.000 bis heute, Soziale-ökonomische Evolution: die immer komplexeren Interaktionsmöglichkeiten durch Sprache erlauben immer komplexere Interaktionen im Bereich sozialer Beziehungen, handwerkliche Prozesse, Bauten, Gesetze, wirtschaftliche Beziehungen, Bildung von Institutionen, usw.

 

(14) G: Ungefähr -1000 bis heute, Edukative Evolution: Beginn der systematischen Organisation von Erziehungs- und Ausbildungsprozessen, um das angesammelte Wissen der Population homo sapiens systematisch zu sammeln, zu ordnen, auszuwerten, weiter zu geben, weiter zu entwickeln: Schulen, Hochschulen, Bibliotheken, Forschungseinrichtungen, Zeitschriften, Bücher, ....

 

(15) H: Ungefähr -100 bis heute, Strukturevolution: Homo sapiens gelingt nicht nur die Entwicklung von Informationstechnologien, die das Umgehen mit Informationen, Wissen extrem beschleunigen können, sondern zusätzlich bekommt er Zugriff auf die 'Baupläne' der biologischen Systeme. Im Prinzip kann homo sapien jetzt nicht nur die verschiedenen übergeordneten Evolutionen beschleunigen, sondern auch die biologische Evolution selbst. Dies stellt eine wichtige Herausforderung dar, da die aktuellen 'körperlichen (biologischen)' Strukturen neben ihrer faszinierenden Komplexität und Leistungsfähigkeit deutliche Kapazitätsgrenzen und 'Unangepasstheiten vieler eingebauter genetischer Programme' erkennen lassen.

 

(16) I: Ab wann? Theologisch-, Ethische Evolution: Das unglauliche Anwachsen an Handlungsmöglichkeiten eingebettet in einen sich selbst beständig beschleunigenden Prozess führt unausweichlich zur zentralen Frage, 'wohin' denn dieser Prozess steuert bzw. offensichtlich unter Beteiligung des gesamten Lebens, insbesondere in Gestalt des homo sapiens, steuern soll. Wenn wir jetzt im Prinzip alles (!) verändern können -- letztlich sogar interstellare und galaktische Prozesse -- dann sollten wir irgendwie klären, wo wir hinwollen. Die theologischen Visionen der 'alten' Religionen sind weitgehend 'wertlos' geworden, da sie einfach 'falsch' sind. Die Grundsatzfrage jedoch, woher und wohin das gesamte Universum mit uns als Teilnehmern bleibt, und erscheint einerseits weniger beantwortet denn je, zugleich drängen sich so viele neue 'harte' Fakten ins Blickfeld unseres 'Geistes', so  dass wir nicht länger so tun können, als ob wir 'nichts' wüssten. Faktisch sind wir 'maximal Wissende' eingebettet in sehr endliche Strukturen. Wer weiss warum, wozu, wohin, wie?

 

GEN — MEM — SEM

(1) Bei der Betrachtung der Entwicklung des (biologischen) Lebens auf der Erde tritt als markantes Ereignis (vor ca. 3.5 Mrd Jahren) die Verfügbarkeit von selbstreproduktiven Einheiten hervor: DNA-Moleküle werden dazu benutzt um unter Zuhilfenahme anderer Moleküle Proteinstrukturen in einer geordneten Weise so zu organisieren, dass daraus wieder Zellen, multizelluläre Organismen entstehen.

 

(2) In einem Abstraktionsprozeß wurden mathematische Modelle entwickelt, die die Struktur eines DNA.-Moleküls in solch einem selbstreproduktiven Kontext als ‚Informationseinheiten‚ identifizierten, die auch als ‚Gene‚ bezeichnet wurden. Der gesamte Informationsprozess wurde als ‚Genetischer Algorithmus (GA)‚ rekonstruiert. Gegenüber dem biochemischen Modell enthält er Vereinfachungen, zugleich bilden diese aber auch eine ‚Generalisierung‚, die eine mathematische Behandlung zulassen. Dadurch konnten sehr weitreichende Untersuchungen angestellt werden.

 

(3) Die Uminterpretation von genetischen Algorithmen als Classifier Systeme betrachtet die genetische Informationen als Wenn-Dann-Regeln (auch mehrere hintereinander). Je nachdem, welche Bedingungen vorliegen, werden nur bestimmte ‚Wenns‘ ‚erfüllt‘ und nur diese ‚Danns‘ werden aktiviert. Eine ‚Wenn-Dann-Regel‘ bildet einen ‚Classifier‚. Während genetische Informationen als solche eigentlich nur einmal im Leben eines (biologischen) Systems verändert werden (in der Realität natürlich auch durch Fremdeinwirkungen öfters), nämlich bei der Weitergabe der Informationen nach bestimmten Mustern/ Regeln geändert werden können (letztlich gibt es nur zwei Fälle (i) Rekombination nach einer festen Regel oder (ii) Zufällige Veränderung), können die Informationen, die als eine Menge von Classifiern kodiert sind, durch jedes einzelne Verhalten eines Systems geändert werden. Dies entspricht eher dem Organisationsniveau des Nervensystems bzw. dem des Gehirns in einem biologischen System.

 

(4) Betrachtet man Classifier Systeme auf der Organisationsebene des Gehirns, dann liegt auf der Hand, sie primär als Modell eines einfachen Gedächtnisses (Memory) zu sehen. Die ‚Wenns‘ (Engl. if) repräsentieren dann wichtige ‚Wahrnehmungszustände‘ des Systems (sensorische wie propriozeptive oder mehr), die ‚Danns‘ (Engl. ‚then‘) repräsentieren jene Aktionen des Systems, die aufgrund solcher Wahrnehmungen ausgeführt wurden und damit potentiell über die Veränderung einer (unterstellten) Situation zu einer Veränderung dieser Situation geführt haben, die wiederum die Wahrnehmung ändern kann. Da man mathematisch Wenn-Dann-Regeln (also Classifier) als Graphen interpretieren kann mit den ‚Wenns‘ als Knoten und den ‚Danns‘ als Übergänge zwischen den Knoten, sprich Kanten, bilden die Classifier als Graph den Ausgangspunkt für ein mögliches Gedächtnis.

 

(5) Nennen wir den ersten Graphen, den wir mittels Classifiern bilden können, Stufe 0 (Level 0), dann kann ein Gedächtnis mit Stufe 0 Wahrnehmungssituationen speichern, darauf basierende Handlungen, sowie Feedback-Werte. Feedbackwerte sind ‚Rückmeldungen der Umgebung (Engl. environment). Biologische Systeme verfügen im Laufe der 3.5 Miliarden dauernden Evolution mittlerweile über ein ganzes Arsenal von eingebauten (angeborenen, genetisch fixierten) Reaktionsweisen, die das System zur Orientierung benutzen kann: Hungergefühle, Durstgefühle, Müdigkeit, diverse Schutzreflexe, sexuelle Erregung usw. Im Englischen spricht man hier auch von drives bzw. verallgemeinernd von speziellen emotions (Emotionen). In diesem erweiterten Sinn kann man biologische Systeme auf der Organisationseben des Gedächtnisses auch als emotionale Classifier Systeme (emotional classifier systems) bezeichnen. Wenn man diese systemspezifischen Rückmeldungen in die Kodierung der Wenn-Dann-Regeln einbaut — was bei Classifiern der Fall ist –, dann kann ein auf Classifiern basierendes Gedächtnis die Wirkung von wahrgenommenen Situationen in Verbindung mit den eigenen Handlungen gespeichert (store) werden. Darüberhinaus könnte man diese gespeicherten Informationen mit geeigneten Such- und Auswertungsoperationen in zukünftigen Situationen nutzen, in denen man z.B. Hunger hat und man sich fragt, ob und wo und wie man an etwas Essbares kommen könnte.

 

(6) Der Begriff mem wurde in der Literatur schon vielfach und für sehr unterschiedliche Sachverhalte benutzt. In diesem Kontext soll ein mem* einen Knoten samt aller verfügbaren Kanten in einem Classifiersystem bezeichnen, das als Gedächtnis benutzt wird. Meme* sind dann — analog wie Gene — auch Informationseinheiten, allerdings nicht zur Kodierung von Wachstumsprozessen wie bei den Genen, sondern als Basis für Handlungsprozesse. Meme* ermöglichen Handlungen und die durch Handlungen ermöglichten Veränderungen in der unterstellten Umwelt können auf das handelnde System zurückwirken und dadurch die Menge der Meme* verändern.

 

(7) Wie wir heute wissen, haben biologische System — allerdings sehr, sehr spät — auch Zeichensysteme entwickelt, die schließlich als Sprachen zum grundlegenden Kommunikationsmittel des homo sapiens wurden. Kommunikation ermöglicht die Koordinierung unterschiedlicher Gehirne.

 

(8) Die allgemeine Beschreibung von Zeichen ist Gegenstand der Semiotik als Wissenschaft der Zeichen und Zeichenprozesse. Allerdings ist die Semiotik bis heute kaum anerkannt und fristet vielfach nur ein Schattendasein neben anderen Disziplinen. Dafür gibt es dann viele Teildisziplinen wie Phonetik, Linguistik, Sprachwissenschaften, Sprachpsychologie, Neurolinguistik usw. die nur Teilaspekte der menschlichen Zeichen untersuchen, aber es historisch geschafft haben, sich gesellschaftliche Anerkennung zu verschaffen.

 

(9) Eine Schwäche der Semiotik war — und ist es bis heute –, dass sie es nicht geschafft hat, eine einheitliche Theorie der Zeichen zu erarbeiten. Schon alleine die Vielzahl der ‚Gründer‘ der Semiotik (wie z.B. Peirce, de Saussure, Morris und viele andere) und deren unterschiedlichen begrifflichen Konzepte macht es schwer bis unmöglich, zu einer einheitlichen Zeichentheorie zu kommen.

 

(10) Ich habe mehrfach versucht, die beiden sehr unterschiedlichen Ansätze von Peirce (bewusstseinsbasiert) und Morris (Verhaltensbasiert) zu formalisieren und zu vereinheitlichen. Es scheint so zu sein, dass man bei Erweiterung des classifier-basierten Mem*-Konzeptes einen formalen Rahmen hat, der es erlaubt, sowohl die bewusstseinsorientierte Sicht von Peirce wie auch zugleich die verhaltensorientierte Sicht von Morris zusammen zu führen, ohne dass man deren Konzepte ‚verunstalten‘ müsste. Im Falle von Peirce kann man sein komplexes (und in sich selbst nicht konsistentes) System von Kategorien — so scheint es — drastisch vereinfachen.

 

(11) Stark vereinfachend gesagt kann man den Zeichenbegriff verstehen als eine Beziehung  zwischen einem Zeichenmaterial (das sowohl verhaltensrelevant  wie auch wahrnehmungsrelevant vorliegt) und einem Bedeutungsmaterial (das ebenfalls entweder verhaltensrelevant UND wahrnehmunsrelevant vorliegt oder NUR wahrnehmungsrelevant). Allerdings existiert eine solche Bedeutungsbeziehung nicht als wahrnehmbares Objekt sondern ausschliesslich als gewusste Beziehung im ‚Kopf‘ bzw. im ‚Gedächtnis‘ des Zeichenbenutzers. In Anlehnung an die griechische Philosophie möchte ich ein Zeichen als sem* bezeichnen. Ein sem* basiert zwar auf potentiell vielen memen*, stellt aber als ausgezeichnete Beziehung zwischen memen* etwas Eigenständiges dar. In diesem Sinne kann — und muss — man sagen, dass seme* eine neue Ebene der Organisation von Informationen eröffnen (was grundsätzlich keine neue Einsicht ist; ich wiederhole dies hier nur, da dies die Voraussetzung für die nächste Organisationsebene von Informationen ist).

 

Fortsetzung folgt.

 

Philosophie Jetzt: Veranstaltung am 2.Okt.2011

Hier eine Ankündigung in eigener Sache:

Am 2.Okt.2011 beginne ich mit einer ersten Veranstaltung im Rahmen des Projektes ‚Philosophie Jetzt‘ mit dem aktuellen Titel ‚Unterwegs Wohin?‘

Grundidee ist, die Diskussion aus dem Blog auch in der Öffentlichkeit zu führen und damit  das Umdenken vieler gewohnter Alltagsbegriffe weiter zu unterstützen. Die Veranstaltung findet im

Bistro des Restautant ‚Schnittlik‘ statt

61137 Schöneck

Platz der Republik 2

16:00 – 19:00h

Gedacht ist an einer lockeren Form  von Vortrag, Gespräch, aufgelockert mit eigener experimenteller Musik. Denkbar, dass in Zukunft auch andere aktiv mitwirken durch Texte und Musik. Dies ist jedenfalls ein Anfang. Philosophie ist für uns alle wichtig, nicht nur für ‚Hinterstubendenker’……

Herzliche Grüße,

cagent

PS:  Es deutet alles darauf hin, dass es mir zum ersten Mal gelingt, einen Zusammenhang von ‚Urknall‘ über kosmische Evolution, biologische Evolution 1, biologische Evolution 2 (=Kultur, Technologie) bis hin zu Grundstrukturen von Wissen, Lernen und Werten zu zeichnen. Hätte dies nie für möglich gehalten. Im Nachhinein erscheint es so einfach und man versteht gar nicht, warum man sich nahezu 63 Jahre quälen muss, bis man dahin kommt (kleiner Trost. den anderen geht es auch nicht besser…). Die neue Perspektive hat allerdings etwas ‚Berauschendes‘; die philosophisch-theologischen Kategorien der Vergangenheit wirken da wie ein ’schlechter Traum‘. Andererseits war dies irgendwie als ‚Durchgangsphase‘ unumgänglich. Erkennen funktioniert nur über Blindversuch, Fehler, Korrektur, neuer Versuch… irgendwann hat man dann das Gefühl, jetzt scheint es ‚besser‘ zu sein…bis zur nächsten ‚Verbesserung’…Ohne diese gelegentlichen Blog-Einträge — so einfach und erratisch sie auch im einzelnen sein mögen — wäre dies nie passiert….

PS2: Ja, die Veranstaltung hat stattgefunden. Trotz strahlendem Sommerwetter war der Raum gefüllt und die drei Stunden erwiesen sich als viel zu kurz….Das ruft nach mehr….

Zusammenfassung des Vortrags

 

(1) Der Vortrag wählte als Ausgangspunkt die Position des Dualismus, der fast 2000 Jahre die europäische Philosophie — und auch das übrige Denken — geprägt hatte und selbst heute noch in vielen Kreisen präsent ist: die Gegenübersetzung von Geist und Materie.

 

(2) Es wurde dann in mehreren Schritten gezeigt, wie diese Gegenübersetzung im Lichte des heutigen Wissens nicht nur ‚in sich zusammenfällt‘ sondern mehr noch, einen völlig neuen Denkansatz ermöglicht.

 

(3) Über die Stationen Erde – Sonnensystem – Milchstraße – Universum wurde nicht nur deutlich, dass wir in einer der wenigen ‚bewohnbaren‘ (habitablen) Zonen leben, sondern dass alle bekannte ‚Materie‘ letztlich nichts anderes ist als eine ‚Zustandsform von Energie‘.

 

(4) Anhand der unterschiedlichen komplexen Strukturen wie subatomar Quanten, Atome, Moleküle wurde deutlich, wie es eine Brücke gibt von der Energie zu den kleinsten Bauelementen biologischer Lebensformen im Rahmen der chemischen Evolution. Zwar sind hier bis heute noch nicht alle Abläufe vollständig aufgeklärt, aber der Weg vom Molekül zur Zelle ist zumindest prinzipiell nachvollziehbar.

 

(5) Es wurden grob jene Prozess skizziert, die bei der Selbstreproduktion involviert sind (DNA, mRNA, tRNA, Ribosomenkomplexe….). Sämtliche Prozesse dieser chemischen Informationsmaschinerie basieren ausschließlich auf Molekülen.

 

(6) Die biologische Evolution von den ersten Zellen bis zum homo sapiens wurde stark verkürzend skizziert. Die Rolle des Gehirns in der Steuerung, für das Verhalten, für die Sprache. Die mittlerweile allgemein akzeptierte Out-of-Africa Hypothese, die Abstammung aller heute lebenden Menschen von einer Gruppe von homo sapiens Menschen, die von Ostafrika aus vor ca. -70.000 über Arabien, Persien, Indien Australien bevölkerten, Asien und ab ca. -45000 Europa. Später auch Nord- und Südamerika.

 

(7) Es wurde kurz erklärt wie der ‚Wissensmechanismus‘ hinter der biologischen Evolution funktioniert, die — obgleich vollständig ‚blind‘ — innerhalb von ca. 3.7 Mrd. Jahren hochkomplexe Organismen hervorgebracht hat. Die ‚Logik‘ dahinter ist ein gigantischer Suchprozess über die möglichen ökologischen Nischen, deren Feedbackmechanismus ausschließlich im Modus des ‚Überlebens‘ gegeben war. Das konnte nur funktionieren, weil beständig Milliarden von ‚Experimenten‘ gleichzeitig ausgeführt wurden. Evolution heißt ‚aktiv mit dem Unbekannten spielen‘ mit dem Risiko, unter zu gehen; aber dieses Risiko war — und ist — die einzige ‚Versicherung‘, letztlich doch zu überleben.

 

(8) Es wurde dann die Besonderheit des Gehirns erläutert, warum und wie Gehirnzellen in der Lage sind, Signale zu verarbeiten. Es wurden die chemischen Prozesse geschildert, die diesen Prozessen zugrunde liegen und dann, wie sich diese komplexen chemischen Prozesse heute technisch viel einfacher realisieren lassen. Es wurde ferner erklärt, warum ein Computer das Verhalten eines Gehirns simulieren kann. Zugleich wurde aber auch deutlich gemacht, dass die Simulation mittels eines Computers keine vollständige Berechenbarkeit impliziert, im Gegenteil, wir wissen, dass ein Gehirn — real oder simuliert — grundsätzlich nicht entscheidbar ist (Goedel, Turing).

 

(9) Es wurde weiter erläutert, wie sich die Informationsverarbeitung eines Gehirns von der DNA-basierten Informationstechnologie unterscheidet. Neben Details wie Gedächtnisstrukturen, Bewusstsein – Unbewusstsein, Sprache, Abstraktionen, Planen, usw. wurde deutlich gemacht, dass die Informationseinheiten eines Gehirns (Meme) permanent durch das Verhalten eines Organismus modifiziert werden können. Im Zusammenwirken von Gehirn und Sprache ist das biologische Leben nun im Stande, komplexe Modelle des Lebens versuchsweise zu entwickeln, die in Verbindung mit Genetik den Entwicklungsprozess biologischer Strukturen extrem beschleunigen könnten. Mit Blick auf die drohenden Faktoren der Lebenszerstörung wie Sonnenerwärmung, Zusammenstoß mit der Galaxie Andromeda in ca. 2-4 Mrd Jahren — um nur einige Faktoren zu nennen — kann diese Beschleunigung des Entwicklungsprozesses von Leben von Interesse sein.

 

(10) Hier endete die Sitzung mit dem vielfachen Wunsch, den Diskurs fort zu setzen, speziell mit Blick auf die sich neu stellenden ethischen und praktischen Lebensfragen.

Womit hat der Bundestag dies verdient?

Zur Rede des Papstes im Deutschen Bundestag am 22.Sept.2011, abgedruckt in der FAZ Nr.222, 23.Sept.2011,S.8

 

(1) Der deutsche Bundestag ist ein demokratisch gewähltes Organ in einer rechtsstaatlichen Demokratie und kann darauf stolz sein. Der Weg zu diesem Zustand führte über viele, viele Jahrhunderte von Suchen, Debatten, Kriegen, Leiden, Ungerechtigkeiten, Leidenschaften, Widerstand, und vieles mehr.

 

(2) Der Papst hingegen verkörpert eine Institution, die von hierarchischen Strukturen geprägt ist, die nahezu keine Mitbestimmung kennt, die in den Jahrhunderten Andersdenkende oft — bisweilen im großen Stil — verfolgt, gefoltert und getötet hat. Die moderne Wissenschaft wurde bis ins letzte Jahrhundert auf vielfache Weise unterdrückt und bekämpft. Und selbst heute, selbst in dieser Rede, wird ein Bild von der modernen Wissenschaft gezeichnet, das man nur als Zerrbild bezeichnen kann. Und dieser Papst möchte über die Grundlagen des ‚freiheitlichen Rechtsstaates‘ sprechen? Er möchte zum Dialog einladen? Was soll man davon halten?

 

(3) Als Diskussionsgegenstand wählt er die Grundlagen des freiheitlichen Rechtsstaates, das Recht, an dem sich jeder Politiker orientieren sollte. In diesem Zusammenhang baut er u.a. einen zeitlichen Zusammenhang auf zwischen vorchristlicher (griechischer) Philosophie, christlicher Offenbarung, christliches Mittelalter, Aufklärung, Menschenrechte, und Demokratien. Er interpretiert diesen zeitlichen Zusammenhang mit den Worten: „Von der Überzeugung eines Schöpfergottes her ist die Idee der Menschenrechte… entwickelt worden“. Wenn man berücksichtigt, dass sich Aufklärung, neuzeitliche Wissenschaft und die Menschenrechte in heftigster Auseinandersetzung gegen die katholische Kirche entwickelt mussten (und bis heute sind in der Kirche noch nicht alle Menschenrechte umgesetzt!), dann erscheint die Interpretation des Papstes als geradezu dreist. Das ist Geschichtsklitterung und Demagogie in einem.

 

(4) Besonders bizarr wirkt die Argumentation, wenn es darum geht, die theologische Position gegen die neuzeitliche Wissenschaft in Position zubringen. Zunächst verortet er die Wurzeln des Rechts in Vernunft und Natur (als Besonderheit der katholischen Kirche; eine in sich mehr als fragwürdige Behauptung). Dann verknüpft er die Begriffe ‚Vernunft‘ und ‚Natur‘ mit einer positivistischen Interpretation, mit einem rein funktionalistischen Wissenschaftsbegriff, der das Subjektive, den Geist, den Ethos, die Religion nicht zulassen würde. In der sich daraus ergebenden ‚Lücke‘ , die er als Kulturlosigkeit‘ bezeichnet, sieht er dann ein Einfallstor für die ‚Vorräte Gottes‘, für eine ’schöpferische Vernunft‘, für einen ‚creator spiritus‘. Das Problem mit dieser Interpretation ist jedoch, dass sie ein Bild von Wissenschaft und Gesellschaft zeichnet, das schlicht und einfach falsch ist. Wer die Entwicklung der modernen Wissenschaften in den letzten 100 Jahren aufmerksam verfolgt hat, weiß, dass Begriffspaare wie z.B. ‚Geist‘ und ‚Materie‘, ‚Vernunft‘ und ‚Natur‘ aus der Zeit einer vorwissenschaftlichen Philosophie heutzutage eine völlig neuartige Bedeutung bekommen haben, und immer noch weiter bekommen. Die schrittweise Rekonstruktion der Struktur von Materie und biologischem Leben haben dazu geführt, dass man das ‚Subjektive‘ und ‚Geistige‘ mehr und mehr als Eigenschaft des ‚Materiellen‘ zu verstehen beginnt, was umgekehrt bedeutet, die ‚tote Materie‘ der klassischen Philosophie erweist sich als Chimäre. Die Gegenübersetzung von ‚Geisteswissenschaften‘ und ‚Naturwissenschaften‘ fällt heute immer mehr zusammen. Fachbezeichnungen wie ‚Neuropsychologie‘ oder ‚Kognitive Neurowissenschaften‘ deuten dies an. Entsprechend kann man z.B. in der größten Ingenieurvereinigung der Welt — IEEE — eine Teilgesellschaften finden, die sich ‚Computational Intelligence‘ nennt; dort werden  klassische Philosophen, das Bewusstsein, Gefühle, Werte usw. ganz selbstverständlich im Kontext von Maschinen diskutiert werden. Wer allerdings sein Denken auf einige wenige klassische Begriffspaare ‚programmiert‘ hat, derjenige tut sich schwer, diese neuen Entwicklungen zu denken.

 

(5) Aber genau das ist der Gang der Geschichte: das Denken entwickelt sich — bislang zumindest — dynamisch weiter. Das Bild von der Welt wird ‚bunter‘, ‚reicher‘, ’spannender‘. Die Frage der Werte ist lebendiger denn je: gerade im Bereich der Evolutionsforschung und der lernenden Systeme hat man die zentrale Rolle von ‚Werten‘ entdeckt und man muss feststellen, dass wir im Verständnis der Wertentstehung ganz am Anfang stehen. Klassische Naturrechtsargumentationen wirken hier wie Relikte aus einer Vorwelt, denen eine wirkliche Rationalität fehlt.

 

(6) Vor diesem Hintergrund einer überaus lebendigen modernen Wissenschaft, die immer mehr in alle Bereich des Lebens — auch des Subjektiven, des bewussten wie auch des ‚unbewussten‘, sogar in die Bereiche der Kunst und der Kreativität — vordringt, kann sich die theologische Frage nach einem Schöpfer u.U. ganz neu stellen. Allerdings bestimmt nicht so, dass man das Bild der Wissenschaft künstlich verzerrt, um damit alte, lieb gewonnene Begriffe und Vorurteile, die keinen Verkehrswert mehr haben, neu zu installieren.

 

(7) Am meisten erschüttert hat mich die Aussage des Papstes im Kontext der Bestimmung der Würde des Menschen und der Menschheit, dass „das Mehrheitsprinzip nicht ausreicht, ist offensichtlich“. In diesem Moment hätten alle Abgeordneten sofort den Saal verlassen müssen. Natürlich garantiert das Mehrheitsprinzip keine Erkenntnis, aber es gehört mit zu den größten Errungenschaft neuzeitlichen Denkens, erkannt zu haben, dass zu keiner Zeit niemand über ein absolutes Wissen verfügt. Man kann immer nur versuchen, ein ‚relatives Optimum‘ zu erreichen. Und wenn alle ‚unfähig‘ sind, dann wird auch nicht viel herauskommen. Aber grundsätzlich besteht mit dem Mehrheitsprinzip die Möglichkeit, dem Willen der Mehrheit Ausdruck zu verleihen.

 

(8) Demgegenüber belegt der Wahrheitskatalog der katholischen Kirche eindrücklich, wie veraltete und falsche begriffliche Konstruktionen über Jahrhunderte konserviert werden können, die das Erkennen der Welt und die Achtung vor dem Menschen massiv behindert haben (und auch heute noch behindern). Man sollte sich immer wieder ins Bewusstsein rufen, dass die Sache ‚Gottes‘ und eine konkrete soziale Institution keinesfalls zwangsläufig miteinander zu tun haben müssen. Menschen — auch ‚Kirchenmenschen‘ — haben die Freiheit, die Sache Gottes zu verleugnen. Ein letztes Urteil darüber haben wir zum Glück nicht zu sprechen.