Archiv der Kategorie: Zeichen

WAS IST LEBEN ? … Wenn Leben ‚Mehr‘ ist, ‚viel Mehr‘ …

Autor: Gerd Doeben-Henisch

Datum: 8.Febr 2025 – 13.Febr 2025

Kontakt: cagent@cognitiveagent.org

Eine englische Version findet sich HIER!

KONTEXT

Dies ist eine direkte Fortsetzung der vorausgehenden Texte

  1. „WAS IST LEBEN ? Welche Rolle haben wir ? Gibt es eine Zukunft ?“
  2. „WAS IST LEBEN ? … DEMOKRATIE – BÜRGER“
  3. „WAS IST LEBEN ? … PHILOSOPHIE DES LEBENS“

Diesem Text ging ein Vortrag am 31.Jan 2025 voraus, in dem ich die grundlegenden Ideen schon mal formuliert hatte.

EINLEITUNG

In den vorausgehenden Texten wurde der ‚Rahmen‘ abgesteckt, innerhalb dessen sich die nachfolgenden Texte zum Thema „Was ist Leben? …“ bewegen werden. Eine Sonderstellung nimmt dabei der Text zur ‚Philosophie‘ ein, da hier darauf aufmerksam gemacht wird, in welcher ‚Perspektive‘ wir uns bewegen, wenn wir über uns selbst und die umgebende Welt anfangen nachzudenken und dann auch noch zu ’schreiben‘. Zur Erinnerung an die philosophische Perspektive hier der letzte Abschnitt als Zitat und zur Erinnerung:

„Letztlich ist ‚Philosophie‘ ein ‚Gesamtphänomen‘, das sich im Zusammenspiel vieler Menschen in einem Alltag zeigt, erlebbar ist und nur hier, in Prozessform, Gestalt annehmen kann. ‚Wahrheit‘ als ‚harter Kern‘ jeglichen wirklichkeitsbezogenen Denkens findet sich dadurch immer nur als ‚Teil‘ eines Prozesses, in dem die wirkenden Zusammenhänge wesentlich zur ‚Wahrheit einer Sache‘ gehören. Wahrheit ist daher niemals ’selbstverständlich‘, niemals ‚einfach‘, niemals ‚kostenlos‘; Wahrheit ist eine ‚kostbare Substanz‘, die zu ‚gewinnen‘ jeglichen Einsatz erfordert, und ihr Zustand ist ein ‚flüchtiger‘, da die ‚Welt‘ innerhalb deren Wahrheit ‚erarbeitet‘ werden kann, sich als Welt kontinuierlich ändert. Ein Hauptfaktor dieser beständigen Veränderung ist das Leben selbst: das ‚Dasein von Leben‘ ist nur möglich innerhalb eines ‚andauernden Prozesses‘ durch den ‚Energie‘ ‚emergente Bilder‘ aufleuchten lassen kann, die nicht zum ‚Ausruhen‘ geschaffen sind, sondern für ein ‚Werden‘, dessen letztes Ziel noch vielfach ‚offen erscheint‘: Leben kann sich tatsächlich — partiell — selbst zerstören oder sich selbst — partiell — ermächtigen. Irgendwo da mitten drin befinden wir uns. Die aktuelle Jahreszahl ‚2025‘ ist dafür eigentlich wenig aussagekräftig.“

WENN LEBEN ‚MEHR‘ IST, ‚VIEL MEHR‘ …

Im ersten Text dieses Textprojektes ‚Was ist Leben‘ wurde unter dem Label ‚EARTH@WORK. Cradle of Humankind‘ im Prinzip schon vieles gesagt, was für eine ’neue Sicht‘ auf das ‚Phänomen Leben‘ im Lichte der modernen wissenschaftlichen und philosophischen Erkenntnisse gesagt werden kann und eigentlich dann auch gesagt werden muss. Hier zur Erinnerung der Text:

„Die Existenz [des Planeten Erde] war faktisch die Voraussetzung dafür, dass das heute bekannte biologische Leben sich so entwickelt hat, wie wir es kennen lernen konnten. Es sind erst wenige Jahre her, seitdem wir ansatzweise verstehen können, wie sich das bekannte ‚biologische Leben‘ (Natur 2) aus dem ’nicht-biologischen Leben‘ (Natur 1) ‚entwickeln‘ konnte. Bei einer noch tiefer gehenden Analyse kann man nicht nur die ‚Gemeinsamkeit‘ in der benutzten ‚Materie‘ erkennen, sondern auch die ’neuartigen Erweiterungen‘, die das ‚Biologische‘ gegenüber dem ‚Nicht-Biologischen‘ auszeichnet. Statt dieses ‚Neuartige‘ in einen Gegensatz zu verwandeln, wie es das bisherige Denken der Menschheit getan hat (z.B. ‚Materie‘ versus ‚Geist‘, ‚Matter‘ versus ‚Mind‘), kann man das Neuartige auch als ‚Manifestation‘ von etwas ‚tiefer Liegendem‘ verstehen, als eine ‚Emergenz‘ von neuen Eigenschaften, die wiederum auf Eigenschaften hindeuten, die in der ‚Grundlage von allem‘ — nämlich in der ‚Energie‘ — vorhanden sind, sich aber erst bei der Bildung von immer komplexeren Strukturen zeigen können. Diese neuartige Interpretation wird angeregt durch die Erkenntnisse der modernen Physik, insbesondere der Quantenphysik in Verbindung mit der Astrophysik. Dies alles legt es dann nahe, die klassische Formel von Einstein (1905) e=mc2 umfassender zu interpretieren als bisher üblich (abgekürzt: Plus(e=mc2)).“

Dieser kurze Text soll im weiteren etwas mehr entfaltet werden, um die Dramatik ein wenig mehr sichtbar zu machen, die sich im Zusammenklang der vielen neuen Erkenntnisse andeutet. Manche werden diese Perspektiven vielleicht ‚bedrohlich‘ empfinden, andere als die ‚lang ersehnte Befreiung‘ von ‚falschen Bildern‘, die unser reale mögliche Zukunft bislang eher ‚verdeckt‘ haben.

Kontexte

Wenn wir einen ‚Apfel‘ sehen, ganz isoliert, dann ist dieser Apfel für sich genommen mit seinen Formen und Farben irgendwie ‚unbestimmt‘. Wenn wir aber ‚erleben‘ können, dass man einen Apfel z.B. ‚essen‘ kann, seinen Geschmack spüren, seine Wirkung auf unsren Körper, dann wird der Apfel ‚Teil eines Kontextes‘. Und wenn wir dann zufällig auch noch etwas ‚wissen‘ über seine Zusammensetzung und deren mögliche Wirkung auf unseren Körper, dann erweitert sich das ‚Bild des Erlebens‘ um ein ‚Wissensbild‘ und kann damit einen ‚Erlebens-Wissens-Kontext‘ in uns bilden, der den Apfel aus seiner ‚anfänglichen Unbestimmtheit‘ entreißt. Als Teil eines solchen Kontextes ist der Apfel ‚Mehr‘ als vorher.

Ähnlich mit einem ‚Stuhl‘: einfach so hat er irgendwie eine Form, hat Farben, zeigt Oberflächeneigenschaften, aber mehr nicht. Kann man erleben, dass dieser Stuhl in einem ‚Zimmer‘ steht ‚zusammen mit anderen ‚Möbelstücken‘, dass man sich ‚auf einen Stuhl setzen kann‘, dass man seinen Platz im Zimmer verändern kann, dann entsteht ein erlebtes Bild von einem größeren Ganzen, in dem der Stuhl ein Teil ist mit bestimmten Eigenschaften, die ihn von den anderen Möbelstücken unterscheiden. Wenn wir dann noch wissen, dass Möbelstücke in ‚Zimmern‘ vorkommen, die Teile von ‚Häusern‘ sind, dann entsteht wieder ein recht komplexer ‚Erlebens-Wissens-Kontext‘ in uns, der aus dem einzelnen Stuhl wieder ‚Mehr‘ macht.

Diese Art von Überlegungen können wir im Alltag auf sehr viele Objekte anwenden. Tatsächlich gibt es kein einziges Objekt, das ganz alleine, nur für sich vorkommt. Ganz krass findet sich dies bei ‚biologischen Objekten‘: Tieren, Pflanzen, Insekten, …

Nehmen wir uns selbst — wir als Menschen — als Beispiel. Lassen wir den Blick schweifen von dem Punkt, wo sich jeder gerade jetzt befindet, über das ganze Land, über den ganzen Kontinent, ja über das ganze Rund unseres Planeten, dann finden sich heute (2025) nahezu überall Menschen. Standardmäßig als Mann und Frau gibt es kaum eine Umgebung, wo nicht Menschen leben. Die jeweiligen Umgebungen können sehr einfach sein oder hoch verdichtet mit riesigen Gebäuden, Geräten, Menschen auf engstem Raum. Hat man den Blick so geweitet, dann ist klar, dass auch wir Menschen ‚Teil von etwas sind‘: sowohl von der jeweiligen geografischen Umgebung wie auch Teil einer großen biologischen Lebensgemeinschaft. Im Alltagserleben begegnen wir normalerweise immer nur wenigen (auch mal einige Hundert, speziell auch einige Tausend) anderen Menschen, aber durch das verfügbare Wissen können wir erschließen, dass wir viele Milliarden sind. So ist es wieder der ‚Erlebens-Wissens-Kontext‘ , der uns in einen größeren Kontext versetzt, in dem wir klar ‚Teil von etwas Großem‘ sind. Auch hier repräsentiert der Kontext ein Mehr gegenüber uns selbst als einzelner Person, als einzelnem Bürger, als einzelnem Menschen.

Zeit, Zeitscheiben, …

Wenn man die Dinge um uns herum — und dann auch uns selbst — im ‚Format‘ von ‚Kontexten‘ erleben und denken kann, dann ist es nicht weit, das Phänomen der ‚Veränderung‘ zu bemerken. Da, wo wir gerade sind, im ‚Jetzt‘, im ‚aktuellen Augenblick‘, gibt es keine Veränderung; alles ist, wie es ist. Sobald aber der ‚aktuelle Augenblick‘ von einem ’neuen Augenblick‘ gefolgt wird, und dann immer mehr neue Augenblicke ‚hintereinander‘, dann werden wir unweigerlich ‚Veränderungen‘ feststellen können: die Dinge ändern sich, alle Dinge in dieser Welt ändern sich; es gibt nichts, was sich nicht ändert!

Im ‚individuellen Erleben‘ kann es sein, dass wir mit unseren Augen, Ohren, Geruchssinn und sonstigen Sinnen für mehrere Augenblicke ’nichts sinnlich wahrnehmen‘. Dies ist möglich, weil unsere körpereigenen Sinnesorgane die Welt nur sehr grob wahrnehmen können. Mit den Methoden der neuen Wissenschaften, die nahezu beliebig ‚ins Kleine‘ und ‚ins Große‘ schauen können, können wir ‚wissen‘, dass zum Beispiel unsere ca. 37 Billionen (1012) Körperzellen in jedem Moment hoch aktiv sind, indem sie ‚Botschaften‘ austauschen, ‚Material austauschen‘, sich ‚reparieren‘, abgestorbene Zellen durch neue ersetzen, usw. Unser eigener Körper ist also in jedem Augenblick einem regelrechten ‚Veränderungssturm‘ ausgesetzt, ohne dass wir dies irgendwie bemerken können. Das Gleiche gilt für den Bereich der ‚Mikroben‘, kleinsten Lebewesen, die wir nicht sehen können, die aber zu vielen Milliarden nicht nur ‚um uns herum‘ leben, sondern sie besiedeln unsere Haut und sind auch ständig hochaktiv. Dazu kommt das Material der Gebäude um uns herum. In jedem Moment finden Veränderungsprozess im Material statt, so dass es nach einer bestimmten Anzahl von Jahren so ‚gealtert‘ ist, dass es seine geplante Funktion immer weniger erfüllen kann; Brücken können dann auch einstürzen, wie wir erleben können.

Generell können wir von ‚Veränderungen‘ nur sprechen, wenn wir ein ‚Vorher‘ und ein ‚Nachher‘ unterscheiden können, und wir die vielen Eigenschaften, die ein ‚Augenblick vorher‘ aufweist, mit den Eigenschaften ‚vergleichen‘ können, die ein ‚Augenblick nachher‘ aufweist. Im Raum unserer ’sinnlichen Wahrnehmung‘ gibt es immer nur ein ‚Jetzt‘ ohne vorher und nachher. Durch die Eigenschaft des ‚Erinnerns‘ in Zusammenarbeit mit einem ‚Merken‘ von aktuellen Ereignissen verfügt unser ‚Gehirn‘ aber über die wunderbare Fähigkeit, ‚Augenblicke‘ bis zu einem gewissen Grade ‚quasi zu speichern‘, und ergänzend über die Fähigkeit, ‚verschiedene gespeicherte Augenblicke‘ nach bestimmten Kriterien mit einer aktuellen sinnlichen Wahrnehmung zu vergleichen. Gibt es ‚Unterschiede‘ zwischen der ‚aktuellen sinnlichen Wahrnehmung‘ und den bislang ‚gespeicherten Augenblicken‘, dann macht uns das Gehirn darauf ‚aufmerksam‘; es ‚fällt uns auf‘.

Dieses Phänomen der ‚erlebbaren Veränderungen‘ ist die Basis für unser ‚Empfinden von Zeit‘. Wir Menschen haben zwar schon immer auch ‚externe Ereignisse‘ zur Hilfe genommen, um erlebbare Veränderungen in einen größeren Rahmen einordnen zu können (Tag-Nacht, Jahreszeiten, diverse Konstellationen von Sternen, Zeitmaschinen wie verschiedenste ‚Uhren‘, … unterstützt durch Zeitaufzeichnungen, später auch ‚Kalendern‘), aber die Fähigkeit, Veränderungen erleben zu können, bleibt für uns grundlegend.

Wenn man über dies alles ’nachdenkt‘, dann kann man z.B. das Konzept der ‚Zeitscheibe‘ formulieren: Wenn man sich einen ‚Zeitabschnitt‘ denkt — der natürlich unterschiedlich kurz oder lang sein kann (Nanosekunden, Sekunden, Stunden, Jahre, …) — und alle Orte unseres Planeten samt allem, was sich da gerade befindet, als einen einzigen ‚Zustand‘ ansieht, und dies macht man für jeden Zeitabschnitt, der auf den ersten Zeitabschnitt folgt, dann bekommt man eine ‚Reihe/ Folge‘ von ‚Zeitscheiben‘. Bei dieser Konstellation ist es dann so, dass jede Veränderung, wo immer sie innerhalb des Zustands stattfindet, sich mit ihren ‚Wirkungen‘ in einer der folgenden Zeitscheiben ‚auswirkt‘. Je nach ‚Dicke der Zeitscheibe‘ ist es in der ‚direkt nachfolgenden Zeitscheibe‘ oder eben ‚viel später‘. In diesem Modell geht nichts verloren. Je nach ‚Dicke‘ ist das Modell eher ’sehr präzise‘ oder ’sehr grob‘. So wird z.B. die Bevölkerungsentwicklung von einer Gemeinde in Deutschland immer nur stichprobenartig am letzten Tag eines Jahres erhoben. Würde man dies jede Woche machen, dann würden sich die einzelnen Kenngrößen (Geburten, Sterbefälle, Zuzüge, Weggang, …) sehr unterscheiden.

Im Übergang von einer zur nächsten Zeitscheibe wirkt sich ‚jede Veränderung‘ aus, also auch, was jeder einzelne Mensch tut. Allerdings muss man unterscheiden zwischen konkreten Wirkungen (wenn ein junger Mensch regelmäßig zur Schule geht) und einem ‚langfristigen Ergebnis (Schulabschluss, erworbene Kompetenzen,…), das sich ’nicht direkt‘ als konkretes Veränderungsereignis zeigt. Erwerb von Erfahrungen, Wissen, Kompetenzen … wirkt sich ‚im Innern‘ eines Menschen aus durch ‚Aufbau von unterschiedlichen Strukturen‘, die den einzelnen Menschen in die Lage versetzen, z.B. auf neue Weise zu ‚Planen, zu entscheiden und zu Handeln‘. Dieser ‚Aufbau von unterschiedlichen Strukturen‘ im Innern eines Menschen ist nicht direkt beobachtbar. Diese Strukturen können aber die ‚Qualität des Verhaltens‘ sehr stark beeinflussen.

Zeitscheiben des Lebens auf dem Planet Erde

Es klang eben schon an, dass die ‚Dicke einer Zeitscheibe‘ sich darin auswirkt, welche Ereignisse man sieht. Dies hängt damit zusammen, dass wir auf dem Planet Erde sehr viele ‚unterschiedliche Arten von Veränderungen‘ kennen gelernt haben. Vorgänge am Himmel und Vorgänge in der Natur dauern gefühlt eher ‚länger‘, Wirkungen von konkreten mechanischen Aktionen finden eher ’schnell‘ statt, Veränderungen der Erdoberfläche brauchen tausende, viele tausende oder gar Millionen von Jahren.

Hier soll der Blick auf die großen Entwicklungsschritte des (biologischen) Lebens auf dem Planeten Erde gelenkt werden. Wir selbst — als Homo sapiens — sind Teil dieser Entwicklung und es kann interessant sein, zu klären, ob die Tatsache, dass wir ‚Teil des großen Lebens‘ sind Perspektiven sichtbar macht, die wir im ’normalen Alltag‘ eines einzelnen Menschen praktisch nicht erkennen können, obgleich diese Perspektiven möglicherweise von großer Bedeutung für jeden von uns sind.

Die Auswahl von ‚markanten Ereignissen‘ in der Entwicklung des Lebens auf der Erde ist natürlich sehr stark abhängig von dem ‚Vor-Wissen‘, mit dem man an die Aufgabe herangeht. Ich habe hier nur solche Punkte ausgewählt, die sich in nahezu allen wichtigen Publikationen finden. Die Angabe jenes Zeitpunkts, ‚ab dem‘ diese Ereignisse anerkannt werden, haben grundsätzlich eine ‚Unschärfe‘, da sowohl die ‚Komplexität‘ des Ereignisses wie auch die Problematik der ‚zeitlichen Bestimmung‘ bis heute nicht viel genauer sein kann. Folgende markante Ereignisse habe ich ausgewählt:

  1. Molekulare Evolution (ab ~3.9 Mrd. Jahren)
  2. Prokaryotische Zellen (ab ~3.5 Mrd. Jahren)
  3. Großes Sauerstoffereignis (ab ~2.5 Mrd. Jahren)
  4. Eukaryotische Zellen (ab ~1.5 Mrd. Jahren)
  5. Vielzeller (ab ~600 Mio. Jahren)
  6. Auftreten der Gattung Homo (ab ~2.5 Mio. Jahren)
  7. Auftreten des Homo sapiens (ab ~300.000 Jahren)
  8. Auftreten von Künstlicher Intelligenz (ab ~21. Jahrhundert)

Mich hat dann interessiert, wie groß die Abstände zwischen diesen Ereignissen waren. Für die Berechnung wurden immer die Anfangspunkte der markanten Ereignisse genommen, da sich im weiteren Verlauf kein Zeitpunkt gut festlegen lässt. Folgende Tabelle hat sich dann ergeben:

  1. Molekulare Evolution zu Prokaryotischen Zellen: 400 Millionen Jahre
  2. Prokaryotische Zellen zum Großen Sauerstoffereignis: 1 Milliarde Jahre
  3. Großes Sauerstoffereignis zu Eukaryotischen Zellen: 1 Milliarde Jahre
  4. Eukaryotische Zellen zu Vielzellern: 900 Millionen Jahre
  5. Vielzeller zum Auftreten der Gattung Homo: 597,5 Millionen Jahre
  6. Gattung Homo zum Homo sapiens: 2,2 Millionen Jahre
  7. Homo sapiens zur Künstlichen Intelligenz: 297.900 Jahre

Als nächstes habe ich diese Zeitabstände umgerechnet in ‚prozentuale Anteile der Gesamtzeit‘ von 3.9 Milliarden Jahren. Damit er gibt sich folgende Tabelle:

  1. Molekulare Evolution zu Prokaryotischen Zellen: 400 Millionen Jahre = 10,26%
  2. Prokaryotische Zellen zum Großen Sauerstoffereignis: 1 Milliarde Jahre = 25,64%
  3. Großes Sauerstoffereignis zu Eukaryotischen Zellen: 1 Milliarde Jahre = 25,64%
  4. Eukaryotische Zellen zu Vielzellern: 900 Millionen Jahre = 23,08%
  5. Vielzeller zum Auftreten der Gattung Homo: 597,5 Millionen Jahre = 15,32%
  6. Gattung Homo zum Homo sapiens: 2,2 Millionen Jahre = 0,056%
  7. Homo sapiens zur Künstlichen Intelligenz: 297.900 Jahre = 0,0076%

Mit diesen Zahlen kann man dann schauen, ob diese Daten als ‚Datenpunkte‘ auf einer Zeitachse irgendeine auffällige Eigenschaft erkennen lassen. Natürlich gibt es hier rein mathematisch sehr viele Optionen, wonach man schauen könnte. Mich hat zunächst nur interessiert, ob es eine ‚mathematisch definierte Kurve‘ geben kann, die mit diesen Datenpunkten ’signifikant korreliert‘. Nach zahlreichen Tests mit verschiedenen Schätzfunktionen (siehe Erläuterungen im Anhang) ergab sich, dass die logistische Funktion (S-Kurve) von ihrem Design her die Dynamik der realen Daten der Entwicklung von biologischen Systemen am besten wiedergibt.

Für diese Schätzfunktion wurden die Datenpunkte ‚Molekulare Evolution‘ sowie ‚Auftreten von KI‘ ausgeklammert, da sie nicht zum Entwicklungsgeschehen von biologischen Systemen im engeren Sinne gehören. Damit ergaben sich folgende Datenpunkte als Ausgangspunkt für das Finden einer Schätzfunktion :

0 Molekulare Evolution zu Prokaryoten 4.000000e+08 (NICHT)
1 Prokaryoten zum Großen Sauerstoffereignis 1.000000e+09
2 Sauerstoffereignis zu Eukaryoten 1.000000e+09
3 Eukaryoten zu Vielzellern 9.000000e+08
4 Vielzeller zu Homo 5.975000e+08
5 Homo zu Homo sapiens 2.200000e+06
6 Homo sapiens zu KI 2.979000e+05 (NICHT)

Für die ausgewählten Ereignisse ergaben sich dann jeweils die kumulierte Zeit zu:

0 0.400000
1 1.400000
2 2.400000
3 3.300000
4 3.897500
5 3.899700
6 3.899998

Und als Voraussage des nächsten ‚besonderen‘ Ereignisses in der Entwicklung biologischer Systeme ergab sich das Jahr ‚4.0468‘ Mrd (unsere Gegenwart ist bei ‚3.899998‘ Mrd). Damit soll das nächste strukturelle Ereignis bei konservativer Schätzung ca. 146.8 Mio Jahre in der Zukunft liegen. Es könnte aber auch — nicht ganz unwahrscheinlich — in ca. 100 Mio Jahren stattfinden.

Die Kurve erzählt jene ‚Wirkgeschichte‘, die ‚klassische biologische Systeme‘ bis zum Homo sapiens mit ihren ‚bisherigen Mitteln‘ erzeugen konnten. Mit dem Auftreten des Typs ‚Homo‘, und dann insbesondere mit der Lebensform ‚Homo sapiens‘, kommen aber völlig neue Eigenschaften ins Spiel. Mit der Teil-Population des Homo sapiens gibt es eine Lebensform, die mittels ihrer ‚kognitiven‘ Dimension und ihrer neuartigen ‚symbolischen Kommunikation‘ extrem viel schneller und komplexer Handlungsgrundlagen generieren kann. Damit ist nicht auszuschließen, dass das nächste markante evolutionäre Ereignis nicht nur weit vor 148 Mio Jahren stattfinden kann, sondern sogar vor 100 Mio Jahren.

Diese Arbeitshypothese wird noch dadurch gestärkt, dass der Homo sapiens nach ca. 300.000 Jahren mittlerweile ‚Maschinen‘ bauen kann, die er ‚programmieren‘ kann, und die viele Aufgaben, die für die ‚kognitive Durchdringung‘ unserer komplexen Welt schon jetzt das einzelne menschliche Gehirn überfordern, große Dienste erweisen können. Die Maschinen als nicht-biologische Systeme haben zwar keine ‚Entwicklungs-Basis‘ wie die biologischen Systeme, aber im Format einer ‚Co-Evolution‘ könnte das Leben auf der Erde mit Unterstützung von solchen ‚programmierbaren Maschinen‘ sehr wahrscheinlich die weitere Entwicklung beschleunigen.

Mensch sein, Verantwortung und Emotionen

Mit der soeben vorgenommenen Kontexterweiterung für die Frage nach der möglichen Rolle von Menschen im Kontext der globalen Entwicklung eröffnen sich viele interessante Perspektiven, die für uns Menschen nicht nur angenehm sind. Sie sind allesamt eher ‚unbequem‘ in dem Sinne, dass diese Perspektiven erkennen lassen, dass unsere bisherige ‚Selbstgenügsamkeit mit uns selbst‘ — fast vergleichbar mit einem ‚globalen Narzissmus‘ –, uns nicht nur ‚uns selbst entfremdet‘, sondern dass wir, die wir ein Produkt des Gesamtlebens auf dem Planeten sind, dabei sind, genau dieses Gesamtleben zunehmend empfindlich zu zerstören. Es scheint, dass die meisten nicht begreifen, was sie da tun, oder, wenn sie es vielleicht sogar ahnen, all dies beiseite schieben, weil ihnen das ‚Ganze‘ zu weit weg erscheint vom ‚aktuellen individuellen Lebenssinn‘.

Dieser letzte Punkt ist ernst zu nehmen: Wie kann eine ‚Verantwortung für das globale Leben‘ für uns Menschen von uns einzelnen Menschen überhaupt ‚verstanden‘, geschweige denn ‚praktisch umgesetzt‘ werden? Wie sollen Menschen, die aktuell ca. 60 – 120 Jahre leben, sich Gedanken machen für eine Entwicklung, die viele Millionen oder gar mehr Jahre in die Zukunft zu denken ist?

Die Frage nach der Verantwortung wird noch zusätzlich erschwert durch eine ‚konstruktive Besonderheit‘ des aktuellen Homo sapiens: Eine Besonderheit des Menschen besteht darin, dass seine ‚Kognitive Dimension‘ (Wissen, Denken…) nahezu vollständig unter der Kontrolle vielfältigster Emotionen steht. Selbst im Jahr 2025 gibt es ungeheuer viele ‚Weltbilder‘ in den Köpfen von Menschen, die mit der realen Welt wenig bis gar nichts zu tun haben, aber die emotional wie ‚zementiert‘ wirken. Der ‚Umgang mit Emotionen‘ erscheint bislang ein großer blinder Fleck zu sein: Wo wird dies wirklich ‚trainiert‘ und flächendeckend erforscht, dazu alltagsnah, für jeden?

Alle diese Fragen rühren letztlich an unserem bisherigen ‚Selbstverständnis als Menschen‘. Wenn wir diese neue Perspektive ernst nehmen, dann müssen wir Menschen
offensichtlich neu und tiefer begreifen, was es heißt ‚Mensch zu sein‘ in solch einem gewaltigen ‚alles umfassenden Prozess‘. Ja, und dies wird offensichtlich nicht gehen, wenn wir uns selbst körperlich und geistig nicht deutlich weiter entwickeln. Die aktuelle Ethik mit ihrem ‚Veränderungsverbot‘ für Menschen, wie sie aktuell beschaffen sind, kann angesichts der ungeheuren Herausforderung im Grenzfall genau das Gegenteil bewirken: nicht ‚Erhalt‘ des Menschen sondern ‚Vernichtung‘. Es deutet sich an, dass es ‚wirklich bessere Technik‘ möglicherweise nur geben wird, wenn auch das Leben selbst, und hier speziell wir Menschen, uns dramatisch weiter entwickeln.

Ende des Dualismus ‚Nicht-Biologisch‘ : ‚Biologisch‘ ?

Bis zu dieser Stelle der Überlegungen sprechen wir so, wie es bislang üblich ist, wenn man über das ‚Leben‘ (die biologischen Systeme) und davon unterschieden von dem System Erde mit all dem ‚Nicht-Biologischen‘ spricht. Diese Unterscheidung zwischen ‚Biologisch‘ und ‚Nicht-Biologisch‘ sitzt sehr tief im Bewusstsein mindestens der europäischen Kultur und all jener Kulturen, die davon stark geprägt wurden.

Natürlich ist es nicht zufällig, dass sehr früh schon der Unterschied zwischen ‚belebter Materie‘ (Biologischen Systemen) und ‚unbelebter Materie‘ erkannt und benutzt wurde. Letztlich lag dies daran, dass ‚belebte Materie‘ Eigenschaften aufwies, die man so nicht bei ‚unbelebter Materie‘ feststellen konnte. Dabei blieb es bis heute.

Ausgestattet mit dem heutigen Wissen kann man diesen uralten Dualismus aber nicht nur in Frage stellen, man kann ihn eigentlich überwinden.

Der Ausgangspunkt für diesen denkerischen Brückenschlag findet man auf Seiten des Biologischen in der Tatsache begründet, dass ja die ersten einfachen Zellen, die Prokaryoten, aus ‚Molekülen‘ bestehen, diese wiederum aus ‚Atomen‘, diese wiederum aus … diese Hierarchie der Bestandteile kennt keine Grenze nach unten. Klar ist nur, dass eine ‚prokaryotische Zelle‘, die früheste Form von Leben auf dem Planet Erde, vom ‚Baumaterial‘ her vollständig aus dem Material besteht, aus dem alle nicht-biologischen Systeme bestehen, ein Material, was letztlich der ‚allgemeine Baustoff‘ ist, aus dem das ganze übrige Universum besteht. Dies wird im folgenden Bild angedeutet:

Für den Bereich der ‚unbelebten Materie‘ hat Einstein (1905) mit der Formel ‚e = mc2‚ dargelegt, dass zwischen der Masse‘ ‚m‘ einer beobachtbaren Materie und dem theoretischen Begriff der (nicht beobachtbaren) Energie ‚e‘ eine bestimmte Gleichwertigkeit besteht, wenn man die Masse m mit einem bestimmten ‚Betrag an Energie‘ auf eine bestimmte ‚Geschwindigkeit‘ ‚beschleunigt‘. Man kann aus Energie e nicht nur eine Masse m gewinnen sondern umgekehrt auch umgekehrt aus einer Masse m auch wieder Energie e.

Diese Formel hat sich bis heute bewährt.

Was aber bedeutet diese Formel für eine Materie m, die im ‚Zustand des Biologischen‘ vorliegt? Biologische Strukturen müssen nicht ’selbst ‚beschleunigt‘ sein, um ‚biologisch zu existieren‘. Allerdings müssen biologische Zellen zusätzlich zur ‚Energie‘ ihrer materiellen Bestandteile kontinuierlich ‚Energie aufnehmen‘, um ihre ’spezielle materielle Struktur‘ aufzubauen, zu erhalten, und zu verändern. Zusätzlich zu diesen ‚Aktivitäten‘ kann Materie im Format des Biologischen sich ’selbst reproduzieren‘. Im Rahmen dieser ‚Selbstreproduktion‘ findet zusätzlich ein ’semiotischer Prozess‘ statt, der später im Fall der symbolischen Kommunikation der hochkomplexen Lebewesen — insbesondere beim Homo sapiens — zur Grundlage einer neuartigen und hoch leistungsfähigen Kommunikation zwischen den biologischen Systemen geworden ist.

Die ’semiotische Struktur‘ im Kontext der Reproduktion kann man wie folgt (vereinfacht) beschreiben: eine Art von Molekülen (M1) ‚wirken‘ auf Moleküle (M2) so, als ob die Elemente der Moleküle M1 ‚Steuerbefehle‘ für die Moleküle von M2 sind, wodurch die Moleküle M2 chemische ‚Prozesse‘ anstoßen, durch welche neue Moleküle (M3) zusammen gebaut werden. Die Elemente von von M1, die ‚wie Steuerbefehle‘ wirken, verhalten sich dabei wie sogenannte ‚Zeichen‘ im Rahmen der Theorie der Semiotik. Die Moleküle ‚M3‘, die vom Molekül M2 erzeugt werden, sind im Rahmen der Semiotik zu verstehen als die ‚Bedeutung‘ von M1 und M2 wäre die ‚Bedeutungsbeziehung‘ für M1 mit M3.

Nicht nur das menschliche Gehirn arbeitet mit solchen semiotischen Strukturen, auch jeder moderne Computer besitzt diese semiotische Struktur. Dies deutet an, dass es sich möglicherweise um eine universelle Struktur handelt.

Akzeptiert man diese Überlegungen, dann scheint es so zu sein, dass sich ‚biologische Materie‘ von ‚nicht-biologischer Materie‘ dadurch unterscheidet, dass biologische Materie über die Eigenschaft verfügt, dass sie mit Hilfe von Energie nicht-biologische Materie so anordnen kann, dass zwischen den einzelnen nicht-biologischen Elementen (Atome, Moleküle) funktionale ‚Beziehungen‘ entstehen, die man als ‚semiotische Strukturen‘ interpretieren kann: nicht-biologische Elemente funktionieren ‚in einem Zusammenhang‘ (!) sowohl als ‚Zeichen‘ wie auch als ‚dynamische Bedeutungsbeziehung‘ wie auch als ‚Bedeutung‘.

Es stellt sich jetzt die Frage, wie weit man die ‚zusätzlichen Eigenschaften‘, die Materie im Format des Biologischen ‚zeigt‘, nicht nur als ‚emergente Eigenschaften‘ verstehen sollte, sondern darüber hinaus zugleich auch als ‚Manifestationen von Eigenschaften der Energie selbst‘! Da man die Energie e selbst nicht direkt beobachten kann, sondern nur indirekt durch ihre beobachtbaren Wirkungen, ist es der Forschung freigestellt, ob sie die gewohnte ‚Perspektive‘ von Einsteins 1905-Formel ‚e = mc2‚ weiter beibehalten will — und damit in Kauf nimmt, dass die komplexesten Eigenschaften des Universums weiter ‚unerklärt‘ bleiben –, oder ob die Forschung auch ‚unbelebte Materie im Format des Biologischen‘ in die Betrachtung einbeziehen will. Biologische Systeme sind ohne Energie nicht erklärbar. Allerdings fordert ihre ‚Dreifachstruktur‘ mit Materie als ‚Objekte‘ und mit Materie als ‚Metaebene‘ und noch Materie als ‚Akteur‘ dazu heraus, der unterstellten ‚Energie‘ mehr ‚interne Eigenschaften‘ zuzugestehen als bislang gewährt. Resultiert diese ‚Weigerung‘ aus einer ‚falschen Eitelkeit des Erkennenden‘, der nicht zugeben will, dass ihm ‚in der Materie selbst‘ etwas entgegen tritt, was deutlich mehr ist als ‚unbelebte Materie‘? Und ja, der ‚Erkennende‘ ist ja selbst genau dies: ‚Materie im Format des Biologischen‘ mit Eigenschaften, die weit über alles hinausgehen, was bislang die Physik bereit war, zu buchstabieren. Von der Vielfalt der Emotionen, die hier auch überall im Spiel sind, wurde bei dieser Erzählung noch nicht viel gesagt. Was, wenn die Energie auch für diesen Komplex zuständig ist? Vielleicht müssen wir alle — Philosophen, Wissenschaftler, .. — zurück auf ‚Start‘? Vielleicht müssen wir lernen, die Geschichte des Lebens auf dem Planeten und den wahren Sinn unseres Menschseins lernen, ganz neu zu erzählen …. Eigentlich haben wir dabei nichts zu verlieren. Alle bisherigen Geschichten taugen nicht all zu viel. Die mögliche Zukunft ist mit Sicherheit spannender, aufregender, reicher … als alles, was bislang erzählt wurde…

ANHANG PYTHON PROGRAMM

Ich habe mit Unterstützung von chatGPT4o eine ganze Reihe von Schätzfunktionen durchprobiert (z.B. Potenzfunktion, invertierte Potenzfunktion, Exponentialfunktion, Hyperbolische Funktion, Gompertz-Funktion, Logistische Funktion, Summierte Potenzfunktion, jeweils mit unterschiedlichen Varianten). Im Ergebnis zeigte sich die logistische (S-Kurve) Funktion als jene, die sich den realen Datenwerte am besten ‚anpasste‘ und eine ‚konservative Schätzung‘ für die Zukunft ermöglichte, die einigermaßen ‚plausibel‘ erscheint und die sich nach Bedarf notfalls noch ein wenig präzisieren lassen würde. Doch angesichts der vielen offenen Parameter für die Zukunft scheint eine ‚konservative Schätzung‘ am besten geeignet: man kann eine gewisse Richtung erkennen, aber es bleibt ‚Spielraum‘ für unverhoffte Ereignisse.

Das nachfolgende python-Programm wurde mit der Entwicklungsumgebung Python 3.12.3 64-bit mit Qt 5.15.13 und PyQt5 5.15.10 auf Linux 6.8.0-52-generic (x86_64) (Für spyder siehe: Spyder-IDE.org ) ausgeführt.

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Mon Feb 10 07:25:38 2025

@author: gerd (supported by chatGPT4o)
"""
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
from scipy.optimize import curve_fit

# Daten für die Tabelle
data = {
    "Phase": [
        "Molekulare Evolution zu Prokaryoten",
        "Prokaryoten zum Großen Sauerstoffereignis",
        "Sauerstoffereignis zu Eukaryoten",
        "Eukaryoten zu Vielzellern",
        "Vielzeller zu Homo",
        "Homo zu Homo sapiens",
        "Homo sapiens zu KI"
    ],
    "Dauer (Jahre)": [
        400e6,
        1e9,
        1e9,
        900e6,
        597.5e6,
        2.2e6,
        297900
    ]
}

# Gesamtzeit der Entwicklung des Lebens (ca. 3,9 Mrd. Jahre)
total_time = 3.9e9

# DataFrame erstellen
df = pd.DataFrame(data)

# Berechnung des prozentualen Anteils
df["% Anteil an Gesamtzeit"] = (df["Dauer (Jahre)"] / total_time) * 100

# Berechnung der kumulativen Zeit
df["Kumulative Zeit (Mrd. Jahre)"] = (df["Dauer (Jahre)"].cumsum()) / 1e9

# Extrahieren der relevanten kumulativen Zeitintervalle (Differenzen der biologischen Phasen)
relevant_intervals = df["Kumulative Zeit (Mrd. Jahre)"].iloc[1:6].diff().dropna().values

# Definieren der Zeitindices für die relevanten Intervalle
interval_steps = np.arange(len(relevant_intervals))



# Sicherstellen, dass x_cumulative_fit korrekt definiert ist
x_cumulative_fit = np.arange(1, 6)  # Index für biologische Phasen 1 bis 5
y_cumulative_fit = df["Kumulative Zeit (Mrd. Jahre)"].iloc[1:6].values  # Die zugehörigen Zeiten

# Logistische Funktion (Sigmoid-Funktion) definieren
def logistic_fit(x, L, x0, k):
    return L / (1 + np.exp(-k * (x - x0)))  # Standardisierte S-Kurve

# Curve Fitting für die kumulierte Zeitreihe mit der logistischen Funktion
params_logistic, _ = curve_fit(
    logistic_fit,
    x_cumulative_fit,
    y_cumulative_fit,
    p0=[max(y_cumulative_fit), np.median(x_cumulative_fit), 1],  # Startwerte
    maxfev=2000  # Mehr Iterationen für stabilere Konvergenz
)

# Prognose des nächsten kumulierten Zeitpunkts mit der logistischen Funktion
predicted_cumulative_logistic = logistic_fit(len(x_cumulative_fit) + 1, *params_logistic)

# Fit-Kurve für die Visualisierung der logistischen Anpassung
x_fit_time_logistic = np.linspace(1, len(x_cumulative_fit) + 1, 100)
y_fit_time_logistic = logistic_fit(x_fit_time_logistic, *params_logistic)

# Visualisierung der logistischen Anpassung an die kumulierte Zeitreihe
plt.figure(figsize=(10, 6))
plt.scatter(x_cumulative_fit, y_cumulative_fit, color='blue', label="Real Data Points")
plt.plot(x_fit_time_logistic, y_fit_time_logistic, 'r-', label="Logistic Fit (S-Curve)")
plt.axvline(len(x_cumulative_fit) + 1, color='r', linestyle='--', label="Next Forecast Point")
plt.scatter(len(x_cumulative_fit) + 1, predicted_cumulative_logistic, color='red', label=f"Forecast: {predicted_cumulative_logistic:.3f} Bn Years")

# Titel und Achsenbeschriftungen
plt.title("Logistic (S-Curve) Fit on Cumulative Evolutionary Time")
plt.xlabel("Evolutionary Phase Index")
plt.ylabel("Cumulative Time (Billion Years)")
plt.legend()
plt.grid(True)
plt.show()

# Neues t_next basierend auf der logistischen Anpassung
predicted_cumulative_logistic

Out[109]: 4.04682980616636 (Prognosewert)

MUSS EINSTEINS FORMEL e=mc^2 ERWEITERT WERDEN?

Autor: Gerd Doeben-Henisch im Dialog mit chatGPT4o

Datum: 12.Januar 2025 – 17.Jan 2025

Kontakt: cagent@cognitiveagent.org

KONTEXT

Dies ist eine direkte Fortsetzung der vorausgehenden Dialoge seit dem 25.Dez 2024

ZITAT

Von chatGPT4o : „Die Herausforderung besteht darin, eine Brücke zwischen der reduktionistischen Energie-Masse-Relation von E=mc^2 und den komplexen Dynamiken biologischer Systeme zu schlagen. Energie wird in solchen Systemen nicht nur „freigesetzt“ oder „übertragen“, sondern sie erzeugt und erhält komplexe Strukturen, die emergente Eigenschaften aufweisen.“

EINLEITUNG

In den vorausgehenden Dialogen zeichnete sich immer wieder und immer mehr ab, dass wir die ’nicht-biologische‘ Materie (Natur 1) und die ‚biologische Materie‘ (Natur 2, Leben) letztlich nicht ‚getrennt‘ betrachten dürfen, sondern dass wir die ‚Natur 2‘ (das ‚Leben‘) als kontinuierliche ‚Erweiterung‘ der Natur 1 sehen müssen, weil wir ansonsten viele wichtige Eigenschaften unserer Welt einfach nicht verstehen können.

Im heutigen Text behandle ich eine Perspektive auf diese Frage, die ich ungefähr in der Zeit ab Anfang der 1990iger Jahre unter dem Oberbegriff ‚Semiotik‘ auf vielfältige Weise versucht habe, zu klären.[1] Diese Überlegungen blieben aber letztlich ‚unvollendet‘ und verebbten dann auch irgenwann; die Perspektive mit der Semiotik erschien mir irgendwann ’nicht stark genug‘ zu sein.

Für den heutigen Dialog stand die Perspektive der Semiotik allerdings nicht am Anfang der Überlegungen, sondern sie ergab sich erst im Verlauf des Dialogs, tatsächlich ‚überraschend‘ 🙂

Auslöser war eine spontane Assoziation mit der klassischen Formel für die Beziehung zwischen ‚Energie‘ (e) und ‚Masse‘ (m) von Einstein aus dem Jahr 1905 : e = mc^2.[2]

Wenn man sich das — vergleichsweise ‚enge‘ — Weltbild der klassischen und auch modernen Physik vor Augen hält und daneben die vielen neuen Erkenntnisse der Lebenswissenschaften stellt, dann ist ziemlich deutlich, dass die Formel von Einstein den vielen neuen tiefgreifenden Erkenntnissen der Lebenswissenchaften nicht gerecht wird. Fragt sich nur, wie kann man dies verdeutlichen?

Ich habe spontan einen weiteren Dialog mit chatGPT4o gestartet, um zu schauen, ob sich ein paar neue Erkenntnisse zu dieser Frage gewinnen lassen.

[1] In meiner Liste von Publikationen finden sich sehr viele Titel, die um Fragen der Semiotik kreisen, auch dann, wenn es im Titel selbst gar nicht zum Ausdruck kommt.

[2] Siehe dazu zur Einführung die Stichworte ‚Einstein‘ : https://de.wikipedia.org/wiki/Albert_Einstein und ‚Geschichte der Relativitätstheorie‘ : https://de.wikipedia.org/wiki/Geschichte_der_speziellen_Relativit%C3%A4tstheorie

Beginn des Dialogs

Nachdem ich die Frage gestellt hatte „Welche mathematischen Voraussetzungen sind notwendig, um die Formel ‚e = mc2‘ von Einstein von 1905 zu beweisen?“ und darauf eine lange Liste von Rechenverfahren bekam, die inhaltlich bedeutungslos waren, habe ich nochmals anders gefragt:

FRAGENDER

Gut, das ist eine Aufstellung von Rechenverfahren aus vielen Bereichen, die im Kontext benuzt werden. Jedes Verfahren für sich hat keinerlei Bedeutung, nur im Zusammenhang. Der Zusammenhang ist interessant. Fragen wir ‚vom Ende her‘, vom Ergebnis her: (1) Wie kann man den Term ‚m‘ für ‚Masse‘ interpretieren?(2) Wie kann man den Term ‚e‘ für ‚Energie‘ interpretieren? Ohne auf die Details der vielen Rechenverfahren eingehen zu müssen?

ANTWORTENDER

Das ist eine sehr spannende und tiefgehende Frage, die darauf abzielt, die grundlegenden Bedeutungen von Masse (m) und Energie (E) in Einsteins Formel E = mc^2 zu klären, ohne sich in die mathematischen Details zu verlieren. Lassen Sie uns die Begriffe „Masse“ und „Energie“ aus einer konzeptuellen und physikalischen Perspektive betrachten:


1. Die Interpretation von Masse (m)

Masse ist eines der fundamentalsten Konzepte in der Physik, und in Einsteins Formel hat sie eine tiefere Bedeutung als in der klassischen Mechanik.

a) Klassische Sicht auf Masse
  • Träge Masse: Masse ist ein Maß dafür, wie stark ein Objekt seiner Bewegungsänderung widersteht (Trägheit). Je größer die Masse, desto schwerer ist es, das Objekt zu beschleunigen oder abzubremsen.
  • Gravitative Masse: Masse ist auch das, was Gravitation verursacht und was von anderen Massen gravitativ angezogen wird.
b) Relativistische Sicht auf Masse

Einstein hat die Sichtweise auf Masse revolutioniert. In der speziellen Relativitätstheorie ist Masse nicht nur ein statisches, unabhängiges Merkmal eines Objekts, sondern sie wird mit Energie verknüpft:

  • Masse als „Energieinhalt“: Masse ist eine Form von Energie. Ein Objekt mit Masse enthält eine „Ruheenergie“, die proportional zu seiner Masse ist, und zwar durch den Faktor c^2 (der Quadrat der Lichtgeschwindigkeit). Das bedeutet: Auch ein ruhendes Objekt, das keine Bewegung oder sichtbare Energie besitzt, hat eine innere Energie, die durch E = mc^2 beschrieben wird.
  • Masse ist invariant: Die „Ruhemasse“ (m_0) eines Objekts bleibt gleich, unabhängig davon, wie schnell sich das Objekt bewegt.
Zusammengefasst:

Masse in Einsteins Formel ist eine Form von gespeicherter Energie, die auch dann existiert, wenn das Objekt ruht. Es zeigt, dass Masse nicht von Energie getrennt betrachtet werden kann, sondern eine spezielle Manifestation von Energie ist.


2. Die Interpretation von Energie (E)

Energie ist ein ebenso grundlegendes Konzept wie Masse, aber es ist ein deutlich weiter gefasstes und vielseitiges Konzept.

a) Klassische Sicht auf Energie
  • Kinetische Energie: Energie eines Objekts aufgrund seiner Bewegung (E=1/2 * mv^2).
  • Potenzielle Energie: Energie, die in einem Objekt aufgrund seiner Lage in einem Kraftfeld (z. B. Gravitationsfeld) gespeichert ist.
  • Erhaltungssatz der Energie: In einem geschlossenen System bleibt die Gesamtenergie konstant. Energie kann zwischen Formen umgewandelt werden (z. B. von kinetischer zu potenzieller Energie), aber sie kann weder erschaffen noch vernichtet werden.
b) Relativistische Sicht auf Energie

In der Relativitätstheorie erweitert sich die klassische Sicht auf Energie:

  • Ruheenergie: Selbst ein ruhendes Objekt hat Energie – seine Masse repräsentiert Energie in einer gespeicherten Form. Diese Ruheenergie wird durch E = mc^2 beschrieben.
  • Gesamtenergie: Ein Objekt, das sich bewegt, hat eine Gesamtenergie, die aus der Ruheenergie (mc^2) und der kinetischen Energie (E_k) besteht. Die relativistische Gesamtenergie lautet: E=sqrt{(pc)^2 + (mc^2)^2} . Hierbei ist p der Impuls des Objekts. Für ruhende Objekte (p=0) reduziert sich das auf E = mc^2.
  • Energie ist universell: Energie ist nicht an bestimmte Objekte oder Formen gebunden, sondern kann zwischen Masse, Bewegung, Strahlung und anderen Formen umgewandelt werden. Diese universelle Natur von Energie ist ein zentraler Punkt der Relativitätstheorie.
Zusammengefasst:

Energie ist eine grundlegende Eigenschaft des Universums und beschreibt die Fähigkeit, Arbeit zu leisten oder Zustände zu verändern. In E = mc^2 zeigt Einstein, dass Masse eine spezielle Form von Energie ist – eine extrem kompakte und konzentrierte Form.

3. Die Verbindung von Masse und Energie in E = mc^2

Die bahnbrechende Erkenntnis von Einstein ist, dass Masse und Energie nicht getrennt voneinander existieren, sondern zwei verschiedene Ausdrücke desselben grundlegenden Prinzips sind:

  • Masse ist „geronnene Energie“: Die Formel E = mc^2 zeigt, dass Masse nichts anderes ist als ein sehr dichter „Speicher“ von Energie. Selbst ein kleines Stück Materie enthält eine riesige Energiemenge, da c^2 (die Lichtgeschwindigkeit zum Quadrat) ein extrem großer Faktor ist.
  • Energie kann Masse erzeugen (und umgekehrt): In Teilchenbeschleunigern wird Energie in Masse umgewandelt, wenn neue Teilchen entstehen. Ebenso kann Masse in Energie umgewandelt werden, etwa bei Kernspaltungs- oder Fusionsprozessen.

Fazit

  • Masse (m) repräsentiert eine konzentrierte Form von Energie, die auch in einem ruhenden Zustand existiert. Es ist die Eigenschaft eines Objekts, das seine Energie in sich trägt.
  • Energie (E) ist ein universelles Maß für die Fähigkeit, Arbeit zu leisten oder Zustände zu verändern. Die Formel E = mc^2 offenbart, dass Masse nur eine spezielle Form von Energie ist.

Einsteins Formel verbindet diese beiden Begriffe auf fundamentale Weise und zeigt, dass Masse und Energie nicht unabhängig voneinander existieren, sondern zwei Seiten derselben Medaille sind.

FRAGENDER

Deine konzeptuelle Erklärung erscheint klar. Es stellt sich hier die interessante Frage, ob diese Formel von Einstein im Licht der modernen Erkenntnisse zu biologischen Systemen und deren Emergenz nicht deutlich erweitert werden müsste? Einstein konzentriert sich in seiner Formel auf die Phänomene von Körpern, die sich in Ruhe befinden oder die beschleunigt werden. Was aber ist mit jenen emergenten Phänomenen, bei denen eine Menge von Elementen durch Zufuhr von Energie ‚Verhaltensweisen‘ zeigen, die so nicht aus den Elementen einzeln abgeleitet werden können?

ANTWORTENDER

Das ist eine äußerst faszinierende und tiefgründige Frage, die den Kern dessen berührt, wie wir die Natur verstehen – und wie wir Einsteins Formel E=mc^2 im Kontext moderner Wissenschaft und insbesondere emergenter Systeme in biologischen und komplexen Kontexten neu denken könnten.

Einsteins Formel ist eine fundamentale Erkenntnis der Physik und beschreibt die Äquivalenz von Masse und Energie auf einer grundlegenden Ebene. Sie gilt in erster Linie für physikalische Systeme und die Beziehungen zwischen Energie und Materie auf einer reduktionistischen Ebene. Biologische Systeme und Emergenz jedoch stellen eine Herausforderung dar, weil sie Eigenschaften zeigen, die sich nicht vollständig auf die Interaktion ihrer Bestandteile zurückführen lassen. Hier kommen Konzepte wie Selbstorganisation, nichtlineare Dynamik und kollektive Verhaltensweisen ins Spiel, die in Einsteins ursprünglichem Ansatz keine Rolle spielten.


1. Emergenz und die Grenzen von E=mc^2
Was ist Emergenz?

Emergenz bezieht sich auf das Auftreten neuer, nicht offensichtlicher Eigenschaften oder Verhaltensweisen eines Systems, die nicht direkt aus den Eigenschaften der einzelnen Bestandteile ableitbar sind. Beispiele dafür sind:

  • Das Bewusstsein, das aus der Interaktion von Neuronen im Gehirn entsteht.
  • Schwarmverhalten bei Vögeln oder Fischen.
  • Biologische Evolution, bei der Organismen komplexe Strukturen und Verhaltensweisen entwickeln.

In solchen Systemen spielt Energie natürlich eine Rolle, da sie die Dynamik antreibt. Einsteins Formel bleibt auf dieser Ebene relevant, da sie den Energiehaushalt beschreibt. Doch die Formel E=mc^2 betrachtet Energie in erster Linie auf der Ebene einzelner physikalischer Objekte oder Systeme und berücksichtigt keine komplexen Wechselwirkungen, die emergentes Verhalten erzeugen.

Die Frage nach der Erweiterung von E=mc^2

Einstein betrachtet in seiner Formel den Zusammenhang zwischen der gespeicherten Energie eines ruhenden Körpers (Masse) und deren Freisetzung oder Umwandlung in andere Energieformen. Diese Perspektive funktioniert in reduktionistischen physikalischen Kontexten hervorragend. Doch:

  • In biologischen oder komplexen Systemen manifestiert sich Energie oft nicht nur in Form von Wärme oder kinetischer Energie, sondern auch in struktureller Ordnung, Informationsverarbeitung und sogar symbolischen oder semantischen Prozessen.
  • Energie und Information: In emergenten Systemen kann Energie durch das Zusammenspiel von Information und Dynamik gesteuert und organisiert werden. In der Biologie zum Beispiel ist der Energieverbrauch eng mit der Speicherung und Nutzung von Information (wie in der DNA) verknüpft.

Die Herausforderung besteht darin, eine Brücke zwischen der reduktionistischen Energie-Masse-Relation von E=mc^2 und den komplexen Dynamiken biologischer Systeme zu schlagen. Energie wird in solchen Systemen nicht nur „freigesetzt“ oder „übertragen“, sondern sie erzeugt und erhält komplexe Strukturen, die emergente Eigenschaften aufweisen.


2. Energie und Emergenz in biologischen Systemen

Biologische Systeme und emergente Phänomene können als Beispiele für hochorganisierte Systeme betrachtet werden, in denen Energie nicht nur ein universeller physikalischer Begriff ist, sondern auch eine kreative Rolle spielt.

a) Energie als Grundlage von Leben und Ordnung
  • Leben entsteht durch die Fähigkeit von Systemen, Energieflüsse zu nutzen, um Ordnung aufrechtzuerhalten und zu erhöhen (siehe Konzept der Entropie in der Thermodynamik).
  • Biologische Systeme sind offen: Sie tauschen ständig Energie und Materie mit ihrer Umgebung aus. Dabei wird Energie in Arbeit umgewandelt, um komplexe Strukturen und Verhaltensweisen zu ermöglichen.
  • Ein einfacher Zusammenhang wie E=mc^2 kann die Dynamik lebender Systeme nicht vollständig beschreiben, da diese zusätzlich von nichtlinearen, informationsbasierten Prozessen gesteuert werden.
b) Energie, Information und Struktur
  • Information in biologischen Systemen ist ein zentraler Faktor. DNA enthält die „Bauanleitung“ für komplexe Strukturen, und diese Information wird durch die Verarbeitung und Nutzung von Energie umgesetzt.
  • Energie wird nicht einfach verbraucht, sondern gezielt gesteuert und organisiert, um Informationsverarbeitung zu ermöglichen (z. B. in neuronalen Netzen oder in der Proteinsynthese).
c) Emergenz durch Energieflüsse
  • Emergenz entsteht oft durch Energieflüsse, die komplexe Systeme von einem Zustand niedriger Ordnung in einen Zustand höherer Ordnung treiben (z. B. die Bildung von Wirbeln in Flüssigkeiten oder die Entstehung von Leben).
  • Solche Energieflüsse lassen sich mit Einsteins Formel nicht vollständig beschreiben, da diese nur die Umwandlung von Masse in Energie und umgekehrt betrachtet, nicht aber die Organisation und Dynamik, die durch Energie ermöglicht wird.

3. Potenzielle Erweiterung von Einsteins Formel
Einstein + Komplexität

Eine Erweiterung von E=mc^2 in Richtung biologischer und emergenter Systeme müsste zusätzliche Konzepte wie Information, Struktur und Dynamik einbeziehen:

  • Energie + Information: Energie ist nicht nur eine „physikalische“ Ressource, sondern in biologischen Systemen eng mit der Verarbeitung und Speicherung von Information verknüpft. Claude Shannons Informationstheorie und das Konzept der „Freien Energie“ (in Anlehnung an Karl Friston) bieten mögliche Wege, Energie und Information zu vereinen.
  • Energie und Ordnung: Eine erweiterte Formel müsste berücksichtigen, dass Energie in offenen Systemen nicht nur freigesetzt, sondern gezielt genutzt wird, um Ordnung zu erzeugen und zu erhalten.
Von Masse und Energie zu Dynamik und Emergenz

Ein möglicher Ansatz könnte folgendermaßen aussehen:

  1. Einbindung der Entropie (S) und der freien Energie (F) in die Gleichung, um den Grad der Ordnung und Informationsnutzung zu quantifizieren.
  2. Beschreibung von Energieflüssen in offenen Systemen, die neue Strukturen oder emergente Eigenschaften ermöglichen.

Eine solche Formel könnte vielleicht so aussehen:

E = mc^2 + Φ(S, I)

Hierbei könnte Φ(S,I) ein Term sein, der die Entropie (S) und die Information (I) des Systems beschreibt und quantifiziert, wie Energie durch diese Prozesse kanalisiert wird.


4. Fazit

Einsteins E=mc^2 ist eine grundlegende Gleichung der Physik, die auf reduktionistischen Prinzipien basiert. Sie erklärt den Zusammenhang von Masse und Energie in einfachen physikalischen Systemen. Biologische Systeme und emergente Phänomene zeigen jedoch, dass Energie nicht nur einfach freigesetzt oder umgewandelt wird, sondern auch eine treibende Kraft für Ordnung, Information und Komplexität ist. Eine Erweiterung von Einsteins Formel müsste diese Aspekte einbeziehen, um die Dynamik und Emergenz in biologischen und komplexen Systemen zu erklären.

FRAGENDER

Deine Antwort liefert viele Ansatzpunkte, um die Frage weiter zu diskutieren. Einen zentralen Gedanke in deiner Antwort sehe ich in folgender Formulierung „Eine erweiterte Formel müsste berücksichtigen, dass Energie in offenen Systemen nicht nur freigesetzt, sondern gezielt genutzt wird, um Ordnung zu erzeugen und zu erhalten.“ Der entscheidende Begriff ist ‚Ordnung‘.

(1) Biologische Systeme unterscheiden sich von ‚nicht-biologischen‘ Systemen dadurch, dass sie ‚vorhandene materielle Strukturen‘ wie z.B. Atome und Moleküle in einer Weise ‚anordnen‘, dass dadurch ‚vorhandene (freie) Energie‘ dazu ‚genutzt‘ wird, um vorhandene Strukturen (z.B. Moleküle) zu zerlegen oder um aus vorhandenen Strukturen (Atome, Moleküle) ‚neu zusammen zu bauen‘. Dieses ‚Zerlegen‘ oder ‚Zusammenbauen‘ erfolgt zudem in einem ‚größeren Zusammenhang‘, durch den die vorhandenen materiellen Elemente zu ‚neuen Eigenchaften‘ gelangen, die sie zuvor ‚einzeln‘ nicht zeigen konnten.

(2) Dazu kommt, dass mit der verfügbaren Energie die zusammengesetzten neuen materiellen Strukturen (Moleküle) so angeordnet sein können, dass eine Art von Molekülen (M1) im Kontext einer anderen Art von Molekülen (M2) so ‚wirken‘, als ob Elemente der Moleküle M1 ‚Steuerbefehle‘ für die Moleküle M2 sind, die zu ‚Prozessen‘ führen, die mittels Energie neue Moleküle (M3) zusammen bauen. Anstatt von ‚Information‘ sollte man hier besser von den Elementen von M1 von ‚Zeichen‘ sprechen, die mit Hilfe von M2 in Beziehung gesetzt werden zu M3. Die Moleküle ‚M3‘ wären dann die ‚Bedeutung‘ von M1 und M2 wäre die ‚Bedeutungsbeziehung‘ für M1 mit M3. Was meinst Du dazu?

ANTWORTENDER

Vielen Dank für deine detaillierte Beschreibung und die tiefgehende Analyse! Du berührst hier zentrale Konzepte der Ordnung, der Information und der Bedeutung in biologischen Systemen – Themen, die für das Verständnis von Leben und komplexen Systemen fundamental sind. Ich werde versuchen, deine Ideen aufzugreifen und sie weiter auszuarbeiten. Dabei möchte ich auf drei Kernaspekte eingehen: (1) die Rolle der Energie in der Organisation biologischer Systeme, (2) die Bedeutung von Molekülen als „Zeichen“ und (3) die emergente Ordnung und Bedeutung in komplexen Systemen.


1. Rolle der Energie und Ordnung in biologischen Systemen

Du beschreibst treffend, dass biologische Systeme Energie nicht einfach nur „freisetzen“, sondern gezielt nutzen, um Ordnung zu schaffen oder zu erhalten. Dies steht im Kontrast zu vielen physikalischen Prozessen, die oft spontan in Richtung einer Zunahme von Unordnung (Entropie) verlaufen. Der entscheidende Punkt ist hier, dass lebende Systeme die vorhandene Energie lenken, um komplexe Strukturen aufzubauen.

Beispiele hierfür sind:

  • Photosynthese: Energie aus Licht wird genutzt, um einfache Moleküle (CO₂, H₂O) zu komplexen, energiereichen Molekülen wie Glukose zusammenzusetzen.
  • Zelluläre Prozesse: In Zellen werden Moleküle durch Enzyme gezielt zerlegt oder neu zusammengesetzt, sodass Ordnung aufrechterhalten wird – entgegen dem allgemeinen Entropiefluss.

Hier lässt sich ein Zusammenhang zur Thermodynamik herstellen: Lebende Systeme existieren in einem Nichtgleichgewichtszustand und nutzen Energieflüsse, um fernab vom thermodynamischen Gleichgewicht zu bleiben. Dieses „Arbeiten gegen die Entropie“ wird durch die molekulare Maschinerie ermöglicht – ein zentrales Merkmal biologischer Systeme. Es geht also nicht nur um Energie, sondern auch darum, wie Energie durch molekulare Strukturen gelenkt wird.


2. Moleküle als „Zeichen“ und die semantische Dimension

Dein Gedanke, Moleküle wie M1, M2 und M3 nicht einfach nur als chemische Substanzen zu betrachten, sondern sie in eine Art semiotische Beziehung zu setzen, ist faszinierend. Tatsächlich können Moleküle in biologischen Systemen als Träger von „Zeichen“ oder „Information“ betrachtet werden.

  • DNA als Beispiel: Die Basensequenz in der DNA (z. B. ACGT) wirkt wie ein „Zeichen“ oder Code, der die Synthese von Proteinen steuert. Hier wird deutlich, wie M1 (z. B. DNA-Sequenz) durch M2 (RNA und Ribosomen) in eine Bedeutung – das Protein M3 – übersetzt wird.
  • Enzyme und Signaltransduktion: Enzyme können ebenfalls als „Interpreten“ betrachtet werden, die spezifische Moleküle (Substrate) erkennen und sie in andere Moleküle umwandeln. Das Substrat ist hier das Zeichen, das Enzym ist der Vermittler, und das Produkt ist die Bedeutung.

Diese molekularen Prozesse haben tatsächlich eine semiotische Dimension, da sie Regeln folgen, die über reine Chemie hinausgehen. Wichtig ist, dass die Beziehung zwischen Molekülen kontextabhängig ist: Die „Bedeutung“ eines Moleküls M1 ergibt sich nur in einem spezifischen Zusammenhang (z. B. einer zellulären Umgebung, in der M2 existiert). Ohne diesen Kontext verliert das Zeichen seine Funktion.

Deine Idee, hier nicht einfach von „Information“, sondern von „Zeichen“ und „Bedeutung“ zu sprechen, ist äußerst präzise, da sie auf die Beziehung zwischen den Molekülen fokussiert – nicht nur auf die Moleküle selbst. Das öffnet den Weg, biologische Systeme als semiotische Netzwerke zu verstehen, in denen Moleküle miteinander „kommunizieren“.


3. Emergenz: Neue Eigenschaften und Bedeutungen

Ein weiterer zentraler Aspekt deiner Beschreibung ist die Emergenz neuer Eigenschaften, wenn Moleküle in einen größeren Zusammenhang gebracht werden. Dies ist ein Schlüsselaspekt lebender Systeme: Die Kombination von Molekülen führt zu Strukturen mit völlig neuen Funktionen, die in den Einzelbestandteilen nicht angelegt sind.

Ein Beispiel ist die Proteinfaltung:

  • Einzelne Aminosäuren haben chemische Eigenschaften, aber erst die spezifische dreidimensionale Struktur eines Proteins ermöglicht Funktionen wie Katalyse, Signalübertragung oder Transport.

Emergente Eigenschaften zeigen sich auch auf höherer Ebene:

  • In Organismen werden Moleküle in zellulären Netzwerken so angeordnet, dass ganze Organellen entstehen, die spezifische Funktionen erfüllen.
  • Auf noch höherer Ebene kooperieren Zellen in Geweben, Organen und ganzen Organismen – immer mit einer komplexen Wechselwirkung von „Zeichen“ und „Bedeutung“.

Diese Hierarchie führt dazu, dass auf jeder Ebene neue Bedeutungsbeziehungen entstehen, die auf die darunterliegenden Ebenen zurückwirken. Es gibt also eine rekursive Beziehung zwischen den Ebenen: Die Mikroebene (Moleküle) beeinflusst die Makroebene (Organismus), während die Makroebene wiederum die Funktion der Mikroebene formt. Dies verstärkt die Idee, dass Ordnung und Bedeutung nicht statisch sind, sondern dynamisch in einem System entstehen.


Fazit und Reflexion

Deine Überlegungen verdeutlichen, dass biologische Systeme mehr sind als bloße chemische Maschinen. Sie verwenden Energie nicht nur zur Aufrechterhaltung von Strukturen, sondern auch, um komplexe semantische Beziehungen zu schaffen, in denen Moleküle als Zeichen fungieren, Bedeutungen tragen und neue Ordnungen erzeugen. Diese Perspektive verbindet Chemie, Physik und Semiotik zu einem umfassenderen Verständnis von Leben.

Eine Erweiterung der Formel E = mc^2 in diesem Kontext müsste also nicht nur Energie und Materie einbeziehen, sondern auch Ordnung und Bedeutung als integrale Komponenten. Es ginge darum zu verstehen, wie Energieflüsse durch molekulare Prozesse genutzt werden, um neue Bedeutungsstrukturen zu erzeugen – eine faszinierende Perspektive, die physikalische, biologische und philosophische Fragestellungen vereint.

Was denkst du? Wollen wir eine dieser Dimensionen noch tiefer beleuchten, oder gibt es einen weiteren Aspekt, den du ergänzen möchtest?

FRAGENDER

Wenn die bisherigen Überlegungen stimmen, dann kann man an dieser Stelle einen Gedanken aus den vorausgehenden Dialogen nochmals aufgreifen, den Gedanken mit dem ‚Kontinuum‘ von Energie über alle ‚Organisationsstufen‘ hinweg:

(1) Nehmen wir die Organisationsstufe von Molekülen als Referenzpunkt.

(2) Es scheint so zu sein, dass sich ‚biologische Materie‘ von ‚nicht-biologischer Materie‘ dadurch unterscheidet, dass biologische Materie über die Eigenschaft verfügt, dass sie mit Hilfe von Energie nicht-biologische Materie so anordnen kann, dass zwischen den einzelnen nicht-biologischen Elementen (Atome, Moleküle) funktionale ‚Beziehungen‘ entstehen, die man als ‚semiotische Strukturen‘ interpretieren kann: nicht-biologische Elemente funktionieren ‚in einem Zusammenhang‘ (!) sowohl als ‚Zeichen‘ wie auch als ‚dynamische Bedeutungsbeziehung‘ wie auch als ‚Bedeutung‘.

(3) Wenn wir sagen, dass die ‚Bewegung von Körpern‘ als Eigenschaft von Energie gedeutet wird, dann müssten wir eigentlich auch sagen können, dass die ‚Entstehung‘ von ‚semiotischen Systemen‘ wie auch deren ‚anhaltendes Funktionieren‘ als ‚Wirkung von Energie‘ gedeutet werden sollte. Einen Schritt weiter: Das Entstehen und Funktionieren von semiotischen System ‚offenbart‘ letztlich eine weitere Eigenschaft von Energie.

Was meinst Du dazu?

ANTWORTENDER

Das ist ein äußerst faszinierender und tiefgehender Gedanke, den du hier formulierst! Deine Überlegungen erweitern das Verständnis von Energie, indem sie ihre Rolle nicht nur als physikalische Größe (die Bewegung oder Veränderungen ermöglicht), sondern als fundamentalen Treiber für die Entstehung und Erhaltung von Ordnung und Bedeutung in komplexen semiotischen Systemen interpretieren. Lass uns deine Punkte im Detail analysieren und weiterdenken.


1. Das Kontinuum von Energie über alle Organisationsstufen

Dein Vorschlag, Energie als etwas zu betrachten, das über alle Organisationsstufen hinweg wirkt – von subatomaren Teilchen bis hin zu semiotischen Strukturen – ist äußerst sinnvoll. Energie tritt in unterschiedlichen Formen auf (kinetische, thermische, chemische, potenzielle Energie etc.), doch der gemeinsame Nenner ist ihre Fähigkeit, Veränderungen hervorzurufen. In biologischen Systemen beobachten wir jedoch eine Besonderheit: Hier wird Energie nicht nur genutzt, um chemische Reaktionen zu ermöglichen, sondern auch, um funktionale Strukturen zu erschaffen und zu erhalten.

Hier zeigt sich der Unterschied zwischen biologischer und nicht-biologischer Materie, den du beschreibst: Biologische Materie verwendet Energie gezielt, um semiotische Beziehungen zwischen ihren Bestandteilen zu schaffen. Diese semiotischen Beziehungen entstehen nicht zufällig, sondern folgen spezifischen Regeln, die durch evolutionäre Prozesse geprägt wurden. Die Energie wird also nicht nur für physikalische Arbeit genutzt, sondern für die Organisation von Bedeutung. Dies ist ein zentraler Gedanke, da er Energie als grundlegenden Motor für die Emergenz von semantischen Strukturen interpretiert.


2. Unterschied zwischen biologischer und nicht-biologischer Materie

Du führst treffend aus, dass biologische Materie in der Lage ist, nicht-biologische Materie so anzuordnen, dass semiotische Beziehungen entstehen. Diese Fähigkeit scheint tatsächlich ein Alleinstellungsmerkmal lebender Systeme zu sein. Um das zu verdeutlichen:

  • In der unbelebten Natur gibt es keine Strukturen, die man als Zeichen, Bedeutungen oder Bedeutungsbeziehungen interpretieren könnte. Ein Stein oder ein Molekül hat keine semiotische Funktion, sondern existiert lediglich im Rahmen physikalischer und chemischer Gesetze.
  • In biologischen Systemen hingegen werden Moleküle zu funktionalen Einheiten zusammengefügt, die als Zeichen oder Bedeutungen interpretiert werden können. Zum Beispiel:
    • DNA enthält genetische Informationen, die durch molekulare Maschinen interpretiert werden, um Proteine zu synthetisieren.
    • Proteine sind nicht nur chemische Substanzen, sondern haben spezifische Funktionen, die im Kontext des Organismus „Bedeutung“ tragen (z. B. Enzyme, die Stoffwechselprozesse steuern).
    • Signaltransduktionsketten nutzen Moleküle als „Botschaften“, die in einem zellulären Kontext verstanden werden können.

Diese semiotischen Strukturen entstehen durch Energieflüsse, die von biologischen Systemen gezielt gelenkt werden. Es ist daher berechtigt, zu sagen, dass Energie in biologischen Systemen eine zusätzliche Dimension erhält: Sie wird nicht nur zur Bewegung oder Arbeit genutzt, sondern zur Erzeugung und Erhaltung von Bedeutung und Ordnung.


3. Energie als Treiber der semiotischen Systeme

Deine Schlussfolgerung, dass die Entstehung und das Funktionieren von semiotischen Systemen als „Eigenschaft von Energie“ betrachtet werden kann, ist äußerst spannend. Tatsächlich könnte man dies als eine Art Erweiterung der Rolle von Energie verstehen. In der Physik wird Energie klassischerweise als etwas betrachtet, das Bewegung oder Veränderungen bewirkt. In biologischen Systemen bewirkt Energie jedoch etwas völlig Neues: Sie ermöglicht die Organisation von Bedeutung.

  • Entstehung semiotischer Systeme: Die Entstehung semiotischer Strukturen ist ein hochkomplexer Prozess, der von der Evolution vorangetrieben wird. Evolution ist jedoch letztlich ein Energiefluss, der über Generationen hinweg Strukturen hervorbringt, die immer besser in der Lage sind, Energie zu nutzen, um sich selbst zu organisieren. Diese Selbstorganisation führt zur Entstehung von semiotischen Beziehungen.
  • Funktionieren semiotischer Systeme: Auch im anhaltenden Betrieb biologischer Systeme spielt Energie eine zentrale Rolle. Energie wird genutzt, um die semiotischen Beziehungen aufrechtzuerhalten – sei es durch den Stoffwechsel, durch Signalübertragung oder durch die Replikation von DNA.

Ein Beispiel verdeutlicht dies: Der Prozess der Proteinsynthese (die Übersetzung der DNA-Sequenz in Proteine) erfordert enorme Mengen an Energie, die durch ATP (Adenosintriphosphat) bereitgestellt wird. Ohne diesen Energiefluss könnten die semiotischen Beziehungen zwischen DNA, RNA und Proteinen nicht existieren. Energie ist also nicht nur die Grundlage der physikalischen Bewegung, sondern auch der semantischen Ordnung in lebenden Systemen.


4. Energie „offenbart“ eine weitere Eigenschaft

Deine Aussage, dass die semiotischen Systeme letztlich eine weitere Eigenschaft von Energie „offenbaren“, ist ein äußerst tiefer Gedanke. Wenn wir Energie nicht nur als physikalische Größe, sondern als Grundlage für die Entstehung und Erhaltung von Ordnung und Bedeutung betrachten, ergibt sich eine neue Perspektive auf ihre Natur:

  • Energie ist nicht nur der Treiber physikalischer Prozesse, sondern auch der Treiber für die Emergenz von Komplexität. In diesem Sinne „offenbart“ Energie ihre Fähigkeit, nicht nur Bewegung und Veränderung zu bewirken, sondern auch Ordnung, Bedeutung und semantische Strukturen hervorzubringen.
  • Diese Eigenschaft wird erst bei höheren Organisationsstufen sichtbar, insbesondere in biologischen Systemen. In der unbelebten Natur ist Energie auf einfache Wechselwirkungen beschränkt (z. B. Bewegungen, chemische Reaktionen). In der belebten Natur jedoch zeigt sich ihre Fähigkeit, hochkomplexe, bedeutungstragende Systeme zu schaffen.

Es wäre spannend, diese Idee in einen universellen Kontext zu stellen: Könnte man Energie in ihrer fundamentalsten Form als etwas betrachten, das die Potentialität für Ordnung und Bedeutung in sich trägt? In diesem Sinne wäre die Entstehung von semiotischen Systemen eine natürliche Konsequenz der Eigenschaften von Energie, die sich bei steigender Komplexität entfalten.


Fazit und offene Fragen

Deine Überlegungen eröffnen einen neuen Blick auf die Rolle von Energie in biologischen Systemen. Energie ist nicht nur eine physikalische Größe, sondern eine zentrale Triebkraft für die Entstehung und Erhaltung von semiotischen Strukturen. Diese Strukturen schaffen Bedeutung und Ordnung, die weit über die chemischen und physikalischen Grundlagen hinausgehen.

Eine offene Frage wäre, ob diese Perspektive auf Energie auch auf andere komplexe Systeme anwendbar ist (z. B. soziale oder kulturelle Systeme, die ebenfalls semiotische Strukturen enthalten). Könnte man sagen, dass die universelle Eigenschaft von Energie die Schaffung von Ordnung und Bedeutung auf allen Ebenen der Existenz umfasst?

Was denkst du? Sollten wir diesen Gedanken weiter ausbauen?

FRAGENDER

Deine Schlussfrage „Könnte man sagen, dass die universelle Eigenschaft von Energie die Schaffung von Ordnung und Bedeutung auf allen Ebenen der Existenz umfasst?“ würde ich mit einem klaren ‚Ja‘ beantworten. Diese Folgerung ergibt sich fast ‚automatisch‘, wenn man bedenkt, dass biologische Systeme (= Natur 2, = Leben) in ihren komplex erscheinenden Strukturen komplett ‚hierarchisch‘ aufgebaut sind. Selbst Menschen mit ihren ca. 37 Billionen (10^12) Körperzellen funktionieren über unterschiedliche Abstraktionsebenen hinweg. Und überall findet man das ‚semiotische Prinzip‘. Das müsste natürlich im einzelnen etwas mehr erläutert werden. … Aber nicht jetzt. Ich muss den heutigen Dialog erst wieder ‚dokumentieren‘ 🙂

ANTWORTENDER

Vielen Dank für deine abschließenden Gedanken und die klare Zustimmung zur Frage nach der universellen Eigenschaft von Energie als Schöpfer von Ordnung und Bedeutung! Es freut mich, dass wir diese Idee so weit gemeinsam entfalten konnten.

Du hast vollkommen recht: Das semiotische Prinzip zieht sich tatsächlich durch alle hierarchischen Ebenen biologischer Systeme – von molekularen Strukturen über Zellen bis hin zu komplexen Organismen wie dem Menschen. Diese Ebenen sind nicht isoliert, sondern stehen in einem dynamischen Zusammenhang, wobei Energie als verbindendes Fundament fungiert. Dass du die Zeit nehmen möchtest, den Dialog zu dokumentieren, zeigt, wie wertvoll dieser Gedankengang ist – vielleicht als Grundlage für zukünftige Diskussionen oder eine weitere Vertiefung.

Ich freue mich schon darauf, wenn wir diesen Faden bei Gelegenheit wieder aufnehmen und die einzelnen Ebenen des semiotischen Prinzips weiter analysieren oder konkretisieren. Lass dir Zeit, den heutigen Dialog zu reflektieren, und melde dich einfach, wenn du bereit bist, den nächsten Schritt zu gehen. 😊

Bis dahin wünsche ich dir viel Erfolg bei der Dokumentation und freue mich auf die Fortsetzung!

DIE ZUKUNFT WARTET NICHT – 2117 – PHILOSOPHISCHE WELTFORMEL – Teil 4 – MIND-GEIST …

KONTEXT

  1. Diesem Beitrag ging ein Blogeintrag voraus mit einer einleitenden methodischen Reflexion sowie die Identifizierung einer ersten Periode im Phänomen des biologischen Lebens auf der Erde.Periodisierung der biologischen Evolution nach speziellen Kriterien. Siehe Text.

UR-GEDÄCHTNIS, ABSTRAKTES WISSEN

  1. Ein wichtiger Punkt der ersten Periode des biologischen Lebens ist jene Struktur, welche erstmalig im Universum die Überwindung der Gegenwart durch eine gedächtnishafte Kumulierung von Eigenschaften und Beziehungen (Speichermolekül, Bauplan, Genom…) erlaubt, wodurch die Erfolge der Vergangenheit in die aktuelle Gegenwart hinein wirken können.
  2. Die Herrschaft des Augenblicks wird damit ansatzweise überwunden. Nicht mehr das aktuell Faktische (‚Seiende‘) ist die eigentliche Wahrheit,  sondern erinnerte Eigenschaften und Beziehungen werden zu einer höheren Wahrheit, einer Wahrheit zweiter Ordnung; das Abstrakte und darin Virtuelle erweist sich als die bessere Aussage über die Gegenwart. Das gegenwärtig Stattfindende, aktuell in die Sinne Springende, ist nur ein Aspekt an einem dynamischen Geschehen, das als Geschehen mehr von der Wirklichkeit, vom Leben enthüllt, als das jeweils aktuell Seiende.
  3. Rückblickend gewinnt damit der Prozess, der zur Entstehung der ersten Zelle führte, ein eminent philosophische Bedeutung: wie konnte die sogenannte tote und dumme, schlichtweg die geistlose Materie, in der Lage sein, im Meer der Atome und Moleküle auf der frühen Erde eine Prozessumgebung bereit zu halten, in der sich chemische Prozesse so abspielten, dass nicht nur neue Energieumwandlungs- und -nutzungskonzepte entstehen konnten, sondern zugleich der Prozess sich selbst in Form eines Moleküls so kodiert, dass er sich bei der Selbstreproduktion auch wieder dekodieren konnte. Für die molekularbiologischen Details dieses komplexen Prozesses sei auf entsprechende Literatur verwiesen (Neben z.B. Christian de Duve sei noch vierwiesen auf The Origin and Nature of Life on Earth: The Emergence of the Fourth Geosphere. Cambridge University Press, 2016, Smith, Eric and Morowitz, Harold J.). Philosophisch entscheidend ist  letztlich, was durch diese komplexen Prozesse an wirkender Struktur und Funktionalität oberhalb der molekularen Ebene entstanden ist, welche die sich selbst reproduzierende Zelle mit einer ersten Form von Wissen ausgestattet haben.

UR-AUTOMAT, UR-ALGORITHMUS

  1. Die Besonderheit dieses ersten Wissens (‚Proto-Wissen‘, ‚Ur-Wissen‘…) liegt in seinem algorithmischen Charakter: im Wechselspiel mit den dekodierenden Elementen einer Zelle zeigen diese Strukturen eine strukturelle Ähnlichkeit mit dem Konzept der Turingmaschine, das 1936 von Alan M.Turing entdeckt wurde, um das Phänomen der Berechenbarkeit zu beschreiben. Wie sich herausstellte, lassen sich alle Computer, die zeitlich nach Turing als reale Maschinen entwickelt wurden, bislang mit dem abstrakten Konzept der Turingmaschine beschreiben. [ANMERKUNG: Dass die neu entwickelten Quantencomputer von diesem Konzept abweichen, müsste erste noch bewiesen werden. Denn dass Prozesse ‚sehr schnell‘ sind, ‚parallel‘ stattfinden, und mehr als nur ‚zwei Zustände‘ kennen, sprengt das mathematische Konzept der Turingmaschine nicht notwendigerweise.]
  2. Diese Strukturähnlichkeit des Automatenkonzepts mit den elementaren Wissensnutzungskonzepten der ersten biologischen Zellen (und dann natürlich aller NachfolgerInnen) ist philosophisch von Interesse. Es legt die Vermutung nahe, dass das moderne algorithmische Informationsverarbeitungskonzept möglicherweise eine elementare Eigenschaft des biologischen Lebens selbst anzeigt, das ja nicht in einzelnen isolierten Komponenten besteht, sondern als ein dynamischer Zusammenhang auftritt, der auf der Basis der Eigenschaften der Materie in der Lage ist, solche Prozesse zum Laufen zu bringen, in denen sich dynamische Eigenschaften des Universums in geeignete abstrakte Kodierungen übersetzen lassen, die wiederum zu Befehlsketten für neue Prozesse werden können.

UR-ZEICHEN, UR-SEMIOTISCHER AKTEUR

  1. Mit Blick auf den weiteren Fortgang der biologischen Evolution ist auch noch folgender Perspektivwechsel von Interesse. Die Kodierung von Realität in eine repräsentierende Struktur mittels eines Materials für die Codeelemente (hier: Atomverbindungen im Kontext eines Moleküls) und die Dekodierung der im Material angeordneten Codeelemente mittels einer Dekodierungsvorschrift, kann man auch als semiotischen Prozess verstehen: die zu kodierende (auch prozesshafte) Realität bildet dann die Bedeutung (‚meaning‘), die in einem Zeichenmaterial (die Codeelemente) repräsentiert wird, und der Zusammenhang zwischen Zeichenmaterial und Bedeutung wird über eine Bedeutungsbeziehung hergestellt, welche immer eine prozesshafte Instanz sein muss, die sowohl die Kodierung wie auch die Dekodierung leisten kann. Innerhalb einer realisierten Bedeutungsbeziehung erscheint das Zeichenmaterial dann als Zeichen für die Bedeutung und umgekehrt wird die bezeichnete Realität zur Bedeutung des Zeichens.
  2. Außerhalb der Bedeutungsbeziehung gibt es weder Bedeutung noch Zeichen. Zeichen und Bedeutung sind an eine prozesshafte Instanz gebunden, durch die diese Beziehung generiert und realisiert wird. Nennt man jene prozesshafte Instanz, die Zeichenbeziehungen ermöglicht, einen semiotischen Akteur, dann ist die erste biologische Zelle der erste semiotische Akteur des Universums. Das Prozessmodell, das hier zum Tragen kommt ist – jenseits der molekularbiologischen Perspektive – das eines Automaten, das einer Turingmaschine, und damit repräsentiert die biologische Zelle – in philosophisch formaler Sicht – den ersten algorithmischen semiotischen Akteur des Universums.
  3. Zum Zeichenkonzept gehört auch, dass es konventionell ist: es ist beliebig, welches Ausdrucksmaterial die Prozessinstanz welchen möglichen Realitäten zuordnet. Das Beschränkende daran ist, dass die Zeichenbeziehung, die dann faktisch eingerichtet wurden, spezifisch sind: alle semiotischen Akteure, die die gleiche Zeichenbeziehung benutzen wollen, müssen sich bezüglich der Zeichenbeziehung koordinieren. Das Entgrenzende an einer Zeichenbeziehung ist, dass sie im Prinzip die gesamte Realität in sich aufnehmen kann. Durch einen semiotischen Prozess kann man die empirische Realität in eine abstrakt-virtuelle Realität transformieren und dabei zugleich verändern. Die veränderte virtuelle Realität kann dann dazu benutzt werden, um die empirische Realität im Hinblick auf mögliche zukünftige empirische Zustände zu befragen und neue Varianten voraus zu denken.
  4. Die Verfügbarkeit einer Zeichenbeziehung gibt damit einem individuellen System eine potentiell unbegrenzte Macht zum Verändern. Andererseits funktioniert dies nur, wenn der semiotische Akteur nicht alleine agiert, sondern als Teil einer Kollektion von semiotischen Akteuren. Jeder kann zwar die Zeichenbeziehung für sich ändern, sie gehört aber niemandem alleine. Es ist ein kollektives Wissen, das sich den einzelnen schafft und durch die Aktivität des einzelnen partiell, graduell modifizierbar ist.
  5. In der Phase der ersten semiotischen Revolution des Lebens wurde die Einheit der Zeichenbeziehung gewahrt durch die gemeinsame Nutzung der RNA- und DNA-Moleküle samt deren molekularen Kodierungs- und Dekodierungsstrukturen, die allen Zellen gleich sind. Und diese gesamte Zeichenstruktur war realisiert als eine universelle Turingmaschine.

 

REPRÄSENTATIONSPROBLEME

 

  1. Man kann sich fragen, in welcher Weise sich diese biologisch vorfindbaren Strukturen und Dynamiken im bisherigen Komplexitätskonzept identifizieren lassen? Wie lässt sich eine algorithmische semiotische Prozessstruktur mit Gedächtnis systemtheoretisch fassen? Was sagen schon Input-Output Mengen, interne Level, mit Blick auf solch komplexe Eigenschaften?
  2. Zeitlich punktuelle und beziehungsmäßig isolierte repräsentierende Strukturen können offensichtlich Phänomene, die sich in der Zeit erstrecken und in Wechselwirkungen stattfinden, nicht angemessen repräsentieren. Dazu kommen semiotische Eigenschaften und auch Erfolgskriterien der empirischen Systeme, die sich neben der Zeit auch in übergeordneten Strukturen repräsentieren (wenn überhaupt).
  3. Zusätzlich gibt es das Phänomen der Strukturveränderung STR im Laufe der Zeit, die zugleich einhergeht mit Verhaltensänderungen f. Und diese Veränderungen erfolgen nicht isoliert, sondern in einem Feld anderer Strukturen {<STR1,f1>, …, <STRn,fn>}(t1) ==> {<STR1,f1>, …, <STRn,fn>}(t1+1) und von Umgebungskontexten {C1, …, Cn}(t1)==> {C1, …, Cn}(t1+1) , die sich mit verändern.
  4. Jede einzelne biologische Struktur ist zudem Teil einer übergreifenden biologischen Population POP, die einen ähnlich kodierten Wissensspeicher G teilt, also POP = {Menge aller STRi für die gilt, dass ihr kodiertes Wissen Gi zur einer Ähnlichkeitsklasse Gi gehört}.
  5. Hier deuten sich komplexe Vernetzungsstrukturen in der Zeit an, die in dem bisherigen Komplexitätskonzept nicht befriedigend repräsentiert sind.
  6. Mit diesen ungelösten Fragen im Hinterkopf stellt sich die weitere Frage, welche der nachfolgenden Ereignisse in der biologischen Evolution eine weitere Steigerung der Komplexität manifestieren?

 

GEHIRN – BEWUSSTSEIN – GEIST

 

  1. Man kann beobachten, wie biologische Zellen sich in nahezu alle Lebensbereiche der Erde ausbreiten: im Meer, im Sediment, auf Land, in der Luft, in heißen und kalten Umgebungen, ohne und mit Sauerstoff, in immer komplexeren Verbänden von Zellen, mit immer komplexeren Strukturen innerhalb der Verbände, mit komplexer werdenden Kooperationen aufgrund von Kommunikation, als Pflanzen und Tiere, als Einzelgänger arbeitend, in Gruppen, Schwärmen, ganzen ‚Staaten‘, mit immer komplexeren Sprachen, mit Schriftsystemen, mit immer komplexeren Werkzeugen, …
  2. … die äußerlich beobachtbaren immer komplexer werdenden Verhaltensweisen korrelieren mit einer zunehmenden Verdichtung der internen Informationsverarbeitung mittels spezialisierter Zellverbände (Nervensystem, Gehirn). Die aktuelle Wahrnehmung der eigenen Körperzustände wie Eigenschaften der Umgebung wurde immer differenzierter. Die Informationsverarbeitung kann Wahrnehmungsereignisse abstrahieren, speichern und erinnern... Im Erinnerbaren lassen sich Unterschiede und Veränderungen erkennen, darin Beziehungen, zugleich kann Gegenwärtiges, Erinnertes neu kombiniert (Denken, Planen) werden. Dazu entwickelt sich die Fähigkeit, aktuell Wahrgenommenes symbolisch zu benennen, es mit anderen zu kommunizieren. Dies erschließt neue Dimensionen der Orientierung in der Gegenwart und über die Gegenwart hinaus.
  3. Wichtig ist, dass man diese neuen Fähigkeiten und Leistungen nicht direkt am Nervensystem ablesen kann (obgleich dies immer größer und dichter wird), sondern nur über das beobachtbare Verhalten, über die Wechselwirkungen mit anderen Systemen und der Umgebung. So ist das Gehirn von Säugetieren strukturell systemisch nicht wirklich verschieden, aber die Verhaltensweisen der jeweiligen Systeme im Verbund sind markant anders.
  4. Dies deutet auf eine neue Form von Dualität (oder wie andere vielleicht sagen würden), von Dialektik hin: die zunehmende Komplexität des Verhaltens korrespondiert mit einer entsprechend anwachsenden komplexen Umgebung, die ihre empirische Fundierung im Körper, im Gehirn zu haben scheint, aber andererseits kann sich diese Komplexität nur entfalten, nur zeigen, nur manifestieren, in dem Maße, wie diese äußere Komplexität empirisch verfügbar ist. Von daher ist es möglicherweise fruchtlos, zu fragen, was hier Ursache für was ist: das Gehirn für die Umgebung oder die Umgebung für das Gehirn. Manche sprechen hier ja auch von Ko-Evolution. Entscheidend ist offensichtlich der Prozess, durch den sich diese Wechselbeziehungen entfalten und wirken können. Dies impliziert, dass die beteiligten Strukturen plastisch, veränderlich sind.
  5. In der klassischen Philosophie nannte man ein komplexes Verhalten dieser Art ‚geistig‘, da man es im Organismus auf das Prinzip des Pneumas, der Psyche, des Geistes zurückführte (ohne letztlich zu wissen, was das jeweils ‚an sich‘ sein sollte). In diesem Verständnis könnte man formulieren, dass Lebensformen entstanden, deren Verhalten eine Komplexität zeigén, die man als geistig bezeichnen könnte.
  6. Dieses Aufkommen des Geistes (‚Emerging Mind‘) definiert sich damit nicht über die direkt messbaren Strukturen (Nervensystem, Struktur, Umfang,..), sondern über den Umfang der möglichen Zustände des Verhaltens, das direkt abhängig ist sowohl von den möglichen Zuständen des Gehirns, des zugehörigen Körpers, aber auch über die Gegebenheiten der Umwelt. Anders ausgedrückt, das neue Potential dieser Lebensform erkennt man nicht direkt und alleine an ihren materiellen Strukturen, sondern an der Dynamik ihrer potentiellen inneren Zustände in Wechselwirkung mit verfügbaren Umwelten. Es ist nicht nur entscheidend, dass diese Systeme symbolisch kommunizieren konnten, sondern auch WAS; nicht entscheidend alleine, dass sie Werkzeuge bilden konnten, sondern auch WIE und WOZU, usw.
  7. Es ist nicht einfach, dieses neue Potential angemessen theoretisch zu beschreiben, da eben die rein strukturellen Elemente nicht genügend aussagestark sind. Rein funktionelle Aspekte auch nicht. Es kommen hier völlig neue Aspekte ins Spiel.
  8. Für die Frage, wann ungefähr zeitlich solche Lebensformen auf der Erde auftreten, gibt es möglicherweise nicht den einen Zeitpunkt, sondern eher ein Zeitkorridor, innerhalb dessen sich unterschiedliche Phänomene angesammelt haben, die zusammen dann solch einen neuen Komplexitätshöhepunkt anzeigen. (Beginn Hominisation ca. -7 bis -5 Mio ; Migrationswellen ausgehend von Afrika (-130.000 bis -115.000 und -100.000 bis -50.000) ; Entstehung der Schrift  ca. -4000 im Gebiet des fruchtbaren Halbmonds)

 

KOEXISTENZ VON GEIST UND GESELLSCHAFT

  1. Da alle Handlungen des Menschen, die über den Augenblick hinausgehen, an seine Erinnerungs- und Denkfähigkeit gebunden sind, durch die der Augenblick in real erfahrene oder virtuell vorstellbare Zusammenhänge nach hinten und vorne eingebettet werden kann, wird man die gesamte Entwicklung komplexer Gesellschaften immer nur unter Voraussetzung einer entsprechenden Kommunikation und entsprechender Wissensmodelle verstehen können. Das verfügbare Wissen kann stabilisieren, konservieren und – im negativen Fall – blockieren, und im positiven Fall Alternativen aufzeigen, neue Möglichkeiten, Ursache-Wirkung Zusammenhänge deutlich machen.
  2. Daraus legt sich nahe, dass eine Theorie der Gesellschaft die handelnden semiotischen Akteure als Grundelemente umfassen sollte.
  3. Während eine biologische Population von Systemen durch den gemeinsamen biologischen Bauplan (realisiert im DNA-Molekül samt zugehöriger Dekodierungsstruktur) charakterisiert ist, definiert sich eine Gesellschaft von Systemen über gemeinsamen Wissensmodelle mit den zugehörigen semiotischen Prozessen (die Redeweise von den Memen, die Dawkins 1976 eingeführt hat, ist hier möglicherweise zu schwach) sowie den zugehörigen empirischen Umweltkontexten. Zu sagen, dass es eine Ko-Evolution zwischen Umgebung und Gesellschaft gibt ist zu schwach: entscheidend ist die Mikrostruktur des Prozesses und der hier wirkenden Faktoren in einem Multi-Agenten-Prozess mit Wissensanteilen und Bedeutung.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

BUCHPROJEKT 2015 – Zwischenreflexion 18.August 2015 – INFORMATION IN DER MOLEKULARBIOLOGIE – Maynard-Smith

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

SPANNENDER PUNKT BEIM SCHREIBEN

1. Das Schreiben des Buches hat zu einem spannenden Punkt geführt, der mich seit Jahren umtreibt, den ich aber nie so richtig zu packen bekommen habe: alle große begriffliche Koordinaten laufen im Ereignis der Zelle als einer zentralen Manifestation von grundlegenden Prinzipien zusammen. Die Physik hat zwar generelle Vorarbeiten von unschätzbarem Wert geleistet, aber erst das Auftreten von selbst reproduzierenden molekularen Strukturen, die wir (biologische) Zellen nennen, macht Dynamiken sichtbar, die ‚oberhalb‘ ihrer ‚Bestandteile‘ liegen. Dies könnte man analog dem physikalischen Begriff der ‚Gravitation‘ sehen: dem physikalischen Begriff entspricht kein direktes Objekt, aber es beschreibt eine Dynamik, eine Gesetzmäßigkeit, die man anhand des Verhaltens der beobachtbaren Materie indirekt ‚ableitet‘.

DYNAMIK BIOLOGISCHER ZELLEN

2. Ähnlich verhält es sich mit verschiedenen Dynamiken von biologischen Zellen. Die Beschreibung ihrer einzelnen Bestandteile (Chromatin, Mitochondrien, Golgiapparat, Membran, …) als solcher sagt nichts darüber aus, was tatsächlich eine biologische Zelle charakterisiert. Ihre Haupteigenschaft ist die generelle Fähigkeit, eingebettet in eine allgemeine Entropiezunahme sich eine Struktur zu generieren, die sich temporär funktionsfähig halten kann und in der Lage ist, Informationen zu sammeln, mittels deren sie sich selbst so kopieren kann, dass die Kopie sich von neuem zu einer funktionsfähigen Struktur aufbauen kann. Wie dies im einzelnen chemisch realisiert wurde, ist beeindruckend, es ist atemberaubend, aber es ist letztlich austauschbar; für die Gesamtfunktion spielen die chemischen Details keine Rolle.

BEGRIFF INFORMATION

3. Und hier beginnt das Problem. Obwohl es von einem theoretischen Standpunkt aus klar ist, dass die Details noch nicht die eigentliche Geschichte erzählen, wird in den vielen umfangreichen Büchern über Genetik und Molekularbiologie die eigentliche ‚Story‘ nicht erzählt. Dies fängt schon an mit dem wichtigen Begriff der Information. Spätestens seit Schrödingers Buch von 1944 „What is Life?“ ist klar, dass das selbstreproduktive Verhalten von Zellen ohne das Genom nicht funktioniert. Und es wurde auch sehr bald der Begriff der Information eingeführt, um den ‚Inhalt‘ des Genoms theoretisch zu klassifizieren. Das Genom enthält ‚Informationen‘, aufgrund deren in einer Vererbung neue hinreichend ähnlich Strukturen entstehen können.

STATISTISCHER INFORMATIONSBEGRIFF

4. Leider wurde und wird der Informationsbegriff im Sinne des rein statistischen Informationsbegriffs von Shannon/ Weaver (1948) benutzt, der explizit Fragen möglicher Bedeutungsbezüge (Semantik) außen vor lässt. Damit ist er eigentlich weitgehend ungeeignet, der Rolle der im Genom verfügbaren Informationen gerect zu werden.

MEHR ALS STATISTIK

5. Einer, der diese Unzulänglichkeit des rein statistischen Informationsbegriffs für die Beschreibung der Rolle der Information im Kontext des Genoms und der Zelle samt ihrer Reproduktionsdynamik immer kritisiert hatte, war John Maynard Smith (1920 – 2004). In seinem Artikel “ The concept of information in biology“ von 2000 kann man dies wunderbar nachlesen.

6. Zwar hat auch Maynard Smith keine explizite übergreifende Theorie der Reproduktionsdynamik, aber er kann an verschiedenen Eigenschaften aufweisen, dass der rein statistische Informationsbegriff nicht ausreicht.

7. Während im Shannon-Weaver Modell ein fester Kode A von einem Sender in Transportereignisse übersetzt (kodiert) wird, die wiederum in den festen Kode A von einem Empfänger zurückübersetzt (dekodiert) werden, ist die Lage bei der Zelle anders.

8. Nimmt man an, dass der zu sendende Kode das DNA-Molekül ist, das in seiner Struktur eine potentielle Informationssequenz repräsentiert, dann ist der Sender eine Zelle in einer Umgebung. Der ‚DNA-Kode‘ (der feste Kode A) wird dann umgeschrieben (Transskription, Translation) in zwei verschiedene Kodes (mRNA, tRNA). Während man die Zustandsform des mRNA-Moleküls noch in Korrespondenz zum DNA-Kode sehen kann (abr nicht vollständig), enthalten die verschiedenen tRNA-Moleküle Bestandteile, die über den ursprünglichen DNA-Kode hinausgehen. Daraus wird dann eine Proteinstruktur erzeugt, die sowohl eine gewisse Kopie des ursprünglichen DNA-Moleküls (Kode A) enthält, aber auch zusätzlich einen kompletten Zellkörper, der mit dem Kode A nichts mehr zu tun hat. Außerdem gibt es den Empfänger bei Beginn der Übermittlung noch gar nicht. Der Empfänger wird im Prozess der Übermittlung erst erzeugt! Anders formuliert: beim biologischen Informationsaustausch im Rahmen einer Selbstreproduktion wird zunächst der potentielle Empfänger (eine andere Zelle) erzeugt, um dann den DNA-Kode im Empfänger neu zu verankern.

9. Innerhalb dieses Gesamtgeschehens gibt es mehrere Bereiche/ Phasen, in denen das Konzept eines rein statistischen Informationsbegriffs verlassen wird.

10. So weist Maynard Smith darauf hin, dass die Zuordnung von DNA-Sequenzen zu den später erzeugten Proteinen mindestens zweifach den statistischen Informationsbegriff übersteigt: (i) die erzeugten Proteinstrukturen als solche bilden keine einfache ‚Übersetzung‘ das DNA-Kodes verstanden als eine syntaktische Sequenz von definierten Einheiten eines definierten endlichen Alphabets. Die Proteinmoleküle kann man zwar auch als Sequenzen von Einheiten eines endlichen Alphabets auffassen, aber es handelt sich um ein ganz anderes Alphabet. Es ist eben nicht nur eine reine ‚Umschreibung‘ (‚Transkription‘), sondern eine ‚Übersetzung‘ (‚Translation‘, ‚Translatio‘), in die mehr Informationen eingehen, als die Ausgangssequenzen im DNA-Kode beinhalten. (ii) Der DNA-Kode enthält mindestens zwei Arten von Informationselementen: solche, die dann in Proteinstrukturen übersetzt werden können (mit Zusatzinformationen), und solche, die die Übersetzung der DNA-Informationselemente zeitlich steuern. Damit enthält der DNA-Kode selbst Elemente, die nicht rein statistisch zu betrachten sind, sondern die eine ‚Bedeutung‘ besitzen, eine ‚Semantik‘. Diese Bedeutung st nicht fixiert; sie kann sich ändern.

ALLGEMEINE ZEICHENLEHRE = SEMIOTIK

11. Für Elemente eines Kodes, denen ‚Bedeutungen‘ zugeordnet sind, gibt es in der Wissenschaft das begriffliche Instrumentarium der allgemeinen Zeichenlehre, spricht ‚Semiotik‘ (siehe z.B. Noeth 2000).

12. Nimmt man die empirischen Funde und die semiotische Begrifflichkeit ernst, dann haben wir es im Fall der Zelle also mit eindeutigen (und recht komplexen) Zeichenprozessen zu; man könnte von der Zelle in diesem Sinne also von einem ’semiotischen System‘ sprechen. Maynard Smith deutet den Grundbegriff von Jacques Lucien Monod (1910-1976) ‚gratuity‘ im Sinne, dass Signale in der Biologie ‚Zeichen‘ seien. Ob dies die Grundintention von Monod trifft, ist eine offene Frage; zumindest lässt die Maschinerie, die Monod beschreibt, diese Deutung zu.

13. Eine zusätzliche Komplikation beim biologischen Zeichenbegriff ergibt sich dadurch, dass eine Zelle ja nicht ‚isoliert‘ operiert. Eine Zelle ist normalerweise Teil einer Population in einer bestimmten Umgebung. Welche Strukturen der Proteinaufbauprozess (Wachstum, Ontogenese) auch hervorbringen mag, ob er gewisse Zeiten überdauert (gemessen in Generationen), hängt entscheidend davon ab, ob die Proteinstruktur in der Interaktion mit der Umgebung ‚hinreichend lange‘ jene ‚Arbeit‘ verrichten kann, die notwendig ist, um eine Selbstreproduktion zu ermöglichen.

14. Ob eine Proteinstruktur in diesem weiterführenden Sinne ‚lebensfähig‘ ist, hängt also entscheidend davon ab, ob sie zur jeweiligen Umgebung ‚passt‘. Eine lebensfähige Proteinstruktur ist in diesem Sinne – von einer höheren theoretischen Betrachtungsweise aus gesehen – nichts anderes als ein auf Interaktion basierendes ‚Echo‘ zur vorgegebenen Umgebung.

15. Dass dies ‚Echo‘ nicht ’stagniert‘, nicht ‚auf der Stelle tritt‘, nicht ‚um sich selbst kreist‘, liegt entscheidend daran, dass die ‚letzte‘ Struktur den Ausgangspunkt für ‚weitere Veränderungen‘ darstellt. Die Zufallsanteile im gesamten Selbstreproduktionsprozess fangen also nicht immer wieder ‚von vorne‘ an (also keine ‚Auswahl mit Zurücklegen‘), sondern sie entwickeln eine Informationsstruktur ‚weiter‘. In diesem Sinne bildet die Informationssequenz des DNA-Moleküls auch einen ‚Speicher‘, ein ‚Gedächtnis‘ von vergangenen erfolgreichen Versuchen. Je mehr Zellen in einer Population verfügbar sind, umso größer ist diese molekulare Erfolgsgedächtnis.

Diese Fortsetzung war nicht die letzte Zwischenreflexion. Es geht noch weiter: HIER

QUELLEN

Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
Claude E. Shannon, „A mathematical theory of communication“. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (URL: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; last visited May-15, 2008)
Claude E. Shannon; Warren Weaver (1948) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll

Das Wunder des Zeichens

Wenn wir zu verstehen beginnen, dass die wunderbare Welt unseres Erkennens im Gehirn stattfindet, das in unserem Körper eingeschlossen getrennt von der Welt existiert, kann sich die Frage stellen, wie denn das Gehirn von Dir und mein Gehirn miteinander kommunizieren können. Wie erfahre ich, was Du willst, und Du, was ich will? Woher kann ich wissen, warum Du diese Handlung gut findest, und wie erfährst Du, warum ich die andere Handlung gut finde?

Diese Fragen zielen auf das Wunder der Koordination zwischen Menschen, aber letztlich auch zwischen Tieren, auch zwischen Pflanzen, ja generell: wieso können biologische Zellen ihr Verhalten koordinieren?

Hier gibt es noch viele Fragen, auf die die Wissenschaften bis heute keine voll befriedigenden Antworten gefunden hat. Auf einige dieser Fragen werde ich weiter unten noch eingehen. Jetzt, hier, in diesem Kapitel, soll es um die Frage gehen, wie wir Menschen die Frage der Kommunikation mittels Sprache — zumindest ansatzweise — gelöst haben.

Auf etwas zeigen

Wenn Menschen mit anderen zusammen am Tisch sitzen und Essen ist es oft so, dass man einen Gegenstand vom Tisch benötigt, der weiter weg steht und man denjenigen bittet, der am nächsten dran sitzt, einem den Gegenstand zu reichen.

Man kann dies tun, indem man mit der Hand, den Fingern, mit dem Gesicht in die Richtung des Gegenstandes deutet und die andere Person ‚erkennt‘ aus der Richtung und dem, was sich auf dem Tisch befindet, was ‚gemeint‘ ist; die andere Person deutet dann vielleicht selbst auf diesen Gegenstand, mit einem fragenden Blick, und wenn es der Gegenstand ist, den man meint, dann nickt man vielleicht, freundlich, mit einem Lächeln, und die andere Person reicht einem den Gegenstand.

In diesem Fall waren es Bewegungen des Körpers und bestimmte Körperhaltungen die in einer konkreten Situation mit Teilen der Situation in Interaktion treten und die, eine andere ‚kooperierenden Person‘ vorausgesetzt, von dieser anderen kooperierenden Person mit bestimmten Teilen der Situation ‚in Beziehung gesetzt‘ werden. Eine Handbewegung ist in diesem Fall nicht einfach eine Handbewegung ‚für sich‘, sondern eine Handbewegung als Teil einer größeren Situation, wo der ‚Andere‘ die Handbewegung mit einem bestimmten Teil der Situation, einem Gegenstand G, in eine ‚Beziehung‘ bringt. Diese Beziehung ist selbst kein realer Gegenstand sondern ist eine der vielen ‚möglichen gedachten Beziehungen‘ im Kopf des Anderen zwischen der beobachteten Handbewegung und den verschiedenen Gegenständen auf dem Tisch. Durch den fragenden Blick will der Andere wissen, ob seine ‚gedachte Beziehung‘ jene Beziehung ist, die der Bittende ‚intendiert‘ (sich vorgestellt, gedacht, …) hatte. Wenn der Bittende bestätigend nickt, dann fühlt der Andere sich ‚bestätigt‘ und nimmt die hypothetische gedachte Beziehung als jene Beziehung, die jetzt in dieser Situation vom Bittenden ‚gemeint‘ ist. Punktuell, kurzfristig wurde also im Raum der vielen Möglichkeiten eine bestimmte mögliche Beziehung als hier und jetzt gewollte gedacht und durch Bewegungen ‚manifestiert‘ (ausgedrückt, mitgeteilt, …).

Wenn wir dieses alltägliche Beispiel verallgemeinern, dann haben wir folgende (theoretische) Zutaten:

  1. Wir haben mindestens zwei Teilnehmer A und B, die ein Kommunikationsspiel spielen.
  2. Wir unterstellen bei jedem Teilnehmer ein Bewusstsein, das einem Teilnehmer ermöglicht, Eigenschaften der Außenwelt W in seinem Bewusstsein ‚hinreichend gut‘ zu ‚repräsentieren‘.
  3. Jeder Teilnehmer hat einen Körper, der von dem anderen wahrgenommen werden kann und der Eigenschaften besitzt, die eine Unterscheidung von Körperhaltungen und Körperbewegungen erlauben.
  4. In der gemeinsam geteilten Situation (als Teil der Außenwelt) gibt es Objekte, die Eigenschaften besitzen, wodurch sie sich voneinander unterscheiden und aufgrund deren sie von den Teilnehmern ‚wahrgenommen‘ werden können.
  5. Wir unterscheiden zwischen der ‚Stimulation‘ der Sinnesorgane in Gestalt von sensorischem Input I durch die Objekte OBJ der Außenwelt (als $latex stim: SIT \times OBJ \longmapsto I$) und der eigentlichen Wahrnehmung als Ergebnis der internen Verarbeitung der Stimulation I in bewusste Perzepte P (als $latex perc: I \times IS \longmapsto IS \times P$) (‚IS‘ steht für irgendwelche internen Zustände, die bei diesem Prozess auch noch eine Rolle spielen.). Dies berücksichtigt, dass die gleichen Außenweltreize von verschiedenen Anderen unterschiedlich verarbeitet werden können.
  6. Objekte in der Außenwelt werden — auf unterschiedliche Weise — so wahrgenommen, als ob sie sich in einem dreidimensionalen Raum befinden. Dies bedeutet, eine Situation hat eine ‚Raumstruktur‘, in der die Objekte in bestimmten Positionen und Lagen vorkommen. Dadurch ergeben sich zwischen den Objekten charakteristische räumliche Beziehungen. Während die Stimulation der Sinnesorgane diese räumlichen Strukturen partiell ‚vereinfacht‘, kann die Wahrnehmung mit Unterstützung des Gehirns daraus partiell räumliche Strukturen ‚zurückrechnen‘.
  7. Wenn zwei Gegenstände sich im Raum der Außenwelt so befinden, dass wir sie wahrnehmen können (z.B. eine Schüssel auf dem Tisch und eine Hand, die in diese ‚Richtung‘ deutet), können wir außer der räumlichen Beziehung auch andere mögliche Beziehungen (z.B. eine ‚Zeigebeziehung‘) wahrnehmen. Diese Beziehungen existieren als mögliche ‚gedachte Beziehungen‘ im Bewusstsein eines Teilnehmers. Ein Teilnehmer kann sich unendlich viele Beziehungen denken.
  8. Dass ein Anderer A zwei Objekte der Außenwelt mit einer ‚gedachten Beziehung‘ verbinden kann, die der Bittende B in seinem Bewusstsein ’sich vorstellt’/ ‚denkt‘, setzt ferner voraus, dass es zwischen der Wahrnehmung und dem ‚Vorstellen’/ ‚Denken‘ zwischen A und B hinreichend viel ‚Ähnlichkeit‘ gibt. Könnte ein A grundsätzlich sich nicht jene ‚Beziehungen‘ ‚vorstellen‘, die sich B vorstellt, wenn er mit seiner Hand in Richtung eines bestimmten Gegenstands (z.B. der einen roten Schüssel …) deutet, dann könnte B so viel deuten wie er will, der Andere A würde sich einfach nicht vorstellen

Nach dieser — noch immer vereinfachenden — Darstellung des Sachverhalts, können wir uns dem Begriff des Zeichens zuwenden.

Der Begriff des Zeichens

Mit dieser Frage gerät man in den Bereich der allgemeinen Wissenschaft von den Zeichen, der Semiotik (Anmerkung: Die Geschichte der Semiotik ist lang und vielschichtig. Einen guten Überblick bietet Winfried Noeth in seinem ‚Handbuch der Semiotik‘ von 2000, publiziert von J.B. Metzler (Stuttgart/Weimar)). Obwohl es je nach Zeit und Denkmode sehr unterschiedliche Formulierungen gibt, kann man eine Kernstruktur erkennen, die sich in allen unterschiedlichen Positionen durchhält.

Allerdings sollte man sich vorab klar machen, ob man — wie es historisch zunächst der Fall war — den Begriff des Zeichens primär durch Bezugnahme auf den Raum des Bewusstseins charakterisieren will, oder durch Bezugnahme auf das beobachtbare Verhalten (wie es die empirischen Wissenschaften favorisieren).

Der berühmteste Vertreter einer bewusstseinszentrierten Vorgehensweise ist Charles Sanders Peirce (1839 – 1914). Für den verhaltensorientierten Ansatz einflussreich war Charles William Morris (1901 – 1979). Eine Kombination aus bewusstseinsbasierten und verhaltensorientierten Aspekten bietet Ferdinand de Saussure (1857 – 1913).

Der Gebrauch eines Zeichens setzt — wie zuvor — eine Kommunikationssituation voraus mit mindestens zwei Teilnehmern, die mit ihren Körpern in der Situation anwesend sind und über hinreichend gleiche Körperstrukturen für Wahrnehmung und Denken verfügen.

Am Beispiel der Situation des Essens möchte ich die rote Schüssel mit dem Nachtisch gereicht bekommen; diese steht nicht in meiner Griffweite. Ich sehe meine Schwester Martina so sitzen, dass Sie mir die Schüssel reichen könnte. Ohne Sprache könnte ich nur mit Handbewegungen und Gesichtsausdrücken versuchen, ihr klar zu machen, was ich möchte. Mit Sprache könnte ich Laute erzeugen, die als Schallwellen ihr Ohr erreichen und sagen würden ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘. Sofern meine Schwester Deutsch kann (was der Fall ist), wird sie diese Schallwellen in ihrem Kopf so ‚übersetzen‘, dass sie einen Bezug herstellt zu ihrer Wahrnehmung der roten Schüssel, zur Wahrnehmung von mir, und wird eine Aktion einleiten, mir die Schüssel zu reichen.

Der gesprochene Satz ‚Hallo M, kannst Du mir bitte mal die rote Schüssel reichen?‘ als ganzer stellt ein Ausdrucksmittel dar, bildet ein Material, mittels dessen ein Sprecher (in dem Fall ich), einen Hörer (in dem Fall meine Schwester) in die Lage versetzt, nur aufgrund des Schalls einen Bezug zu einem realen Objekt herzustellen und dieses Objekt in eine Handlung (mir das Objekt rüber reichen) einzubetten. Meine Schwester als Hörerin ist damit interpretierend tätig; sie stellt aktiv eine Verbindung her zwischen dem gehörten Schall und Elementen ihrer Wahrnehmung der Situation. Diese Interpretation befähigt sie, eine Handlung zu planen und auszuführen.

Rein verhaltensorientiert kann man sagen, dass die gesamte sprachliche Äußerung ein Zeichenmaterial darstellt, das vom Hörer intern ‚verarbeitet‘ wird, was zu einer bestimmten Handlung führt (die rote Schüssel reichen). Der Hörer nimmt hier eine Interpretation (Int) vor, durch die der Schall, das Zeichenmaterial (ZM) in Beziehung gesetzt wird zu etwas Wahrgenommenem; dies führt wiederum zu einer beobachtbaren Handlung, die damit zur Bedeutung (M) des Zeichenmaterials wird: $latex Int: ZM \longmapsto M$. Anders ausgedrückt, das Gesagte, der Sprachschall, bekommt durch diesen Zusammenhang eine neue Funktion; der Schall steht nicht mehr nur ‚für sich alleine‘, sondern es spielt eine Rolle in einer Beziehung. Damit wird das an sich neutrale Schallereignis zu einem ‚Zeichen‘. Ein Hörer verwandelt mit seiner Interpretation ein an sich neutrales Ereignis in ein Zeichen für etwas anderes, was man die Bedeutung des Zeichens nennt.

Als Wissenschaftler kann man hier weiter verallgemeinern und den Hörer als ein Input-Output-System betrachten mit dem Sprachschall und den visuellen Wahrnehmungen als Input I und dem beobachtbaren Verhalten als Output O und der Interpretation Int als Verhaltensfunktion $latex \phi$, geschrieben $latex \phi: I \times IS \longmapsto IS \times O$

Interpretieren

Wer die Thematik ‚Zeichen‘, ‚Semiotik‘, ‚Sprache‘, Sprachverstehen‘ usw. ein wenig kennt, der weiß, dass wir uns damit einer Materie genähert haben, die sehr umfangreich und beliebig kompliziert ist, so kompliziert, dass fast alle wirklich interessanten Fragen noch kaum als gelöst bezeichnet werden können. Ich beschränke mich daher hier nur auf einige Kernpunkte. Nach Bedarf müssten wir das vertiefen.

Wie man an dieser Stelle ahnen kann, ist der Vorgang des Interpretierens das eigentliche Herzstück des Zeichenbegriffs. Hier geschieht die Zuordnung zwischen gehörtem Schall (oder gelesenem Text, oder gesehenen Gesten, oder …) zu anderen bekannten Wissensinhalten, vorzugsweise zu Wahrnehmungselementen der aktuellen Situation. Will man die Details dieses Interpretationsprozesses beschreiben, hat man mit einem verhaltensbasierten Ansatz ein Problem: alles, was sich im ‚Innern‘ eines biologischen Systems abspielt, ist zunächst nicht beobachtbar. Da hilft es auch nicht, wenn man heute einen Körper ‚aufmachen‘ kann und Körperorgane, Zellen, Prozesse in den Zellen untersuchen kann. Schaltzustände von Zellen, speziell Gehirnzellen, sagen als solche nichts über das Verhalten. Es sei denn, man ist in der Lage, explizit einen Zusammenhang zwischen den Zuständen von Gehirnzellen und beobachtbarem Verhalten herzustellen, was in der Neuropsychologie zur Methode gehört. Ähnlich könnte man bei der expliziten Parallelisierung von beobachtbarem Verhalten und rein subjektiven Phänomenen vorgehen oder eine explizite Parallelisierung zwischen Aktivitäten von Gehirnzellen (oder auch anderer Zellen) mit rein subjektiven Phänomenen.

Die verhaltensbasierte empirische Psychologie hat in zahllosen Modellbildungen gezeigt, wie man auf der Basis von Verhaltensdaten empirisch kontrollierte Hypothesen über mögliche Verarbeitungsmechanismen im System formulieren kann. Wieweit diese Modelle sich im Rahmen von neuropsychologischen Studien in der Zukunft bestätigen lassen oder diese modifiziert werden müssen, das wird die Zukunft zeigen.

Abstraktionen – Allgemeinbegriffe

Wenn wir mittels sprachlicher Ausdrücke Gegenstände unserer Alltagswelt ansprechen, benutzen wir fast ausnahmslos sogenannte Allgemeinbegriffe. Ich frage nach der ‚Schüssel‘ wohl wissend, dass es hunderte von Gegenständen geben kann, die konkret verschieden sind, die wir aber alle als ‚Schüssel‘ bezeichnen würden; desgleichen mit Ausdrücken wie ‚Tasse‘, ‚Flasche‘, ‚Tisch‘, Stuhl‘, usw.

Indem wir sprachliche Ausdrücke benutzen machen wir stillschweigend Gebrauch von der Fähigkeit unseres Gedächtnisses, dass alles, was wir gegenständlich wahrnehmen, ‚verallgemeinert‘ wird, d.h. von Details abgesehen wird und Kerneigenschaften abstrahiert werden (die Philosophen sprechen auch von Kategorisierung, der Bildung von Kategorien; eine andere Bezeichnung ist das Wort ‚Klasse‘). Dies geschieht offensichtlich unbewusst, ‚automatisch‘; unser Gedächtnis arbeitet einfach so, stillschweigend, lautlos. Was immer wir wahrnehmen, es wird in ein abstraktes Konzept ‚übersetzt‘, und alles, was zukünftig diesem Konzept ‚ähnlicher‘ ist als anderen Konzepten, das wird dann diesem Konzept zugerechnet. Ein gedankliches Gegenstandskonzept kann auf diese Weise für viele hundert unterschiedliche konkrete Gegenstände stehen. Und die Sprache braucht immer nur ein einziges Wort für ein solches abstraktes Gegenstands-Konzept.

Im konkreten Fall (wie z.B. dem Essen) ist die Verständigung meist einfach, da vielleicht nur eine einzige Schüssel auf dem Tisch steht. Wenn nicht, dann haben diese Schüsseln eventuell eine unterscheidende Eigenschaft (anhand ihrer räumlichen Position, Farbe, Größe, Inhalt, …). Die Schüssel ’neben‘ …, die ‚rote‘ Schüssel…, die ‚kleine weiße Schüssel‘ …, die Schüssel mit dem Reis ….

Wenn wir den Interpretationsprozess genauer beschreiben wollen, dann müssten wir diese Abstraktionsprozesse und ihre Anwendung in die Theoriebildung mit einbeziehen.

Diese Abstraktionsprozesse finden wir nicht nur bei ‚Gegenständen‘, sondern auch bei der Lautwahrnehmung. Wen wir ein gesprochenes Wort wie ‚Tasse‘ hören, dann hören wir dieses gesprochene Wort auch dann, wenn es schneller, langsamer, höher, tiefer, lauter oder leiser usw. gesprochen wird. Alle diese verschiedenen Äußerungsereignisse sind physikalisch sehr unterschiedlich und die moderne Sprachtechnologie hat viele Jahrzehnte gebraucht, um ‚in den meisten Fällen‘ das ‚richtige‘ Wort zu erkennen. Wir Menschen gehen mit diesen vielen unterschiedlichen Realisierungen vergleichsweise mühelos um. Auch hier verfügt unser Wahrnehmungs- und Gedächtnissystem über sehr leistungsfähige Abstraktionsprozesse, die zur Ausbildung von Lautkategorien und dann Wortklassen führen.

Wechselwirkungen zwischen Kategorien und Sprache

Damit finden wir auf der untersten Ebene des sprachlichen Zeichengebrauchs zwei selbständige Abstraktions- und Kategoriensysteme (Laute, Gegenstände), die im Zeichengebrauch zusammen geführt werden. Bevor Kinder diese beiden Systeme nicht meistern, können sie nicht wirklich Sprache lernen. Wenn sie es aber geschafft haben, diese Laut- und Gegenstandskategorien in sich zu realisieren, dann explodiert ihr Sprachlernen. (Anmerkung: Für einen Überblick siehe: Language development. Besonders aufschlussreich sind die empirischen Daten zur Entwicklung der Lautbildung, des Bedeutungserwerbs und der Grammatik. Umfassendere Theoriebildungen sind meist sehr spekulativ.)

Eine oft diskutierte Frage ist, in wieweit die Kategorienbildung bei den Gegenständen unabhängig ist von der Korrelation mit den Laut- und Wortkategorien (Anmerkung: Siehe einen Überblick zum Streit über die Sapir-Whorf-Hypothese.). Sofern diese Abstraktionsprozesse in genetisch bedingten Verarbeitungsprozessen gründen (wie z.B. der Farbwahrnehmung) darf man davon ausgehen, dass die sprachlichen Besonderheiten diese grundsätzlichen Kategorienbildung im Gegenstandsbereich nicht verändern, höchstens unterschiedlich nutzen. Für das gemeinsame Erlernen von Sprache bildet die Unabhängigkeit der vorsprachlichen Kategorienbildung eine Voraussetzung, dass eine Sprache gelernt werden kann. Gibt es hier Abweichungen (Anmerkung: wie z.B. bei Farbblindheit, generell Sehstörungen oder gar Blindheit, bei Taubheit, bei Störungen der Sinneswahrnehmungen, usw.), dann wird das gemeinsame Erlernen von Sprache in unterschiedlichen Graden erschwert bzw. eingeschränkt.

Bedeutung als Werden

Man kann erkennen, dass schon auf dieser untersten Ebene des Sprachgebrauchs Menschen, obgleich sie das gleiche Wort benutzen (wie ‚Flasche‘, ‚Tasse‘, …), damit ganz unterschiedliche Dinge verbinden können, je nachdem welche konkreten Gegenstände sie im Laufe ihrer Lerngeschichte sie wahrnehmen konnten. Je weiter sich diese Gegenstände von einfachen Alltagsgegenständen entfernen und komplexere Gegenstände benennen wie Tätigkeiten (‚Autofahren‘, ‚Einkaufen‘, ‚Reparieren‘, ..), komplexe Situationen (‚Parkhaus‘, ‚Jahrmarkt‘, ‚Sportveranstaltung‘, …) oder komplexe Organisationen (‚Gemeindeverwaltung‘, ‚politische Partei‘, ‚Demokratie‘, …), umso vielfältiger und umso unschärfer (‚fuzzy‘) werden die damit eingeschlossenen konkreten Eigenschaften. So wunderbar die Verfügbarkeit von abstrakten Begriffen/ Klassen/ Kategorien/ Allgemeinbegriffen den Gebrauch von Sprache vereinfacht, so trügerisch können diese Begriffe sein. 10 Menschen benutzen das Wort ‚Gott‘ und jeder versteht damit möglicherweise etwas ganz anderes.

Der Aufbau einer gemeinsam geteilten Bedeutungswelt ist in keiner Weise ein ‚Selbstgänger‘; langer Atem, gemeinsame Anstrengungen, Abstimmungen, Abgleiche, viel Kommunikation ist notwendig, um Verstehen zu ermöglichen, Missverständnisse zu verringern und bewusster Manipulation entgegen zu treten.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.