Archiv der Kategorie: Information

Über die Welt reden

Dieser Text ist Teil des Textes „Neustart der Menschlichkeit (Rebooting humanity)“

(Die Englische Version findet sich HIER)

Autor Nr. 1 (Gerd Doeben-Henisch)

Kontakt: cagent@cognitiveagent.org

(Start: 5.Juni 2024, Letzte Änderung: 7.Juni 2024)

Ausgangspunkt

Es soll also ein ‚Text‘ geschrieben werden, der über die Welt spricht, einschließlich aller Lebewesen, und die Autoren sind im ersten Anlauf ‚Menschen‘. Bisher kennen wir keine Fälle, in denen Tiere oder Pflanzen selbst Texte schreiben: ihre Sicht des Lebens. Wir kennen nur Menschen die aus ‚ihrer menschlichen Sicht‘ über das Leben, über Tiere und Pflanzen schreiben. An dieser Vorgehensweise kann man viel kritisieren. Bei einem weiteren Nachdenken kann man dann vielleicht sogar feststellen, dass auch das ‚Schreiben von Menschen über andere Menschen und sich selbst‘ nicht ganz so trivial ist. Schon das Schreiben von Menschen ‚über sich selbst‘ ist fehleranfällig, kann völlig ‚daneben‘ laufen, kann vollständig ‚falsch‘ sein, was allerdings die Frager aufwirft, was denn ‚wahr‘ bzw. ‚falsch‘ ist. Man sollte also ein paar Gedanken darauf verwenden, wie wir Menschen so über die Welt und uns selbst reden können, dass wir gemeinsam eine Chance haben, nicht nur zu ‚fantasieren‘, sondern etwas zu erfassen, was ‚real‘ ist, was etwas von dem beschreibt, was uns als Menschen, als Lebewesen, als Bewohner dieses Planeten ‚real‘ auszeichnet. … aber dann poppt schon wieder die Frage auf, was denn ‚real‘ ist? Drehen wir uns im Kreis von Fragen mit Antworten, wo die Antworten selbst schon wieder Fragen sind, bei näherem Hinschauen?

Erste Schritte

Leben auf Planet Erde

Beim Start des Schreibens gehen wir davon aus, dass es den ‚Planet Erde‘ gibt und auf diesem Planeten gibt es etwas, das wir ‚Leben‘ nennen, und wir Menschen — zur Lebensform des Homo sapiens gehörend — sind Teil davon.

Sprache

Wir gehen auch davon aus, dass wir Menschen über die Fähigkeit verfügen, mittels Lauten miteinander zu kommunizieren. Diese Laute, die wir für die Kommunikation benutzen, nennen wir hier ‚Sprachlaute‘, um anzudeuten, dass die Gesamtheit der Laute für die Kommunikation ein ‚System‘ bilden, das wir letztlich ‚Sprache‘ nennen.

Bedeutung

Da wir Menschen auf diesem Planeten in der gleichen Situation für die ‚gleichen Objekte‘ ganz unterschiedliche Laute benutzen können, deutet sich an, dass die ‚Bedeutung‘ von Sprachlauten nicht fest an die Sprachlaute geknüpft ist, sondern irgendwie etwas mit dem zu tun hat, was ‚in unserem Kopf‘ stattfindet. Leider können wir nicht ‚in unseren Kopf‘ hineinschauen. Da scheint viel zu passieren, aber dieses Geschehen im Kopf ist ‚unsichtbar‘.[1] Trotzdem erleben wir im ‚Alltag‘, dass wir uns mit anderen ‚einigen‘ können, ob es gerade ‚regnet‘ oder ob es irgendwie ’stinkt‘ oder da auf dem Gehweg eine Mülltonne steht, die den Weg versperrt oder …. Also irgendwie scheint das ‚Geschehen im Kopf‘ bei unterschiedlichen Menschen gewisse ‚Übereinstimmungen‘ aufzuweisen, so dass nicht nur ich etwas Bestimmtes sehe, sondern der andere auch, und wir können sogar die gleichen Sprachlaute dafür benutzen. Und da ein Programm wie chatGPT meine Deutschen Sprachlaute z.B. in Englische Sprachlaute übersetzen kann, kann ich feststellen, dass ein anderer Mensch, der kein Deutsch spricht, statt meines Wortes ‚Mülltonne‘ z.B. das Wort ‚trash bin‘ benutzt und dann auch zustimmend nickt: ‚Yes, there is a trash bin‘. Wäre das ein Fall für eine ‚wahre Aussage‘?

Veränderungen und Erinnerungen

Da wir täglich erleben, wie der Alltag sich ständig ‚verändert‘, wissen wir, dass etwas, was gerade mal Zustimmung fand, im nächsten Moment keine Zustimmung mehr findet, weil die Mülltonne nicht mehr da steht. Diese Änderungen können wir aber nur bemerken, weil wir etwas haben, was wir ‚Erinnerung‘ nennen: wir können uns daran erinnern, dass eben an einer bestimmte Stelle eine Mülltonne stand, jetzt aber nicht mehr. Oder ist diese Erinnerung nur eine Einbildung? Kann ich meiner Erinnerung trauen? Wenn jetzt alle anderen sagen, da war doch keine Mülltonne, ich mich aber meine zu erinnern, was heißt dies?

Konkreter Körper

Ja, und dann mein Körper: immer wieder muss ich was trinken, etwas essen, bin nicht beliebig schnell, brauche etwas Platz, …. mein Körper ist etwas sehr Konkretes, mit allerlei ‚Empfindungen‘, ‚Bedürfnissen‘, einer bestimmten ‚Form‘, …. der sich im Laufe der Zeit sogar ändert: er wächst, er altert, er kann krank werden, …. ist er wie eine ‚Maschine‘?

Galaxien von Zellen

Wir wissen heute, dass unser menschlicher Körper weniger einer ‚Maschine‘ gleicht als vielmehr einer ‚Galaxie von Zellen‘. Unser Körper hat etwa 37 Billionen (10¹2) Körperzellen mit weiteren 100 Billionen Zellen im Darm, die für unser Verdauungssystem lebenswichtig sind, und diese Zellen zusammen bilden das ‚System Körper‘.[2] Das bislang eigentlich Unfassbare ist, dass diese ca. 140 Billionen Zellen ja jeweils komplett autonome Lebewesen sind, mit allem, was es zum Leben braucht. Und wenn man weiß, wie schwer wir uns als Menschen tun, schon zwischen fünf Menschen auf Dauer eine Kooperation aufzubauen und aufrecht zu halten, dann kann man zumindest ansatzweise ein wenig ahnen, was es heißt, dass 140 Billionen Lebewesen es in jeder Sekunde — und über viele Jahre, ja Jahrzehnte hinweg — schaffen, miteinander so zu kommunizieren und koordiniert zu handeln, dass das Gesamtkunstwerk ‚menschlicher Körper‘ existiert und funktioniert.

Entstehung als Frage

Und da es keinen ‚Befehlshaber‘ gibt, der allen Zellen ständig sagt, was sie tun sollen, erweitert sich dieses ‚Wunder des Systems Mensch‘ weiter um die Dimension, woher das Konzept kommt, das diese ‚Super-Galaxie der Zellen‘ dazu befähigt, so zu sein, wie sie sind. Wie funktioniert dies? Wie ist es entstanden?[3]

Hinter die Phänomene schauen

Im weiteren Verlauf wird es darauf ankommen, ausgehend vom Alltag nach und nach die ‚Oberfläche der Alltagsphänomene‘ zu durchdringen, um jene Strukturen sichtbar zu machen, die ‚hinter den Phänomenen‘ am Werke sind, jene Strukturen, die alles zusammenhalten und gleichzeitig alles beständig bewegen, verändern.

Grunddimension Zeit

Dies alles impliziert das Phänomen ‚Zeit‘ als Grundkategorie aller Wirklichkeit. Ohne Zeit gibt es auch keine ‚Wahrheit‘ …

[1] Spezialisten für Gehirnforschung werden natürlich gleich ihre Hand erheben und werden sagen wollen, dass sie mittlerweile sehr wohl ‚in den Kopf schauen‘ können, aber warten wir ab, was es mit diesem ‚in den Kopf hineinschauen‘ auf sich hat.

[2] Wenn wir für die Anzahl der Sterne in unserer Heimatgalaxie der Milchstraße mit geschätzten 100 – 400 Milliarden Sterne mal annehmen, dass es 200 Milliarden sind, dann würde unser Körpersystem dem Umfang von 700 Galaxien im Format der Milchstraße entsprechen, eine Zelle für einen Stern.

[3] Verschiedene Disziplinen der Naturwissenschaften, besonders sicher die Evolutionsbiologie, haben in den letzten ca. 150 Jahren viele Aspekte dieses Mega-Wunders partiell ausgeleuchtet. Man kann über die physikalische Sicht unsres Universum staunen, aber verglichen mit den Super-Galaxien des Lebens auf dem Planet Erde erscheint das physikalische Universum geradezu ‚langweilig‘ … Keine Angst: letztlich hängt beides untereinander zusammen: das eine erklärt das andere …

Geschichten erzählen

Fragmente des Alltags – ohne Kontext

Wir reden ständig über irgend etwas: das Essen, das Wetter, der Verkehr, die Preise beim Einkaufen, Tagesnachrichten, die Politik, den Chef, die Kollegen, Sportereignisse, Musik, …. meistens sind es ‚Fragmente‘ aus dem größeren Ganzen, das wir ‚Alltag‘ nennen. Menschen in einem der vielen Krisengebiete auf diesem Planeten, speziell jene in Unwetterkatastrophen oder gar im Krieg …, leben konkret in einer ganz anderen Welt, in einer Welt von Überleben und Tod.

Diese Fragmente mitten im Leben sind konkret, betreffen uns, aber sie erzählen aus sich heraus keine Geschichte, wo sie herkommen (Bomben, Regen, Hitze,…), warum sich dies ereignet, wie sie mit anderen Fragmenten zusammen hängen. Der Regen, der herunter prasselt, ist ein einzelnes Ereignis an einem bestimmten Ort zu einer bestimmten Zeit. Die Brücke, die gesperrt werden muss, weil sie überaltert ist, lässt aus sich heraus auch nicht erkennen, warum gerade diese Brücke, warum gerade jetzt, warum konnte man dies nicht ‚voraus sehen‘? Die Menschen, die ‚zu viel‘ sind in einem Land oder auch ‚zu wenig‘: Warum ist das so? Konnte man dies voraus sehen? Was können wir tun? Was sollten wir tun?

Der Strom der einzelnen Ereignisse trifft auf uns, mehr oder weniger wuchtig, vielleicht auch einfach als ‚Rauschen‘: wir sind so daran gewöhnt, dass wir bestimmte Ereignisse schon gar nicht mehr wahrnehmen. Aber diese Ereignisse als solche erzählen keine ‚Geschichte über sich selbst‘; sie finden einfach statt, scheinbar unwiderstehlich; manche sagen ‚Das ist Schicksal‘.

Bedürfnis nach Sinn

Auffällig ist, dass wir Menschen aber doch versuchen, dem Ganzen einen ‚Sinn‘ zu geben, eine ‚Erklärung‘ zu suchen, warum dies so ist. Und der Alltag zeigt, dass wir viel ‚Fantasie‘ haben, was mögliche ‚Zusammenhänge‘ oder ‚Ursachen‘ betrifft. Im Blick zurück in die Vergangenheit lächeln wir gerne über verschiedene Erklärungsversuche von unseren Vorfahren: solange man über die Details unseres Körpers und überhaupt über das Leben nichts wusste, war jede Geschichte möglich. [1] In unserer Zeit mit einer seit ca. 150 Jahren etablierter Wissenschaft gibt es aber immer noch viele Millionen von Menschen (möglicherweise Milliarden?), die von Wissenschaft nichts wissen und bereit sind, nahezu jede Geschichte zu glauben, nur weil ein anderer Mensch diese Geschichte überzeugend erzählt.

Befreiung vom Augenblick durch Worte

Aufgrund dieser Fähigkeit, mit der ‚Kraft der Fantasie‘ Dinge, die man erlebt, in eine ‚Geschichte‘ zu packen, die ‚mögliche Zusammenhänge‘ andeuten, durch die Ereignisse einen ‚gedanklichen Sinn‘ bekommen, kann der Mensch versuchen, sich aus der scheinbaren ‚Absolutheit des Augenblicks‘ in gewisser Weise zu ‚befreien‘: ein Ereignis, das sich in einen ‚Zusammenhang einordnen‘ lässt, verliert seine ‚Absolutheit‘. Allein schon durch diese Art von Erzählung gewinnt der erlebende Mensch ein Stück ‚Macht‘: im Erzählen eines Zusammenhangs kann er Erzähler das Erlebnis ‚zur Sache‘ machen, über die er ’nach eigenem Gutdünken‘ verfügen kann. Diese ‚Macht durch das Wort‘ kann ‚Angst‘ lindern, die ein Ereignis auslösen kann. Dies durchzieht die Geschichte der Menschheit von den Anfängen an, soweit es die archäologischen Zeugnisse hergeben.

Vielleicht ist es nicht verkehrt, den Menschen nicht als erstes als ‚Jäger und Sammler‘ oder als ‚Ackerbauer‘ oder so einzuordnen, sondern als ‚den, der Geschichten erzählt‘.

[1] Ein solches Zauberwort war in der griechischen Philosophie der Begriff ‚Atem‘ (griechisch „pneuma“). Der Atem kennzeichnete nicht nur das individuell Lebendige, sondern wurde auch verallgemeinert zum Lebensprinzip von allem, das sowohl Körper, Seele und Geist verband wie auch das ganze Universum durchwirkte. Im Lichte des heutigen Wissens könnte man diese ‚Erklärung‘ nicht mehr erzählen, aber vor ca. 2300 Jahren war diese Überzeugung unter allen Intellektuellen ein gewisser ‚intellektueller Standard‘, das herrschende ‚Weltbild‘; man ‚glaubte‘ es. Wer etwas anderes befand sich außerhalb dieses ‚Sprachspiels‘.

Organisation einer Ordnung

Denken erschafft Beziehungen

Sobald man mittels ‚Sprache‘ einzelne Ereignisse, Sachen, Vorgänge, Eigenschaften von Sachen und mehr ‚benennen‘ kann, verfügen Menschen offensichtlich über die Fähigkeit, mittels Sprache eben nicht nur zu ‚benennen‘, sondern ‚Benanntes‘ durch ‚Anordnung von Worten im sprachlichen Ausdruck‘ in ‚gedachte Beziehungen‘ einzubetten, wodurch das einzeln Benannte nicht mehr ‚isoliert‘ vorkommt sondern ‚gedanklich verbunden‘ mit anderem. Diese grundlegende Fähigkeit eines Menschen, ‚in seinem Kopf‘ ‚Beziehungen zu denken‘, die man ‚gar nicht sehen‘, wohl aber ‚denken‘ kann [1], ist natürlich nicht auf einzelne Ereignisse und nicht auf eine einzige Beziehung beschränkt. Letztlich können wir Menschen ‚alles‘ zum Thema machen und wir können ‚jedmögliche Beziehung‘ in unserm Kopf ‚denken‘; hier gibt es keine grundsätzliche Beschränkung.

Geschichten als Naturgewalt

Nicht nur die Geschichte ist voll von Beispielen, auch unsere Gegenwart. Dass heute trotz der unfassbaren Erfolge der modernen Wissenschaft in unserem Alltag weltweit nahezu über alle Kanäle die wildesten Geschichten mit ‚rein gedachten Beziehungen‘ erzählt und auch sofort geglaubt werden, das sollte uns zu denken geben. Unsere grundlegende Eigenschaft, dass wir Geschichten erzählen können, um die Absolutheit des Augenblicks zu durchbrechen, hat offensichtlich den Charakter einer ‚Naturgewalt‘, die so tief in uns verortet ist, dass wir sie nicht ‚ausrotten‘ können; wir können sie vielleicht ‚zähmen‘, sie vielleicht ‚kultivieren‘, aber wir können sie nicht stoppen. Es ist eine ‚elementare Eigenschaft‘ unseres Denkens, sprich: unseres Gehirns im Körper.

Gedacht und Überprüft

Die Erfahrung, dass wir, die wir diejenigen sind, die Geschichten erzählen, damit Ereignisse benennen und in Beziehungen einordnen können — und zwar letztlich unbegrenzt — kann zwar real zum Chaos führen, wenn das erzählte Beziehungsgeflecht letztlich ‚rein gedacht‘ ist, ohne echten Bezug zur ‚realen Welt um uns herum‘, aber es ist zugleich auch unser größtes Kapital, da wir Menschen uns damit nicht nur grundsätzlich von der scheinbaren Absolutheit der Gegenwart befreien können, sondern wir können mit dem Erzählen von Geschichten Ausgangspunkte schaffen, ‚zunächst bloß gedachte Beziehungen‘, die wir dann aber konkret in unserem Alltag ‚überprüfen‘ können.

Ein Ordnungssystem

Wenn jemand zufällig einen anderen Menschen sieht, der irgendwie ganz anders aussieht als er es gewohnt ist, dann bilden sich in jedem Menschen automatisch alle möglichen ‚Vermutungen‘, was das da für ein Mensch ist. Belässt man es bei diesen Vermutungen, dann können diese wilden Vermutungen den ‚Kopf bevölkern‘ und die ‚Welt im Kopf‘ wird mit ‚potentiell bösen Menschen‘ bevölkert; irgendwann sind sie dann vielleicht schlicht ‚böse‘. Nimmt man aber Kontakt zu dem anderen auf, könnte man vielleicht feststellen, dass er eigentlich nett ist, interessant, lustig oder dergleichen. Die ‚Vermutungen im Kopf‘ verwandeln sich dann in ‚konkrete Erfahrungen‘, die anders sind als zunächst gedacht. ‚Vermutungen‘ in Kombination mit ‚Überprüfung‘ können so zur Bildung von ‚wirklichkeitsnahen Vorstellungen von Beziehungen‘ führen. Damit hat ein Mensch die Chance, sein ’spontanes Geflecht an gedachten Beziehungen‘, die falsch sein können — und meistens auch sind — in ein ‚überprüftes Geflecht von Beziehungen‘ zu verwandeln. Da letztlich die gedachten Beziehungen als Geflecht für uns ein ‚Ordnungssystem‘ aufspannen, in dem die Dinge des Alltags einbettet sind, erscheint es erstrebenswert, mit möglichst ‚überprüften gedachten Beziehungen‘ zu arbeiten.

[1] Der Atem des Menschen mir gegenüber, der bei den Griechen mein Gegenüber mit der Lebenskraft des Universums verbindet, die wiederum auch mit dem Geist un d der Seele zusammenhängt …

Hypothesen und Wissenschaft

Herausforderung: Methodisch geordnetes Vermuten

Die Fähigkeit zum Denken von möglichen Beziehungen, dann auch mittels Sprache, ist angeboren [1], aber die ‚Nutzung‘ dieser Fähigkeit im Alltag, z.B. so, dass wir gedachte Beziehungen mit der Wirklichkeit des Alltags abgleichen, dieses ‚Abgleichen’/ ‚Überprüfen‘ ist nicht angeboren. Wir können es tun, müssen es aber nicht tun. Es ist von daher interessant, sich zu vergegenwärtigen, dass seit dem ersten Auftreten des Homo sapiens auf diesem Planeten [2] 99,95% der Zeit vergangen sind, bis es zur Etablierung einer organisierten modernen Wissenschaft vor ca. 150 Jahren gekommen ist. Man kann dies als Hinweis deuten, dass der Übergang vom ‚freien Vermuten‘ bis zu einem ‚methodisch geordneten systematischen Vermuten‘ alles andere als einfach gewesen sein muss. Und wenn heute immer noch ein Großteil der Menschen — trotz Schule und sogar Studium –[3] eher dem ‚freien Vermuten‘ zuneigen und sich mit geordneter Überprüfung schwer tun, dann scheint es hier tatsächlich eine nicht leichte Schwelle zu geben, die ein Mensch überwinden muss — und immer wieder neu muss — , um vom ‚freien‘ zum ‚methodisch geordneten‘ Vermuten überzugehen.[4]

Ausgangspunkt für Wissenschaft

‚Der Übergang vom alltäglichen Denken zum ‚wissenschaftlichen Denken‘ ist fließend. Das Erzeugen von ‚gedachten Beziehungen‘ in Verbindung mit Sprache aufgrund auch unserer Fähigkeit der Kreativität/ der Fantasie ist letztlich auch der Ausgangspunkt von Wissenschaft. Während wir im alltäglichen Denken eher spontan und pragmatisch ’spontan gedachte Beziehungen‘ ‚überprüfen‘, versucht die ‚Wissenschaft‘ solche Überprüfungen ’systematisch‘ zu organisieren, um dann solche ‚positiv überprüften Vermutungen‘ als ‚empirisch überprüfte Vermutungen‘ bis zum Beweis des Gegenteils als ‚bedingt wahr‘ anzunehmen. Statt von ‚Vermutungen‘ spricht die Wissenschaft gerne von ‚Hypothesen‘ oder ‚Arbeitshypothesen‘, aber es bleiben ‚Vermutungen‘ durch die Kraft unsres Denkens und durch die Kraft unserer Fantasie.[5]

[1] Dies bedeutet, die genetische Information, die der Entwicklung unseres Körpers zugrunde liegt, ist so beschaffen, dass unser Körper mit seinem Gehirn während der Wachstumsphase so aufgebaut wird, dass wir genau über diese Fähigkeit zum ‚Denken von Beziehungen‘ verfügen. Interessant hier wieder die Frage, wie es möglich ist, dass sich aus einer einzigen Zelle ca. 13 Billionen Körperzellen (die ca. 100 Billionen Bakterien im Darm kommen ‚von außen‘ dazu) so entwickeln können, dass sie als ‚Gesamteindruck‘ das ‚Bild des Menschen‘ erzeugen, das wir kennen

[2] Nach heutigem Kenntnisstand vor ca. 300.000 Jahren in Ostafrika und in Nordafrika, von wo der Homo sapiens dann die gesamte Welt erwandert und erobert hat (es gab noch Reste von anderen Menschenformen, die schon länger da waren).

[3] Repräsentative empirische Studien dazu, wie viele Menschen einer Bevölkerung dazu neigen, sind mir nicht bekannt.

[4] Berücksichtigt man, dass wir Menschen als Lebensform Homo sapiens erst nach ca. 3.8 Milliarden Jahren auf diesem Planeten erschienen sind, dann machen die 300.000 Jahre Homo sapiens grob 0,008% der gesamten Zeit aus, seitdem es Leben auf dem Planeten Erde gibt. Wir sind also nicht nur als Homo sapiens ein sehr spätes ‚Produkt‘ des Lebensprozesses, sondern innerhalb unseres Homo sapiens Lebensprozesses taucht die Fähigkeit zum ’systematischen Überprüfen von Hypothesen‘ auch erst ‚ganz spät‘ auf. Aufs ganze Leben bezogen scheint daher diese Fähigkeit extrem wertvoll zu sein, was ja auch stimmt, betrachtet man die unfassbaren Erkenntnisse, die wir als Homo sapiens mit dieser Form zu denken gewinnen konnten. fragt sich nur, wie wir mit diesem Wissen umgehen. Auch diese Verhaltensweise, systematisch überprüftes Wissen dann zu nutzen, ist nicht angeboren.

[5] Die Fähigkeit der ‚Fantasie‘ ist kein Gegensatz zum ‚Wissen‘, sondern ist etwas ganz anderes. ‚Fantasie‘ ist eine Eigenschaft, die sich in dem Moment ‚zeigt‘, wo wir anfangen zu denken, vielleicht sogar schon darin, ‚dass‘ wir überhaupt denken. Da wir im Prinzip über ‚alles‘ Nachdenken können, was unsrem Denken ‚erreichbar‘ ist, ist die Fantasie ein Faktor, der hilft, ‚Auszuwählen‘, was wir denken. Fantasie ist insoweit dem Denken vor-gelagert.

REALITÄT WAHRNEHMEN … ist doch so einfach.

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 13.Juni 2020

KONTEXT

In dem vorausgehenden — leicht allegorischen — Beitrag von den Menschen im dunklen Zimmer habe ich ein Phänomen unseres Alltags im Jahr 2020 beschrieben. Fake News und Weltverschwörungstheorien bilden den Aufhänger, aber — bei näherer Betrachtung — kann man den Eindruck gewinnen, wir haben es hier nicht mit Ausnahmen zu tun, nicht mit ‚Verzerrungen von uns selbst‘, nein, wir haben es mit uns zu tun, mit uns selbst, so wie wir real sind, so, wie wir funktionieren, wenn wir überhaupt funktionieren.

UREREIGNIS WAHRNEHMUNG

Wir haben uns so sehr daran gewöhnt, dass wir etwas Wahrnehmen, Dinge, Farben, Gerüche, Geräusche, Getstalten, Formen, Konstellationen von Objekten, Zusammenhänge, Veränderungen, … dass wir uns darüber eigentlich nicht mehr wundern. Es ist einfach so. Wir nehmen wahr. Und das, was wir wahrnehmen, das ist für uns wirklich, real, es ist das, was ist, und nichts anderes.

ZWEITE WAHRNEHMUNG

Und doch sollten wir gelegentlich darüber nachdenken, was da gerade passiert, wenn wir wahrnehmen. Es ist eine zweite Wahrheit, die uns quasi mitgegeben ist, als Grundausstattung, als Besonderheit: während wir wahrnehmen, können wir irgendwie wissen, dass wir wahrnehmen. Wir können ansatzweise unterscheiden, ob wir aktuell etwas Reales wahrnehmen, oder ob wir uns an etwas erinnern, was wir schon mal wahrgenommen haben. Oder, sogar das funktioniert, wir können wissen, ob wir gerade herum fantasieren oder — noch radikaler — ob wir im Schlaf träumen. Ansatzweise können wir das.

ES WAR MAL ANDERS

Während wir also da vor uns hin Wahrnehmen, Erinnern, Fantasieren oder Träumen könnte es bisweilen hilfreich sein, dass wir uns darüber bewusst werden, dass es mindestens ca. 10 + 3 Mrd. Jahre gebraucht hat, bis sogenanne unbelebte Materie in Form von Atomen und Molekülen es geschafft hatte, sich so zu formieren, dass angebliche tote Materie in der Lage war, andere tote Materie wahr zu nehmen. Tatsächlich gibt es keine tote Materie, Materie ist von Grund auf extrem ’nicht tot‘, aber es gefällt uns, von der Materie als ‚tot‘ zu sprechen und von uns als ‚lebendig‘. Das entscheidende Ereignis nach den ersten ca. 10 Mrd. Jahren Universum war die Entstehung der allerersten Strukturen, die wir gewöhnlich biologische Zellen nennen.

BIOLOGISCHE ZELLEN

In einer biologischen Zelle sind angeblich tote Moleküle so angeordnet, dass bei der Reproduktion einer Zelle einige tote Moleküle andere tote Moleküle als Bauanleitung benutzen, andere, neue tote Moleküle zu konstruieren. Die Wissenschaft hat früh begonnen, hier von Information zu sprechen, dass die einen toten Moleküle einen Informationsspeicher bilden, einen Bauplan, anhand dessen andere tote Moleküle ein komplexes Gebilde von vielen toten Molekülen konstruieren, die miteinander auf komplexe Weisse kooperieren.

SÜNDENFALL INFORMATION

Die Einführung des Wortes Information an dieser Stelle sollte wohl etwas Besonderes markieren, darauf hinweisen, dass hier etwas Außergewöhnliches im Gang ist, da der Begriff ‚Information‘ kein Begriff ist, der sich einfach so im Bereich der Molekularbiologie ergibt, aber mit der Einführung des Begriffs ‚Infomation‘ in diesem Kontext wurde nur ein Marker gesetzt, ein Ausrufezeichen, ein Hinweis für andere; das Entscheidende aber ist nicht passiert. Niemand hat — nicht bis heute — erklärt, warum ein totes Molekül plötzlich ein anderes totes Molekül behandelt als ob es ein Informationsträger sei. Dies ist keine normale Verhaltensweise eines toten Moleküls. Tote Moleküle wechselwirken zwar mit anderen toten Molekülen auf physikalisch-chemische Weise, aber dass ein totes Molekül auf ein anderes explizit so reagiert, als ob es ein Informationsträger sei, und dass aus dem weiteren Verhalten eines toten Moleküls ein Prozess entsteht, der zur Bildung von anderen toten Molekülen führt, die ein hochkomplexes Gebilde ergeben, das wir heute biologische Zelle nennen, das ist weder selbstverständlich noch folgt es aus der Beschaffenheit toter Moleküle. Einem einzelnen Molekül kann man nicht ansehen, dass es andere tote Moleküle als Informationsträger behandeln kann.

Die Benutzung der Wortmarke Information in diesem Kontext ist — so wie es bislang gehandhabt wird — eher irreführend. Das Wort ‚Information‘ ist im biologischen Kontext bis heute nur ansatzweise definiert ist. Die bislang beste Definition des Begriffs ‚Information‘ findet sich in Publikationen von Claude Shannon 1948/1949, weil er dort ein geschlossenes formales Konzept vorstellt, in dem der Begriff ‚Information‘ eine klare Bedeutung hat. Allerdings, die Verwendung des Begriffs ‚Information‘ bei Shannon und der Begriff ‚Information‘ im Kontext von toten Zellen, die sich so verhalten, als ob eine tote Zelle einen Bauplan enthalte, haben so gut wie nichts miteinander zu tun. Die Verwendung des Begriffs ‚Information‘ bei Shannon ist eine völlig andere als jene im Kontext einer biologischen Zelle bei der Reproduktion. Womit sich die Frage stellt, wie man den Begriff der Zellen-Information von dem Begriff der Shannon-Information abgrenzen kann. Was ist hier anderes? Was — und das ist die entscheidende Frage — ist der formale Zusammenhang im Fall der biologischen Zelle, durch den verständlich wird, warum die einen toten Zellen unter bestimmten Bedingungen sich so verhalten, als ob die anderen toten Zellen eine Bauanleitung darstellen?

Shannon hatte eine klare Theorie von Sender und Empfänger, verbunden durch einen Kanal, und er konnte durch entsprechende formale Annahmen einen Rahmen definieren, innerhalb dessen man dann weiter Wahrscheinlichkeiten definieren konnte, ob und wie bestimmte formale Ereignisse in dem Kanal stattfinden. Im Fall des Phänomens des Bauplans geht es aber in erster Linie nicht um irgendwelche Wahrscheinlichkeiten (indirekt natürlich auch, irgendwie, sekundär), sondern um die Etablierung einer Abbildungsbeziehung zwischen einem toten Molekül auf der einen Seite und dem Verhalten von vielen anderen toten Molekülen auf der anderen! Die beteiligten toten Moleküle blieben das, was sie immer waren und sind, tote Moleküle, aber es gibt das Phänomen, dass an sich tote Moleküle sich unter bestimmten Bedingungen so verhalten, als ob sie ein totes Molekül als Bauplan erkennen und darauf hin viele tote Moleküle sich so verhalten, als ob sie diesen Bauplan umsetzen.

… WENN ES KOMPLEX WIRD

Die entscheidende Eigenschaft kann man also nicht erkennen, wenn man die beteiligten toten Moleküle einzeln betrachtet, sondern nur, wenn man sie als Gesamtheit betrachtet und darauf achtet, wie sie sich im Verlauf der Zeit zueinander verhalten. Für Eigenschaften, die sich an einer Gesamtheit zeigen, ohne dass diese aus den Eigenschaften der Elemente einzeln ableitbar wären, gibt es die beiden Begriffe Komplexität und Emergenz: Gesamtheiten von Elementen, die als Gesamtheit Eigenschaften zeigen, die sich von den Elementen einzeln so nicht behaupten lassen, nennt man (nach einer Definition von Weaver) komplex, und das Auftreten solcher Eigenschhaften von komplexen Systemen, nennt man emergent. Das Auftreten der Eigenschaft Zell-Informationen im Kontext von biologischen Zellen ist daher ein emergentes Phänomen weil biologische Zellen als besondere Ansammlungen toter Moleküle komplexe Systeme sind. Die Existenz von dicken Büchern mit über tausend Seiten Umfang zur Erklärung der biologischen Zelle kann nicht darüber hinweg täuschen, dass das entscheidende emergente Phänomen der Zell-Informationen damit noch nicht hinreichend erklärt ist. Wir wissen jetzt Vieles mehr, aber das Entscheidende wissen wir immer noch nicht.

ZURÜCK ZUR ALLTAGSWAHRNEHMUNG

Das Phänomen der Wahrnehmung von Welt ohne dass man sich unbedingt bewusst macht, dass und wie man wahrnimmt, ist also nicht wirklich neu. Schon zum Beginn des biologischen Lebens gibt es dieses Wunder der Information als Basis jeglichen weiteren Lebens, ohne dass wir darüber bis heute wirklich Rechenschaft abgelegt haben, wie dies möglich ist, was das bedeutet.

Und, seien wir ehrlich: wie viele von Ihnen haben schon mal länger als nur für einen kurzen Moment Gedanken daran verschwendet, wie es denn überhaupt möglich ist, dass wir die Welt wahrnehmen, wo doch unser Gehirn im Körper eingeschlossen ist, und von der Welt ‚da draußen‘ direkt nichts weiß? Wer von Ihnen hat denn schon mal länger darüber nachgedacht, was man von den schönen bunten Bildern von der Welt halten soll, wo wir doch auf Schritt und Tritt feststellen, dass so viele andere Menschen ganz andere Meinungen entwickeln wie wir selbst? Warum können wir so sicher sein, dass im Zweifelsfall immer die anderen die ‚Idioten‘ sind, wir aber auf jeden Fall Recht haben?

BENUTZTE QUELLEN

Warren Weaver, A quarter century in the natural sciences. In Rockefeller Foundation Annual Report,1958, pages 7–15, Publisher: Rockefeller Foundation,1958 (Achtung: der ursprünliche Link mit dem Dokument funktioniert leider nicht mehr). Eine Diskussion der Begriffe Komplexität und Emergenz mit besonderer Berücksichtigung von Weaver findet sich HIER.

KONTEXT ARTIKEL

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

PROBLEME und LÖSUNGEN. Überlegungen zur Zukunftsfähigkeit

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 17.Sept. 2019
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Das Reden von der ‚Zukunft‘ klingt oft so isoliert, so abgetrennt, so fern, so unerreichbar, und doch begleitet uns die potentielle Zukunft — unsere potentielle Zukunft — auf Schritt und Tritt in unserem Handeln.

Es sind unsere eigenen Entscheidungen, was wir tun wollen, die immer wieder einen kleinen Schritt in eine bestimmte Richtung nach nicht ziehen, die unsere Zukunft eröffnen.

Natürlich sind diese individuellen Entscheidungen nicht isoliert vom Kontext, vom gesamten Lebenszusammenhang, aber doch, ja, wir kopieren nicht irgendetwas, wir mit unserer konkreten Persönlichkeit erzeugen ein kleines Stück Wirklichkeit, das eine Teil des je größeren Zukunftsszenariums darstellt.

Diese unseren individuellen konkreten Handlungen können zufällig sein, intuitiv, mögen planlos erscheinen, aber in der Regel stehen dahinter konkrete Motivationen, bestimmte Bilder, die wir aktuell von der Welt haben, und das Ganze meistens mit anderen vernetzt durch Kommunikation.

Im allgemeineren Fall, dort, wo es etwas professioneller wird, begegnet uns die Zukunft im Rahmen von Problemlösungen. Einer bestimmten Gruppe von Menschen stellt sich ein ‚Problem‘ verbunden mit einer minimalen ‚Vision‘ wie es denn stattdessen sein sollte, und dann versucht man diese Vision möglich zu machen, ein Stück Arbeit für die Zukunft und dann deren Realisierung.

Probleme müssen in vielen Bereichen gelöst werden und entsprechend haben sich in vielen Bereichen unterschiedliche Vorgehensweisen etabliert, wie man das macht: in den empirischen Wissenschaften, bei den Ingenieuren, bei Ärzten, Architekten, Kriminalpolizei, im Case Management, und vielem mehr.

Im folgenden Text soll von diesen speziellen Verfahren abstrahiert werden und der Frage nachgegangen werden, wie eine Problemlösung im Alltag funktionieren kann bei der beliebige Menschen beteiligt sind, vorzugsweise Gruppen von Bürgern, Kommunalverwaltungen, ganze Kommunen (Gemeinden, Städte).

ALLTAGSPROBLEME AUS DEN MEDIEN

Wenn man sich heutzutage in den Medien umschaut, mit Freunden und Bekannten spricht, dann kann man den Eindruck gewinnen, wir sind von Problemen umzingelt. Hier ein kleine Stichprobe aus drei Zeitungen von wenigen Tagen:

  1. Ortsbeiräte und Stadtverordnete sollen durch eine bürgernahe Stadtwerkstatt ergänzt werden, um die Anliegen der Bürger besser einbinden zu können
  2. Das Problem des bezahlbaren Wohnraumes wird in den Städten immer schlimmer. Jährlich fallen deutlich mehr Wohnungen aus der Sozialbindung als neue geschaffen werden
  3. Eine Großstadt verweigert sich offiziell, Sozialwohnungen ohne Befristung zu bauen.
  4. Forscher konstatieren zum Teil dramatischen Rückgang bei bestimmten Vogelarten. Dies verweist auf einen Mangel an geeignete Lebensräume.
  5. Die Waldbesitzer in ganz Deutschland melden riesige Schäden durch Trockenheit.
  6. Die Bedrohung von BürgermeisterInnen durch radikale Gruppierungen nimmt beständig zu; einige geben auf
  7. Ortsbeiräte sollen das besondere Ohr zum Bürger darstellen. Aber, welcher Bürger kennt seinen Ortsbeirat? Und in der Stadtverordnetenversammlung, wer hört die Ortsbeiräte?
  8. Immer wieder Auffälligkeiten, dass der Verfassungsschutz Bezüge zu rechten Gefährdern unterbewertet
  9. Ein Kultusministerium will ein Schulamt weg verlegen aus seinem Bezirk und bürdet damit seinen Mitarbeitern zusätzliche Belastungen auf.
  10. Das ganze politische System Deutschlands benötigt ein Update, um zukunftsfähig zu werden
  11. Die großen Internetkonzerne merken, dass ihre Wirkung auf die Gesellschaft langsam Rückwirkungen erzeugen, die in immer größeres Misstrauen, wenn nicht gar partiell Feindschaft umschlagen. Plötzlich sprechen sie davon, dass Vertrauen das Wichtigste sei, sowohl in der Firma wie auch zur umgebenden Gesellschaft.
  12. Saubere Motoren alleine reichen nicht für eine weltweite Verbesserung des Verkehrs in den Metropolen
  13. International ist viel Geld da, das nach Anlage drängt, gleichzeitig gibt es aber zu wenige gute Anlageobjekte. Das Anlegen geschieht dennoch, vorbei an regulierten Finanzmärkten; Wertsteigerungen auf dem Papier werden verbucht, denen immer weniger realer Gegenwert entspricht (dies erzeugt eine massive Inflation, die von den Zentralbanken nicht erfasst wird)
  14. Der Chef eines der größten internationalen Ölkonzerns verkündet den nachhaltigen Umbau des Konzerns in Richtung Unterstützung erneuerbaren Energien, investiert aber bis auf Weiteres immer noch den größten Teil des Geldes in das Ölgeschäft
  15. Während der größten internationalen (Auto)-Mobil(itäts)-Ausstellung stehen sich tausende von Demonstranten und zehntausende Besucher ideell gegenüber.
  16. Keiner der weltweit größten Erdöl- und Erdgas-Konzerne ist auf Klimakurs
  17. Während die Reduzierung den Einsatz von EMobilität pushed, zeigen Fachleute vielfältige Probleme auf, die damit noch nicht gelöst sind oder gar durch EMobilität erst neu erzeugt werden.
  18. Bahn und Nahverkehr sollen ausgebaut werden, beim Bahnhofsumbau z.B. in Frankfurt sind viele Fragen noch offen; es wird Jahre dauern…
  19. Eine Buchbesprechung thematisiert die neue Sichtweise der Neurowissenschaften und die Wirkung auf andere bisherige Sichtweisen auf den Menschen. Vereinfacht gesagt: Die Reduktion des Menschenbildes auf Gehirnfunktionen.
  20. Der Konflikt zwischen einem Whistleblower (Snowden), der von seinem eigenen Staat nicht als solcher anerkannt wird, und der für die Interessen einer offenen, demokratischen Gesellschaft gegen ihre scheinbar übermächtig gewordenen geheimen Institutionen eintritt.
  21. Eine Diskussion um das rechte Verhältnis von Import/ Export, Realzinsen, und Fiskalpolitik im globalen Miteinander. Missverhältnisse können zu Verzerrungen, Abschottungen und mehr führen.
  22. Die intransparente Rolle von politischen Beratern jenseits der demokratischen Verfahren.
  23. Weltweit steigen die Schäden für Rückversicherer.
  24. Weltkonzerne stehen vor der Aufgabe, sich global neu zu orientieren ohne aber verlässliche politische und wirtschaftliche Rahmenbedingungen zu haben.
  25. Der starke Verfall von demokratischen Rechten und Gepflogenheiten in Hongkong am Beispiel der Fluggesellschaft
  26. Mikroplastik ist überall (Weltmeere, Flüsse, auch durch die Luft) auf dem Vormarsch
  27. Das Ringen um eine europäische Cloud als Alternative für mehr Unabhängigkeit im Datenverkehr.
  28. Der Zuwachs an Rechenkapazität in der Forschung wird durch technische Barrieren verlangsamt. Die Forschung wird durch Vorlieben der Bundesregierung nur einseitig gefördert.

Schon diese kleine Auswahl lässt ganz unterschiedliche Kontexte aufblitzen, die jeweils vorausgesetzt werden:

  1. Es geht um Menschen, verschiedene Tierarten und den Wald, deren Lebensräumen sich wechselseitig beeinflussen.
  2. Es geht um die Umwelt, die durch die Aktivitäten des Menschen unterschiedlich verändert wird.
  3. Es geht um Kommunen/ Städte, die den direkten Lebensraum für die Menschen (und viele Tiere) darstellen.
  4. Es geht um staatliche Institutionen, die bestimmte Aufgaben erfüllen sollen.
  5. Es geht um Bürgerrechte und die Demokratische Öffentlichkeit.
  6. Es geht um globale Konzerne, die sich mit unterschiedlichen nationalen Forderungen arrangieren müssen.
  7. Es geht um Technologien, um technologischen Abhängigkeiten und deren Bedeutung für die Wirtschaft und die staatliche Autonomie.
  8. Es geht um Weltbilder, die von unterschiedlichen wissenschaftlichen Disziplinen gespeist werden.
  9. Es geht bei allem auch immer um einzelne (Bürger, Bürgermeister, Stadtverordnete, Ortsbeiräte, Präsidenten, Firmenchefs, …), die sich in den jeweiligen Kontexten ‚verwirklichen‘ wollen.
  10. Einzelne lassen sich von dem jeweiligen Weltbild in ihrem Kopf leiten oder holen sich spezielle Berater, die ihr Weltbild unterstützen sollen.

WANN IST ETWAS EIN PROBLEM?

Dies aufgelisteten Fälle vorausgesetzt kann man die Frage aufwerfen, ob man bei den eingangs erwähnten Beispielen tatsächlich von ‚Problemen‘ sprechen sollte. Warum soll eine bestimmte geschilderte Sachlage als ein ‚Problem‘ bezeichnet werden? Warum sollte man in der mangelnden Einbindung von Bürgern in den Kommunen ein Problem sehen? Warum ist der Mangel an bezahlbarem Wohnraum ein Problem? usw.

WELTBILD UND ZIELVORSTELLUNGEN

Offensichtlich setzt das Sprachspiel ‚Problem‘ voraus, dass die Beteiligten als Teil ihres jeweiligen Weltbildes bestimmte ‚Zielvorstellungen‚ haben, die für sie als ‚erstrebenswert‘ gelten, und im Lichte dieser Zielvorstellungen kann dann eine bestimmte Sachlage als ‚Problem‘ klassifiziert werden. So z.B.: Wenn man die Einbindung der Bürger innerhalb einer Kommune als erstrebenswert ansieht (Begründung?), dann kann man eine mangelnde Einbindung als ‚Problem‘ klassifizieren; wenn hinreichend verfügbarer bezahlbarer Wohnraum als erstrebenswert angesehen wird (Begründung?), dann kann man den Mangel als Problem klassifizieren. Und analog in all den anderen Fällen.

Was sich schon in diesen wenigen Beispielen andeutet, ist die Notwendigkeit, dass man zur Diagnose von Problemen über ‚erstrebenswerte Zielvorstellungen‘ verfügt, die auch von den anderen Beteiligten geteilt werden.

Wie diese ersten Beispiele aber auch zeigen, kann man nicht unterstellen, dass alle Beteiligten tatsächlich über eine Zielvorstellungen verfügen und falls doch, dass diese bei allen Beteiligten gleich sind.

So ist das Wort Bürgerbeteiligung in vieler Munde, man kann aber wenig konkrete Maßnahmen erkennen, die dies real unterstützen. Fachabteilungen in Kommunen sind einer Bürgerbeteiligung gegenüber tendenziell eher ablehnend, weil es die Arbeit ‚verkompliziert‘. Über hinreichend viel bezahlbaren Wohnraum wird seit Jahren diskutiert, seit Jahren aber tut sich nichts. Die Zerstörung von Lebensräumen von bestimmten Tierarten wird von Naturschützern angeklagt, aber viele handelnde Gruppierungen interessiert dies nicht. Fehlleistungen des Verfassungsschutzes (im Bund und auf Landesebene) werden immer wieder diagnostiziert, aber diese öffentliche Kritik zeigt bislang keine erkennbare Wirkung. Die einen ziehen aus den bisherigen Erkenntnissen zur Klimaänderung bestimmte Schlüsse (z.B. für den ganzen Bereich Verkehr, Mobilität), andere sehen dies als überzogen und unrealistisch an. Und so weiter.

Schon beim Aufsammeln von Problembeschreibungen stößt man also auf eine nicht einfache Problematik: die Ausgangslage für die Problemfeststellung liegt in den jeweiligen Weltbildern der Beteiligten, und dort insbesondere im Bereich der ‚erstrebenswerten Zielvorstellungen‘. Setzt man diese ‚erstrebenswerten Zielvorstellungen‘ ‚absolut‘, dann gibt es harte, unversöhnliche Fronten.

Andererseits, Weltbilder und erstrebenswerte Zielvorstellen sind nicht angeboren sondern resultieren aus Interaktionen des einzelnen mit seiner Lebenswelt. Im allgemeinsten Sinne kann man dies ‚Lernen‚ nennen: die Aneignung von Vorstellungen über die Welt, mit Hilfe deren man sich die Welt ‚erklärt‚ und mit deren Hilfe man sein Verhalten ‚orientiert‚.

Grundsätzlich kann man also immer versuchen, die eigene gelernte Sicht der Welt auf den Tisch zu legen und dabei deutlich machen, warum man bestimmte Ansichten für erstrebenswert hält.

FAKTOR MOTIVATION

Der Faktor Weltbild inklusive möglicher Zielvorstellungen ist im Alltag allerdings nur ein Faktor. Zusätzlich wirksam sind noch viele psychische Faktoren, die hier aus Sicht des Verhaltens zusammenfassend angenommen werden als ‚Motivation‚, also jene internen subjektiven Faktoren, die einen Menschen dazu bringen, sich eher einer Sache ‚zuzuwenden‘, sie ‚aktiv zu betreiben‘, oder, ganz im Gegenteil, sich ‚zu verschließen‘, eine ‚ablehnende Haltung‘ einzunehmen, eine Mitwirkung ‚zu verweigern‘.

Überall dort, wo es gilt, gemeinsame Entscheidungen zu fällen, ist neben allen Arten von Argumenten für oder gegen eine Sache immer auch die Motivation der einzelnen im Spiel. Direkt oder indirekt unterstützen sie den Prozess positiv oder blockieren ihn negativ. Rationale Argumente alleine reichen oft nicht aus, die motivationalen Faktoren zu beeinflussen.

Die Faktoren, die eine Motivation beeinflussen können, sind äußerst vielfältig, in der heutigen Forschung nur partiell geklärt, und können von Person zu Person, von Situation zu Situation fast beliebig variieren. Persönliche Vorlieben, persönliche Erlebnisse, Sympathie und Antipathie, Einbindung in Milieus mit bestimmten fixierten Rollen oder speziellen Werten, und vieles mehr. Ein unbeliebtes Beispiel: wenn ein Politiker bestimmten Lobbyisten nahe steht, deren konkrete wirtschaftliche Interessen durch Bürgerinteressen betroffen sind, wird es für die Bürger schwer, sich politisch Gehör zu verschaffen.

OHNE KOMMUNIKATION GEHT NICHTS

Sollte jemand über genügend Wissen verfügen (was praktisch nie der Fall ist, weil man als Spezialist viele andere Spezialisten benötigt) und sollte jemand zugleich auch noch motiviert sein, sein Wissen wirksam einzusetzen (keinesfalls selbstverständlich, nicht für alle denkbaren Situationen), wird es zusätzlich notwendig sein, mit all jenen Menschen in Verbindung zu treten, die für eine Lösung des Problems wichtig sind. Das geht nicht ab ohne Kommunikation. Überwiegend wird diese Kommunikation eine sprachliche Kommunikation sein, oft zusätzlich unterstützt durch Bilder, Videos, Pläne, Modelle, und vieles mehr.

Kommunikation ist nicht einfach. Nicht nur, dass man überhaupt in der Lage sein sollte vor und mit anderen sinnvoll sprechen zu können, man muss auch alle wichtige Punkte durch die Kommunikation dem anderen verständlich machen. Jeder, der spezielle Ausbildungen durchlaufen hat (was letztlich schon in der Schule beginnt), weiß, dass es oft viele Monate, Jahre, oder gar Jahrzehnte an Lernen und Praxis braucht, um gewisse Wissensgebiete zu verstehen und sie zur Anwendung bringen zu können. Fachgespräche sind hier nur mit solchen Menschen möglich, die eine ähnliche Ausbildung durchlaufen haben und ähnliche Expertise anhäufen konnten. Was aber, wenn solch eine Experte von Gebiet A auf einen Nicht-Experten trifft (z.B. einen Stadtverordneten) oder auf einen Experten auf Gebiet B? Eine solche Kommunikation kommt nicht wirklich zustande, oder verläuft pro forma, oder aber, ist man ernsthaft an wirklichem Verstehen interessiert, man nimmt sich füreinander hinreichend viel Zeit.

In einer Welt wie der unseren, ist aber Zeit ein äußerst knappes Gut geworden. Ich selbst habe es über Jahre erlebt, dass wir zwar einen interdisziplinären, viele Fachbereiche und Disziplinen übergreifenden Studiengang gründen durften, aber die geltenden Kapazitätspläne, die festlegen, wie viel Zeit ein Lehrender für eine bestimmte Zahl von Studierenden aufwenden darf, sehen nicht vor, dass Lehrende aus verschiedenen Disziplinen natürlich einen erheblich höheren Zeitbedarf für die Vorbereitung, Abstimmung und Nachbereitung benötigen, da sie sich ja auch mit den verschiedenen Wissenshorizonten ihrer Kollegen-innen auseinander setzen müssen. Bei einem Lehrdeputat, das sowieso schon grenzwertig ist, führen daher freiwillige zusätzliche Kommunikationszeiten zu einer erheblichen Mehr- und letztlich grenzwertigen Belastung. Dabei ist diese individuelle Belastung ja gar nicht das zentrale Problem, sondern die Möglichkeit, einen pädagogisch und wissenschaftlich vertretbaren Konsens herzustellen (eine ähnliche Situation findet sich heute in vielen Schulen, wo durch Inklusion und erhöhten Anteil von Kindern mit Migrationshintergrund die Anforderungen an das Lehrpersonal sehr gestiegen ist, ohne dass dafür von Kultusministerien zusätzlich hinreichende Unterstützungen bereitgestellt wurden).

Während also der Aufwand an Kommunikation erheblich steigt, wenn die Zahl der Beteiligten und die Anzahl der unterschiedlichen Wissenskulturen zunimmt, wird die Zeit für Prozesse konträr eher immer knapper, was die Prozessqualität unausweichlich verschlechtert.

SIMULIERTES DENKEN

Angesichts der wachsenden Komplexität von Sachverhalten und der Zunahme an unterschiedlichen Erfahrungswerten, die die einzelnen Personen in einem Problemlösungsprozess einbringen, hat sich im Bereich des Engineering schon seit Jahrzehnten durchgesetzt, dass man das versammelte Wissen zum Problem in Form von ‚Simulationen‚ für alle in gewisser Weise sichtbar macht. In besonderen Kontexten benutzt man sogar ‚interaktive Simulationen‚, die es erlauben, dass der einzelne direkte eigene Erfahrungen sammeln kann, wie das System, die Umgebung, die anderen Beteiligten, auf die eigenen Handlungen reagieren (plakative Beispiele: Flugsimulator, Autosimulator, Schiffssimulator). Die Komplexität heutiger Anwendungen und Situationen erlauben es nicht mehr, dass man alle Eventualitäten rein gedanklich ‚vorweg nimmt‘.

Lange Zeit waren solche Simulationen vornehmlich bei den Ingenieuren zu Hause. Militärische Manöver, Unternehmensspiele oder vielfältige Rollenspielszenarien verdeutlichen aber, dass Simulationen nicht auf rein technische Anwendungen beschränkt sein müssen. Und wenn heute (laut Statistik) im Jahr 2018 ca. 40 Mio Bundesbürger regelmäßig Computerspiele spielen (auch jenseits der 50!), online, auch in Teams mit anderen, dann zeigt dies, das das Format ‚interaktive Simulation‘ ein sehr allgemeines, leistungsfähiges Lern- und Kommunikationsformat ist.

Umso erstaunlicher ist es, dass dieses Format seinen Weg noch nicht in den Bereich von allgemeinen Kommunikations- und Problemlösungsverfahren (Planungsverfahren) gefunden hat.

NUR DREI SIND EINS

So grob die bisherige Systematik erscheint, die Faktoren Wissen (Erfahrung), Motivation und Kommunikation sind alle drei bis zu einem gewissen minimalen Grad notwendig, damit ein einzelner zu einem konstruktiven Prozess beitragen kann. Mangelndes Wissen kann prinzipiell mit Hilfe von Motivation und Kommunikation ‚aktiviert‘ werden; mangelnde Kommunikation kann auch mit Hilfe von Motivation und Wissen ‚aktiviert‘ werden; Mangelnde Motivation jedoch ist sehr schwer ‚aktivierbar‘. Dabei erscheint der Faktor Motivation der wichtigste und zugleich heikelste Faktor von allen dreien zu sein. Das ‚Aktivieren‘ eines Faktors, das heißt der nachträgliche ‚Erwerb‘ von Wissen oder Kommunikationsfähigkeit – oder auch Motivation — ist prinzipiell möglich, erfordert aber echte Anstrengungen und real Zeit, ohne Erfolgsgarantie.

FORTSETZUNG

Eine Fortsetzung zu diesem Beitrag findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN: VELMANS 1995 – The Relation of Consciousness to the Material World. Diskussion

Max Velmans, The Relation of Consciousness to the Material World, Journal of Consciousness Studies, Vol.2, No.3, 1995, pp.255-265

KONTEXT

  1. Diesem Blogeintrag gingen zwei Beiträge voraus, in denen jeweils die Position von Chalmers und die von Clark aus dem gleichen Band der Zeitschrift diskutiert worden sind. Chalmers hatte mit seinem Beitrag den Band eröffnet, und alle anderen nahmen in ihren Beiträgen auf den Beitrag von Chalmers Bezug.

  2. Hier ist es Velmans, der zu Chalmers Stellung bezieht.

POSITION VON VELMANS

  1. Schon vor dem Beitrag von Chalmers 1995 hatte Velmans (1991, 1993) die Position vertreten, die Chalmers als zentrale These vorträgt, auf der alles andere aufbaut: Das Phänomen des Bewusstseins ist fundamental verschieden von den Verarbeitungsprozessen, wie wir sie im Gehirn finden. (vgl. Velmans S.256) Man kann zwar partiell subjektive Erlebnisse mit beobachtbaren Prozessen im Gehirn korrelieren, aber es erscheint extrem unwahrscheinlich (‚extremely unlikely‘), dass man solche subjektiven Phänomene auf solche neuronalen Prozesse reduzieren kann. (vgl. 256)

  2. Zwar dürfte alles, was wir als real in der Welt wahrnehmen, letztlich nur eine subjektive Wahrnehmung sein (irgendwie von der realen Welt mitverursacht), aber umgekehrt folgt aus einer Nicht-Wahrnehmung nicht zwingend, dass es in der Welt nichts gibt.

  3. Nimmt man einerseits eine Nicht-Reduzierbarkeit des Phänomens des Bewusstseins auf beobachtbare neuronale Prozesse an, will aber andererseits auch nicht einen Dualismus im Sinne Descartes vertreten, bleibt u.a. die Suche nach einer Version einer Dualen-Aspekt Theorie des Bewusstseins, wie sie Chalmers in seinem Beitrag versucht hatte.

  4. Velmans verweist in diesem Kontext auf Spinoza (1732 – 177), der in der Kritik an Descartes dessen Konzept von Geist und Materie als zwei Aspekte von etwas grundlegend Anderem in der Natur vermutet haben soll. (vgl. Velmans S.256)

  5. Analog zu Chalmers folgt Velmans der Arbeitshypothese einer Dualen-Aspekt Theorie, wobei auch er – wie Chalmers – den Begriff der Information als grundlegende Eigenschaft der Natur betrachtet (Anmerkung: im Gegensatz zu Spinoza, der hier den Begriff der Substanz verwendet).

  6. In seiner weiteren Analyse nimmt Velmans an, dass subjektive Erlebnisse repräsentierender Art (‚representational‘) seien, also über etwas (‚about something‘). Daraus schließt er, dass auch die korrelierenden neuronalen Prozesse über etwas sein müssten. Ferner nimmt er an, dass diese korrelierten repräsentierenden Prozesse und Erlebnisse identische Informationen kodieren, die eben nur auf zwei verschiedene Weisen formatiert ist. (vgl. S.257)

  7. Entgegen dieser Annahme sieht Velmans verschiedene Fälle der Diskrepanz zwischen neuronalen Prozessen, die Information verarbeiten, und dem Bewusstsein.

  8. Den meisten neuronalen Prozesse im Gehirn korrelieren keine subjektiven Erlebnisse. Auch nicht im Fall des Langzeit-Gedächtnisses oder im Falle von Blind-Sicht Patienten (‚blind-sight‘). Bei letzteren verarbeitet das Gehirn visuelle Informationen, die nicht bewusst sind. Soll ein Mensch mit Blind-Sicht handeln, wird er aber dennoch ‚richtig‘ handeln, so, als ob er Bewusstsein hätte.

  9. Angesichts solcher massiven Fälle von Diskrepanzen zwischen informationsrelevanten neuronalen Prozessen und nicht aufweisbarem Bewusstsein stellt Velmans die enge Korrelation von Chalmers zwischen Bewusstsein und Aufmerksamkeit in Frage. Er befürwortet eher, die Begriffe Bewusstsein, Aufmerksamkeit und Erfahrung als gleichwertig zu betrachten und alle (nicht notwendigerweise mit Bewusstsein korrelierenden) informationsverarbeitenden Prozesse des Gehirns als davon separat zu sehen. (vgl. S.258f)

  10. Ähnlich argumentiert Velmans am Beispiel der Ergebnisgleichheit von strukturell gleichen Organisationen, wie sie Chalmers postulierte. Am Beispiel von neuronalen Implantaten stellt Velmans in Frage, ob nicht auch andere Organisationsformen gleiche Ergebnisse erzeugen könnten. (vgl. S.259f)

  11. Letztlich sind es nur spezielle Fälle von neuronalen Prozessen, die mit subjektiven Erlebnissen korrelieren.

  12. Es gäbe auch noch die theoretische Möglichkeit, dass im Prinzip alle neuronalen Prozesse mit Bewusstsein begleitet sind, dass sie aber im Normalfall nur gehemmt werden. Bewusstsein würde dann da auftreten, wo die allgemeinen informationsverarbeitenden Prozesse nicht gehemmt werden (‚released from inhibition‘). In dieser Sicht wäre das Gehirn dann wie ein Filter für Informationen.(vgl. S.261f)

  13. Betrachtet man ferner, so Velmans, wie einfach man eine Temperaturmessung mit einem Gerät messen könnte, und wie kompliziert das menschliche Nervensystem aufgebaut ist, um subjektive warm-kalt Empfindungen zu realisieren, dann spricht dies auch eher dafür, dass die Struktur von informationsverarbeitenden Prozessen nicht unbedingt etwas darüber aussagen muss, ob solche Prozesse mit Bewusstsein begleitet sind oder nicht.

  14. Diese Überlegungen führen wieder zu dem Punkt zurück, dass all das empirische Wissen über neuronale Prozesse keine Anhaltspunkte liefert, warum manche dann doch mit subjektiven Erlebnissen korrelieren. (vgl. S.262)

  15. Dass die gleichen Informationen in unterschiedlichen Formaten repräsentiert werden können, dies sehen wir mittlerweile nicht mehr als ungewöhnlich an, aber dass es überhaupt geschieht, das ist ein provozierender Sachverhalt.(vgl. S.262f)

DISKUSSION

  1. Hier einige erste Zwischenreflexionen nach der Lektüre von Chalmers, Clark und jetzt Velmans (es werden nicht alle diskussionswürdigen Punte  aufgegriffen, das wären zu viele).

  2. Sowohl Chalmers als auch Velmans sehen im Phänomen des Bewusstseins, des Bereiches der subjektiven Erlebnisse, ein Phänomen sui generis, das sich nicht auf die bekannten empirischen Beschreibungen von neuronalen Prozessen reduzieren lässt.

  3. Gegenüber von Chalmers sieht Velmans daher keine Chance, aus den Daten empirischer neuronaler Prozesse allgemeine Regeln abzuleiten, mit denen man direkt auf Ereignisse des Bewusstseins schließen könnte. Nicht einmal über die Hypothese von Chalmers, dass aus einer Strukturgleichheit von zwei Strukturen S1 und S2 etwas über die möglichen Ergebnisse von S1 und S2 gefolgert werden könne.

  4. Allerdings folgt Velmans der Dualen-Aspekt Hypothese von Chalmers, dass man den Begriff der Information als grundlegenden Begriff in der Natur einführen könne, aufgrund dessen man dann die unterschiedlichen Ausprägungen wie neuronale Prozesse und subjektive Erlebnisse als zwei unterschiedliche Zustandsformen der grundlegenden Information verstehen könne. Velmans zitiert hier auch Spinoza, der eine ähnliche Idee in seiner Auseinandersetzung mit dem Dualismus von Descartes entwickelt hatte.

  5. Dass Spinoza das gleiche Problem mit einem anderen Begriff, nämlich Substanz, für sich ‚löste‘, macht Velmans nicht hellhörig. Ist der neuere Begriff Information, so wie er von Chalmers und Velmans benutzt wird, dann so zu verstehen, dass er strukturgleich zum Begriff der Substanz bei Spinoza ist?

  6. Es fällt auf, dass Velmans in seinem Beitrag den Begriff Information nicht weiter thematisiert; er übernimmt ihn einfach in der Verwendungsweise, wie er ihn bei Chalmers vorfindet.

  7. Wie ich aber in der Diskussion des Beitrags von Chalmers schon angemerkt hatte, ist die Verwendung des Begriffs Information bei Chalmers in sich unklar. Direkt bezieht er sich auf den semantikfreien Informationsbegriff von Shannon (1948), aber in der Art und Weise wie Chalmers diesen Begriff dann verwendet tut er genau das, was Shannon in seinem Text gleich zu Beginn explizit ausgeschlossen hat. Chalmers benutzt den Begriff Information im alltäglichen Sinne, nämlich mit einer semantischen Dimension, will sagen er benutzt nicht nur Signalereignisse als solche beschränkt auf ihre Auftretenswahrscheinlichkeiten, sondern er sieht Signalereignisse immer auch als Bedeutungsträger, also als Ereignisse, die mit etwas anderem korrelieren, das sowohl für den Sender wie für den Empfänger wesentlich dazu gehört. Im gesamten biologischen Bereich ist dies so. So sind z.B. die unterschiedlichen Bestandteile eines DNA-Moleküls (in seinen verschiedenen übersetzten Formen) für das Empfängermolekül, das Ribosom, nicht einfach nur irgendwelche atomaren Verbindungen, sondern diese atomaren Verbindungen sind Signalereignisse, die vom Empfänger so interpretiert werden, als ob sie noch etwas Anderes kodieren. Dieses Andere sind jene atomaren Verbindungen (Moleküle), mittels deren dann ein neues, komplexeres Molekül, ein Protein, zusammengebaut wird. Der Output des Prozesses ist etwas anderes, als der Input. Man kann diesen komplexen Prozess natürlich ausschließlich bezüglich seiner statistischen Eigenschaften beschreiben, damit würde man aber genau das, was diesen Prozess so besonders macht, das, was ihn auszeichnet, unsichtbar machen. Shannon wusste genau, was er tat, als er erklärte, dass er die Bedeutungskomponente ausließ, aber viele seiner späteren Leser haben seine Bemerkung anscheinend schlicht überlesen.

  8. Würde man den Begriff der Information streng nach Shannon verstehen, also Information_Sh, dann werden die Arbeitshypothesen von Chalmers und Velmans schlicht unsinnig. Mit reiner Statistik versteht man weder irgendeinen neuronalen Prozess noch die Dynamik subjektiver Ereignisse.

  9. Würde man den Begriff der Information im von Shannon explizit ausgeschlossenen Sinne – also Information+ – verstehen, also mit einer expliziten semantischen Dimension, dann müsste man über die Arbeitshypothesen von Chalmers und Velmans neu nachdenken. Das wäre eine in sich reizvolle Aufgabe. Bevor man dies tut, sollte man sich dann aber die Ausgangsposition nochmals vergegenwärtigen.

  10. Ausgangspunkt für Chalmers und Velmans ist deren Überzeugung, dass sich subjektive Erlebnisse nicht durch Rekurs auf empirische Beschreibungen von neuronalen Prozessen erklären lassen. Weder aus der Art der neuronalen Prozesse (Chalmers und Velmans) noch aus der Struktur neuronaler Verschaltungen (eher nur Velmans) lassen sich irgendwelche zwingenden Schlüsse auf mögliche begleitende subjektive Erlebnisse ziehen.

  11. Eine solche abgrenzende Position macht wissenschaftsphilosophisch nur Sinn, wenn man von zwei unterschiedlichen Datenbereichen (subjektive Erlebnisse D_s und neuronale Ereignisse D_nn) ausgeht, zu denen es zwei verschiedene Theorien gibt, eine Theorie der subjektiven Erlebnisse <Ts, Int_s, D_nn, D_nn> und eine Theorie der neuronalen Ereignisse <Tnn, Int_nn>. Ferner muss man annehmen, dass mindestens die Datenbereiche beider Theorien wesentlich verschieden sind, also D_s != D_nn. Letzteres ist der Fall, da nach allgemeinem Verständnis zwar alle empirischen Daten D_e, zu denen auch die neuronalen Ereignisse D_nn gehören, zwar zugleich auch subjektive Ereignisse D_s sind, da sie für den Beobachter ja primär erst einmal als seine subjektiven Wahrnehmungen auftreten, dass aber umgekehrt es für eine empirische Theorie Te nicht möglich ist, subjektive Daten D_s einzubeziehen. Mit anderen Worten, die empirischen Daten D_e bilden aus Sicht einer empirischen Theorie eine echte Teilmenge der subjektiven Daten D_s, von daher rührt die Ungleichheit in den Daten. Wichtig ist aber das Detail, dass aus Sicht einer empirischen Theorie Te zwar keine subjektiven Daten D_s verarbeitet werden können, dass umgekehrt aber eine subjektive Theorie Ts sehr wohl Zugriff auf empirische Daten hat, da empirische Daten D_e (mit den neuronalen Daten D_nn als echter Teilmenge) zugleich immer auch subjektive Daten D_s sind, also D_e c D_s. Empirische Daten D_e sind eben beides: subjektiv wie auch zugleich inter-subjektiv.

  12. Die heutigen empirischen Wissenschaften haben die empirische Welt in unterschiedliche empirische Datenbereiche aufgeteilt, deren Beziehungsverhältnisse eigentlich offiziell nicht geklärt sind. Unterschwellig wird immer angenommen, dass die Physik die umfassendste Sichtweise hat, dass also den empirischen Daten der Physik D_e_physik alle anderen empirischen Datenbereiche D_e_x umfassen, also D_e_x c D_e_physik. Ob dies so ist, ist eher offen. Astrobiologie, Evolutionsbiologie, Mikrobiologie – um nur einige Disziplinen zu nennen –, die sich u.a. mit dem Phänomen des biologischen Lebens beschäftigen, haben zahllose originäre Phänomene zu bieten, deren wissenschaftliche Beschreibung allein mit dem Inventar der bekannten Physik im Ansatz unmöglich erscheint (nach Feststellung von bekannten Physikern). Dann würde nicht gelten, dass D_e_x c D_e_physik, sondern D_e_x != D_e_physik.

  13. Doch unabhängig von den Verhältnissen zwischen den Datenbereichen der unterschiedlichen wissenschaftlichen Disziplinen gilt für das Verhältnis der empirischen Daten D_e zu den Tatsachen des Bewusstsein D_s, dass alle empirischen Daten D_e eine echte Teilmenge der subjektiven Daten D_s sind, also D_e c D_s. Vom Standpunkt eines Theorieerstellers vom Typ homo sapiens (sapiens) liegt damit eine Lösung der methodischen Probleme der empirischen Einzeldisziplinen Te_x – wenn es überhaupt eine gibt – im Bereich einer Theorie der Subjektivität Ts.

  14. Ich habe nicht den Eindruck, dass es solch eine umfassende Theorie der Subjektivität bislang gibt. Die großen philosophischen Entwürfe gehen sicher in diese Richtung. Vielleicht ist Carnaps Stufenbau der Welt (inhaltlich fast vollständig von Husserl geprägt (gegen den Mainstream der Carnap-Interpretation)) ein kleiner Ansatz zu einer modernen Theorie der Subjektivität.

  15. Also, wir haben noch keine brauchbare Theorie der Subjektivität Ts. Wenn wir sie hätten, man kann ja mal spekulieren, dann müsste man solche Fragen wie die von Chalmers, Velmans und Clark in solch einem Kontext diskutieren. Ob in solch einem Kontext ein semantischer Informationsbegriff Information+ dann nützlich wäre, müsste man ausloten. Ich vermute mal, dass man viele andere Fragen klären müsste, bevor man über die mögliche Verwendung eines Informationsbegriffs im Kontext von Subjektivität und begleitenden empirischen Prozessen nachdenken würde.

Einen Überblick über alle Blogbeiträge von Autor cagent nach Titeln findet sich HIER.

RINGEN UM DAS BEWUSSTSEIN. BEISPIEL CHALMERS 1995 – Problem of Consciousness

(Letzte Aktualisierung: Do 28.Juli 2016, 13:06h)

David J.Chalmers, FACING UP THE PROBLEM OF CONSCIOUSNESS, Journal of Consciousness Studies, 2, No. 3, 1995, pp.200-219

KONTEXT

  1. In einem vorausgehenden Blogeintrag mit dem Titel THOMPSON: MIND IN LIFE – Review – Teil 1 hatte ich damit begonnen, eine neue Variante phänomenologischer Forschung zu besprechen, die unter dem Titel Neurophänomenologie begründet worden war. Dieser Ansatz geht zurück auf Varela, der dazu 1996 einen grundlegenden Artikel im JoCS geschrieben hatte, in dem er wiederum auf einen Artikel von Chalmers 1995 geantwortet hatte. Seine Antwort umfasste dann gleich einen kompletten konstruktiven Vorschlag, wie man es anders machen könnte. Bevor der Artikel von Varela hier zur Sprache kommen soll, hier zunächst eine Reflexion auf den Beitrag von Chalmers 1995, der seitdem in zahllosen weiteren Artikeln intensiv diskutiert worden ist. Eine andere Art von Einstimmung könnte das Kap.9 von Nick Lane sein.

OBJEKTIV – SUBJEKTIV

Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2
Rekonstruktion der theoretischen Begriffe von Chalmers (1995) Kap.1-2

  1. Im Kapitel 2 (siehe Bild) startet Chalmers seine Überlegungen zum Bewusstsein mit einer Fallunterscheidung in objektive Aspekte des Problems und in subjektive Aspekte.

  2. Die objektiven Aspekte lassen sich nach Chalmers – im Prinzip – im Rahmen der bekannten wissenschaftlichen Disziplinen relativ einfach aufklären. Als wissenschaftliche Disziplinen führt er nur eine einzige an, nämlich die Kognitionswissenschaft (‚cognitive science‘), innerhalb deren er drei methodische Ansätze unterscheidet: computerhaft (‚computational‘), neurophysiologisch und neuronal (’neural‘).

  3. Als Phänomene, die er für die Methoden der Kognitionswissenschaft im Prinzip als einfach (‚easy‘) erklärbar einstuft, zählt er auf: Umgebungsreize, verbale Äußerungen, Aufmerksamkeit, Verhaltenskontrolle, Wachheit und Schlaf, Verhaltenskontrolle und diverse interne Zustände.

  4. Daneben erkennt er aber auch noch eine subjektive Dimension im Wirklichkeitszugang. Diese erschließt sich im Darin sein (‚to be in them‘) in inneren, mentalen Zuständen. Hier trifft man auf Phänomene, Qualia, befindet man sich im Raum des Bewusstseins, im Bewusstsein.

  5. Die subjektive Dimension befindet sich außerhalb des Zugriffs der objektiven Methoden. Insofern nennt er die Fragen des Bewusstseins, die sich im subjektivne Zugang erschließen, als harte (‚hard‘) Fragen. Er spricht hier vom harten Problem (‚hard problem‘) des Bewusstseins.

FUNKTIONALE ERKLÄRUNG MIT GRENZEN

Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung
Chalmers (1995) Kap.3 Behauptungen zur begrifflichen Kluft zwischen funktionaler Erklärung und Bewusstseinserfahrung

  1. Das 3.Kapitel läuft auf die These von der begrifflichen Kluft (‚explanatory gap‘) zwischen funktionaler Erklärung objektiver Phänomene einerseits und der korrelierenden Existenz des subjektiven Phänomens des Bewusstseins hinaus (vgl. Bild 2).

  2. Dies setzt voraus, dass die Wissenschaften, die objektive Phänomene im Umfeld des Bewusstseins erklären, dies mit Hilfe von funktionalen Erklärungen tun können. In einer funktionalen Erklärung F werden die beobachtbaren (zu erklärenden) Phänomene X in Beziehung gesetzt zu anderen beobachtbaren Phänomenen Y, und zwar so, dass der Zusammenhang einen Mechanismus (‚mechanism‘) erkennen lässt, aufgrund dessen das Auftreten von X in Abhängigkeit von Y akzeptiert werden kann. Entsprechend den zuvor angeführten Methoden der Kognitionswissenschaft(en) sieht Chalmers drei Arten von möglichen Mechanismen: (i) Computermodelle, (ii) kognitive Modelle und (iii) neuronale Modelle.

  3. Chalmers sieht keine Möglichkeit, das korrelierende Auftreten einer Bewusstseinserfahrung B im Kontext von beobachtbaren Phänomenen X und Y ebenfalls durch eine funktionale Erklärung G so zu erklären, dass sich zwischen X und Y einerseits und B andererseits ein Mechanismus angeben lässt, der als Erklärung akzeptierbar sei.

  4. Diese Unmöglichkeit der Angabe einer weiteren funktionalen Erklärung versteht Chalmers als Erklärungslücke (‚explanatory gap‘).

BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.4)

Chalmers 1995 kap.4 illustrierende Beispiele
Chalmers 1995 kap.4 illustrierende Beispiele

  1. Im Kap.4 stellt Chalmers verschiedene Autoren vor, mittels deren er seine zuvor eingeführte Klassifikation illustrieren möchte. (vgl. Bild 3)

  2. Diese Beispiele sind aber so karg beschrieben, dass man sie kaum verwerten kann. Als Beleg soll das Zitat von Edelman dienen. Im Buch von Edelman (1989) wird ein sehr ausführliches Bild von den Forschungen zum Bewusstsein vermittelt. Das Stichwort vom ’neuronalen Darwinismus‘ greift hier viel zu kurz (das Buch Edelmans von 1992 Bright Air, Brilliant Fire: On the Matter of thre Mind, das noch umfassender ist, wird erst gar nicht erwähnt)(Anmerkung: In seinem Buch The Conscious Mind (1996) ist Chalmers hier genauer und hilfreicher. Die Bemerkungen hier im Artikel erscheinen da eher nutzlos).

  3. Die Stichworte zu Koch/ Crick und Baars lassen noch am ehesten deren Ideen erkennen. Nach Koch/Crick sind es synchronisierende Oszillationen im Gehirn (Bindungstheorie), die unterschiedliche Aktivitäten bündeln und so komplexe Zustände möglich machen, die eventuell als Korrelate des Bewusstseins (‚correlates of experience‘) angesehen werden können. Ähnlich und doch weitergehender (spekulativer) argumentiert Baars. Er sieht einen Zusammenhang zwischen den Inhalten des Bewusstseins (‚contens of consciousness‘) und dem, was er den globalen Arbeitsbereich (‚global workspace‘) des Gehirns nennt: dies soll jener Bereich sein, in den viele andere Bereiche des Gehirns wichtige Informationen abbilden, über die alle spezialisierten Bereiche kommunizieren. Er nennt dies ein gemeinsames schwarzes Brett (‚communal blackboard‘).

  4. Was immer such die einzelnen Beispiele im einzelnen – nach Chalmers – sagen bzw. sagen wollen, für Chalmers bietet keines der Beispiele (also: keiner der Autoren) eine wirkliche Antwort auf die Frage, warum (‚why‘) es das Phänomen des Bewusstseins parallel zu diesen vielen Prozessen gibt und wie (‚how‘) der Zusammenhang zwischen den physiologischen und den phänomenalen Phänomenen genau zu denken ist.

WEITERE BEISPIELE (REDUKTIVER ERKLÄRUNG) (Kap.5)

  1. In Kap.5 wir die kursorische Aufzählung weiterer Beispiele fortgesetzt, in der Erklärungsansätze genannt werden, die mit dem Phänomen des Bewusstseins Berührungen aufweisen, aber nichts wirklich erklären sollen.

  2. So wird wird das Konzept nicht-algorithmischer Prozesse von Penrose (1989, 1994) erwähnt. Ein Zusammenhang mit dem Phänomen des Bewusstseins sieht Chalmers nicht.(p.207)

  3. Ähnlich stellt Chalmers auch einen Erklärungszusammenhang zwischen chaotischen und nichtlinearen Prozessen ebenso wenig mit quantentheoretischen Modellen (Hameroff 1994) in Frage. Was erklären diese? (vgl. p.207f)

  4. Chalmers wiederholt hier sein Axiom, dass jede Art von Erklärung physikalischer Prozesse alleine nicht ausreichend sein kann, das Phänomen des Bewusstseins als solches zu erklären. Die Emergenz von Bewusstseinserfahrung entzieht sich einer rein physikalischen Erklärung. Phänomene des Bewusstseins können sich im Kontext von physikalischen Prozessen zeigen, sie müssen es aber nicht.(p.208)

NEUE FUNDAMENTALE ENTITÄTEN

Chalmers 1995 Kap.5 Nicht-reduzierende Theorien
Chalmers 1995 Kap.5 Nicht-reduzierende Theorien

  1. Nachdem Chalmers – aus seiner Sicht – herausgearbeitet hat, dass eine Erklärung der Phänomene des Bewusstseins mittels physikalischer Gesetze nicht möglich erscheint, folgt er der Strategie der Physik aus der Vergangenheit, indem man für nicht-reduzierbare Phänomene dann postuliert, dass sie fundamentale Phänomene seien, die ihre eigenen Gesetze benötigen.(vgl. Bild 5)

  2. Insofern diese neuen fundamentale Phänomene nicht isoliert von den physikalischen Phänomenen auftreten, nennt er sie emergente Phänomene, deren korrelierendes Auftreten im Kontext physikalischer Phänomene sich gegebenenfalls mit zusätzlichen überbrückenden Prinzipien (Brückenprinzipien, ‚bridging principles‘) beschreiben lassen.

  3. Die Betrachtung von Phänomenen führt meist auch zur Frage von damit zusammenhängenden möglichen Existenzen (Ontologien, ‚ontologies‘).

  4. Fall sich mit den Phänomenen des Bewusstseins Existenzen ganz eigener Art verknüpfen würden, dann läge eine neue Art von Dualismus (im Stile von Descartes und anderen) vor. Soweit will Chalmers aber nicht gehen. Obwohl es sich bei den Phänomenen des Bewusstseins um nicht-reduzierbare, und damit fundamentale Phänomene handelt, will er sie nicht gänzlich von der natürlichen Ontologie getrennt sehen, wie sie von der Physik beschrieben wird.

  5. Interessanterweise sieht Chalmers eine Theorie des Bewusstseins näher bei der Physik als bei der Biologie, der er jegliche fundamentale Prinzipien im Sinne des Bewusstseins abspricht.(p.211)

AUSBLICK AUF EINE THEORIE DES BEWUSSTSEINS

Chalmers 1995 - Elemente einer neuen Theorie des Bewusstseins
Chalmers 1995 – Elemente einer neuen Theorie des Bewusstseins

  1. Unabhängig davon, was Chalmers über andere Autoren gesagt hat (treffend oder nicht treffend), hat er seine eigene Meinung zu einer möglichen Theorie des Bewusstseins.

  2. Zu Beginn des Kap.7 skizziert er einige grundlegende Annahmen, auf deren Basis er dann weiter voranschreitet.

  3. Wie in Bild 7 angedeutet, soll eine mögliche Theorie des Bewusstseins einfach und kohärent sein und soll Aussagen über reproduzierbare Fakten möglich machen.

  4. Als Basis für die Theorie gibt es einerseits die Eigenschaften der bewusstseinsbasierten Erfahrung, zu denen jeder einzeln, für sich einen direkten Zugang hat, und andererseits empirische Phänomene, wie Umwelt, Körper und Gehirn, speziell auch sprachliche Äußerungen, über die man indirekt auf Eigenschaften des Bewusstseins schließen kann.

  5. Ferner postuliert Chalmers spezielle psycho-physische Brückenprinzipien, die einen Zusammenhang zwischen korrelierenden physikalischen und bewusstseinsbezogenen Phänomenen herstellen.

PRINZIP DER STRUKTURELLEN KOHÄRENZ

  1. Als eine mögliche Richtschnur für die Formulierung der Inhalte einer möglichen Theorie des Bewusstseins beschreibt Chalmers das Prinzip der strukturellen Kohärenz.

  2. Diese Kohärenz sieht er gegeben zwischen dem empirischen Phänomen der Aufmerksamkeit (‚attention‘) und den den subjektiven Phänomenen des Bewusstseins.

  3. Der Begriff der ‚Aufmerksamkeit‘ wird definiert über empirische Phänomene und deren funktionalen Beziehungen.

  4. Ohne eine weitere Analyse der subjektiven Phänomene vorgelegt zu haben behauptet Chalmers nun, dass die Phänomene im Kontext der empirischen Aufmerksamkeit eine bestimmte Struktur erkennen lassen, die sich auch im Bereich der subjektiven Phänomene finde. Er geht sogar soweit, die Ähnlichkeit zwischen beiden Strukturen (Struktur der Aufmerksamkeit, Struktur des Bewusstseins) als isomorph zu bezeichnen (p.213).

  5. Zugleich schränkt er diese Ähnlichkeit dahingehend ein, dass subjektive Phänomene Eigenschaften haben, die sich nicht in der strukturellen Ähnlichkeit erschöpfen. Die kohärente Strukturen beschränken das beobachtbare Verhalten subjektiver Phänomene, aber erschöpfen sie nicht. (vgl.p.213)

  6. Sofern man solch eine strukturelle Kohärenz feststellen kann, macht es nach Chalmers Sinn, die empirischen Phänomene der Aufmerksamkeit als Korrelate bewusster Erfahrung zu bezeichnen.

PRINZIP DER ORGANISATORISCHEN INVARIANZ

  1. Chalmers formulierte noch ein weiteres Prinzip, das von der organisatorischen Invarianz. Es ist kein mathematisches Prinzip, sondern eher ein Postulat über empirische Strukturen.

  2. Ausgangspunkt sind zwei Systeme S1 und S2. Beide haben eine funktionale Organisation, d.h. Es gibt jeweils irgendwelche Mengen von Elementen M1 und M2 und jeweils irgendwelche Funktionen F1 und F2, die über den Mengen M1 und M2 definiert sind, also S1(x) iff x=<M1,F1> bzw. S2(x) iff x=<M2,F2>.

  3. Chalmers postuliert nun, dass, wenn beide Systeme S1 und S2 die gleiche funktionale Organisation haben (‚functional organization‘), dass sie (?) dann auch die qualitativ gleiche Erfahrung (‚qualitatively identical experience‘) haben.

  4. Diese Formulierung wirft einige Fragen auf.

  5. Nimmt man an, dass er mit Erfahrung wie zuvor im Text immer die Erfahrung des Bewusstseins meint, dann stellt sich die Frage, in welchem Sinne ein System S1 oder S2 eine bewusste Erfahrung haben sollen? Nach allem zuvor Gesagtem haben empirische Systeme nicht notwendigerweise eine bewusste Erfahrung.

  6. Wenn Chalmers aber meint, dass die Systeme S1 und S2 für empirische Systeme stehen, die Korrelate von bewussten Erfahrungen sind, dann würde das Prinzip besagen wollen, dass zwei verschiedene empirische Systeme S1 und S2, die Korrelate von jeweils einem Bewusstsein B1 bzw. B2 sind, diesen korrelierenden Bewusstseinen B1 und B2 jeweils identische Erfahrungen übermitteln.

  7. Direkt beweisbar ist dieses Prinzip nicht, da der direkte Zugriff auf bewusste Erfahrungen von den beiden Bewusstseinen fehlt, aber es ist eine sehr plausible Arbeitshypothese. (vgl. p.215) Diese Arbeitshypothese würde es zumindest ansatzweise verständlich machen, warum zwei verschiedene Menschen ansatzweise über ähnliche Erfahrungen verfügen können.

DIE THEORIE DES DOPPELTEN ASPEKTS DER INFORMATION

  1. Chalmers klassifiziert die beiden vorausgehenden Prinzipien als nicht basale Prinzipien. Nichts desto Trotz sind sie für ihn hilfreiche Beschränkungen (‚constraints‘).

  2. Jetzt will er ein erstes basales Prinzip mit Hilfe des Begriffs der Information einführen.

  3. Bei dieser Einführung des Begriffs Information bezieht er sich zwar ausdrücklich auf Shannon (1948), ersetzt aber die Begrifflichkeit von Shannon sogleich durch die Begrifflichkeit von Bateson (1972), indem er die einzelnen physikalischen Informationen als Differenzen bezeichnet, die eine Differenz konstituieren (Originalzitat Bateson: A „bit“ of information is definable as a difference which makes a difference. Such a difference, as it travels and undergoes successive transformation in a circuit, is an elementary idea. (Bateson 1972, p.335)

  4. Dann überträgt er diese Begrifflichkeit auf die empirischen und auf die subjektiven Phänomene, indem er für die Menge der korrelierenden empirischen Phänomene einen Informationsraum Ie postuliert und für die Menge der subjektiven Phänomene auch einen Informationsraum Is. Ferner postuliert er, dass die Elemente in jedem dieser Räume durch eine Menge von Differenzen charakterisiert werden – also <Ie,De> sowie <Is, Ds> –, dass jedem dieser Räume mit diesen Differenzen dann eine Struktur Ste(x) iff x= <Ie,De> sowie Sts(x) iff x=<Is, Ds> zukomme, die sich direkt korrespondieren (‚directly correspond‘), also CORR(STe, Sts).

  5. Aus den Postulaten werden dann sogleich Behauptungen der Art, dass man sowohl in den empirischen Prozessen wie auch in den subjektiven Erfahrungen die gleichen abstrakten Informationsräume finde.

  6. Nachdem Chalmers die Begriffe Information und Differenz für die theoretische Beschreibung eingeführt hat (niemand hat ihn dazu gezwungen!), folgert er dann aus seinen eigenen Annahmen, als Hypothese, dass Information zwei Aspekte habe: einen physikalischen und einen phänomenalen (:= subjektiven).

  7. Nach diesen begrifflichen Verschiebungen erklärt er dann diese letzte Hypothese zu einem basalen Prinzip, aus dem hervorgehe, dass sich immer dann Erfahrung eines Bewusstseins vorfindet, wenn ein entsprechender physikalischer Prozessraum gegeben ist.(vgl. p.216)

DISKURS

KEINE DOPPEL-ASPEKT THEORIE DER INFORMATION

  1. Chalmers selbst klassifiziert seine Doppel-Aspekt Überlegungen als eher eine Idee denn eine Theorie (vgl. p.217) bzw. weiter vorne als extrem spekulativ und unterbestimmt.

  2. Dies würde ich hier unterschreiben. Denn die Verwendung des Wortes Information durch Chalmers erscheint sehr fragwürdig.

  3. Der Informationsbegriff bei Shannon (1948) setzt einen sehr speziellen Kontext voraus, auf den Shannon klar und deutlich hinweist. Es geht bei der Verwendung des Begriffs der Information bei Shannon NICHT um den Begriff von Information, wie er im Alltag oder bei wichtigen biologischen Kontexten vorkommt, wo unterschiedliche bedeutungsvolle/ semantische Kontexte eine Rolle spielen, sondern AUSSCHLIESSLICH um die jeweiligen Signalereignisse und deren Wahrscheinlichkeiten. Diese Signalereignisse als solche haben weder irgendeinen Informationswert noch eine irgendwie geartete Bedeutung. Es sind einfach Eigenschaften aus einem Eigenschaftsraum, die sich natürlich qua Eigenschaften durch Unterschiede/ Differenzen indirekt charakterisieren lassen. Aber der Begriff der Differenz setzt ein X und Y voraus, die minimale Eigenschaften Px und Py besitzen, aufgrund deren sie sich unterscheiden lassen. Nur unter Voraussetzung von solchen Elementen samt Eigenschaften lässt sich eine Differenz definieren. Ein System von Differenzrelationen setzt mathematisch eine Menge von Elementen voraus, aufgrund deren sich die Relationen definieren lassen.

  4. Der Sprachgebrauch von Bateson (1972) mit seinen Differenzen mag irgendwie interessant klingen, ist aber mathematisch irreführend. Eine Differenz ist abgeleitet von dem X, das sich von anderem Nicht-X unterscheiden lässt. Die Unterscheidbarkeit von Ereignissen X in der Wahrnehmung ist biologisch natürlich bedeutsam, aber das Ereignis als solches keinesfalls, nur die Relationen zu einem Y, das sich biologisch als ‚relevant‘ erweist.

  5. Streichen wir also den Begriff der Differenz im Kontext von Information, da redundant, bleibt der Informationsbegriff, angeblich nach Shannon.

  6. Bei Shannon aber ging es nur um Signalereignisse und deren wahrscheinliches Auftreten, ohne jeglichen Bedeutungsbezug.

  7. Natürlich kann man sowohl die empirischen wie auch die subjektiven Phänomene abstrakt als Ereignisse betrachten, die mit gewissen Wahrscheinlichkeiten auftreten. Das würde aber genau jene Qualitäten an diesen Ereignissen verdecken, die sie für ein biologisches System interessant machen. Biologisch interessant sind ausschließlich Ereignisse, sofern sie Bezug haben zum Überleben generell und innerhalb dessen zu speziellen Kontexten des Überleben. Es sind gerade diese Kontexte, die sich mit Ereignissen assoziieren lassen, durch die Ereignisse mit Bedeutung aufgeladen werden, sodass diese Ereignisse im biologischen Sinn informativ sind.

  8. Dieser fundamentale Aspekt von Information wurde von Shannon ganz bewusst ausgeklammert, da er dies für seinen Anwendungsfall nicht benötigt hat. Bateson und Chalmers brauchen es eigentlich, folgen hier aber – blindlings? – Shannon, obgleich dieser sogar ein großes Warnschild gleich zu Beginn seines Textes aufgestellt hat. DIES IST NICHT INFORMATION IM ÜBLICHEN SINNE!!!

STRUKTURELLE KOHÄRENZ VON WAS?

  1. Nach dieser Entmystifizierung des Differenz- und Informationsbegriffs bleibt von der Doppel-Aspekt Theorie der Information nur noch das übrig, was Chalmers schon zuvor mit dem nicht-basalen Prinzip der strukturalen Kohärenz ausgedrückt hat, dass nämlich die korrelierenden empirischen Phänomene und die subjektiven Phänomene strukturell ähnlich seien. Chalmers bleibt eine Definition jener Strukturen schuldig, die er als gegeben voraussetzt, von denen er immerhin sagt, dass sie isomorph seien, und doch wiederum nicht so, dass alle subjektiven Phänomene durch die empirischen Phänomene dadurch voll bestimmt wären. Eigentlich impliziert Isomorphie eine 1-zu-1 Abbildung; aber dann doch nicht ganz? Was meint er dann?

  2. Wenn man von einer Strukturähnlichkeit zwischen zwei Strukturen S1 und S2 spricht, geht man normalerweise davon aus, dass die beiden Strukturen S1 und S2 nicht nur einfach gegeben sind, sondern auch in ihrer Beschaffenheit genau beschrieben/ definiert sind. Kann man das von den subjektiven Phänomenen des Bewusstseins sagen? Außer von Husserl sind mir keine ausführlichen Untersuchungen zu den Phänomenen des Bewusstseins bekannt, und von Husserls Untersuchungen kann man weder sagen, sie seien vollständig noch liegen sie in einer Form vor, die man als formal befriedigend bezeichnen könnte (obwohl Husserl von der Ausbildung her auch Mathematiker war und von daher das Rüstzeug haben konnte). Diskutabel wäre hier vielleicht Carnaps logischer Stufenbau (1928), der der Struktur von Husserl – soweit bekannt – sehr eng folgen soll. Wovon also spricht Chalmers, wenn er die Strukturähnlichkeit zwischen empirischen und subjektiven Phänomenen behauptet?

WAS BLEIBT VON CHALMERS KRITIK?

NICHTREDUZIERBARKEIT

  1. Der zentrale Punkt von Chalmers Kritik dürfte wohl die Nichtreduzierbarkeit des Subjektiven auf Empirisches sein. Im subjektiv zugänglichen Erfahrungsraum des Bewusstseins erschließen sich Phänomene, die über die rein objektiv-empirischen Phänomene hinausgehen.

  2. In seiner ablehnenden Kritik empirischer Ansätze kommt immer wieder auch der Begriff der Funktion vor; funktionale-empirische Erklärungsansätze sollen nicht reichen. Diese Formulierung kann missverständlich sein. Denn der Versuch, den Raum der subjektiven Phänomene als Phänomene sui generis zu beschreiben, wird – wie auch im Fall empirischer Phänomene – Elementarereignisse einführen, über diese Elementarereignisse diverse Relationen und Funktionen,  und damit letztendlich eine Struktur des subjektiven Phänomenraumes definieren, mittels der man dann möglicherweise Vergleiche, Abbildungen auf andere Strukturen vornehmen kann, z.B. auch, wie von Chalmers praktiziert, auf die Struktur der mit dem Bewusstsein korrelierenden empirischen Phänomene.

  3. Hier stellt sich allerdings das spezielle Problem einer simultanen Abhängigkeit von korrelierenden empirischen und subjektiven Phänomenen: man kann ja nur in dem Maße davon sprechen, dass ein empirisches Phänomen Pe mit einem subjektiven Phänomen Ps korreliert, wenn es ein subjektives Phänomen Ps gibt, das als Ausgangspunkt dient! Ein empirisches Phänomen Pe als solches lässt keinerlei Rückschluss auf ein irgendwie geartetes subjektives Phänomen Ps zu. Die Brückenprinzipien, von denen Chalmers in seinem Artikel spricht, sind induktiv simultan zu definieren. Sie sind nicht einfach da. Es sind nicht die Brückenprinzipien, mittels deren man aus den empirischen Phänomenen Pe die subjektiven Phänomene Ps ableitet, sondern es sind die subjektiven Phänomenen Ps, die sich mit empirischen Phänomenen Pe korrelieren lassen, und aufgrund solcher realisierten Korrelationen kann man vielleicht Brückenprinzipien definieren.

  4. Dies gilt insbesondere auch am Beispiel der sprachlichen Äußerungen, die Chalmers explizit als Indikatoren möglicher subjektiver Erfahrung nennt. Der Sprachschall als solcher bildet ein empirisches Phänomen Pe, dem möglicherweise subjektive Bedeutungsinhalte Ps korrelieren können. Ob dies der Fall ist, kann nur der Sprechende selbst entscheiden, sofern er einen direkten Zugang zu seinen subjektiven Phänomenen hat und von daher weiß, ob sich mit einem bestimmten Sprachschall tatsächlich ein bestimmter subjektiver Sachverhalt verknüpft. Von daher sind sprachliche Äußerungen niemals ein Ersatz für die damit hypothetisch unterstellten subjektiven Phänomene.

Einen Überblick über alle Beiträge von Autor cagent  nach Titeln findet sich HIER.

DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ zu einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde — letztlich aber das gesamte bekannte Universum — die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftreten in der Zeit selbst empirisch ist. Nicht empirisch ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmen würde, dann würde sie zur nächsten positiven komplexen Koordinate KK+ führen, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Keine direkte, aber eine indirekte, Fortsetzung könnte man in diesem Beitrag sehen.

Einen Überblick von allen Beiträgen des Autors cagent in diese Blog nach Titeln findet sich HIER.

IST DIE SELBSTVERSKLAVUNG DER MENSCHEN UNTER DIE MASCHINEN EVOLUTIONÄR UNAUSWEICHLICH?

  1. In diesem Blog gab es in der Vergangenheit schon mehrere Einträge (z.B. den ersten großen Beitrag Kann es doch einen künstlichen Geist geben?), die sich mit der Frage beschäftigt haben, inwieweit Maschinen die Lernfähigkeit und die Intelligenz von Menschen erreichen oder sogar übertreffen können.
  2. In vielen wichtigen Punkten muss man diese Frage offensichtlich bejahen, obgleich es bis heute keine Maschine gibt, die das technische Potential voll ausnutzt.
  3. Umso bemerkenswerter ist es, welche Wirkungen Maschinen (Computer) auf die Gesellschaft erzielen können, obgleich sie noch weitab von ihrem Optimum agieren.
  4. In einem Blogeintrag anlässlich eines Vortrags Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab? hatte ich noch eine grundsätzlich positive Grundstimmung bzgl. dessen, was auf uns zukommt. Ich schrieb damals:
  5. Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!
  6. Mittlerweile beschleicht mich der Verdacht, dass wir aktuellen Menschen die nächste Phase der Evolution möglicherweise unterschätzen.
  7. Auslöser war der persönliche Bericht eines Managers in einem weltweiten IT-Konzern, der – von Natur aus ein Naturwissenschaftler, ‚knochentrocken‘, immer sachlich, effizient – zum ersten Mal nach vielen Jahren Ansätze von Emotionen zeigte, was die Entwicklung seiner Firma angeht. Die Firma (und nicht nur diese Firma, s.u.) entwickelt seit vielen Jahren ein intelligentes Programm, das eine Unzahl von Datenbanken auswerten kann, und zwar so, dass die Anfrage von Menschen ‚interpretiert‘, die Datenbanken daraufhin gezielt abgefragt und dem anfragenden Menschen dann mitgeteilt werden. Das Ganze hat die Form eines passablen Dialogs. Das Verhalten dieses intelligenten Programms ist mittlerweile so gut, dass anfragende Menschen nicht mehr merken, dass sie ’nur‘ mit einer Maschine reden, und dass die Qualität dieser Maschine mittlerweile so gut ist, dass selbst Experten in vielen (den meisten?) Fällen schlechter sind als diese Maschine (z.B. medizinische Diagnose!). Dies führt schon jetzt dazu, dass diese Beratungsleistung nicht nur nach außen als Dienstleistung genutzt wird, sondern mehr und mehr auch in der Firma selbst. D.h. die Firma beginnt, sich von ihrem eigenen Produkt – einem in bestimmtem Umfang ‚intelligenten‘ Programm – ‚beraten‘ (und damit ‚führen‘?) zu lassen.
  8. Wenn man sich in der ‚Szene‘ umhört (man lese nur den erstaunlichen Wikipedia-EN-Eintrag zu deep learning), dann wird man feststellen, dass alle großen global operierenden IT-Firmen (Google, Microsoft, Apple, Facebook, Baidu und andere), mit Hochdruck daran arbeiten, ihre riesigen Datenbestände mit Hilfe von intelligenten Maschinen (im Prinzip intelligenten Algorithmen auf entsprechender Hardware) dahingehend nutzbar zu machen, dass man aus den Nutzerdaten nicht nur möglichst viel vom Verhalten und den Bedürfnissen der Nutzer zu erfahren, sondern dass die Programme auch immer ‚dialogfähiger‘ werden, dass also Nutzer ’natürlich (= menschlich)‘ erscheinende Dialoge mit diesen Maschinen führen können und die Nutzer (= Menschen) dann zufrieden genau die Informationen erhalten, von denen sie ‚glauben‘, dass es die ‚richtigen‘ sind.
  9. Auf den ersten Blick sieht es so aus, als ob die Manager dieser Firmen dank ihrer überlegenen Fähigkeiten die Firmen technologisch aufrüsten und damit zum wirtschaftlichen Erfolg führen.
  10. Tatsache ist aber, dass allein aufgrund der Möglichkeit, dass man ein bestimmtes Informationsverhalten von Menschen (den aktuellen ‚Kunden‘!) mit einer neuen Technologie ‚bedienen‘ könnte, und dass derjenige, der dies zu ‚erschwinglichen Preisen‘ als erster schafft, einen wirtschaftlichen Erfolg erzielen kann (zu Lasten der Konkurrenz), diese rein gedachte Möglichkeit einen Manager zwingt (!!!), von dieser Möglichkeit Gebrauch zu machen. Tut der Manager es nicht läuft er Gefahr, dass die Konkurrenz es tut, und zwar vor ihm, und dass er dadurch möglicherweise auf dem Markt so geschwächt wird, dass die Firma sich davon u.U. nicht mehr erholt. Insofern ist der Manager (und die ganze Firma) ein Getriebener (!!!). Er kann gar nicht anders!
  11. Das, was den Manager ‚treibt‘, das ist die aktuelle technische Möglichkeit, die sich aufgrund der bisherigen technischen Entwicklung ergeben hat. Für die bisherige technische Entwicklung gilt aber für jeden Zeitpunkt die gleiche Logik: als die Dampfmaschine möglich wurde, hatte nur noch Erfolg, wer sie als erster und konsequent eingesetzt hat; als die Elektrizität verfügbar, nicht anders, dann Radio, Fernsehen, Auto, Computer, ….
  12. Die ‚Manager‘ und ‚Unternehmensgründer‘, die wir zurecht bewundern für ihre Fähigkeiten und ihren Mut (nicht immer natürlich), sind trotz all dieser hervorstechenden Eigenschaften und Leistungen dennoch nicht autonom, nicht freiwillig; sie sind und bleiben Getriebene einer umfassenderen Logik, die sich aus der Evolution als Ganzer ergibt: die Evolution basiert auf dem bis heute nicht erklärbaren Prinzip der Entropie-Umkehr, bei dem freie Energie dazu genutzt wird, den kombinatorischen Raum möglicher neuer Zustände möglichst umfassend abzusuchen, und in Form neuer komplexer Strukturen in die Lage zu versetzen, noch mehr, noch schneller, noch effizienter zu suchen und die Strukturen und Dynamiken der vorfindlichen Welt (Universum) darin zu verstehen.
  13. Während wir im Falle von Molekülen und biologischen Zellen dazu tendieren, diese eigentlich ungeheuren Vorgänge eher herunter zu spielen, da sie quasi unter unserer Wahrnehmungsschwelle liegen, wird uns heute vielleicht dann doch erstmalig, ansatzweise, etwas mulmig bei der Beobachtung, dass wir Menschen, die wir uns bislang für so toll halten, dazu ganze riesige globale Firmen, die für Außenstehende beeindruckend wirken und für Firmenmitglieder wie überdimensionale Gefängnisse (? oder Irrenanstalten?), dass wir ‚tollen‘ Menschen also ansatzweise spüren, dass die wahnwitzige Entwicklung zu immer größeren Metropolen und zu immer intelligenteren Maschinen, die uns zunehmen die Welt erklären (weil wir es nicht mehr schaffen!?), uns dies alles tun lassen, weil der einzelne sich machtlos fühlt und die verschiedenen Chefs auf den verschiedenen Hierarchieebenen total Getriebene sind, die ihre Position nur halten können, wenn sie hinreichend effizient sind. Die Effizienz (zumindest in der freien Wirtschaft) wird jeweils neu definiert durch das gerade Machbare.
  14. Politische Systeme haben zwar immer versucht – und versuchen es auch heute – sich ein wenig vor dem Monster der Innovation abzuschotten, aber dies gelingt, wenn überhaupt, in der Konkurrenz der Gesellschaftssysteme nur für begrenzte Zeiten.
  15. Was wir also beobachten ist, dass die immense Informationsflut, die das einzelne Gehirn hoffnungslos überfordert, Lösungen mit intelligente Maschinen auf den Plan ruft, die das Sammeln, Sortieren, Klassifizieren, Aufbereiten usw. übernehmen und uns Menschen dann auf neue Weise servieren. So betrachtet ist es hilfreich für alle, nützlich, praktisch, Lebensfördernd.
  16. Beunruhigend ist einmal die Art und Weise, das Wie: statt dass es wirklich allen hilft, hat man den Eindruck, dass es die globalen Konzerne sind, die einseitig davon Vorteile haben, dass das bisherige Ideal der Privatheit, Freiheit, Selbstbestimmung, Würde usw. aufgelöst wird zugunsten einer völlig gläsernen Gesellschaft, die aber nur für einige wenige gläsern ist. Demokratische Gesellschaften empfinden dies u.U, stärker als nicht-demokratische Gesellschaften.
  17. Beunruhigend ist es auch, weil wir als Menschen erstmalig merken, dass hier ein Prozess in Gang ist, der eine neue Qualität im Verhältnis Mensch – Technik darstellt. In primitiveren Gesellschaften (und auch noch in heutigen Diktaturen) war es üblich , dass wenige Menschen die große Masse aller anderen Menschen quasi ‚versklavt‘ haben. Unter absolutistischen Herrschern hatten alle einem Menschen zu gehorchen, ob der nun Unsinn redete oder Heil verkündete. Nach den verschiedenen demokratischen Revolutionen wurde dieser Schwachsinn entzaubert und man wollte selbst bestimmen, wie das Leben zu gestalten ist.
  18. In der fortschreitenden Komplexität des Alltags merken wir aber, dass das sich selbst Bestimmen immer mehr vom Zugang zu Informationen abhängig ist und von der kommunikativen Abstimmung mit anderen, die ohne erheblichen technischen Aufwand nicht zu leisten sind. Die dazu notwendigen technischen Mittel gewinnen aber im Einsatz, im Gebrauch eine solche dominante Rolle, dass sie immer weniger nur die neutralen Vermittler von Informationen sind, sondern immer mehr ein Eigenleben führen, das sich ansatzweise und dann immer mehr auch von denen abkoppelt, die diese vermittelnden Technologien einsetzen. Kunden und Dienstleister werden werden gleichzeitig abhängig. Wirtschaftlich können die Dienstleister nicht mehr dahinter zurück und lebenspraktisch ist der Verbraucher, der Kunde immer mehr von der Verfügbarkeit dieser Leistung abhängig. Also treiben beide die Entwicklung zu noch größerer Abhängigkeit von den intelligenten Vermittlern voran.
  19. Eine interessante Entwicklung als Teil der übergreifenden Evolution. Wo führt sie uns hin?
  20. Die Frage ist spannend, da die heute bekannten intelligenten Maschinen noch weitab von den Möglichkeiten operieren, die es real gibt. Die Schwelle ist bislang die Abhängigkeit von den begrenzten menschlichen Gehirnen. Unsere Gehirne tun sich schwer mit Komplexität. Wir brauchen Computer, um größere Komplexität bewältigen zu können, was zu noch komplexeren (für uns Menschen) Computern führt, usw. Dabei haben wir noch lange nicht verstanden, wie die etwa 200 Milliarden einzelne Nervenzellen in unserem Gehirn es schaffen, im Millisekundenbereich miteinander so zu reden, dass all die wunderbaren Leistungen der Wahrnehmens, Denkens, Erinnerns, Bewegens usw. möglich sind.
  21. Heutige Computer haben mittlerweile eine begrenzte lokale Lernfähigkeit realisiert, die ihnen den Zugang zu begrenzter Intelligenz erlaubt. Heutige Computer sind aber weder im lokalen wie im strukturellen voll Lernfähig.
  22. Einige meinen, dass die Zukunft im Sinne von technischer-Singularität zu deuten ist, dass die intelligenten Maschinen dann irgendwann alles übernehmen. Ich wäre mir da nicht so sicher. Das Hauptproblem einer vollen Lernfähigkeit ist nicht die Intelligenz, sondern die Abhängigkeit von geeigneten Präferenzsystemen (Werte, Normen, Emotionen, Bedürfnissen, …). Dieses Problem begegnen wir beim Menschen auf Schritt und Tritt. Die vielen Probleme auf dieser Welt resultieren nicht aus einem Mangel an Intelligenz, sondern aus einem Mangel an geeigneten von allen akzeptierten Präferenzsystemen. Dass Computer die gleichen Probleme haben werden ist den meisten (allen?) noch nicht bewusst, da die Lernfähigkeit der bisherigen Computer noch so beschränkt ist, dass das Problem nicht sichtbar wird. Sobald aber die Lernfähigkeit von Computern zunehmen wird, wird sich dieses Problem immer schärfer stellen.
  23. Das einzige wirklich harte Problem ist jetzt schon und wird in der Zukunft das Werteproblem sein. Die bisherigen Religionen haben unsere Blicke mit vielen falschen Bildern vernebelt und uns im Glauben gelassen, das Werteproblem sei ja gelöst, weil man ja an Gott glaubt (jede Religion tat dies auf ihre Weise). Dieser Glaube ist aber letztlich inhaltsleer und nicht geeignet, die realen Wertprobleme zu lösen.
  24. Man kann nur gespannt sein, wie die Menschheit als Teil des umfassenden Lebensphänomens mit einer immer leistungsfähigeren Technik auf Dauer das Werteproblem lösen wird. Die einzige Hoffnung ruht in der Logik des Prozesses selbst. Der Mensch in seiner unfassbaren Komplexität ist ein Produkt der Evolutionslogik; wir selbst sind weit entfernt davon, dass wir etwas Vergleichbares wie uns selbst schaffen könnten. Darf man also darauf vertrauen, dass die in allem Leben innewohnende Logik der Evolution uns Menschen als Werkzeuge benutzt zu noch mehr Komplexität, in der wir alle kleine Rädchen im Ganzen sind (als was erscheint uns  ein einzelner Mensch in einer 30-Millionen Metropole?)

Einen Überblick über alle Einträge von cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 5 – neu – Version 2

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.August 2015
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Was ist Leben?

Erst die Erde

Etwa 9.2 Mrd Jahre nach dem sogenannten Big Bang kam es zur Entstehung unseres Sonnensystems mit der Sonne als wichtigstem Bezugspunkt. Nur ca. 60 Mio Jahre später gab es unsere Erde. Die Zeitspanne, innerhalb der Spuren von Leben auf der Erde bislang identifiziert wurden, liegt zwischen -4 Mrd Jahre von heute zurück gerechnet bis ca. -3.5 Mrd Jahre. Oder, vom Beginn der Erde aus gesehen, ca. 540 Mio Jahre bis ca. 1 Mrd Jahre nach der Entstehung der Erde.

Alte Bilder vom Leben

Wenn man vom Leben spricht, von etwas Belebtem im Gegensatz zum Unbelebtem, fragt man sich sofort, wie man ‚Leben‘ definieren kann? In der zurückliegenden Geschichte gab es viele Beschreibungs- und Definitionsversuche. Einer, der heute noch begrifflich nachwirkt, ist die Sicht der Philosophie der Antike (ca. -600 bis 650) . Hier wurde das ‚Atmen‘ (gr. ‚pneo‘) als charakteristisches Merkmal für ‚Lebendiges‘ genommen, wodurch es vom ‚Unbelebtem‘ abgegrenzt wurde. Aus dem ‚Atmen‘ wurde zugleich ein allgemeines Lebensprinzip abgeleitet, das ‚Pneuma‘ (im Deutschen leicht missverständlich als ‚Geist‘ übersetzt, im Lateinischen als ’spiritus‘), das sich u.a. im Wind manifestiert und ein allgemeines kosmologisches Lebensprinzip verkörpert, das sowohl die Grundlage für die psychischen Eigenschaften eines Lebewesens bildet wie auch für seine körperliche Lebendigkeit. In der Medizin gab es vielfältige Versuche, das Pneuma im Körper zu identifizieren (z.B. im Blut, in der Leber, im Herzen, im Gehirn und den Nerven). Im philosophischen Bereich konnte das Pneuma ein heißer Äther sein, der die ganze Welt umfasst. Eine andere Auffassung sieht das Pneuma zusammengesetzt aus Feuer und Luft, woraus sich alle Körper der Welt bilden. Das Pneuma wird auch gesehen als die ‚Seele‘, die allein das Leben des Körpers ermöglicht. Bei den Stoikern wird das Pneuma-Konzept zum allumfassenden Begriff einer Weltseele gesteigert. Mit der Zeit vermischte sich der Pneuma-Begriff mit dem Begriff ’nous‘ (Kurzform für ’noos‘)(Englisch als ‚mind‘ übersetzt; Deutsch ebenfalls als ‚Geist‘), um darin die kognitiv-geistige Dimension besser auszudrücken. Weitere einflussreiche begriffliche Koordinierungen finden statt mit dem lateinischen ‚mens‘ (Deutsch auch übersetzt mit ‚Geist‘) und dem hebräischen ‚ruach‘ (im Deutschan ebenfalls mit ‚Geist‘ übersetzt; bekannt in der Formulierung ‚Der Geist Gottes (= ‚ruach elohim‘) schwebte über den Wassern‘; in der Septuaginta, der griechischen Übersetzung der hebräischen Bibel, heißt es ‚pneuma theou‘ (= der Geist Gottes)) (Anmerkung: Diese Bemerkungen sind ein kleiner Extrakt aus der sehr ausführlichen begriffsgeschichtlichen Herleitung in Sandkühler 2010)

Die Zelle im Fokus

War es für die antiken Philosophen, Mediziner und Wissenschaftler noch praktisch unmöglich, die Frage nach den detaillierten Wirkprinzipien des ‚Lebens‘ genauer zu beantworten, erarbeitete sich die moderne Naturwissenschaft immer mehr Einsichten in die Wirkprinzipien biologischer Phänomene (bei Tieren, Pflanzen, Mikroben, molekularbiologischen Sachverhalten), so dass im Laufe des 20.Jahrhunderts klar wurde, dass die Gemeinsamkeit aller Lebensphänomene auf der Erde in jener Superstruktur zu suchen ist, die heute (biologische) Zelle genannt wird.

Alle bekannten Lebensformen auf der Erde, die mehr als eine Zelle umfassen (wir als Exemplare der Gattung homo mit der einzigen Art homo sapiens bestehen aus ca. 10^13 vielen Zellen), gehen zu Beginn ihrer körperlichen Existenz aus genau einer Zelle hervor. Dies bedeutet, dass eine Zelle über alle notwendigen Eigenschaften verfügt, sich zu reproduzieren und das Wachstum eines biologischen Systems zu steuern.

So enthält eine Zelle (Anmerkung: Für das Folgende benutze ich B.Alberts et.al (2008)) alle Informationen, die notwendig sind, um sowohl sich selbst zu organisieren wie auch um sich zu reproduzieren. Die Zelle operiert abseits eines chemischen Gleichgewichts, was nur durch permanente Aufnahme von Energie realisiert werden kann. Obwohl die Zelle durch ihre Aktivitäten die Entropie in ihrer Umgebung ‚erhöht‘, kann sie gegenläufig durch die Aufnahme von Energie auch Entropie verringern. Um einen einheitlichen Prozessraum zu gewährleisten, besitzen Zellen eine Membran, die dafür sorgt, dass nur bestimmte Stoffe in die Zelle hinein- oder herauskommen.

Keine Definition für außerirdisches Leben

Obgleich die Identifizierung der Zelle samt ihrer Funktionsweise eine der größten Errungenschaften der modernen Wissenschaften bei der Erforschung des Phänomens des Lebens darstellt, macht uns die moderne Astrobiologie darauf aufmerksam, dass eine Definition der Lebensphänomene mit Einschränkung des Blicks auf die speziellen Bedingungen auf der Erde nicht unproblematisch ist. Wunderbare Bücher wie „Rare Earth“ von Peter Douglas Ward (Geboren 1949) und Donald Eugene Brownlee (Geboren 1943) „ASTROBIOLOGY. A Multidisciplinary Approach“ von Jonathan I.Lunine (Geb. 1959) machen zumindest sichtbar, wo die Probleme liegen könnten. Lunine diskutiert in Kap.14 seines Buches die Möglichkeit einer allgemeineren Definition von Leben explizit, stellt jedoch fest, dass es aktuell keine solche eindeutige allgemeine Definition von Leben gibt, die über die bekannten erdgebundenen Formen wesentlich hinausgeht. (Vgl. ebd. S.436)

Schrödingers Vision

Wenn man die Charakterisierungen von Leben bei Lunine (2005) in Kap.14 und bei Alberts et.al (2008) in Kap.1 liest, fällt auf, dass die Beschreibung der Grundstrukturen des Lebens trotz aller Abstraktionen tendenziell noch sehr an vielen konkreten Eigenschaften hängen.

Erwin Rudolf Josef Alexander Schrödinger (1887-1961), der 1944 sein einflussreiches Büchlein „What is Life? The Physical Aspect of the Living Cell“ veröffentlichte, kannte all die Feinheiten der modernen Molekularbiologie noch nicht . Schrödinger unterzog das Phänomen des Lebens einer intensiven Befragung aus Sicht der damaligen Physik. Auch ohne all die beeindruckenden Details der neueren Forschung wurde ihm klar, dass das hervorstechendste Merkmal des ‚Biologischen‘, des ‚Lebendigen‘ die Fähigkeit ist, angesichts der physikalisch unausweichlichen Zunahme der Entropie einen gegensätzlichen Trend zu realisieren; statt wachsender Unordnung als Entropie diagnostizierte er eine wachsende Ordnung als negative Entropie, also als etwas, was der Entropie entgegen wirkt.

Diesen Gedanken Schrödingers kann man weiter variieren und in dem Sinne vertiefen, dass der Aufbau einer Ordnung Energie benötigt, mittels der Freiheitsgrade eingeschränkt und Zustände temporär ‚gefestigt‘ werden können.

Fragt sich nur, warum?

Alberts et.al (2008) sehen das Hauptcharakteristikum einer biologischen Zelle darin, dass sie sich fortpflanzen kann, und nicht nur das, sondern dass sie sich selbstmodifizierend fortpflanzen kann. Die Realität biologischer Systeme zeigt zudem, dass es nicht nur um ‚irgendeine‘ Fortpflanzung ging, sondern um eine kontinuierlich optimierende Fortpflanzung.

Metastrukturen

Nimmt man diese Eckwerte ernst, dann liegt es nahe, biologische Zellen als Systeme zu betrachten, die einerseits mit den reagierenden Molekülen mindestens eine Objektebene [O] umfasst und in Gestalt der DNA eine Art Metaebene [M]; zwischen beiden Systemen lässt sich eine geeigneten Abbildung [R] in Gestalt von Übersetzungsprozessen realisieren, so dass die Metaebene M mittels Abbildungsvorschrift R in eine Objektebene O übersetzt werden kann ($latex R: M \longmapsto O$). Damit eine Reproduktion grundsätzlich gelingen kann, muss verlangt werden, dass das System mit seiner Struktur ‚lang genug‘ stabil ist, um solch einen Übersetzungsprozess umsetzen zu können. Wie diese Übersetzungsprozesse im einzelnen vonstatten gehen, ist letztlich unwichtig. Wenn in diesem Modell bestimmte Strukturen erstmals realisiert wurden, dann fungieren sie als eine Art ‚Gedächtnis‘: alle Strukturelemente von M repräsentieren potentielle Objektstrukturen, die jeweils den Ausgangspunkt für die nächste ‚Entwicklungsstufe‘ bilden (sofern sie nicht von der Umwelt ‚aussortiert‘ werden).

Die Rolle dieser Metastrukturen lässt sich letztlich nicht einfach mit den üblichen chemischen Reaktionsketten beschreiben; tut man es dennoch, verliert man die Besonderheit des Phänomens aus dem Blick. Eine begriffliche Strategie, um das Phänomen der ‚wirkenden Metastrukturen‘ in den Griff zu bekommen, war die Einführung des ‚Informationsbegriffs‘.

Information

Grob kann man hier mindestens die folgenden sprachlichen Verwendungsweisen des Begriffs ‚Information‘ im Kontext von Informationstheorie und Molekularbiologie unterscheiden:

  1. Unreflektiert umgangssprachlich (‚Information_0‘)
  2. Anhand des Entscheidungsaufwandes (Bit) (‚Information_1‘)
  3. Rein statistisch (a la Shannon 1948) (‚Information_2‘)
  4. Semiotisch informell (ohne die Semiotik zu zitieren) (‚Semantik_0‘)
  5. Als komplementär zur Statistik (Deacon) (‚Semantik_1‘)
  6. Als erweitertes Shannonmodell (‚Semantik_2‘)

Information_0

Die ‚unreflektiert umgangssprachliche‘ Verwendung des Begriffs ‚Information‘ (hier: ‚Information_0‘) brauchen wir hier nicht weiter zu diskutieren. Sie benutzt den Begriff Information einfach so, ohne weitere Erklärungen, Herleitungen, Begründungen. (Ein Beispiel Küppers (1986:41ff))

Information_1

Die Verwendung des Begriffs Information im Kontext eines Entscheidungsaufwandes (gemessen in ‚Bit‘), hier als ‚Information_1‘ geht auf John Wilder Tukey (1915-2000) zurück.

Information_2

Shannon (1948) übernimmt zunächst diesen Begriff Information_1, verzichtet dann aber im weiteren Verlauf auf diesen Informationsbegriff und führt dann seinen statistischen Informationsbegriff ein (hier: ‚Information_2‘), der am Entropiekonzept von Boltzmann orientiert ist. Er spricht dann zwar immer noch von ‚Information‘, bezieht sich dazu aber auf den Logarithmus der Wahrscheinlichkeit eines Ereignisses, was alles und jedes sein kann. Ein direkter Bezug zu einem ’speziellen‘ Informationsbegriff (wie z.B. Information_1) besteht nicht. Man kann die logarithmierte Wahrscheinlichkeit eines Ereignisses als ‚Information‘ bezeichnen (hier: ‚Information_2‘), aber damit wird der Informationsbegriff inflationär, dann ist alles eine Information, da jedes Ereignis mindestens eine Wahrscheinlichkeit besitzt. (Leider benutzt auch Carl Friedrich von Weizsäcker (1971:347f) diesen inflationären Begriff (plus zusätzlicher philosophischer Komplikationen)). Interessanterweise ist es gerade dieser inflationäre statistische Informationsbegriff Information_2, der eine sehr starke Resonanz gefunden hat.

Semantik 0

Nun gibt es gerade im Bereich der Molekularbiologie zahlreiche Phänomene, die bei einer Beschreibung mittels eines statistischen Informationsbegriffs wichtige Momente ihres Phänomens verlieren. (Dazu eine kleine Übersicht bei Godfrey-Smith, Kim Sterelny (2009)) Ein Hauptkritikpunkt war und ist das angebliche Fehlen von Bedeutungselementen im statistischen Modell von Shannon (1948). Man spricht auch vom Fehlen einer ‚Semantik‘. Allerdings wird eine Diskussion der möglichen Bedeutungsmomente von Kommunikationsereignissen unter Verwendung des Begriffs ‚Semantik‘ auch oft unreflektiert alltagssprachlich vorgenommen (hier: Semantik_0′), d.h. es wird plötzlich von Semantik_0 gesprochen (oft noch erweitert um ‚Pragmatik‘), ohne dass die Herkunft und Verwendung dieses Begriffs in der Wissenschaft der Semiotik weiter berücksichtigt wird. (Ein Beispiel für solch eine verwirrende Verwendungsweise findet sich z.B. wieder bei Weizsäcker (1971:350f), wo Information_0, Information_2 sowie Semantik_0 miteinander frei kombiniert werden, ohne Berücksichtigung der wichtigen Randbedingungen ihrer Verwendung; ganz ähnlich Küppers (1986:61ff); zur Semiotik siehe Noeth (2000)). Ein anderes neueres Beispiel ist Floridi (2015:Kap.3+4) Er benutzt zwar den Begriff ‚Semantik‘ extensiv, aber auch er stellt keinen Bezug zur semiotischen Herkunft her und verwendet den Begriff sehr speziell. Seine Verwendung führt nicht über den formalen Rahmen der statistischen Informationstheorie hinaus.

Semantik 1

Sehr originell ist das Vorgehen von Deacon (2007, 2008, 2010). Er diagnostiziert zwar auch einen Mangel, wenn man die statistische Informationstheorie von Shannon (1948) auf biologische Phänomene anwenden will, statt sich aber auf die schwierige Thematik einer expliziten Semantik einzulassen, versucht er über die Ähnlichkeit des Shannonschen statistischen Informationsbegriffs mit dem von Boltzmann einen Anschluss an die Thermodynamik zu konstruieren. Von dort zum Ungleichgewicht biologischer Systeme, die durch Arbeit und Energieaufnahme ihr Gleichgewicht zu halten versuchen. Diese Interaktionen des Systems mit der Umgebung modifizieren die inneren Zustände des Systems, die wiederum dann das Verhalten des Systems ‚umweltgerecht‘ steuern. Allerdings belässt es Deacon bei diesen allgemeinen Annahmen. Die ‚Abwesenheit‘ der Bedeutung im Modell von Shannon wird über diese frei assoziierten Kontexte – so vermutet man als Leser – mit den postulierten internen Modifikationen des interagierenden Systems begrifflich zusammengeführt. Wie dies genau gedacht werden kann, bleibt offen.

Semantik 2

So anregend die Überlegungen von Deacon auch sind, sie lassen letztlich offen, wie man denn – auch unter Berücksichtigung des Modells von Shannon – ein quasi erweitertes Shannonmodell konstruieren kann, in dem Bedeutung eine Rolle spielt. Hier eine kurze Skizze für solch ein Modell.

Ausgehend von Shannons Modell in 1948 besteht die Welt aus Sendern S, Empfängern D, und Informationskanälen C, über die Sender und Empfänger Signale S eingebettet in ein Rauschen N austauschen können (<S,D,S,N,C> mit C: S —> S x N).

Ein Empfänger-Sender hat die Struktur, dass Signale S in interne Nachrichten M dekodiert werden können mittels R: S x N —> M. Umgekehrt können auch Nachrichten M in Signale kodiert werden mit T: M —> S. Ein minimaler Shannon Sender-Empfänger hat dann die Struktur <M, R, T>. So gesehen funktionieren R und T jeweils als ‚Schnittstellen‘ zwischen dem ‚Äußeren‘ und dem ‚Inneren‘ des Systems.

In diesem minimalen Shannonmodell kommen keine Bedeutungen vor. Man kann allerdings annehmen, dass die Menge M der Nachrichten eine strukturierte Menge ist, deren Elemente Paare der Art (m_i,p_i) in M mit ‚m_i‘ als Nachrichtenelement und ‚p_i‘ als Wahrscheinlichkeit, wie oft dieses Nachrichtenelement im Kanal auftritt. Dann könnte man Shannons Forml H=-Sum(p_i * log2(p_i)) als Teil des Systems auffassen. Das minimale Modell wäre dann <M, R, T, H>.

Will man ‚Bedeutungen‘ in das System einführen, dann muss man nach der Semiotik einen Zeichenbegriff für das System definieren, der es erlaubt, eine Beziehung (Abbildung) zwischen einem ‚Zeichenmaterial‚ und einem ‚Bedeutungsmaterial‚ zu konstruieren. Nimmt man die Signale S von Shannon als Kandidaten für ein Zeichenmaterial, fragt sich, wie man das Bedeutungsmaterial B ins Spiel bringt.

Klar ist nur, dass ein Zeichenmaterial erst dann zu einem ‚Zeichen‘ wird, wenn der Zeichenbenutzer in der Lage ist, dem Zeichenmaterial eine Bedeutung B zuzuordnen. Eine einfache Annahme wäre, zu sagen, die dekodierten Nachrichten M bilden das erkannte Zeichenmaterial und der Empfänger kann dieses Material irgendwelchen Bedeutungen B zuordnen, indem er das Zeichenmaterial M ‚interpretiert‚, also I : M —> B. Damit würde sich die Struktur erweitern zu <B, M, R, T, H, I>. Damit nicht nur ein Empfänger ‚verstehen‘ kann, sondern auch ‚mitteilen‘, müsste der Empfänger als Sender Bedeutungen auch wieder ‚umgekehrt lesen‘ können, also -I: B —> M. Diese Nachrichten könnten dann wieder mittels T in Signale übersetzt werden, der Kanal sendet diese Signale S angereichert mit Rauschen N zum Empfänger, usw. Wir erhalten also ein minimal erweitertes Shannon Modell mit Bedeutung als <B, M, R, T, H, I, -I>. Ein Sender-Empfänger kann also weiterhin die Wahrscheinlichkeitsstruktur seiner Nachrichten auswerten; zusätzlich aber auch mögliche Bedeutungsanteile.

Bliebe als Restfrage, wie die Bedeutungen B in das System hineinkommen bzw. wie die Interpretationsfunktion I entsteht?

An dieser Stelle kann man die Spekulationen von Deacon aufgreifen und als Arbeitshypothese annehmen, dass sich die Bedeutungen B samt der Interpretationsbeziehung I (und -I) in einem Adaptionsprozess (Lernprozess) in Interaktion mit der Umgebung entwickeln. Dies soll an anderer Stelle beschrieben werden.

Für eine komplette Beschreibung biologischer Phänomene benötigt man aber noch weitere Annahmen zur Ontogense und zur Phylogense. Diese seien hier noch kurz skizziert. (Eine ausführliche formale Darstellung wird anderswo nachgeliefert).

Ontogenese

Von der Lernfähigkeit eines biologischen Systems muss man die Ontogenese unterscheiden, jenen Prozess, der von der Keimzelle bis zum ausgewachsenen System führt.

Die Umsetzung der Ontogenese in einem formalen Modell besteht darin, einen Konstruktionsprozess zu definieren, das aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <B, M, R, T, H, I, -I> zu konstruieren.

Phylogenese

Für die Reproduktion der Systeme im Laufe der Zeiten benötigte man eine Population von Systemen SYS, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘. Man müsste also annehmen, dass das minimale System um das Element Zmin erweitert würde SYS = <B, M, Zmin, R, T, H, I, -I>.

Erstes Zwischenergebnis

Auffällig ist also, dass das Phänomen des Lebens

  1. trotz Entropie über dynamische Ungleichgewichte immer komplexere Strukturen aufbauen kann.
  2. innerhalb seiner Strukturen immer komplexere Informations- und Bedeutungsstrukturen aufbaut und nutzt.

So wie man bislang z.B. die ‚Gravitation‘ anhand ihrer Wirkungen erfasst und bis heute erfolglos zu erklären versucht, so erfassen wir als Lebende das Leben anhand seiner Wirkungen und versuchen bis heute auch erfolglos, zu verstehen, was hier eigentlich passiert. Kein einziges physikalisches Gesetzt bietet auch nur den leisesten Anhaltspunkt für dieses atemberaubende Geschehen.

In dieser Situation den Menschen als eine ‚vermutlich aussterbende Art‘ zu bezeichnen ist dann nicht einfach nur ‚gedankenlos‘, sondern im höchsten Maße unwissenschaftlich, da es letztlich einer Denkverweigerung nahe kommt. Eine Wissenschaft, die sich weigert, über die Phänomene der Natur nachzudenken, ist keine Wissenschaft.

Fortsetzung Folgt.

QUELLEN

  1. H.J. Sandkühler (Hg.), 2010, „Enzyklopädie Philosophie“, Hamburg: Felix Meiner Verlag, Band 1: Von A bis H, Kapitel: Geist, SS.792ff
  2. B.Alberts et.al (Hg.), 2008, „Molecular Biology of the CELL“, Kap.1, 5.Aufl., New York: Garland Science, Taylor & Francis Group
  3. Peter Douglas Ward und `Donald Eugene Brownlee (2000),“Rare Earth: Why Complex Life Is Uncommon in the Universe“, New York: Copernikus/ Springer,
  4. Jonathan I.Lunine (2005), „ASTROBIOLOGY. A Multidisciplinary Approach“, San Francisco – Boston – New York et al.: Pearson-Addison Wesley
  5. Zu Schroedinger 1944: Based on Lectures delivered under the auspices of the Institute at Trinity College, Dublin, in February 1943, Cambridge: University Press. 1944. Ich selbst habe die Canto Taschenbuchausgabe der Cambridge University von 1992 benutzt. Diese Ausgabe enthält ‚What is Life?‘, ‚Mind from Matter‘, sowie autobiographischen Angaben und ein Vorwort von Roger Penrose
  6. Anmerkung zu Schroedinger 1944: Sowohl James D. Watson (2003) wie auch ähnlich Francis Crick (1990) berichten, dass Schrödingers Schrift (bzw. einer seiner Vorträge) sie für ihre Erforschung der DNA stark angeregt hatte.
  7. James D.Watson und A.Berry(2003), „DNA, the Secret of Life“, New York: Random House
  8. Francis Crick (1990),„What Mad Pursuit: A Personal View of Scientific Discovery“, Reprint, Basic Books
  9. Peter Godfrey-Smith und Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  10. Carl Friedrich von Weizsäcker (1971), „Die Einheit der Natur“, München: Carl Hanser Verlag
  11. Bernd-Olaf Küppers (1986), „Der Ursprung biologischer Information. Zur Naturphilosophie der Lebensentstehung“, München – Zürich: Piper Verlag.
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  15. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  16. Deacon, T. (2007), Shannon-Boltzmann-Darwin: Redfining information. Part 1. in: Cognitive Semiotics, 1: 123-148
  17. Deacon, T. (2008), Shannon-Boltzmann-Darwin: Redfining information. Part 2. in: Cognitive Semiotics, 2: 167-194
  18. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

BUCHPROJEKT 2015 – Zwischenreflexion 23.August 2015 – INFORMATION – Jenseits von Shannon

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

VORHERIGE BEITRÄGE

1. Im Beitrag von John Maynard Smith hatte dieser Kritik geübt an der Informationstheorie von Shannon. Dabei fokussierte er im wesentlichen auf die direkte Anwendung des Shannonschen Begriffs auf die informationsvermittelnden Prozesse bei der Selbstreproduktion der Zelle, und er konnte deutlich machen, dass viele informationsrelevanten Eigenschaften bei dem Reproduktionsprozess mit dem Shannonschen Informationsbegriff nicht erfasst werden. Anschließend wurde ein Beitrag von Terrence W.Deacon diskutiert, der den Shannonschen Informationsbegriff als Ausgangspunkt nutzte, den er it dem Entropiebegriff von Boltzmann verknüpfte, von dort die Begriffe thermodynamisches Ungleichgewicht, Arbeit und Evolution nach Darwin benutzte, um die Idee anzudeuten, dass jene Zustände in einem System, die bedeutungsrelevant sein könnten (und von Shannon selbst nicht analysiert werden) in Interaktion mit der Umwelt entstanden sind und entstehen.

ZWISCHENSTAND
2. Was sowohl bei Maynard Smih wie auch bei Deakon auffällt, ist, dass sie sich wenig um den möglichen Kontext des Begriffs ‚Information‘ bemühen. Wie wurde der Begriff der Information im Laufe der Ideengeschichte verstanden? Welche Besonderheiten gibt es in den verschiedenen Disziplinen?

HISTORISCH-SYSTEMATISCHE PERSPEKTIVE

3. In einem umfangreichen und detailliertem Überblick von Pieter Adriaans (2012) in der Standford Encyclopedia of Philosophy findet man ein paar mehr Zusammenhänge.

4. Zwar heißt es auch hier mehrfach, dass ein erschöpfender Überblick und eine alles umfassende Theorie noch aussteht, aber ausgehend von der antiken Philosophie über das Mittelalter, die Renaissance bis hin zu einigen modernen Entwicklungen findet man wichtige Themen und Autoren.

5. Zusammenfassend sei hier nur festgestellt, dass Aspekte des Informationsbegriffs auf unterschiedlich Weise bis zum Ende des 19.Jahrhunderts feststellbar sind, ohne dass man von einer eigentlich Philosophie der Information oder einer Informationstheorie im modernen Sinne sprechen kann. Als grobe Koordinaten, die den Ausgangspunkt für die neuere Entwicklung einer Informationstheorie markieren, nennt Adriaans (i) Information als ein Prozess, der Systeme prägen/ formieren/ informieren kann; (ii) Information als ein Zustand, der sich bei einem System einstellt, nachdem es informiert wurde; (iii) Information als die Fähigkeit eines Systems, seine Umgebung zu prägen/ formen/ informieren.

6. Weiterhin identifiziert er zusammenfassend einige Bausteine der modernen Informationstheorie: (i) Information ist ‚extensiv‘ insofern die Bestandteile in das übergreifende Ganze eingehen und sie vermindert Unsicherheit; (ii) man benötigt eine formale Sprache zu ihrer Darstellung; (iii) ein ‚optimaler‘ Kode ist wichtig; (iv) die Verfügbarkeit eines optimierten Zahlensystems (binär, Stellen, Logarithmus) spielte eine Rolle; ausgehend von konstituierenden Elementen die Idee der Entropie in Kombination mit der Wahrscheinlichkeit; (v) die Entwicklung einer formalen Logik für Begriffe wie ‚Extension/ Intension‘, ‚Folgerung‘, ‚Notwendigkeit‘, ‚mögliche Welten‘, ‚Zustandsbeschreibungen‘ und ‚algorithmische Informationstheorie‘.

7. Andere wichtige Themen sind (i) Information als Grad der Widerlegbarkeit (Popper); (ii) Information in Begriffen der Wahrscheinlichkeit (Shannon); (iii) Information als Länge des Programms (Solomonoff, Kolmogorov, Chaitin).

SHANNON ERSCHEINT ÜBERMÄCHTIG

8. Was man bei Adriaans vermisst, das ist der Bezug zur semantischen Dimension. Hierzu gibt es einen anderen sehr umfangreichen Beitrag von Floridi (2015), auf den auch Adriaans verweist. Floridi behandelt die Frage der Semantischen Information quantitativ sehr ausführlich, inhaltlich aber beschränkt er sich weitgehend auf eine formale Semantik im Umfeld einer mathematischen Informationstheorie auf der Basis von Shannon 1948. Dies verwundert. Man kann den Eindruck gewinnen, dass die ‚konzeptuelle Gravitation‘ des Shannonschen Modells jede Art von begrifflicher Alternative im Keim erstickt.

BEFREIUNG DURCH BIOLOGIE

9. Bringt man die Informationstheorie in das begriffliche Gravitationsfeld der Biologie, insbesondere der Molekularbiologie, dann findet man in der Tat auch andere begrifflich Ansätze. Peter Godfrey-Smith und Kim Sterelny (2009) zeigen am Beispiel der Biologie und vieler molekularbiologischer Sachverhalte auf, dass man das enge Modell von Shannon durch weitere Faktoren nicht nur ergänzen kann, sondern muss, will man den besonderen biologischen Sachverhalten Rechnung tragen. Allerdings führen sie ein solches Modell nicht allgemein aus. Kritiker weisen darauf hin, dass solche zusätzlichen Abstraktionen die Gefahr bieten – wie in jeder anderen wissenschaftlichen Disziplin auch –, dass sich Abstraktionen ‚ontologisch verselbständigen‘; ohne erweiternde Begrifflichkeit kann man allerdings auch gar nichts sagen.

THEORIE A LA BOLTZMANN VOR MEHR ALS 100 JAHREN

10. Diese ganze moderne Diskussion um die ‚richtigen formalen Modelle‘ zur Erklärung der empirischen Wirklichkeit haben starke Ähnlichkeiten mit der Situation zu Zeiten von Ludwig Boltzmann. In einer lesenswerten Rede von 1899 zur Lage der theoretischen Physik ist er konfrontiert mit der stürmischen Entwicklung der Naturwissenschaften in seiner Zeit, speziell auch der Physik, und es ist keinesfalls ausgemacht, welches der vielen Modelle sich in der Zukunft letztlich als das ‚richtigere‘ erweisen wird.

11. Boltzmann sieht in dieser Situation die Erkenntnistheorie gefragt, die mithelfen soll, zu klären, welche Methoden in welcher Anordnung einen geeigneten Rahmen hergeben für eine erfolgreiche Modellbildung, die man auch als theoretische Systeme bezeichnen kann, die miteinander konkurrieren.

12. Mit Bezugnahme auf Hertz bringt er seinen Zuhörern zu Bewusstsein, „dass keine Theorie etwas Objektives, mit der Natur wirklich sich Deckendes sein kann, dass vielmehr jede nur ein geistiges Bild der Erscheinungen ist, das sich zu diesen verhält wie das Zeichen zum Bezeichneten.“ (Boltzmann 1899:215f) Und er erläutert weiter, dass es nur darum gehen kann, „ein möglichst einfaches, die Erscheinungen möglichst gut darstellendes Abbild zu finden.“ (Boltzmann 1899:216) So schließt er nicht aus, dass es zum gleichen empirischen Sachverhalt zwei unterschiedliche Theorien geben mag, die in der Erklärungsleistung übereinstimmen.

13. Als Beispiel für zwei typische theoretische Vorgehensweisen nennt er die ‚Allgemeinen Phänomenologen‘ und die ‚Mathematischen Phänomenologen‘. Im ersteren Fall sieht man die theoretische Aufgabe darin gegeben, alle empirischen Tatsachen zu sammeln und in ihrem historischen Zusammenhang darzustellen. Im zweiten Fall gibt man mathematische Modelle an, mit denen man die Daten in allgemeine Zusammenhänge einordnen, berechnen und Voraussagen machen kann. Durch die Einordnung in verallgemeinernde mathematische Modelle geht natürlich die Theorie über das bis dahin erfasste Empirische hinaus und läuft natürlich Gefahr, Dinge zu behaupten die empirisch nicht gedeckt sind, aber ohne diese Verallgemeinerungen kann ein Theorie nichts sagen. Es kann also nicht darum gehen, ’nichts‘ zu sagen, sondern das, was man theoretisch sagen kann, hinreichend auf Zutreffen bzw. Nicht-Zutreffen zu kontrollieren (Poppers Falsifizierbarkeit). Boltzmann bringt seitenweise interessante Beispiele aus der damals aktuellen Wissenschaftsdiskussion, auf die ich hier jetzt aber nicht eingehe.

WIE SHANNON ERWEITERN?

14. Stattdessen möchte ich nochmals auf die Fragestellung zurück kommen, wie man denn vorgehen sollte, wenn man erkannt hat, dass das Modell von Shannon – so großartig es für die ihm gestellten Aufgaben zu sein scheint –, bzgl. bestimmter Fragen als ‚zu eng‘ erscheint. Hier insbesondere für die Frage der Bedeutung.

15. Im Beitrag von Deacon konnte man eine Erweiterungsvariante in der Weise erkennen, dass Deacon versucht hatte, über die begriffliche Brücke (Shannon-Entropie –> Boltzmann-Entropie –>Thermodynamik → Ungleichgewicht → Aufrechterhaltung durch externe Arbeit) zu der Idee zu kommen, dass es in einem biologischen System Eigenschaften/ Größen/ Differenzen geben kann, die durch die Umwelt verursacht worden sind und die wiederum das Verhalten des Systems beeinflussen können. In diesem Zusammenhang könnte man dann sagen, dass diesen Größen ‚Bedeutung‘ zukommt, die zwischen Systemen über Kommunikationsereignisse manifestiert werden können. Ein genaueres Modell hatte Deacon dazu aber nicht angegeben.

16. Wenn Deacon allerdings versuchen wollte, diese seine Idee weiter zu konkretisieren, dann käme er um ein konkreteres Modell nicht herum. Es soll hier zunächst kurz skizziert werden, wie solch ein Shannon-Semantik-System aussehen könnte. An anderer Stelle werde ich dies Modell dann formal komplett hinschreiben.

SHANNON-SEMANTIK MODELL SKIZZE

17. Als Ausgangspunkt nehme ich das Modell von Shannon 1948. (S.381) Eine Quelle Q bietet als Sender Nachrichten M an, die ein Übermittler T in Kommunikationsereignisse S in einem Kommunikationskanal C verwandelt (kodiert). In C mischen sich die Signale S mit Rauschelementen N. Diese treffen auf einen Empfänger R, der die Signale von den Rauschanteilen trennt und in eine Nachricht M* verwandelt (dekodiert), die ein Empfänger D dann benutzen kann.

18. Da Shannon sich nur für die Wahrscheinlichkeit bestimmter Signalfolgen interessiert hat und die Kapazitätsanforderungen an den Kanal C, benötigt sein Modell nicht mehr. Wenn man aber jetzt davon ausgeht, dass der Sender nur deshalb Kommunikationsereignisse S erzeugt, weil er einem Empfänger bestimmte ‚Bedeutungen‘ übermitteln will, die den Empfänger in die Lage versetzen, etwas zu ‚tun‘, was der übermittelten Bedeutung entspricht, dann muss man sich überlegen, wie man das Shannon Modell erweitern kann, damit dies möglich ist.

19. Das erweiterte Shannon-Semantik Modell soll ein formales Modell sein, das geeignet ist, das Verhalten von Sendern und Empfängern zu beschreiben, die über reine Signale hinaus mittels dieser Signale ‚Bedeutungen‘ austauschen können. Zunächst wird nur der Fall betrachtet, dass die Kommunikation nur vom Sender zum Empfänger läuft.

20. Ein erster Einwand für die Idee einer Erweiterung könnte darin bestehen, dass jemand sagt, dass die Signale ja doch ‚für sich‘ stehen; wozu braucht man die Annahme weiterer Größen genannt ‚Bedeutung‘?

21. Eine informelle Erläuterung ist sehr einfach. Angenommen der Empfänger ist Chinese und kann kein Deutsch. Er besucht Deutschland. Er begegnet dort Menschen, die kein Chinesisch können und nur Deutsch reden. Der chinesische Besucher kann zwar sehr wohl rein akustisch die Kommunikationsereignisse in Form der Laute der deutschen Sprache hören, aber er weiß zunächst nichts damit anzufangen. In der Regel wird er auch nicht in der Lage sein, die einzelnen Laute separat und geordnet aufzuschreiben, obgleich er sie hören kann. Wie wir wissen, braucht es ein eigenes Training, die Sprachlaute einer anderen Sprache zweifelsfrei zu erkennen, um sie korrekt notieren zu können. Alle Deutschen, die bei einer solchen Kommunikation teilnehmen, können die Kommunikationsereignisse wahrnehmen und sie können – normalerweise – ‚verstehen‘, welche ‚anderen Sachverhalte‘ mit diesen Kommunikationsereignissen ‚verknüpft werde sollen‘. Würde der Chinese irgendwann Deutsch oder die Deutschen Chinesisch gelernt haben, dann könnten die Deutschen Kommunikationsereignisse in Chinesische übersetzt werden und dann könnten – möglicherweise, eventuell nicht 1-zu-1 –, mittels der chinesischen Kommunikationsereignisse hinreichend ähnliche ‚adere Sachverhalte‘ angesprochen werden.

22. Diese anderen Sachverhalte B, die sich den Kommunikationsereignissen zuordnen lassen, sind zunächst nur im ‚Innern des Systems‘ verfügbar. D.h. Die Kommunikationsereignisse S (vermischt mit Rauschen N) im Kommunikationskanal C werden mittels des Empfängers R in interne Nachrichten M* übersetzt (R: S x N —> M*), dort verfügt der Empfänger über eine weitere Dekodierfunktion I, die den empfangenen Nachrichten M* Bedeutungssachverhalte zuordnet, also I: M* —> B. Insofern ein Dolmetscher weiß, welche Bedeutungen B durch eine deutsche Kommunikationssequenz im Empfänger dekodiert werden soll, kann solch ein Dolmetscher dem chinesischen Besucher mittels chinesischer Kommunikationsereignisse S_chin einen Schlüssel liefern, dass dieser mittels R: S_chin —> M*_chin eine Nachricht empfangen kann, die er dann mit seiner gelernten Interpretationsfunktion I_chin: M*_chin —> B‘ in solche Bedeutungsgrößen B‘ übersetzen kann, die den deutschen Bedeutungsgrößen B ‚hinreichend ähnlich‘ sind, also SIMILAR(B, B‘).

23. Angenommen, der empfangenen Nachricht M* entspricht eine Bedeutung B, die eine bestimmte Antwort seitens des Empfängers nahelegt, dann bräuchte der Empfänger noch eine Sendeoperation der Art Resp: B —> M* und T: M* —> S.

24. Ein Empfänger ist dann eine Struktur mit mindestens den folgenden Elementen: <S,N,M*,B,R,I,resp,T> (verglichen mit dem ursprünglichen Shannon-Modell: <S,N,M*,-,R,I,-,T>). So einfach diese Skizze ist, zeigt sie doch, dass man das Shannon Modell einfach erweitern kann unter Beibehaltung aller bisherigen Eigenschaften.

25. Natürlich ist eine detaillierte Ausführung der obigen Modellskizze sehr aufwendig. Würde man die Biologie einbeziehen wollen (z.B. im Stile von Deacon), dann müsste man die Ontogenese und die Phylogenese integrieren.

26. Die Grundidee der Ontogenese bestünde darin, einen Konstruktionsprozess zu definieren, der aus einem Anfangselement Zmin das endgültige System Sys in SYS erstellen würde. Das Anfangselement wäre ein minimales Element Zmin analog einer befruchteten Zelle, das alle Informationen enthalten würde, die notwendig wären, um diese Konstruktion durchführen zu können, also Ontogenese: Zmin x X —> SYS. Das ‚X‘ stünde für alle die Elemente, die im Rahmen einer Ontogenese aus der Umgebung ENV übernommen werden müssten, um das endgültige system SYS = <S,N,M*,B,R,I,resp,T> zu konstruieren.

27. Für die Phylogenese benötigte man eine Population von Systemen SYS in einer Umgebung ENV, von denen jedes System Sys in SYS mindestens ein minimales Anfangselement Zmin besitzt, das für eine Ontogenese zur Verfügung gestellt werden kann. Bevor die Ontogenese beginnen würde, würden zwei minimale Anfangselemente Zmin1 und Zmin2 im Bereich ihrer Bauanleitungen ‚gemischt‘, um dann der Ontogenese übergeben zu werden.

QUELLEN

  1. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  2. Terrence W.Deacon (2010), „What is missing from theories of information“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.146 – 169
  3. Bernd-Olaf Küppers 2010), „Information and communication in living matter“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.170-184
  4. Luciano Floridi (2015) Semantic Conceptions of Information, in: Stanford Enyclopedia of Philosophy
  5. Jesper Hoffmeyer (2010), „Semiotic freedom: an emerging force“, in: INFORMATION AND THE NATURE OF REALITY. From Physics to Metaphysics“, ed. By Paul Davies & Niels Henrik Gregersen, Cambridge (UK) et al: Cambridge University Press, pp.185-204
  6. Stichwort Information in der Stanford Enyclopedia of Philosophy von Pieter Adriaans (P.W.Adriaans@uva.nl) (2012)
  7. Peter Godfrey-Smith, Kim Sterelny (2009) Biological Information“, in: Stanford Enyclopedia of Philosophy
  8. Hans Jörg Sandkühler (2010), „Enzyklopädie Philosophie“, Bd.2, 2., überarbeitete und erweiterte Auflage, Meiner Verlag, Hamburg 2010, ISBN 978-3-7873-1999-2, (3 Bde., parallel dazu auch als CD erschienen)
  9. Ludwig Boltzmann (1899), „Über die Entwicklung der Methoden der theoretischen Physik in neuerer Zeit“, in: „Populäre Schriften“, Leipzig:Verlag von Johann Ambrosius Barth, 1905, SS.198-227
  10. Lawrence Sklar (2015), Philosophy of Statistical Mechanics in Stanford Encyclopedia of Philosophy
  11. Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
  12. Claude E. Shannon, A mathematical theory of communication. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948
  13. Claude E. Shannon; Warren Weaver (1949) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
  14. John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
  15. Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
  16. Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf
  17. Introduction to Probability von Charles M. Grinstead und J. Laurie Snell, American Mathematical Society; Auflage: 2 Revised (15. Juli 1997)

BUCHPROJEKT 2015 – Zwischenreflexion 18.August 2015 – INFORMATION IN DER MOLEKULARBIOLOGIE – Maynard-Smith

Der folgende Beitrag bezieht sich auf das Buchprojekt 2015.

SPANNENDER PUNKT BEIM SCHREIBEN

1. Das Schreiben des Buches hat zu einem spannenden Punkt geführt, der mich seit Jahren umtreibt, den ich aber nie so richtig zu packen bekommen habe: alle große begriffliche Koordinaten laufen im Ereignis der Zelle als einer zentralen Manifestation von grundlegenden Prinzipien zusammen. Die Physik hat zwar generelle Vorarbeiten von unschätzbarem Wert geleistet, aber erst das Auftreten von selbst reproduzierenden molekularen Strukturen, die wir (biologische) Zellen nennen, macht Dynamiken sichtbar, die ‚oberhalb‘ ihrer ‚Bestandteile‘ liegen. Dies könnte man analog dem physikalischen Begriff der ‚Gravitation‘ sehen: dem physikalischen Begriff entspricht kein direktes Objekt, aber es beschreibt eine Dynamik, eine Gesetzmäßigkeit, die man anhand des Verhaltens der beobachtbaren Materie indirekt ‚ableitet‘.

DYNAMIK BIOLOGISCHER ZELLEN

2. Ähnlich verhält es sich mit verschiedenen Dynamiken von biologischen Zellen. Die Beschreibung ihrer einzelnen Bestandteile (Chromatin, Mitochondrien, Golgiapparat, Membran, …) als solcher sagt nichts darüber aus, was tatsächlich eine biologische Zelle charakterisiert. Ihre Haupteigenschaft ist die generelle Fähigkeit, eingebettet in eine allgemeine Entropiezunahme sich eine Struktur zu generieren, die sich temporär funktionsfähig halten kann und in der Lage ist, Informationen zu sammeln, mittels deren sie sich selbst so kopieren kann, dass die Kopie sich von neuem zu einer funktionsfähigen Struktur aufbauen kann. Wie dies im einzelnen chemisch realisiert wurde, ist beeindruckend, es ist atemberaubend, aber es ist letztlich austauschbar; für die Gesamtfunktion spielen die chemischen Details keine Rolle.

BEGRIFF INFORMATION

3. Und hier beginnt das Problem. Obwohl es von einem theoretischen Standpunkt aus klar ist, dass die Details noch nicht die eigentliche Geschichte erzählen, wird in den vielen umfangreichen Büchern über Genetik und Molekularbiologie die eigentliche ‚Story‘ nicht erzählt. Dies fängt schon an mit dem wichtigen Begriff der Information. Spätestens seit Schrödingers Buch von 1944 „What is Life?“ ist klar, dass das selbstreproduktive Verhalten von Zellen ohne das Genom nicht funktioniert. Und es wurde auch sehr bald der Begriff der Information eingeführt, um den ‚Inhalt‘ des Genoms theoretisch zu klassifizieren. Das Genom enthält ‚Informationen‘, aufgrund deren in einer Vererbung neue hinreichend ähnlich Strukturen entstehen können.

STATISTISCHER INFORMATIONSBEGRIFF

4. Leider wurde und wird der Informationsbegriff im Sinne des rein statistischen Informationsbegriffs von Shannon/ Weaver (1948) benutzt, der explizit Fragen möglicher Bedeutungsbezüge (Semantik) außen vor lässt. Damit ist er eigentlich weitgehend ungeeignet, der Rolle der im Genom verfügbaren Informationen gerect zu werden.

MEHR ALS STATISTIK

5. Einer, der diese Unzulänglichkeit des rein statistischen Informationsbegriffs für die Beschreibung der Rolle der Information im Kontext des Genoms und der Zelle samt ihrer Reproduktionsdynamik immer kritisiert hatte, war John Maynard Smith (1920 – 2004). In seinem Artikel “ The concept of information in biology“ von 2000 kann man dies wunderbar nachlesen.

6. Zwar hat auch Maynard Smith keine explizite übergreifende Theorie der Reproduktionsdynamik, aber er kann an verschiedenen Eigenschaften aufweisen, dass der rein statistische Informationsbegriff nicht ausreicht.

7. Während im Shannon-Weaver Modell ein fester Kode A von einem Sender in Transportereignisse übersetzt (kodiert) wird, die wiederum in den festen Kode A von einem Empfänger zurückübersetzt (dekodiert) werden, ist die Lage bei der Zelle anders.

8. Nimmt man an, dass der zu sendende Kode das DNA-Molekül ist, das in seiner Struktur eine potentielle Informationssequenz repräsentiert, dann ist der Sender eine Zelle in einer Umgebung. Der ‚DNA-Kode‘ (der feste Kode A) wird dann umgeschrieben (Transskription, Translation) in zwei verschiedene Kodes (mRNA, tRNA). Während man die Zustandsform des mRNA-Moleküls noch in Korrespondenz zum DNA-Kode sehen kann (abr nicht vollständig), enthalten die verschiedenen tRNA-Moleküle Bestandteile, die über den ursprünglichen DNA-Kode hinausgehen. Daraus wird dann eine Proteinstruktur erzeugt, die sowohl eine gewisse Kopie des ursprünglichen DNA-Moleküls (Kode A) enthält, aber auch zusätzlich einen kompletten Zellkörper, der mit dem Kode A nichts mehr zu tun hat. Außerdem gibt es den Empfänger bei Beginn der Übermittlung noch gar nicht. Der Empfänger wird im Prozess der Übermittlung erst erzeugt! Anders formuliert: beim biologischen Informationsaustausch im Rahmen einer Selbstreproduktion wird zunächst der potentielle Empfänger (eine andere Zelle) erzeugt, um dann den DNA-Kode im Empfänger neu zu verankern.

9. Innerhalb dieses Gesamtgeschehens gibt es mehrere Bereiche/ Phasen, in denen das Konzept eines rein statistischen Informationsbegriffs verlassen wird.

10. So weist Maynard Smith darauf hin, dass die Zuordnung von DNA-Sequenzen zu den später erzeugten Proteinen mindestens zweifach den statistischen Informationsbegriff übersteigt: (i) die erzeugten Proteinstrukturen als solche bilden keine einfache ‚Übersetzung‘ das DNA-Kodes verstanden als eine syntaktische Sequenz von definierten Einheiten eines definierten endlichen Alphabets. Die Proteinmoleküle kann man zwar auch als Sequenzen von Einheiten eines endlichen Alphabets auffassen, aber es handelt sich um ein ganz anderes Alphabet. Es ist eben nicht nur eine reine ‚Umschreibung‘ (‚Transkription‘), sondern eine ‚Übersetzung‘ (‚Translation‘, ‚Translatio‘), in die mehr Informationen eingehen, als die Ausgangssequenzen im DNA-Kode beinhalten. (ii) Der DNA-Kode enthält mindestens zwei Arten von Informationselementen: solche, die dann in Proteinstrukturen übersetzt werden können (mit Zusatzinformationen), und solche, die die Übersetzung der DNA-Informationselemente zeitlich steuern. Damit enthält der DNA-Kode selbst Elemente, die nicht rein statistisch zu betrachten sind, sondern die eine ‚Bedeutung‘ besitzen, eine ‚Semantik‘. Diese Bedeutung st nicht fixiert; sie kann sich ändern.

ALLGEMEINE ZEICHENLEHRE = SEMIOTIK

11. Für Elemente eines Kodes, denen ‚Bedeutungen‘ zugeordnet sind, gibt es in der Wissenschaft das begriffliche Instrumentarium der allgemeinen Zeichenlehre, spricht ‚Semiotik‘ (siehe z.B. Noeth 2000).

12. Nimmt man die empirischen Funde und die semiotische Begrifflichkeit ernst, dann haben wir es im Fall der Zelle also mit eindeutigen (und recht komplexen) Zeichenprozessen zu; man könnte von der Zelle in diesem Sinne also von einem ’semiotischen System‘ sprechen. Maynard Smith deutet den Grundbegriff von Jacques Lucien Monod (1910-1976) ‚gratuity‘ im Sinne, dass Signale in der Biologie ‚Zeichen‘ seien. Ob dies die Grundintention von Monod trifft, ist eine offene Frage; zumindest lässt die Maschinerie, die Monod beschreibt, diese Deutung zu.

13. Eine zusätzliche Komplikation beim biologischen Zeichenbegriff ergibt sich dadurch, dass eine Zelle ja nicht ‚isoliert‘ operiert. Eine Zelle ist normalerweise Teil einer Population in einer bestimmten Umgebung. Welche Strukturen der Proteinaufbauprozess (Wachstum, Ontogenese) auch hervorbringen mag, ob er gewisse Zeiten überdauert (gemessen in Generationen), hängt entscheidend davon ab, ob die Proteinstruktur in der Interaktion mit der Umgebung ‚hinreichend lange‘ jene ‚Arbeit‘ verrichten kann, die notwendig ist, um eine Selbstreproduktion zu ermöglichen.

14. Ob eine Proteinstruktur in diesem weiterführenden Sinne ‚lebensfähig‘ ist, hängt also entscheidend davon ab, ob sie zur jeweiligen Umgebung ‚passt‘. Eine lebensfähige Proteinstruktur ist in diesem Sinne – von einer höheren theoretischen Betrachtungsweise aus gesehen – nichts anderes als ein auf Interaktion basierendes ‚Echo‘ zur vorgegebenen Umgebung.

15. Dass dies ‚Echo‘ nicht ’stagniert‘, nicht ‚auf der Stelle tritt‘, nicht ‚um sich selbst kreist‘, liegt entscheidend daran, dass die ‚letzte‘ Struktur den Ausgangspunkt für ‚weitere Veränderungen‘ darstellt. Die Zufallsanteile im gesamten Selbstreproduktionsprozess fangen also nicht immer wieder ‚von vorne‘ an (also keine ‚Auswahl mit Zurücklegen‘), sondern sie entwickeln eine Informationsstruktur ‚weiter‘. In diesem Sinne bildet die Informationssequenz des DNA-Moleküls auch einen ‚Speicher‘, ein ‚Gedächtnis‘ von vergangenen erfolgreichen Versuchen. Je mehr Zellen in einer Population verfügbar sind, umso größer ist diese molekulare Erfolgsgedächtnis.

Diese Fortsetzung war nicht die letzte Zwischenreflexion. Es geht noch weiter: HIER

QUELLEN

Schroedinger, E. „What is Life?“ zusammen mit „Mind and Matter“ und „Autobiographical Sketches“. Cambridge: Cambridge University Press, 1992 (‚What is Life‘ zuerst veröffentlicht 1944; ‚Mind an Matter‘ zuerst 1958)
Claude E. Shannon, „A mathematical theory of communication“. Bell System Tech. J., 27:379-423, 623-656, July, Oct. 1948 (URL: http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html; last visited May-15, 2008)
Claude E. Shannon; Warren Weaver (1948) „The mathematical theory of communication“. Urbana – Chicgo: University of Illinois Press.
John Maynard Smith (2000), „The concept of information in biology“, in: Philosophy of Science 67 (2):177-194
Noeth, W., Handbuch der Semiotik, 2. vollst. neu bearb. und erw. Aufl. mit 89 Abb. Stuttgart/Weimar: J.B. Metzler, xii + 668pp, 2000
Monod, Jacques (1971). Chance and Necessity. New York: Alfred A. Knopf

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.