Archiv der Kategorie: Gedächtnis

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 6

Diesem Beitrag ging voraus Teil 5.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt, Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese.

VERTEILTES WISSEN IN GETEILTEN SITUATIONEN

1) Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. Ohne dass ausdrücklich etwas erklärt werden muss erlebt jeder durch die gemeinsame Situation Vorgänge, Vorgehensweisen, Zustände, kann so indirekt lernen und man kann sich indirekt wechselseitig kontrollieren. Im Allgemeinen sind diese indirekten Formen verteilten Wissens wenig erforscht. (vgl. SS.139-146)
2) Eine solche verteilte Intelligenz in einer realen Situation unter Benutzung realer Objekte hat einen wesentlichen Vorteil gegenüber einer rein simulierten Welt: die Benutzung realer Objekte ist eindeutig, auch wenn die begleitende Kommunikation vieldeutig sein mag.(vgl. S.146 -148)
3) In einer simulierten Situation muss man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Eine Kommunikation wird vieldeutiger und damit schwieriger. (vgl. SS.148-151)

ZU VIEL DETAILS

4) Norman greift dann nochmals das Thema des unangemessenen, falschen Wissens auf mit Blick auf die Art und Weise, wie das menschliche Gedächtnis funktioniert. Am Beispiel der mündlichen Überlieferung die strukturell, typologisch vorging verweist er auf die heutige ‚Überlieferung‘ in Form von immer detaillierteren Texten, immer mehr technisch bedingten Details, die eigentlich unserer menschlichen Art des Erinnerns widersprechen. (vgl. SS.151-153)

ORGANISATION VON WISSEN

5) Auf den SS.155-184 diskutiert Norman anhand von Beispielen das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen.

DIE ZUKUNFT VORAUSSAGEN

6) Das folgende Kapitel (SS.185-219) steht unter der Hauptüberschrift, die Zukunft voraus zu sagen; tatsächlich enthält es auch eine ganze Reihe von anderen Themen, die sich nur sehr lose dem Thema zuordnen lassen.
7) Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. (vgl. S.185f)
8) Als Begründung für seine skeptische These wählt er vier Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren er das Versagen einer treffenden Prognose illustriert.(vgl.186-192) Der größte Schwachpunkt in allen Voraussagen betrifft den Bereich der sozialen Konsequenzen. Hier liegt überwiegend ein Totalversagen vor. Und er bemerkt, dass man den Ingenieuren zwar nicht vorwerfen kann, dass sie sich mit sozialen Folgen nicht auskennen, aber dass sie ihr Nichtwissen in diesem Bereich nicht ernst nehmen.(vgl. S.186).
9) Der andere Aspekt ist die Umsetzungsdauer von einer Idee bis zu einer verbreiteten alltäglichen Nutzung. Anhand von Beispielen (Fernsehen, Flugzeug, Fax) zeigt er auf, dass es zwischen 40 – 140 Jahren dauern konnte. denn neben der Idee selbst und einem arbeitsfähigen Prototypen muss ja der bestehende Alltag unterschiedlich weit ‚umgebaut‘ werden, evtl. müssen alte bestehende Strukturen (verbunden mit starken Interessen) durch neue ersetzt werden.(vgl. S.192-195)
10) [Anmerkung: Wir erleben z.B. seit den 60iger Jahren des 20.Jahrhunderts die Diskussion zur Frage erneuerbarer Energien, der eine bestehende Struktur von ölbasierten Technologien, Atomkraft, Kohle und Gas entgegen stehen, jeweils verbunden mit sehr starken ökonomischen und politischen Interessen.]
11) Er macht dann selber einige Voraussagen (Verfügbarkeit von digitaler Information, von hohen Bandbreiten, von noch mächtigeren immer kleineren Computern, von 3D-Ansichten unter Einbeziehung der eigenen Position, von elektronischen Publikationen, von mehr computergestütztem Lernen, noch raffiniertere Unterhaltung, von Videogesprächen im privaten Bereich, von mehr kollaborativen Arbeitsplätzen).(vgl. SS.195-201)
12) [Anmerkung: 20 Jahre später kann man sagen, dass alle diese Voraussagen entweder voll umgesetzt wurden oder wir dabei sind, sie umzusetzen.]
13) Norman spielt dann die möglichen sozialen Folgen von diesen neuen Technologien anhand von sehr vielen konkreten Beispielen durch. Ein Trend ist der zunehmende Ersatz des Menschen im Handeln durch künstliche Charaktere, was schließlich dazu führen kann, dass in der Öffentlichkeit dann nur noch die Software handelt, während die ‚realen‘ Menschen mehr und mehr aus der Öffentlichkeit verschwinden. (vgl. SS. 201-210)
14) [Anmerkung: Diese Art von Auswüchsen, wie sie Norman plastisch schildert, werden in immer mehr Science-Fiction Filmen thematisiert. Ein Beispiel war die 10-teilige Folge ‚Real Humans – Echte Menschen‘, eine schwedische Produktion, die von arte im Frühjahr 2013 gezeigt wurde. Darin wurde die Existenz von menschenähnlichen Robotern im alltäglichen Leben sehr konkret durchgespielt. Ein sehr ähnliches Thema hatte auch der Film Surrogates (2009), wenn auch mit einer anderen Rahmengeschichte. Es gibt hierzu zahllose weitere Beispiele.]

NEUROINTERFACE

15) Norman greift auch das Thema ‚Neurointerface‘ auf, eine direkte Verbindung des menschlichen Nervensystems mit einem Computer. (vgl. SS.210-214)

KOLLABORATIVE SOFTWARE

16) Natürlich wird die neue Technologie auch Auswirkungen für die Arbeit von sozialen Gruppen haben. Hier sieht er aber besonders viele Schwierigkeiten, da das Arbeiten in einer Gruppe besonders komplex ist und sensitiv für viele Faktoren. (vgl. SS. 214-217)

TRÄUMEN MACHT MEHR SPASS ALS REALE NUTZUNG

17) Abschließend bemerkt Norman noch, das der Hype um neue Technologien sich häufig an den visionären Szenarien entzündet; wenn es zur tatsächlichen Nutzung kommt, flaut dieser Hype sehr schnell wieder ab. (vgl. SS.217-219)
18) [Anmerkung: Die Themen zersplittern zunehmend. Dennoch stellen Sie allesamt wertvolle Erfahrungen und Einsichten dar. s wird Aufgabe der Schlussreflexion sein, die Vielfalt dieser Aspekte auszuwerten und für eine Gesamttheorie nutzbar zu machen.]

Fortsetzung folgt im Teil Teil 7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

NOTIZ: ZAUBER DES (UNVOLLSTÄNDIGEN) AUGENBLICKS….

1) Wir alle sind auf ganz unterschiedliche Weise beständig und unauflösbar eingebunden in Kontexte: zeitlich in Ereignisketten, räumlich an konkreten Orten als ‚Teil eines größeren Ganzen‘, sozial als ‚Elemente‘ in ‚Beziehungsgeflechten‘, als ‚passiv Wahrnehmende‘, als ‚aktiv Handelnde‘, …..
2) In jedem Moment sind wir angefüllt mit Eindrücken, Gefühlen, Erinnerungen, Gedanken, Bedürfnissen, die aufgehen in einer ‚Grundstimmung‘ von sich ‚OK‘ fühlen oder ’nicht OK‘, ‚traurig‘ oder ‚freudig‘, ‚ruhig‘ oder ‚gehetzt’…..
3) Im einzelnen Moment erscheint es schwer – bis unmöglich? –, sich ein ‚Gesamtbild‘ zu machen.
4) Solange die ‚Ereignisse‘ um einen herum auf einen ‚einprasseln‘, wenig bis gar nicht beeinflussbar, dringen sie in uns ein, erwecken Gefühle, provozieren Assoziationen, nisten sich ungefragt ins Gedächtnis ein, machen sich dort breit, und die eigenen ‚Reaktionen‘ werden mehr und mehr ‚ausgeblutet‘ von dem, was einfach passiert ohne klare Linie, ohne klares Konzept, getrieben, willenlos, ‚leer‘?, auf der Suche nach den Ereignissen, die aus sich heraus ‚Kick‘ bieten oder ‚Vergessen‘, in einem nicht abreißenden Strudel von Chaos, bis zum totalen Vergessen….
5) Während der einzelne in solch einem Modus des ‚Getriebenwerdens‘ ‚dahintrudelt‘, ohne klares Verständnis warum, wozu, wohin, kann es einen Unterschied machen, wo er ist, mit wem: wenn alle planlos dahintrudeln dann treibt der Gesamtzustand einem der vielen möglichen Chaoszustände entgegen. Jeder verschärft durch sein individuelles Chaos das ‚große Chaos‘.
6) Sollte aber ‚aus der Vergangenheit‘ eine räumlich-soziale ‚Ordnung‘ (welcher Art auch immer) ‚wirksam‘ sein, die die einzelnen Körper räumlich ‚leitet‘, die das einzelne Wahrnehmen, Verstehen und Handeln aufgrund von ‚bekannten‘ internalisierten ‚Regeln‘ ‚beeinflusst‘, dann kann der einzelne, auch wenn er selbst im Augenblick nichts oder nicht viel ‚versteht‘ durch ‚Einhaltung der gegebenen Ordnung‘ sein persönliches Chaos abschwächen, minimieren: er selbst versteht nicht viel bis gar nichts, aber die ‚allseits geteilten Regeln‘ ‚organisieren‘ die einzelnen Ereignisse und Handlungen in einer Weise, dass sie eine gewisse ‚Stabilität‘ realisieren, eine ‚Quasi-Ordnung‘, die ‚Wiederkehr‘ bietet, ‚Wiedererkennen‘, ‚Erhalt‘ von lebensnotwendigen Dingen wie wohnen, Ernährung, Grundbeziehungen, minimale Informationen….
7) Mit anderen Worten: ein persönlich-individuelles ‚Chaos‘ kann durch eine ‚überindividuelle‘ ‚Quasi-Ordnung‘ ‚vor sich selbst‘ geschützt werden.
8) Bedenkt man, dass für fast alle Lebensprozesse eine zeitliche Aufeinanderfolge von vielen Ereignissen und Handlungen notwendig ist, dazu ein ‚Ineinandergreifen‘ von vielen Handlungen, dann ist klar, dass ein einzelner – egal was er denkt – niemals alleine irgendeine Art von ‚lebenserhaltender Ordnung‘ schaffen kann.
9) Der ‚individuelle Augenblick‘ als solcher ist weder ‚gut‘ noch ’schlecht‘. Er kann ‚Ordnung‘ nur in einem ‚Zusammenhang‘ finden, in einem ‚Jetzt‘ eingebettet in ‚Erinnerungen‘, die einen ‚Zusammenhang‘ erkennen lassen. Kognitive Zusammenhänge bilden sich aber nicht einfach spontan, sie erfordern ‚Denken‘ und ‚Kommunikation‘, sie setzen einen sozialen Raum voraus, der Voraussetzungen liefert, ohne die es keine ‚geeigneten‘ Augenblicke geben kann.
10) Andererseits lebt der soziale Raum, die Interaktion, die Verfügbarkeit von Ereignissen auch direkt von jedem einzelnen individuellen Augenblick: nicht nur die ‚Reproduktion‘ einer ‚bekannten‘ Ordnung setzt den entsprechenden Beitrag des einzelnen voraus (der in der Regel hoch ist!), noch mehr eine mögliche ‚Veränderung‘, die eventuell ‚verbessern‘ kann, aber auch ‚verschlechtern‘.
11) Sozialer Raum zeigt sich hier als ein Objekt besonderer Art: es ist ein Zusammenwirken von einzelnem und relativ zu ihm von einem ‚Kontext‘: ohne den Kontext ist der einzelne nicht Nichts, aber doch stark reduziert; ohne den einzelnen ist der Kontext leer bis tot. Im Zusammenwirken entsteht ein vibrierendes ‚Etwas‘, ein ‚Soziales‘, das im kontinuierlichen ‚Geben und Nehmen‘ existiert, aber nicht existieren muss.
12) Ob die Aneinanderreihung von Augenblicken zu ‚Sequenzen‘, ‚Prozessen‘, ‚Geschichten‘ etwas ‚Gutes‘ realisiert oder nicht hängt ganz offensichtlich davon ab, ob jeder Augenblick ein ‚Stück Gutes‘ realisiert oder nicht (vorausgesetzt, es gibt überhaupt etwas, das ‚Gut‘ für den Prozess ist). D.h. jeder einzelne trägt in jedem Moment zu solch einem übergeordneten ‚Guten‘ bei oder nicht. Was immer der einzelne tut, er ‚wirkt‘ damit auf seine Umgebung und ‚unterstützt‘ damit das ‚Gute in allem‘ oder er ’schwächt‘ es. Es gibt keine ‚Neutralität‘. Auch ein ‚Nichtstun‘ ist hier ein ‚Tun des anderen‘; wenn man nicht das ‚Gute‘ tut, stärkt man das ‚Schlechte‘.
13) Wenn in einer Population Menschen leben, die aus irgendwelchen Gründen in ihren individuellen Augenblicken ‚wenig Gutes tun können‘ (nicht nur aus eigenem Mangel, sondern auch durch behindernde Kontexte (z.B. durch ‚Ablehnung’…)), dann schwächt diese Minderung der einzelnen die ganze Population. Je größer in einer Population die Anteile derer sind, die ‚fern vom Optimum‘ leben (müssen), umso schwächer ist die ganze Population (wenn der Anteil von ‚Kranken‘, ‚Analphabeten‘, ‚Süchtigen’…. groß ist, dann ist die gesamte Population stark eingeschränkt, geschwächt, leidend, kraftlos,….).(Wobei man dann fragen darf, ob die ‚Geschwächten‘ nicht letztlich Symptome sind für den ‚asozialen‘ Charakter des Kontextes, der so ist, dass er einzelne schwach macht, krank macht, zerstört).
14) Obwohl dieses Ineinander von einzelnem und ‚Kontext‘, die ‚dynamische Sozialität‘, jedem bekannt sein sollte, ist es überraschend, wie viele Menschen diese in der Realität weder gedanklich wirklich akzeptieren (oder tatsächlich nicht verstehen) noch gefühlsmäßig ‚gut heißen‘. Negative Reaktionen gegenüber den ‚Anderen‘ sind verbreitet und nicht selten ’stark‘. Dies hat vielerlei Gründe….
15) Einer dieser Gründe unter anderen ist dies, dass die Einsicht in diesen Zusammenhang die ‚Absolutheit des Einzelnen‘ relativiert. Zwar setzt dynamische Sozialität voraus, dass jeder jeden respektiert und stützt und darin dann jeder einzelne sein Optimum finden könnte, aber fern vom Optimum, wo dieser gegenseitige Respekt nur schwach realisiert wird, da kann der einzelne die Anerkennung des Kontext nicht positiv erfahren. Seine zaghaften Versuche endeten möglicherweise in negativen Antworten, die ihn ‚verletzten‘. Daraufhin verschließt sich der ‚enttäuschte Einzelne‘ ‚in seinem individuellen Augenblick und der Abstand zum gemeinsamen Optimum wird größer.
16) Die Aneinanderreihung von individuellen Augenblicken ‚ohne Ordnung‘, ohne ‚Bezug zum ‚Guten“, kann nur das Chaos vergrößern, individuell wie auch im Kontext. Je ‚chaotischer‘ der einzelne, umso mehr müsste der Kontext – also die vielen anderen einzelnen – dieses partielle Chaos ‚ausgleichen‘ (ein einzelner Alkoholiker kann mindestens eine ganze Familie und Teile einer Firma stark belasten; das gilt für alle Arten von Suchtkranken, von überhaupt ‚Kranken‘, ‚pflegebedürftigen‘, emotional Gestörten, Unwissenden, …. es gibt keine Grenzen: jeder braucht den anderen, die einen weniger, die anderen mehr)).
17) Dies kann ’negativ‘ klingen. Aber in dieser wechselhaften Abhängigkeit zeigt sich auch das ‚Andere‘: wir können durch die Art und Weise, wie wir sind, auch auf andere anregend, belebend wirken, helfend, ermutigend, Verstehen fördern, Mut machen, Freude bereiten, ernähren, Wohnungen bauen, Nahrungsmittel bereit stellen, Kommunikation ermöglichen, usw….
18) Aber niemand kann uns dazu zwingen. Wir können es tun. Dynamische Sozialität ist in gewisser Weise ein ‚Wunder‘: es muss nicht sein, es kann sein. Wir können uns wechselseitig ‚gut‘ tun, wenn wir wollen. Alle Arten von Schichtenbildung, Klassenbildung, Kastenbildung, Abschottungen jeglicher Art sind ambivalent: wenn zu wenige zu viel haben gegenüber vielen die wenig bis gar nichts haben, dann befindet sich die gesamte Population in einem stark geschwächten Zustand; sie lebt weitab von ihrem Optimum (was die einzelnen, denen es scheinbar ‚gut‘ geht, nicht sehen bzw. auch nicht wahrhaben wollen). Je nachdem, wie weit man den Kontext spannt (letztlich zum Gesamtphänomen des Lebens im Universum), kann dieses ‚Abseits des Optimums‘ bedeuten, dass sich entweder die Zeit bis zum – bislang wenig bekanntem – ‚Gesamtoptimum‘ entweder deutlich verlängert oder – dies kann man nicht grundsätzlich ausschließen – das Zeitfenster verpasst, in dem man das Gesamtoptimum hätte erreichen können. So fantastisch die menschliche Lebensform im Kontext des bekannten Universums anmutet, so repräsentieren wir dennoch nur ein kleines Moment an einem größeren dynamischen Kontext, der ‚passiert‘ ohne uns ‚zu fragen‘.
19) Vieles wäre hier noch zu sagen, aber ‚dieser‘ Moment ist nun vorbei……

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

Blitzbesprechung zu „Eine Welt ohne Seele und freien Willen?“

Letzte Änderung: Mo, 11.Febr.2013, 13:35h

Referenten:

  • Prof. Dr. Wolf Singer, Max-Planck-Institut für Hirnforschung, Frankfurt am Main
  • Prof. Dr. Thomas Metzinger, Johannes Gutenberg-Universität Mainz
  • Prof. Dr. Andreas Meyer-Lindenberg, Zentralinstitut für Seelische Gesundheit, Mannheim
  • Prof. Dr. Hauke Heekeren, Freie Universität Berlin
  • Prof. Dr. Eilert Herms, Eberhard Karls Universität, Tübingen (Mit Link auf zusätzliche Reflexionen)
  • Prof. Dr. Hannah Monyer, Universitätsklinikum Heidelberg

Einleitung

Unter dem Titel „Eine Welt ohne Seele und freien Willen?“ veranstaltete die EKHN Stiftung ein öffentliches Symposium zu den „Methoden, Erkenntnissen und Konsequenzen der modernen Hirnforschung“. Laut Veranstalter gab es 1400 Anmeldungen von Erwachsenen und dazu 600 Schüler. Bei letzteren wurden 220 für einen 2-Tages-Workshop ausgewählt. Das war eine überwältigende Resonanz. Dies führte dazu, dass das Audimax auf dem Campus Westend am Samstag vollständig gefüllt war. Am Do 7.2., hatte ich mich spontan beschlossen, mich auch anzumelden.

Um es vorweg zu nehmen: alle Beiträge waren unterhaltsam, wurden  engagiert vorgetragen, waren von viel Wissen und Erfahrung geprägt, und es wurden meistens relativ neue und exzellente Ergebnisse vorgestellt. Allerdings wurden — außer im Beitrag des emeritierten Theologen Prof. Herms — keine wirklich fachübergreifenden Beziehungen hergestellt, geschweige denn ein Dialog von den Naturwissenschaften hin zu den Geisteswissenschaften versucht. Personenbezogene Begriffe wie ‚Seele‘, ‚Bewusstsein‘, ‚Ich‘ usw. blieben von daher weitgehend ‚ortlos‘ und es war dem Publikum überlassen, sich aus all den verschiedenen Beiträgen ein mögliches Gesamtbild zu erarbeiten.

Singer: Im Netz der Neuronen

Der Vortrag „Im Netz der Neuronen. Wie bringt das Gehirn unser Selbst hervor?“ von Prof. Singer, dem ehemaligen Direktor des Max-Planck-Institut für Hirnforschung (Frankfurt am Main) eröffnete mit einigen — eher bekannten — Grundthesen zum Gehirn die Vortragsreihe. Das Gehirn als Produkt der Evolution, Sitz aller bekannten geistigen (mentalen) Fähigkeiten, ein verteiltes, paralleles System mit stark nicht-linearem Charakter (mathematisch beschreibbar als Small-World-Network), strukturiert in Arealen, wo sich die Frage stellt, wie diese ungeheure Mengen an Neuronen sich für bestimmte Ereignisse ’synchronisieren‘ können. Einerseits deutete Singer an, dass hier viele Fragen offen sind, andererseits wagte er weitreichende Aussagen zur Natur von Entscheidungsprozessen, zum ‚freien Willen‘, zum ‚Selbst‘, wo eigentlich nicht ganz klar war, wie er die verschiedenen Aussagen wirklich begründen könnte. Das wirkte schon eher spekulativ. Auf konkrete Fragen von Schülern verwies er u.a. auf ‚hochdimensionale Zustandsräume‘ durch die wir ‚hindurchspazieren‘ müssten…So kann man eine Frage auch nicht beantworten. Sehr bedauerlih war, dass er zwar Spekulationen über Konzepte wie ‚Selbst‘, ‚Ich‘ ‚freien Willen‘ usw. aus Sicht der Neurowissenschaften anstellte, ohne sich aber der Mühe zu unterziehen, vorher zu klären, welche begrifflich-methodischen Voraussetzungen erfüllt sein müssten, um diese Konzepte sinnvoll benutzen zu können (einschlägig hier vor allem die Philosophie und die Psychologie).

Mit Blick auf theologische Deutungszusammenhänge entledigte Singer sich der Frage durch die Feststellung, dass die Aussagen der Theologie ‚orthogonal‘ zu den Aussagen der empirischen Wissenschaften ständen. Dieser Standpunkt ist sehr weit verbreitet, ist aber keinesfalls zwingend. Weder muss eine Theologie sich so verstehen noch eine sich selbst reflektierende wissenschaftliche Disziplin. Eine Immunisierungsstrategie, wie sie von Singer propagiert wird, ist negativ für alle Beteiligten (siehe dazu die alternativen Überlegungen des Theologen Herms weiter unten).

Metzinger: Leben im Ego-Tunnel

Der nachfolgende zweite Vortrag „Leben im Ego-Tunnel. Ist das Ich-Gefühl nur eine Illusion?“ von Prof. Metzinger (Johannes Gutenberg-Universität Mainz) war in meinen Augen eher enttäuschend. Er trat als Philosoph auf, zeigte aber sehr wenig philosophische Reflexionsansätze. In einem kühnen Handstreich schaffte er zunächst das ‚Phänomenale Selbst‘ ab (inklusive das ‚Ich‘), um es unmittelbar danach in einem ebenso kühnen Handstreich durch das ‚Phänomenale Selbstmodell‘ zu ersetzen. Argumente ersparte er sich. Das ‚phänomenale Selbstmodell‘ qualifizierte er als ‚wahre repräsentationale Beschreibung‘ ohne zu thematisieren, wie man denn wohl wissenschaftlich über subjektive Gegebenheiten überhaupt reden kann, ganz zu schweigen davon, in welchem Sinne man hier von ‚Repräsentation‘ sprechen kann. Seine Ausführungen und seine Verwendung verschiedener Begriffe blieben auch im weiteren Verlauf leider durchgehend sehr unklar. Zu Beginn hatte er Texte von Ludwig Wittgenstein eingeblendet (ohne sie zu erläutern). Hätte er Wittgenstein nur beherzigt, er hätte sich seine Ausführungen weitgehend sparen können. Er referierte recht unterhaltsam verschiedene Experimente (z.B. eine Gummihand, die man über Reflexe mit einer normalen Hand konditionieren kann; einem Roboter mit unterstelltem Selbstmodell; das psychologische Konstrukt des inneren Körpermodells, das zu überraschenden Selbstwahrnehmungen führen kann; die Steuerung eines Roboters auf der Basis eines Gehirnscans). Der philosophische Gehalt dieser Beispiele vermittelte sich mir nicht. Die Sachen selbst wirkten nicht neu: Konditionierungen haben schon die Behavioristen untersucht, selbstlernende Roboter gibt es seit langem, die Nutzung von Gehirnwellen zur Steuerung von Vorgängen ist ebenfalls alt. Die Verwendung des Begriffs ‚Ego‘ — aus dem Titel — nach vorausgehender Abschaffung des Ich blieb unklar.

Meyer-Lindenberg: Das gestörte Ich

Der Vortrag „Das gestörte Ich. Welchen Einfluss haben Gene und die Umwelt auf die psychische Gesundheit?“ von  Prof. Dr. Andreas Meyer-Lindenberg vom Zentralinstitut für Seelische Gesundheit (Mannheim) war brilliant, stellte neueste Forschung vor und setzte eine gesellschaftliche Problematik in Szene, die uns alle betrifft. Sein Hauptthema war das Zusammenspiel von Genen, Gehirn, Verhalten und Umwelt. Illustriert am Beispiel des Krankheitsbildes Depression und Schizophrenie konnte er zunächst einmal zeigen, wie diese Krankheitsbilder signifikant häufiger in städtischen Umgebungen auftreten. Bei der stetigen Zunahme städtischer Lebensumgebungen ist dies eine Herausforderung an die Politik. Er berichtete, dass man herausgefunden hat, dass es zwischen dem psychotherapeutischen Krankheitsbild der Depression und Schizophrenie eine deutliche Korrelation zu Eigenschaften des Funktionskreises Amygdala und Zingulum gibt. Dieser Funktionskreis benötigt eine bestimmte hormonal modulierte Kommunikation, die wiederum durch genetische Faktoren geprägt ist. Wie vor allem Experimente mit Nagern aufzeigen konnten, können frühkindliche Traumata mittels epigenetischer Mechanismen über Generationen zudem weitergereicht werden. Hiermit ergeben sich zwei Handlungsansätze: (i) eine entsprechende Gestaltung des städtischen Umfeldes (mit seinen diversen sozialen Subräumen, auch am Arbeitsplatz; neue Disziplin der Neurogeographie)), (ii) pharmakologische Therapien genetischer Defekte.

Insgesamt, so scheint es, eröffnen sich durch die Korrelation von Lebensumwelt, Verhalten, Gehirn und Genen für die Psychotherapie hochinteressante neue theoretische und auch therapeutische Ansätze.

Heekeren: Entscheidung wider die Vernunft?

Prof. Dr. Hauke Heekeren von der Freien Universität Berlin begann seinen Vortrag „Entscheidung wider die Vernunft? Wie unser Gehirn Entscheidungen triff“ mit Hinweisen auf die bisherigen Entscheidungsmodelle, am berühmtestens hier wohl das Modell des homo oeconomicus. Eine Schwäche (und Stärke) der bisherigen Modelle war — und ist — ihre zu große Einfachheit. Die Annahme des ideal rationalen Menschen spiegelt das tatsächliche Verhalten von Menschen jedoch  nur bedingt wieder. Die Aufgabe bestand also darin, einen Weg zu finden, weitere real wirkende Faktoren für die Erklärung messbar zu machen. Anhand unterhaltsamer Entscheidungsexperimente, die er z.T. auch mit den anwesenden Zuhörer machte, konnte er verdeutlichen, dass dem ‚erwarteten Nutzen‘ und dem erwarteten ‚Verlust‘ aus einer Entscheidung neuronal ein Prozess entspricht, in dem identifizierbare Gehirnbereiche ‚Nutzen‘, ‚Verlust‘ über einen ‚Vergleich‘ so berechnen, dass dann der ‚Nettonutzen‘ sichtbar wird. Dieser Nettonutzen induziert dann die Entscheidung. Der Berechnungsprozeß benötigt Zeit und arbeitet mit internen ‚Schwellwerten‘. Dabei wird der ‚Verlust‘ normalerweise schwerer gewichtet als der ‚Nutzen‘.

Auch bei dem Forschungsansatz von Heekeren eröffnen sich durch die Korrelation von Lebensumwelt, Verhalten, Gehirn und Genen hochinteressante neue theoretische Ansätze zur Verhaltenserklärung. Erster Nutznießer scheint in diesem Fall allerdings die Werbeindustrie zu sein, die ihre Werbeangebote ziemlich genau auf dieses Entscheidungsstruktur des Menschen abstellt: durch eine geschickte Kombination von genau drei Angeboten (das vom Anbieter favorisierte Angebot, ein verglichen damit ganz schlechtes Angebot, und ein nur wenig Schlechteres leiten den Entscheidungsprozess meistens zum Angebot des potentiellen Kunden; die tendenzielle Kurzsichtigkeit unserer Entscheidung (2 Monate gratis) und die tendenzielle Trägheit (explizite Abmeldung nach 2 Monaten) führt dann zu vielen Neukunden.

Herms: Horizont der Hirnforschung

Der emeritierte Theologe, Prof. Dr. Eilert Herms von der Eberhard Karls Universität, Tübingen, war der einzige an diesem Tag, der mit seinem Vortrag „Horizont der Hirnforschung – Wie weit reicht der Beitrag zur Erfassung unserer Lebenswirklichkeit?“ einen größeren Denkzusammenhang aufspannte, innerhalb dessen sich die unterschiedlichen einzelwissenschaftlichen Erklärungsansätze mit Blick auf eine ‚Gesamterklärung‘ einordnen ließen. Dies war nur möglich, weil sein Verständnis von Theologie sich mit den Mitteln einer phänomenologischen Philosophie (Husserl, Heidegger) sowohl der ganzen Breite der (alltagsbezogenen) Gegenwart öffnete wie auch auf die ‚universalen Bedingungen‘ ausgerichtet ist, unter denen sich unser Leben ereignet. Die konkreten Offenbarungsinhalte sind — so muss sich jeder Zuhörer diese Position ergänzen — nur insoweit möglich und wahr, als sie sich diesem allgemeinen Rahmen einordnen lassen. Spezifisch christliche Offenbarungsinhalte muss man dann nicht erwähnen und wurden auch nicht erwähnt.

Mit dieser Ausrichtung wird Theologie kaum noch unterscheidbar von einer Philosophie, die wahrheitsorientiert das Ganze des Lebens im Blick hat, also eine Art Vereinigung von Metaphysik, Ontologie und Ethik in einem.

Entsprechend dem Geist des phänomenologischen Denkens tritt die Gegenwart in den Mittelpunkt, das sich ‚Vorfinden‘ in einem Prozess, der als solcher — auch mit seiner Körperlichkeit — als ein weitgehend Vorgegebenes eine ‚Zumutung‘ darstellt, der als Prozess zwar ‚bestimmt‘ ist, aber nicht ‚determiniert‘. Die Einzelwissenschaften tauchen in diesem Denkmodell als Teilbereiche innerhalb des Gesamthorizontes auf; in ihrer Konkretheit Beiträge zur Kunst des Zurechtfindens. Entsprechend der Aufgabenstellung jeder Disziplin sind ihre Beiträge zwar jeweils limitiert, aber durch die Einordnung im Gesamtbezug können Sie zur Enthüllung der ‚größeren Wahrheit‘ mit beitragen. Durch die körperliche Teilhabe des Erkennenden an diesem Prozess erwächst daraus auch eine — subjektiv volle, objektiv partielle — ‚Verantwortung‘ für diesen Prozess.

Innerhalb dieses phänomenologischen Denkansatzes ergibt sich, dass sich dem einzelnen Erkennenden Gestalten der Wirklichkeit zeigen, die als solche nur ‚in diesem Erkennen‘ auftreten, die an diese Erkenntnisform gebunden sind. Durch einen Rekurs auf Teilbereiche, insbesondere einzelwissenschaftliche Modelle, geraten diese Wirklichkeiten außer Blick; nicht nur das, der spezifische Gesamtzusammenhang wie auch die spezifische Verantwortung ist nur in dieser Perspektive gegeben. Prof. Herms meinte auch, dass der Begriff des ‚Selbst‘ nicht geeignet sei, diesen Gesamtzusammenhang zu beschreiben, sondern eher der Begriff der ‚Person‘, die nicht nur das ‚Selbst‘ umfasst, sondern auch die ganze Leiblichkeit mit ihrer Einbettung in den Prozess.

Seine im Dialog geäußerte Meinung, dass Wissenschaft nicht an ‚Wahrheit‘ orientiert sei, sondern an ‚Bewährung‘, und dass Wahrheit nur im Rahmen der Logik vorkomme, die inhaltsfrei operiere, scheint mir nicht zutreffend, aber das wäre im Detail zu klären.

Festhalten möchte ich noch, dass die Sprache von Prof.Herms deutlich abwich von den Sprachspielen der anderen Vortragenden und dass er zu Beginn seines Vortags keinerlei besondere Anstalten traf, um die einzelwissenschaftlichen Beiträge in seinen Denkrahmen einzuordnen. Zwar haben alle anderen sich auch in keiner Weise um den Zusammenhang mit den anderen Vorträgen bemüht, aber als Vortrag mit Gesamtinterpretationsanspruch wäre es vielleicht eher gefordert. Es dauerte daher 10 – 15 Minuten bis man sich in dieses phänomenologische Sprachspiel hineinhören konnte und bis die Bezugnahmen auf die Einzelwissenschaften explizit stattfanden.

Zusätzliche Reflexionen, angeregt durch den Beitrag von Prof. Herms, finden sich unter dem Titel Eine Welt ohne Seele und freien Willen? Teil 2.

Monyer: Was bleibt im Gedächtnis?

Frau Prof. Dr. Hannah Monyer vom Universitätsklinikum Heidelberg kehrte mit ihrem Vortrag „Was bleibt im Gedächtnis? Erinnerung und Erwartung“ nochmals zu einer einzelwissenschaftlichen Perspektive zurück. Allerdings begann sie mit lebensweltlich-kulturellen Bezügen aus der Kunst, die an einzelnen Beispielen verdeutlichten, dass das Gedächtnis schon immer ein Phänomen war, das uns Menschen beschäftigt hat, speziell auch der Aspekt der ‚Verräumlichung‘ des Erinnerbarem.

Sie begann ihre neurologischen Darlegungen mit der berühmten Studie von Kandel et al. von 2001 mit einer Meeresschnecke, in der an einem extrem einfachen Organismus der Gesamtmechanismus eines Organismus, mit besonderer Berücksichtigung seiner Gedächtnisleistung untersucht worden ist. Sie machte deutlich, dass der Weg von diesem einfachen Organismus bis hin zur Komplexität des menschlichen Gehirns noch sehr, sehr weit ist und dass wir bislang die Funktionalität des menschlichen Gehirns mit Blick auf sein Gedächtnis bislang nur sehr ansatzweise verstehen.

In mehreren Schritten führte sie grundsätzliche Begriffe wie ’synaptische Plastizität‘ sowie ’strukturalistische Plastizität‘ ein, letztere unterschieden danach, ob es um ‚Spikes‘ auf Dendriten geht oder um ganze ‚Neuronen‘, die neugebildet werden. Neubildungen von Spikes und Neuronen können zwar auch bei älteren Menschen (nach ca. 25 Jahren…) auftreten, diese Neubildungen — speziell im Falle von Neuronen — werden aber meistens nicht in Funktionsabläufe ‚integriert‘, so dass sie wieder absterben.

Ihr Forschungsgebiet ist das ‚episodische Gedächtnis‘, und hier speziell das ‚räumliche Gedächtnis‘. Es ist bekannt, dass für die im Gedächtnis wichtigen Korrelationen zwischen sensorischem Input und räumlichen Lokalisierungen der Hippocampus eine zentrale Rolle spielt. In ihm kann man sogenannte ‚Place Zellen‘ (Ortszellen) identifizieren, die in Interaktion treten mit sogenannten ‚Gridzellen‘ (Gitter/Netzwerkzellen) im Entorhinalen Cortex. Zusätzlich konnte man einen skalierenden Größenparameter identifizieren: ‚dorsal‘ sind die Ortszellen ‚kleiner‘ und der Abstand zwischen Gitterzellen ‚enger‘, ventral ‚größer‘ bzw. sie haben größere Abstände. Ferner hob Prof. Monyer hervor, dass eine tatsächliche langandauernde Speicherung nur erfolgt, wenn die zunächst im Hippocampus erfolgenden Assoziierungen während des Schlafes (nicht Tiefschlaf, nicht Traumphase) mehrfach ‚intern‘ wiederholt werden, um dann in das Langzeitgedächtnis über zu gehen. Die wichtigste Erkenntnisquellen sind bislang Nagetiere (Ratten, Mäuse), bei denen die gesamte Kette Verhalten – Gehirn – Gene untersucht und manipuliert wird. Ein solcher Forschungszyklus dauert aktuell ca. 5 Jahre. ferner sind die aktuell verfügbaren Messverfahren noch sehr ungenau. Bildgebende Verfahren sind kaum brauchbar, alle anderen elektrodenbasierten Messungen sind sowohl zufällig (welche Neuronen trifft man tatsächlich bei der Einführung) und ungenau (mit welchen anderen Neuronen ist das zufällig ausgewählte Neuron verbunden). Eine kleine Verbesserung ergibt sich durch die neuartige Möglichkeit, zusätzliche Ionenkanäle in eine Membran einfügen zu können, die kontrolliert zu- und abgeschaltet werden können, um so gezielt eine Membran zu aktivieren oder zu deaktivieren. Insgesamt ist die Lage noch nicht endgültig klar und es bleibt noch viel zu tun.

Kommentierung

Weitere Kommentierungen folgen, sobald ich Zeit finde.

Programm des Symposiums

10:00 Begrüßung

Prof. Dr. Peter Steinacker, Vorsitzender des Kuratoriums der EKHN Stiftung

Im Netz der Neuronen. Wie bringt das Gehirn unser Selbst hervor?

Prof. Dr. Wolf Singer, Max-Planck-Institut für Hirnforschung, Frankfurt am Main

11:00 Leben im Ego-Tunnel. Ist das Ich-Gefühl nur eine Illusion?

Prof. Dr. Thomas Metzinger, Johannes Gutenberg-Universität Mainz

12:00 Das gestörte Ich. Welchen Einfluss haben Gene und die Umwelt auf die psychische Gesundheit?

Prof. Dr. Andreas Meyer-Lindenberg, Zentralinstitut für Seelische Gesundheit, Mannheim

13:00 Mittagsessen und Diskussion mit Schülern an den von den Arbeitsgruppen im Schülerseminar erarbeiteten Plakaten.

14:30 Entscheidung wider die Vernunft? Wie unser Gehirn Entscheidungen trifft.

Prof. Dr. Hauke Heekeren, Freie Universität Berlin

15:30 Horizont der Hirnforschung – Wie weit reicht der Beitrag zur Erfassung unserer Lebenswirklichkeit?

Prof. Dr. Eilert Herms, Eberhard Karls Universität, Tübingen

16:30 Was bleibt im Gedächtnis? Erinnerung und Erwartung.

Prof. Dr. Hannah Monyer, Universitätsklinikum Heidelberg

HINWEISE AUF QUELLEN

(Werden noch ergänzt)

  • EKHN-Stiftung http://www.ekhn-stiftung.de
  • Symposium URL: http://www.ekhn-stiftung.de/symposium2013/

Eine Übersicht über alle Blogeinträge nach Themen findet sich HIER

RÄUMLICHES GEDÄCHTNIS (Neurologisch, Psychologisch, Informatorisch…)

  1. Gelegentlich gehe ich zu den interessanten Gastvorträgen des Max-Planck-Institutes (MPI) für Hirnforschung in Frankfurt. So auch wieder mal am 12.9.2012 zu einem Vortrag von Stefan Leutgeb (siehe Link). Auslöser war das Thema ‚Räumliches Gedächtnis‘.

  2. Das Hervorstechende bei diesen Vorträgen ist in der Regel der ungeheure Aufwand an Ressourcen, der notwendig ist, um die überwiegend neuro-psycholoischen Untersuchungen durchführen zu können. Das Ernüchternde ist oft die Kargheit der Ergebnisse, und nicht nur das, sondern auch die ‚methodische Verpackung‘ sowohl der Experimente selbst wie deren Auswertung. Während die Randbedingungen der Experimente (erfreulicherweise) in der Regel mit großer Akribie beschrieben werden (vgl. als Beispiel den Artikel von Amir S. Bahar et al. (2011), mit Link), sucht man einen expliziten theoretischen Rahmen vergeblich (mir ist es bislang noch nicht gelungen, einen Artikel oder Buch aus diesem Bereich zu finden, der auch nur ansatzweise die notwendigen Bestandteile eines theoretischen Modells beschreibt). Dies ist sehr bedauerlich, da viele der Artikel mit Sicherheit an Klarheit und Durchschlagskraft gewinnen würden (manche würden dann möglicherweise gar nicht mehr geschrieben werden…).

  3. In einem älteren Eintrag hatte ich mal kurz skizziert (vgl. Wissenschaftliches Denken-2), welche Elemente eine moderne wissenschaftliche Theorie ausmachen. Davon ist die Neurowissenschaft (zumindest so, wie sie sich bislang in ihren Publikationen darstellt), meilenweit entfernt. Eine grundlegende Änderung ist nicht in Sicht  (in der Ausbildung eines Neurowissenschaftlers kommt formale Logik und Wissenschaftstheorie normalerweise nicht vor).

  4. Sofern ich als Informatiker an berechenbaren Modellen von menschenähnlicher Intelligenz interessiert bin, bräuchten mich diese Defizite der Neurowissenschaften eigentlich nicht kümmern. Als Informatiker will ich primär nicht das Gehirn ‚1-zu-1‘ nachbauen, sondern bestenfalls versuche ich die Prinzipien neuronaler Maschinen zu verstehen, um sie mit ‚anderen‘ Mitteln nachzubauen. Da 98% oder mehr einer Nervenzelle nichts mit ihrer Signalfunktion im engeren Sinne zu tun haben kann ich diese 98% quasi ‚vernachlässigen‘. Ein Neurowissenschaftler kann dies nicht. Er muss die molekularen Prozesse hinreichend aufhellen, um die daraus resultierenden Funktionen mit Bezug auf diese Maschinerie zu erklären. Als Informatiker könnte ich zwar auch die verschiedenen elektronischen Bausteine eines Computers beschreiben, um deutlich zu machen, wie diese komplexen chemischen Materialien spezielle Signalfunktionen erlauben, aber normalerweise wird man dies nicht tun, da die Materialien austauschbar sind. Das Material selbst erklärt nicht die ‚Funktion‘, die damit realisiert wird. So wissen wir seit langem, dass ich einen Computer statt mit elektronischen Chips auch mit neuronalen Zellen realisieren kann oder direkt mit bestimmten Molekülen (z.B. DNA-Computing). Entscheidend ist nie das Material, sondern immer nur die Funktionen. Die Funktionen kann ich nicht aus dem Material ‚herleiten‘. Das ‚Herumstochern‘ in der molekularen Maschinerie des Gehirns ist von daher wenig geeignet, die entscheidenden Funktionen zu ‚enthüllen‘. Sehr zugespitzt könnte man formulieren „Die Neurowissenschaften wühlen im molekularen Schlamm, um das ‚Gold‘ der neuronalen Funktionen zu finden, aber es liegt nicht dort.“

  5. Dies führt zu einem grundlegenden wissenschaftsphilosophischen Problem: Im Kontext der Physik hat man sich spätestens seit Kant die Frage gestellt, wieso abstrakte mathematische Modelle die komplexen Phänomene der Natur auf einfache elegante Weise hinreichend beschreiben können? Nicht die Anhäufung noch so vieler einzelner empirischer Daten führt zur Einsicht in grundlegende Zusammenhänge, sondern die Entwicklung abstrakter theoretischer Modelle, die es dann erlauben, die vielen Einzeldaten zusammenhängend erklären zu können. Wir verstehen bis heute zwar nicht, wie wir erklärungsfähige abstrakte Modelle ‚denken‘ können, da dies ja letztlich von unserem Gehirn geleistet wird, das nur eine endliche chemische Maschine einer speziellen Art darstellt, aber Fakt ist, dass wir nur mit solchen Modellen den ‚Wust der Daten‘ sinnvoll nutzen können. Dies gilt auch für die anhaltende Datenflut in den Neurowissenschaften, die einhergeht mit einer gleichzeitigen Modellarmut.

  6. Wie gesagt, mein Interesse an dem Vortrag (und an den in diesem Zusammenhang recherchierten anderen Artikeln (siehe Quellen unten)) resultiert aus dem Interesse für Phänomene des Gedächtnis, da ich im Laufe der Jahre gelernt habe, dass es für adaptive lernende Strukturen zwei Kernelemente gibt, ohne die nichts geht: Gedächtnis und Preferenzen.

  7. Eine erste ‚Stichprobe‘ von Artikeln im Umfeld des Vortrags von Leutgeb zeigt, dass keiner dieser Artikel sich die Mühe macht, zu Beginn genau das Feld zu beschreiben, innerhalb dessen eine Aufgabenstellung definiert wird (und ich spreche hier von Artikeln in Journalen wie ‚Science‘ oder den ‚Proceedings of the National Academy of Science of the USA‘ oder dem ‚Journal of Neuroscience‘). Nach ein paar (unvollständigen!) Andeutungen zu möglichen Kontextfaktoren formulieren diese Artikel eine Aufgabenstellung, die durchgehend vage ist. Will man sich vorweg selbst einen Überblick über die Thematik verschaffen, hat man nur die Wahl zwischen anerkannten Textbüchern, deren Inhalt aber zwangsläufig fünf und mehr Jahre alt ist, oder Wikipedia-Einträgen, die zwar recht aktuell sind, dafür aber eine sehr schwankende Qualität aufweisen (es gib aber auch einige sehr gute!). Ansätze zu theoretischen Modellen finden sich aber nirgends.

  8. Da die neuronale Maschinerie ‚für sich‘ keinerlei ‚pragmatische‘ Bedeutung aufweist, sondern nur durch ihren Bezug zu Körperfunktionen und/ oder zu beobachtbarem dem Verhalten, folgen die meisten Beiträge dem Schema ‚Korrelation zwischen beobachtbarem Verhalten (Vh) und messbaren neuronalen Zuständen (NN), also CORR(Vh, NN), dies entlang einer Zeitachse. Im Prinzip handelt es sich um eine zweiseitige Abbildung. Normalerweise bedeutet dies, dass man sowohl den Bereich des Verhaltens entweder als Mengen von Eigenschaften beschreibt, die sich in einem Prozessbaum darstellen lassen, oder noch besser als theoretische Struktur VH(……); analog mit den neuronalen Zuständen NN(…..). Sofern man dies getan hat, kann man versuchen, geeignete Abbildungsbeziehungen zu formulieren. Ich sehe nicht, dass dies in irgendeinem dieser Papiere geschieht. Dazu kommt, dass zentrale theoretische Begriffe in den Artikeln (wie z.B. Netz-Zellen, Orts-Zellen, Orts-Feld, Pfadintegration, episodisches Gedächtnis,…), wenn überhaupt, nur äußerst vage definiert sind (ohne theoretisches Modell auch ziemlich schwierig).

  9. Aus all dem folgt für meine Arbeiten an evolutionären semiotischen Systemen, dass  für die Konstruktion adaptiver Systeme mit Gedächtnis diese Artikel nicht mehr als ‚Stimuli‘ auf dem Weg zu einer   besseren Theorie sein können.

  10. Im weiteren Text finden sich Kurzcharakterisierungen der verschiedenen Artikeln. Diese basieren entweder nur auf den Zusammenfassungen oder – in einigen Fällen – auf den Zusammenfassungen ergänzt um Teile aus dem Text. In einer Reihe von Fällen konnte ich Online-Versionen finden, so dass jeder sich dire Artikel im Original selbst anschauen kann. Aus Sicht des heutigen Wissenschaftsbetriebes sind wissenschaftliche Artikel, die nicht Online sind, eigentlich tote Artikel. Die Kosten für Abonnements von wissenschaftlichen Zeitschriften sind so hoch, dass eine durchschnittliche Hochschule in Deutschland nicht genügend Geld hat, um auch nur eine repräsentative Auswahl in hinreichendem Umfang und mit hinreichender Aktualität online anbieten zu können. Damit behindert sich die Wissenschaft genau da, wo ihr eigentliches Herz schlägt: in der Kommunikation. Der scheinbare wirtschaftliche Vorteil aus Sicht der Verlage erweist sich als Bumerang für die gesamte Wissenschaft (auch wenn eine Zeitung wie die FAZ dies oft anders sieht).

 

MATERIALSAMMLUNG

 

  1. Laut Ankündigung von Stefan Leutgeb (2005, 2012) versucht sein Laboratorium auf der Systemebene die neuronalen Mechanismen zu identifizieren, die verantwortlich sind für die Langzeitspeicherung von Gedächtnisinhalten. Da man aufgrund bisheriger Forschungen weiß, dass spezielle Schaltkreise des Hippocampus für viele Arten von Gedächtnis notwendig sind, haben sie die Schnittstelle zwischen dem Hippocampus und dem entorhinalen Kortex näher untersucht. An dieser Schnittstelle lassen sich Signalmuster messen. Sein Laboratorium stellte sich die Frage, ob und wie diese Signalmuster räumliche Erinnerungen beeinflussen. Bei der Signalerzeugung sind sehr viele verschiedenen Zellen beteiligt, insbesondere sogenannte ‚Gitter-Zellen‘ (‚grid cells‘). Dabei hat sein Laboratorium herausgefunden, dass die Unterdrückung von sogenannten Theta Wellen zwar die gitter-artigen räumlichen Signalmuster im entorhinalen Kortex zerstörten, nicht aber die hippocampalen räumlichen Signalmuster, sofern die Versuchstiere sich in vertrauten Umgebungen bewegten. Sein Team stellte sich von daher die Frage, ob der entorhinale Input mit den Gitter-Zellen möglicherweise nur beim Erlernen von etwas ‚Neuem‘ notwendig sei, nicht aber beim ‚Erinnern‘ von ’schon Bekanntem‘. Beim Erlernen von Neuem stellte sich die zusätzliche Frage, ob dazu auch eine zeitliche Koordinierung von entorhinalen und hippocampalen Signalen notwendig sei.

  2. György Buzsáki (2005) geht davon aus, dass der Hippocampus einen Beitrag leistet zur Repräsentation der Umwelt. Andererseits gibt es auch andere Signale, die den Hippocampus beeinflussen. Es fragt sich, wie diese unterschiedlichen Signale im Hippocampus koordiniert werden. Stefan Lautgeb et al. (2005) identifizieren unterschiedliche Signalmuster im Hippocampus, die sie mit Situationen korrelierten, die mit Raum- und episodischem Gedächtnis in Verbindung bringen lassen. James J. Knierim (2006) thematisiert sogenannte ‚Orts-Zellen‘ (‚place cells‘) die sich im Hippocampus oder in angrenzenden Regionen finden. Dazu kommen Signalmuster, die nicht ortsgebunden sind. Der genaue Mechanismus des Zusammenspiels all dieser Signale ist aber noch nicht klar. Eva Pastalkova et al. (2006) weisen nach, dass der LTP-Mechanismus, der Langzeitspeicherung unterstützt, auch bei der Speicherung räumlicher Informationen eine Rolle spielt. James A. Ainge et al. (2007) können präzisieren, dass im Hippocampus räumliche Informationen mit ‚intendierten‘ Zielen korreliert werden können. Caswell Barry et al. (2007) finden heraus, dass die sogenannten ‚Gitter-Zellen‘ (‚grid cells‘) im entorhinalen Kortex (benachbart zum Hippocampus), den Abstand zwischen benachbarten Orten repräsentieren können (und damit die Ortsinformationen der Orts-Zellen ergänzen). Daoyun Ji und Matthew A Wilson (2007) finden Hinweise, dass im Schlaf der Neokortex und der Hippocampus so zusammenwirken können, dass Signalmuster von ‚gemachten Erfahrungen‘ sich wechselseitig regenerieren. Gergely Papp et al. (2007) vergleichen Gehirnstrukturen zwischen sehr vielen Arten von Wirbeltieren und untersuchen die Anwendbarkeit unterschiedlicher neuronaler Modelle zur Simulation des messbaren Verhaltens. Sie kommen zur Vermutung, dass für den Erwerb neuer Gedächtnisrepräsentationen allgemein wie auch speziell von räumlichen Gedächtnis-Repräsentationen der CA3-Teilbereich des Hippocampus nicht ausreicht. Daoyun Ji und Matthew A. Wilson (2008) untersuchten ferner die Rolle des Hippocampus im Kontext des sequentiellen Wege-Lernens. Sie fanden heraus, dass die hippocampalen Orts-Zellen bei Wiederholungen immer mehr von den Signalmustern unmittelbar vorausgehender Ortszellen beeinflusst wurden. C. D. Clelland et al. (2009) finden Hinweise (bei Mäusen), dass der Bereich Gyrus dentatus des Hippocampus wichtig ist für die Unterscheidung räumlicher Muster. Dori Derdikman et al. (2009) fanden heraus, dass räumliche Umgebungen im entorhinalen Kortex (Umgebung des Hippocampus) repräsentiert sind als ein Mosaik diskreter Teilkarten, die der Geometrie des umgebenden Raumes entsprechen. Pamela J. Kennedy und Matthew L. Shapiro (2009) können aufzeigen, dass im Hippocampus sowohl räumliche Informationen kodiert werden wie auch innere Zustände, die Bedürfnisse repräsentieren. Sofern Bedürfnisse vorliegen beeinflussen diese die neuronalen Muster in Richtung des Auffindens geeigneter Lösungen. Joseph R. Manns und Howard Eichenbaum (2009) kamen zur Hypothese, dass Objekte der Umgebung in einer Art Wissenslandkarte (‚cognitive map‘) im Hippocampus repräsentiert (kodiert) werden, und zwar einmal als ‚Orte von Interesse‘ (‚points of interest‘) wie auch als erinnerbare Unterstützung beim Suchen nach Objekten von speziellem Interesse. Charlotte N Boccara et al. (2010) fanden einen gemeinsamen Pool von raum-sensitiven Zellen in verschiedenen Unter- und Nachbarschaftsbereichen des Hippocampus (im medialen entorhinalen Kortex (MEC) und im Prä- and Parasubiculum (zwischen Hippocampus und Kortex). Diese Zellen befanden sich ferner in der Nachbarschaft von sogenannten ‚Richtungs-‚ und ‚Kanten-Zellen‘ (‚head‘, ‚boarder‘).

  3. Laura L. Colgin et al. — mit Leutgeb — (2010) kommen in ihrer Untersuchung zu dem Schluss, dass der Bereich CA3 (Teilbereich des Hippocampus) sich nicht wie ein standardmäßiges autoassoziatives neuronales Netz verhält, das unterschiedliche Eigenschaften der Umgebung miteinander verknüpft. Diese Ergebnisse stimmen auch überein mit anderen Untersuchungen (vgl. S.48). Damit stellt sich die Frage nach der Funktion des CA3-Bereichs neu. In Übereinstimmung mit zahlreichen anderen Untersuchungen (Zitate in diesem Artikel) scheint die primäre Aufgabe des Hippocampus zu sein, Pfadinformationen zu kodieren, so, dass nach Bedarf eine günstige Route wiedergefunden werden kann. Zugleich können diese Pfadinformationen Hinweise sein für episodische Erinnerungen, die verteilt im Neokortext abgelegt sind. André A. Fenton et al. (2010) konnten bestätigen, dass der Ortskode des Hippocampus eine dynamische räumliche Repräsentation realisiert, die durch Aufmerksamkeit kontrolliert werden kann. Die Aufmerksamkeit von von den aktuellen Bedürfnissen gesteuert, die aus den verfügbaren Zeitfenstern jenes auswählen, dessen Inhalt am meisten mit den Bedürfnissen korreliert.

  4. Inah Lee und Jangjin Kim (2010) haben auch die Abhängigkeit der räumlichen Repräsentationen im Hippocampus von internen Zuständen untersucht, insbesondere im Kontext von Lernaufgaben, die von Ratten verlangten, neue Strategien zu entwickeln. Neben der Assoziationsaufgabe, Objekte mit bestimmten Orten zu verknüpfen, mussten die Ratten auch lernen, dass es aber nur an einem bestimmten Ort eine Belohnung gab. Bei Messungen an Neuronen in CA1 konnten sie feststellen, dass sich die Signalmustern entsprechend der jeweiligen Strategie änderten. Diese Ergebnisse führen die beiden zu der Annahme, dass die räumliche Information im Hippocampus als Referenzrahmen im Hippocampus dient, innerhalb dessen dann die anderen Informationen organisiert werden. In dieses Gesamtbild passen die Funde, dass Objektinformationen im Hippocampus der Ratten ausschließlich zusammen mit Rauminformationen auftreten. Ferner legen die Ergebnisse dieser Untersuchung die Annahme nahe, dass auch nichträumliche Informationen – zumindest in CA1 — nicht unabhängig von den räumlichen Informationen sind.

  5. Die Autoren Francesco Savelli und James J. Knierim (2010) sind geleitet von dem Interesse, ein bestimmtes formales Modell (hebbsches neuronales Lernen) im Kontext von ‚Gitter-‚ und ‚Orts-Zellen‘ im medialen entorhinalen Kortex (MEC) sowie im Hippocampus zu überprüfen. Speziell untersuchen sie die Übersetzung von Signalmustern von Gridzellen in die Signalmuster von Ortszellen.

  6. Annabelle C. Singer et al. (2010) mit ihrem Team geht davon aus, dass sich wiederholende Objekte eindeutig identifizieren lassen müssen, aber auch Eigenschaften der Umgebungen, in denen diese Objekt vorkommen. Ein anderer Aspekt ist die Ähnlichkeit von Wegen (‚path equivalence‘). Das Team unterstellt koordinierte gelernte Generalisierungen über verschiedene Plätze und Episoden. Untersucht wurden neuronale Aktivitäten in CA3 und CA1 während die Tiere Aufgaben abarbeiten müssen, bei denen sie zwischen ähnlichen Elementen unterscheiden müssen. Das Team meint pfad-äquivalente Neuronenensembles identifiziert zu haben.

  7. Die Untersuchung von Janina Ferbinteanu et al. (2011) beginnt bei den bisherigen Ergebnissen, dass hippocampale Neuronen sowohl aktuelle Positionen im Raum repräsentieren können (Ortsfelder – Orts-Zellen), aber sie können auch vergangene und zukünftige Positionen im Kontext einer ‚Reise‘ (‚journey‘) repräsentieren. Letzteres verweist auf andere zeitlich zusammenhängende Gedächtniseintragungen (z.B. autobiographisches [oder auch episodisches] Material). Die Bedeutung der reise-abhängigen Aktivitäten für die Repräsentationen ist aber nicht besonders gut verstanden. Zu diesem Zweck haben sie eine experimentelle Anordnung ersonnen, in der man sowohl ortsspezifische Reize zur Verfügung hat wie auch reisespezifische Anforderungen unterstellen kann. Sie unterstellten, dass der Beginn einer Reise, ein auftretender Entscheidungspunkt sowie der Restweg nach der Entscheidung unterschiedliche Anforderungen darstellen, denen unterschiedliche ‚Strategien‘ entsprechen, die sich in den Signalmustern und darin kodiert in unterschiedliche beteiligten Gedächtnisarealen manifestieren. Mit einer — für neuronale Studien typischen — sehr aufwendigen Untersuchung wurden Daten gewonnen, die das Team dahingehend interpretiert, dass sie ein ‚Umschalten‘ (’switch‘) zwischen verschiedenen Aufgaben (aktuelle Position, zu erledigende Reise) erkennen können. So kodierten die Signalmuster im Startbereich sowohl Aufgabe und Reise, während die Signalmuster im Restbereich überwiegend die Reise kodierten. Sie deuten diese Daten zusätzlich als einen Hinweis auf eine Verzahnung zwischen den aktuellen Reisedaten und einem episodenorientierten Gedächtnis. Interessant ist die Charakterisierung von ‚Reise‘. Sie sagen, dass in ihrer Interpretation eine Reise nicht einfach eine Trajektorie von verknüpften physikalischen Orten darstellt, sondern eine Verbindung zwischen einem Start-Ort und einem Ziel (‚goal‘) kodiert, wobei diese Verbindung durch interne Zustände (einschließlich Motivation) und verfügbaren Gedächtnisinhalten ‚moduliert‘ werden kann.

  8. In einer Untersuchung, die dem Aufbau von Ferbinteanu et al. (2011) ähnelt, haben Amir S. Bahar et al. (2011) versucht, herauszufinden, wie man sich den Einfluss des Gedächtnisses beim Lernen genauer vorzustellen habe. Mit Bezug auf einfache Lernaufgaben untersuchten sie insbesondere das Signalverhalten von Ortszellen-Karten in CA1 und CA3. Obgleich zwischen CA1 und CA2 deutliche Unterschiede je nach Aufgabenstellungen gefunden werden konnten, gibt es aber auch Kooperationen.

  9. Die Untersuchung von Lindsay K. Morgan et al. (2011) unterscheidet sich von den vorausgehenden dahingehend, dass als Versuchslebewesen nicht Ratten dienen, sondern Menschen. Damit sind die Messmöglichkeiten stark eingeschränkt. Ausgangshypothese ist, dass die räumliche Navigation teilweise unterstützt wird durch Bezug auf eine intern Wissenskarte (‚cognitive map‘) der Umgebung. Eine Schlüsseleigenschaft solcher angenommener Wissenskarten ist die Repräsentation von Realweltabständen. Es wird angenommen, dass man diese mit Hilfe eines funktionellen Magnetresonanstomographen (oder als Verfahren ‚functional magnetic resonance imaging (fMRI)‘) messen kann. Als Versuchslebewesen dienten Universitätstudenten, während sie Fotos von bekannten Ausschnitten des Universitätsgeländes anschauten. Aus den fMRI-Daten zog das Team den Schluss, dass im linken Hippocampus die fMRI-Antwortniveaus (‚response levels‘) mit den Realweltdistanzen ‚korrespondierten‘ (‚corresponded‘) mit jenen in den gezeigten Bildern. Dabei meinte das Team erkennen zu können, dass jene Orientierungspunkte (‚landmarks‘), die im Bild ’näher‘ (‚closer‘) waren, repräentationell (‚representationally‘) ähnlicher waren als solche, die im Bild ‚weiter entfernt‘ (‚mor distant‘) waren. In anderen Regionen wie dem retrosplenialen Kortex oder dem parahippocampalen Bereich waren laut dem Team solche Beziehungen nicht zu beobachten. Der Anteil von Wörtern wie ‚glauben‘ und ‚vermuten‘ ist sehr hoch. Zudem werden verhaltensbasierte Ergebnisse mit Messungen an physiologidschen Substraten recht freitügig kombiniert ohne große Reflexion auf die unterschiedliche Qualitäten von bildgebenden Verfahren und direkten Messungen an Zellen.

  10. David C.Rowlanda et al. (2011) gingen von der Annahme aus, dass (nach den bisherigen Erkenntnissen) der Hippocampus für Menschen und andere Säugetiere kritisch ist für episodisches Gedächtnis (‚episodic memory‘). Damit sind die autobiographischen Aufzeichnungen von Ereignissen gemeint, zu denen die Aspekte ‚wo‘ und ‚wann‘ gehören. Sie meinen, dass bei wachen, sich verhaltenden (‚behaving‘) Nagetieren (‚rodents‘) ganz offensichtlich die Signalmuster von hippocampalen Pyramidenzellen mit der aktuellen Position in einer bestimmten Umgebung ‚korreliert‘ (von daher der Name ‚Orts-Zellen‘ (‚place cells‘)). Wenn ein Tier eine neue Umgebung erkundet, dann bilden die pyramidalen Neuronen innerhalb von wenigen Minuten ihre raumbezogenen rezeptiven Felder aus, und diese sind in der Regel danach stabil. Das Team nimmt daher an, dass diese erfahrungsabhängige Stabilisierung der Orts-Felder (‚place fields‘) ein attraktiver Kandidat eines neuronalen Korrelates für die Bildung eines hippocampalen Gedächtnisses bietet. Zusätzlich wird angenommen, dass (a) raumabhängiges Feuern als solches angeboren ist (‚innate property‘) und (b), dass Ratten während Schlaf- und Ruhephasen sich Orte und Wege ‚vorstellen‘ können (‚mentally explore‘, ‚preplay‘), bevor diese physisch untersucht werden. Unklar ist hierbei, wie genau die Überführung der Erfahrung eines Tieres von einem Kontext in ein stabiles Ortsfeld vonstatten geht, z.B. weiß man nicht, ob die Beobachtung eines Raumes bzw. die rein mentale Exploration alleine für eine stabile hippocampale Repräsentation des Raumes ausreicht, da normalerweise ein Tier dafür einen bestimmten Punkt (’spot‘) physisch besuchen muss, um demonstrieren zu können, dass bestimmte Zellen dort feuern. Um diese beiden Fälle zu klären, nutzte das Team die Erkenntnis, dass NMDA-Rezeptoren neu gebildete Orts-Felder destabilisieren können. Das Team fand heraus, dass Beobachtung alleine nicht ausreicht, um Ortsfelder zu stabilisieren. Sie deuten ihre Ergebnisse dahingehend, dass die hippocampale Repräsentation von Raum so lange ‚plastisch‘ (‚plastic‘) bleibt, bis das Tier alle Bereiche der Umgebung erkundet hat. In diesem Sinne sind Ortsfelder weniger die Repräsentation des geometrischen Raumes an sich, sondern eher die Repräsentation der Erfahrung des Tieres im Raum.

  11. Das Team Junghyup Suh et al. (2011) geht von der Annahme aus, dass das entorhinale und hippocampale Netzwerk für die Formierung eines episodischen und Arbeitsgedächtnis wichtig ist. Kennzeichnend für beide Gedächtnisformen ist die Fähigkeit der Verknüpfung von zeitlich nicht zusammenhängenden Elementen. Nach Auffassung des Teams sind die genauen neuronalen Schaltkreise unbekannt, die diese Verknüpfungen ermöglichen. So beschloss das Team, zu untersuchen, ob z.B. die Input-Neuronen von der Schicht III des entorhinalen Kortex einen Beitrag leisten. Um diese Annahme zu testen hat das Team eine transgenetische (‚transgenetic‘) Maus ‚hergestellt‘ (‚generated‘), in der diese Input-Neuronen spezifisch inhibiert waren. Diese Mutanten-Mäuse zeigten dann tatsächlich signifikante Beeinträchtigungen sowohl bei Aufgaben, bei denen normalerweise das räumliche Arbeitsgedächtnis wirksam ist wie auch bei der Enkodierung von Angstreaktionen. Das Team zieht daraus den Schluss, dass die gefundenen Ergebnisse eine kritische Rolle der Input-Neuronen der Schicht III des entorhinalen Kortex in Weiterleitung zum Hippocampus für zeitliche Verknüpfungen im Gedächtnis darstellen.

  12. Ausgehend von hippocampalen Orts-Zellen, die Rauminformationen durch eine Kombination von räumlichem selektiven Feuern und Thetawellen-Phasen-Präzession auszeichnen, untersuchte das Team Steve M. Kim et al. (2012) eine mögliche Wirkung auf die Neuronen des Subiculums. Das Subiculum empfängt direkten Input von der Region CA1 (innerhalb des Hippocampus) und sendet unterschiedliche Ausgangsprojektionen zu vielen anderen Gehirnbereichen. Das Team fokussierte sich darauf, die Signalmuster von Neuronen im Subiculum von Ratten zu untersuchen. Rein aufgrund der Signalmuster (ohne korrelierte Verhaltensbeobachtungen) errechnete das Team einen höheren Informationsgehalt in den Signalmustern des Subiculums, dazu auffällig robuste Thetawellen-Phasen-Präzessionen mit ähnlichen Spike-Oszillations-Frequenzen (‚spiking oscillation frequencies‘) wie Neuronen aus CA1.

  13. Das Team Eun Joo Kim et al. (2012) geht aus von der Annahm, dass Streß ein biologischer Faktor ist, der allgegenwärtig ist. Wenn er als unkontrollierbar durch Menschen (oder Tiere) als wahrgenommen wird, kann er andauernde negativen Effekte für das Gehirn und seine kognitiven Funktionen haben. In einer früheren Untersuchung hatte das Team am Beispiel von Ratten darüber berichtet, dass diese eine Abnahme in der Stabilität von Signalraten in CA1 erkennen liesen verbunden mit Behinderungen von Langzeit-Potentialen in CA1 sowie der Konsolidierung von räumlichem Gedächtnis. Diese Ergebnisse wurden dahingehend verfeinert, dass es eher die erhöhte Aktivität der Amygdalar-Neuronen ist, die Stress auslöst, als die Konzentration von Kortikosteron, Stress, der dazu führt, dass sich die Stabilität der Signalraten der Ortszellen verändert.

  14. Ausgangspunkt für das Team Carien S. Lansink et al. (2012) ist die Annahme, dass die Verknüpfungen von Orten mit Belohnungen kritisch abhängt von der Integrität des hippocampalen-ventralen Systems. Das ventrale Striatum (VS) empfängt einen starken räumlich-kontextuellen Input vom Hippocampus (CA1), aber es ist nicht klar, wie das ventrale Striatum diese Informationen so verarbeiten kann, dass damit ein belohnungsbezogenes Verhalten entsteht. Um diese Frage zu beantworten wurde ein Verhaltensexperiment gestartet, bei dem eine konditionierte Aufgabe durch Pfadintegration zu lösen war. Dabei wurden simultan sowohl die Signale im Hippocampus (HC) wie auch im VS von Ratten gemessen. Im Gegensatz zum HC zeigten VS-Neuronen eine geringe räumliche Auflösung; dafür kodierten sie verhaltensbezogene Aufgaben-Phasen (‚task phases‘) mit Bezug auf die Erreichung von Zielorten (‚goal sites‘). Solche Schlüsselreize (‚cues‘)(z.B. Lichtreize), die einen bestimmten Ausgang voraussagen können, bewirkten eine Umprogrammierung (‚remapping‘) von Signalmustern im HC; für das Team steht dies in Übereinstimmung mit der Rolle des HC für das episodische Gedächtnis. Eine solche Umprogrammierung kann für die gleiche Aufgabe in unterschiedlichen Gehirnregionen stattfinden. Im Gesamtergebnis zeigen diese Resultate, dass einerseits zwar ein großer Unterschied im Verarbeiten räumlicher Informationen zwischen CA1 (Hyppocampus) und VS besteht, doch besteht eine Ähnlichkeit darin, dass diskrete Schlüsselreize diese Prozesse beinflussen.

 

Literaturhinweise:

2005

György Buzsáki, Similar Is Different in Hippocampal Networks, Science 309 (5734): 568-569, 2005

Stefan Leutgeb, Jill K. Leutgeb, Carol A. Barnes, Edvard I. Moser, Bruce L. McNaughton, May-Britt Moser, Independent Codes for Spatial and Episodic Memory in Hippocampal Neuronal Ensembles, Science 22 July 2005: Vol. 309 no. 5734 pp. 619-623

2006

James J. Knierim, Neural representations of location outside the hippocampus (online at http://www.learnmem.org/cgi/doi/10.1101/lm.224606 ), Copyright © 2006, Cold Spring Harbor Laboratory Press

 Eva Pastalkova, Peter Serrano, Deana Pinkhasova, Emma Wallace, André Antonio Fenton, Todd Charlton Sacktor, Storage of Spatial Information by the Maintenance Mechanism of LTP, Science 25 August 2006: Vol. 313 no. 5790 pp. 1141-1144 DOI: 10.1126/science.1128657

2007

James A. Ainge, Minija Tamosiunaite, Florentin Woergoetter, Paul A. Dudchenko, Hippocampal CA1 Place Cells Encode Intended Destination on a Maze with Multiple Choice Points, Copyright © 2007 Society for Neuroscience 0270-6474/07/27l119769-

Caswell Barry, Robin Hayman, Neil Burgess & Kathryn J Jeffery, Experience-dependent rescaling of entorhinal grids, Nature Neuroscience 10, 682 – 684 (2007)

Daoyun Ji, Matthew A Wilson, Coordinated memory replay in the visual cortex and hippocampus during sleep, Nature Neuroscience 10, 100 – 107 (2007)

Gergely Papp, Menno P Witter, Alessandro Treves, The CA3 network as a memory store for spatial representations, online at http://www.learnmem.org/cgi/doi/10.1101/lm.687407, Received July 1, 2007, Accepted September 5, 2007, Copyright © 2007, Cold Spring Harbor Laboratory Press

2008

Daoyun Ji, Matthew A. Wilson, Firing Rate Dynamics in the Hippocampus Induced by Trajectory Learning, The Journal of Neuroscience, 30 April 2008, 28(18): 4679-4689; doi: 10.1523/​JNEUROSCI.4597-07.2008

2009

C. D. Clelland, M. Choi, C. Romberg, G. D. Clemenson Jr., A. Fragniere, P. Tyers, S. Jessberger, L. M. Saksida, R. A. Barker, F. H. Gage, T. J. Bussey, A Functional Role for Adult Hippocampal Neurogenesis in Spatial Pattern Separation, Science 10 July 2009: Vol. 325 no. 5937 pp. 210-213, DOI: 10.1126/science.1173215

Dori Derdikman, Jonathan R Whitlock, Albert Tsao, Marianne Fyhn, Torkel Hafting, May-Britt Moser, Edvard Moser, Fragmentation of grid cell maps in a multicompartment environment, Nature Neuroscience 12, 1325 – 1332 (2009) Published online: 13 September 2009, doi:10.1038/nn.2396

Pamela J. Kennedy, Matthew L. Shapiro, Motivational states activate distinct hippocampal representations to guide goal-directed behaviors, approved May 6, 2009 (received for review March 26, 2009). Published online before print June 15, 2009, doi: 10.1073/pnas.0903259106 PNAS June 30, 2009 vol. 106 no. 26 10805-10810. This article contains supporting information online at www.pnas.org/cgi/content/full/0903259106/DCSupplemental.

Joseph R. Manns, Howard Eichenbaum, A cognitive map for object memory in the hippocampus, Online at http://www.learnmem.org/cgi/doi/10.1101/lm.1484509, Received May 14, 2009, accepted July 21, 2009, Copyright © 2009 by Cold Spring Harbor Laboratory Press, Supplemental material is available online at http://www.learnmem.org.

2010

Charlotte N Boccara, Francesca Sargolini, Veslemøy Hult Thoresen, Trygve Solstad, Menno P Witter, Edvard I Moser, May-Britt Moser. Grid cells in pre- and parasubiculum, Nature Neuroscience 13, 987–994,(2010) doi:10.1038/nn.2602, Received 25 March 2010

Laura L. Colgin, Stefan Leutgeb, Karel Jezek, Jill K. Leutgeb, Edvard I. Moser, Bruce L. McNaughton, May-Britt Moser, Attractor-Map Versus Autoassociation Based Attractor Dynamics in the Hippocampal Network, Published online before print May 5, 2010, doi: 10.​1152/​jn.​00202.​2010 AJP – JN Physiol July 1, 2010 vol. 104 no. 1 35-50 Submitted 25 February 2010, accepted in final form 3 May 2010,

Copyright © 2010 The American Physiological Society. Online at http://jn.physiology.org/content/104/1/35.full.pdf+html

André A. Fenton, William W. Lytton, Jeremy M. Barry, Pierre-Pascal Lenck-Santini, Larissa E. Zinyuk, Štepan Kubík, Jan Bureš, Bruno Poucet, Robert U. Muller, Andrey V. Olypher, Attention-Like Modulation of Hippocampus Place Cell Discharge, online at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2858227/

Inah Lee, Jangjin Kim, The shift from a response strategy to object-in-place strategy during learning is accompanied by a matching shift in neural firing correlates in the hippocampus, online at: http://learnmem.cshlp.org/content/17/8/381.full.pdf+html doi: 10.1101/lm.1829110 Learn. Mem. 2010. 17: 381-393 © 2010 Cold Spring Harbor Laboratory Press

Francesco Savelli, James J. Knierim, Hebbian Analysis of the Transformation of Medial Entorhinal Grid-Cell Inputs to Hippocampal Place Fields, Submitted 16 October 2009, accepted in final form 25 March 2010. Published online before print March 31, 2010, online at: http://jn.physiology.org/content/103/6/3167.full.pdf+html, doi: 10.​1152/​jn.​00932.​2009 AJP – JN Physiol June 1, 2010 vol. 103 no. 6 3167-3183

Annabelle C. Singer, Mattias P. Karlsson, Ana R. Nathe, Margaret F. Carr, Loren M. Frank, Experience-Dependent Development of Coordinated Hippocampal Spatial Activity Representing the Similarity of Related Locations, The Journal of Neuroscience, 1 September 2010, 30(35): 11586-11604; doi: 10.1523/​JNEUROSCI.0926-10.2010, online at: http://www.jneurosci.org/content/30/35/11586.full

2011

 Janina Ferbinteanu, Prasad Shirvalkar, Matthew L. Shapiro, Memory Modulates Journey-Dependent Coding in the Rat Hippocampus, The Journal of Neuroscience, 22 June 2011, 31(25): 9135-9146; doi: 10.1523/​JNEUROSCI.1241-11.2011. Online at: http://www.jneurosci.org/content/31/25/9135.full

Amir S. Bahar, Prasad R. Shirvalkar, Matthew L. Shapiro, Memory-Guided Learning: CA1 and CA3 Neuronal Ensembles Differentially Encode the Commonalities and Differences between Situations, The Journal of Neuroscience, 24 August 2011, 31(34): 12270-12281; doi: 10.1523/​JNEUROSCI.1671-11.2011, online at: http://www.jneurosci.org/content/31/34/12270.full.pdf+html?sid=da480191-1abf-4e09-b784-7f0dca5dd10e

Lindsay K. Morgan, Sean P. MacEvoy, Geoffrey K. Aguirre, Russell A. Epstein, Distances between Real-World Locations Are Represented in the Human Hippocampus, J Neurosci. 2011 January 26; 31(4): 1238–1245. doi:10.1523/JNEUROSCI.4667-10.2011, online at: http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3074276/pdf/nihms266858.pdf

David C. Rowlanda, Yelizaveta Yanovich, Clifford G. Kentrosb, A stable hippocampal representation of a space requires its direct experience, Published online before print August 18, 2011, doi: 10.1073/pnas.1105445108 PNAS August 18, 2011 online at: http://www.pnas.org/content/early/2011/08/17/1105445108.full.pdf+html?with-ds=yes

Junghyup Suh, Alexander J. Rivest, Toshiaki Nakashiba, Takashi Tominaga, Susumu Tonegawa, Entorhinal Cortex Layer III Input to the Hippocampus Is Crucial for Temporal Association Memory, Published Online November 3 2011, Science 9 December 2011:

Vol. 334 no. 6061 pp. 1415-1420, DOI: 10.1126/science.1210125, abstract online at: http://www.ncbi.nlm.nih.gov/pubmed/22052975

2012

Steve M. Kim, Surya Ganguli, Loren M. Frank, Spatial Information Outflow from the Hippocampal Circuit: Distributed Spatial Coding and Phase Precession in the Subiculum, The Journal of Neuroscience, 22 August 2012, 32(34): 11539-11558; doi: 10.1523/JNEUROSCI.5942-11.2012

Eun Joo Kim, Earnest S. Kim, Mijeong Park, Jeiwon Cho, Jeansok J. Kim, Amygdalar Stimulation Produces Alterations on Firing Properties of Hippocampal Place Cells, J Neurosci. 2012 Aug 15;32(33):11424-34.

Carien S. Lansink, Jadin C. Jackson, Jan V. Lankelma, Rutsuko Ito, Trevor W. Robbins, Barry J. Everitt, Cyriel M.A. Pennartz, Reward Cues in Space: Commonalities and Differences in Neural Coding by Hippocampal and Ventral Striatal Ensembles. Received February 7, 2012. Revision received June 14, 2012. Accepted July 12, 2012. The Journal of Neuroscience, 5 September 2012, 32(36): 12444-12459; doi: 10.1523/​JNEUROSCI.0593-12.2012

Hilfreiche zusätzliche Links:

Stefan Leutgeb: http://biology.ucsd.edu/faculty/sleutgeb.html (zuletzt 17.Sept.2012)

Gitter-Zellen: http://en.wikipedia.org/wiki/Grid_cell (zuletzt 15.Sept.2012)

Pfad Integration: http://en.wikipedia.org/wiki/Path_integration (zuletzt 15.Sept.2012)

Orts-Zellen: http://en.wikipedia.org/wiki/Place_cell (zuletzt 15.Sept.2012)

Kopf-Richtungs-Zellen: http://en.wikipedia.org/wiki/Head_direction_cells (zuletzt 15.Sept.2012)

Raum-Sicht-Zellen: http://en.wikipedia.org/wiki/Spatial_view_cells (zuletzt 15.Sept.2012)

Grenz-Zellen: http://en.wikipedia.org/wiki/Border_cell_%28brain%29 (zuletzt 15.Sept.2012)

Striatum: http://en.wikipedia.org/wiki/Striatum (zuletzt 17.Sept.2012)

 

Einen Überblick über alle bisherigen Themen findet sich HIER

SUCHE NACH DEM URSPRUNG UND DER BEDEUTUNG DES LEBENS (Paul Davies). Teil 2 (Information als Grundeigenschaft alles Materiellen?)

Paul Davies, The FIFTH MIRACLE: The Search for the Origin and Meaning of Life, New York:1999, Simon & Schuster

 Fortsetzung von Suche… (Teil 1)

Start: 27.Aug.2012

Letzte Fortsetzung: 1.Sept.2012

  1. Das dritte Kapitel ist überschrieben ‚Out of the Slime‘. (SS.69-96) Es startet mit Überlegungen zur Linie der Vorfahren (Stammbaum), die alle auf ‚gemeinsame Vorfahren‘ zurückführen. Für uns Menschen zu den ersten Exemplaren des homo sapiens in Afrika vor 100.000 Jahren, zu den einige Millionen Jahre zurückliegenden gemeinsamen Vorläufern von Affen und Menschen; ca. 500 Mio Jahre früher waren die Vorläufer Fische, zwei Milliarden Jahre zurück waren es Mikroben. Und diese Rückführung betrifft alle bekannten Lebensformen, die, je weiter zurück, sich immer mehr in gemeinsamen Vorläufern vereinigen, bis hin zu den Vorläufern allen irdischen Lebens, Mikroorganismen, Bakterien, die die ersten waren.(vgl. S.69f)

  2. [Anmerkung: Die Formulierung von einem ‚einzelnen hominiden Vorfahren‘ oder gar von der ‚afrikanischen Eva‘ kann den Eindruck erwecken, als ob der erste gemeinsame Vorfahre ein einzelnes Individuum war. Das scheint mir aber irreführend. Bedenkt man, dass wir ‚Übergangsphasen‘ haben von Atomen zu Molekülen, von Molekülen zu Netzwerken von Molekülen, von Molekülnetzwerken zu Zellen, usw. dann waren diese Übergänge nur erfolgreich, weil viele Milliarden und Abermilliarden von Elementen ‚gleichzeitig‘ beteiligt waren; anders wäre ein ‚Überleben‘ unter widrigsten Umständen überhaupt nicht möglich gewesen. Und es spricht alles dafür, dass dieses ‚Prinzip der Homogenität‘ sich auch bei den ‚komplexeren‘ Entwicklungsstufen fortgesetzt hat. Ein einzelnes Exemplar einer Art, das durch irgendwelche besonderen Eigenschaften ‚aus der Reihe‘ gefallen wäre, hätte gar nicht existieren können. Es braucht immer eine Vielzahl von hinreichend ‚ähnlichen‘ Exemplaren, dass ein Zusammenwirken und Fortbestehen realisiert werden kann. Die ‚Vorgänger‘ sind also eher keine spezifischen Individuen (wenngleich in direkter Abstammung schon), sondern immer Individuen als Mitglieder einer bestimmten ‚Art‘.]

  3. Es ist überliefert, dass Darwin im Sommer 1837, nach der Rückkehr von seiner Forschungsreise mit der HMS Beagle in seinem Notizbuch erstmalig einen irregulär verzweigenden Baum gemalt hat, um die vermuteten genealogischen Zusammenhänge der verschiedenen Arten darzustellen. Der Baum kodierte die Annahme, dass letztlich alle bekannten Lebensformen auf einen gemeinsamen Ursprung zurückgehen. Ferner wird deutlich, dass viele Arten (heutige Schätzungen: 99%) irgendwann ‚ausgestorben‘ sind. Im Falle einzelliger Lebewesen gab es aber – wie wir heute zunehmend erkennen können – auch das Phänomene der Symbiose: ein Mikroorganismus ‚frißt‘ andere und ‚integriert‘ deren Leistung ‚in sich‘ (Beispiel die Mitochondrien als Teil der heute bekannten Zellen). Dies bedeutet, dass ‚Aussterben‘ auch als ‚Synthese‘ auftreten kann.(vgl. SS.70-75)

  4. Die Argumente für den Zusammenhang auf Zellebene zwischen allen bekannten und ausgestorbenen Arten mit gemeinsamen Vorläufern beruhen auf den empirischen Fakten, z.B. dass die metabolischen Verläufe der einzelnen Zellen gleich sind, dass die Art und Weise der genetischen Kodierung und Weitergabe gleich ist, dass der genetische Kode im Detail der gleiche ist, oder ein kurioses Detail wie die molekulare Ausrichtung – bekannt als Chiralität –; obgleich jedes Molekül aufgrund der geltenden Gesetze sowohl rechts- oder linkshändig sein kann, ist die DNA bei allen Zellen ‚rechtshändig‘ und ihr Spiegelbild linkshändig. (vgl.SS.71-73)

  5. Da das DNA-Molekül bei allen bekannten Lebensformen in gleicher Weise unter Benutzung von Bausteinen aus Aminosäure kodiert ist, kann man diese Moleküle mit modernen Sequenzierungstechniken Element für Element vergleichen. Unter der generellen Annahme, dass sich bei Weitergabe der Erbinformationen durch zufällige Mutationen von Generation zur Generation Änderungen ergeben können, kann man anhand der Anzahl der verschiedenen Elemente sowohl einen ‚genetischen Unterschied‘ wie auch einen ‚genealogischen Abstand‘ konstruieren. Der genetische Unterschied ist direkt ’sichtbar‘, die genaue Bestimmung des genealogischen Abstands im ‚Stammbaum‘ hängt zusätzlich ab von der ‚Veränderungsgeschwindigkeit‘. Im Jahr 1999 war die Faktenlage so, dass man annimmt, dass es gemeinsame Vorläufer für alles Leben gegeben hat, die sich vor ca. 3 Milliarden Jahren in die Art ‚Bakterien‘ und ‚Nicht-Bakterien‘ verzweigt haben. Die Nicht-Bakterien haben sich dann weiter verzweigt in ‚Eukaryoten‘ und ‚Archäen‘. (vgl. SS.75-79)

  6. Davies berichtet von bio-geologischen Funden nach denen in de Nähe von Isua (Grönland) Felsen von vor mindestens -3.85 Milliarden Jahren gefunden wurden mit Spuren von Bakterien. Ebenso gibt es Funde von Stromatolythen (Nähe Shark Bay, Australien), mit Anzeichen für Cyanobakterien aus der Zeit von ca. -3.5 Milliarden Jahren und aus der gleichen Zeit Mikrofossilien in den Warrawoona Bergen (Australien). Nach den Ergebnissen aus 1999 hatten die Cyanobakterien schon -3.5 Mrd. Jahre Mechanismen für Photosynthese, einem höchst komplexen Prozess.(vgl. SS.79-81)

  7. Die immer weitere Zurückverlagerung von Mikroorganismen in die Vergangenheit löste aber nicht das Problem der Entstehung dieser komplexen Strukturen. Entgegen der früher verbreiteten Anschauung, dass ‚Leben‘ nicht aus ‚toter Materie‘ entstehen kann, hatte schon Darwin 1871 in einem Brief die Überlegung geäußert, dass in einer geeigneten chemischen Lösung über einen hinreichend langen Zeitraum jene Moleküle und Molekülvernetzungen entstehen könnten, die dann zu den bekannten Lebensformen führen. Aber erst in den 20iger Jahren des 20.Jahrhunderts waren es Alexander Oparin (Rußland) und J.B.S.Haldane (England) die diese Überlegungen ernst nahmen. Statt einem kleinen See,  wie bei Darwin, nahm Haldane an, dass es die Ozeane waren, die den Raum für den Übergangsprozess von ‚Materie‘ zu ‚Leben‘ boten. Beiden Forschern fehlten aber in ihrer Zeit die entscheidende Werkzeuge und Erkenntnisse der Biochemie und Molekularbiologie, um ihre Hypothesen testen zu können. Es war Harold Urey (USA) vorbehalten, 1953 mit ersten Laborexperimenten beginnen zu können, um die Hypothesen zu testen. (vgl. SS.81-86)

  8. Mit Hilfe des Studenten Miller arrangierte Urey ein Experiment, bei dem im Glaskolben eine ‚Mini-Erde‘ bestehend aus etwas Wasser mit den Gasen Methan, Hydrogen und Ammonium angesetzt wurde. Laut Annahme sollte dies der Situation um ca. -4 Millarden Jahren entsprechen. Miller erzeugte dann in dem Glaskolben elektrische Funken, um den Effekt von Sonnenlicht zu simulieren. Nach einer Woche fand er dann verschiedene Amino-Säuren, die als Bausteine in allen biologischen Strukturen vorkommen, speziell auch in Proteinen.(vgl. S.86f)

  9. Die Begeisterung war groß. Nachfolgende Überlegungen machten dann aber klar, dass damit noch nicht viel erreicht war. Die Erkenntnisse der Geologen deuteten in den nachfolgenden Jahren eher dahin, dass die Erdatmosphäre, die die sich mehrfach geändert hatte, kaum Ammonium und Methan enthielt, sondern eher reaktions-neutrales Kohlendioxyd und Schwefel, Gase die keine Aminosäuren produzieren. (vgl.S.87)

  10. Darüber hinaus ist mit dem Auftreten von Aminosäuren als Bausteine für mögliche größere Moleküle noch nichts darüber gesagt, ob und wie diese größere Moleküle entstehen können. Genauso wenig wie ein Haufen Ziegelsteine einfach so ein geordnetes Haus bilden wird, genauso wenig formen einzelne Aminosäuren ‚einfach so‘ ein komplexes Molekül (ein Peptid oder Polypeptid). Dazu muss der zweite Hauptsatz überwunden werden, nach dem ’spontane‘ Prozesse nur in Richtung Energieabbau ablaufen. Will man dagegen komplexe Moleküle bauen, muss man gegen den zweiten Hauptsatz die Energie erhöhen; dies muss gezielt geschehen. In einem angenommenen Ozean ist dies extrem unwahrscheinlich, da hier Verbindungen eher aufgelöst statt synthetisiert werden.(vgl.87-90)

  11. Der Chemiker Sidney Fox erweiterte das Urey-Experiment durch Zufuhr von Wärme. In der Tat bildeten sich dann Ketten von Aminosäurebausteinen die er ‚Proteinoide‘ nannte. Diese waren eine Mischung aus links- und rechts-händigen Molekülen, während die biologisch relevanten Moleküle alle links-händig sind. Mehr noch, die biologisch relevanten Aminosäureketten sind hochspezialisiert. Aus der ungeheuren Zahl möglicher Kombinationen die ‚richtigen‘ per Zufall zu treffen grenzt mathematisch ans Unmögliche.(vgl.S.90f) Dazu kommt, dass eine Zelle viele verschiedene komplexe Moleküle benötigt (neben Proteinen auch Lipide, Nukleinsäuren, Ribosomen usw.). Nicht nur ist jedes dieser Moleküle hochkomplex, sondern sie entfalten ihre spezifische Wirkung als ‚lebendiges Ensemble‘ erst im Zusammenspiel. Jedes Molekül ‚für sich‘ weiß aber nichts von einem Zusammenhang. Wo kommen die Informationen für den Zusammenhang her? (vgl.S.91f) Rein mathematisch ist die Wahrscheinlichkeit, dass sich die ‚richtigen‘ Proteine bilden in der Größenordnung von 1:10^40000, oder, um ein eindrucksvolles Bild des Physikers Fred Hoyle zu benutzen: genauso unwahrscheinlich, wie wenn ein Wirbelsturm aus einem Schrottplatz eine voll funktionsfähige Boeing 747 erzeugen würde. (vgl.S.95)

  12. Die Versuchung, das Phänomen des Lebens angesichts dieser extremen Unwahrscheinlichkeiten als etwas ‚Besonderes‘, als einen extrem glücklichen Zufall, zu charakterisieren, ist groß. Davies plädiert für eine Erklärung als eines ’natürlichen physikalischen Prozesses‘. (S.95f)

  13. Im Kapitel 4 ‚The Message in the Machine‘ (SS.97-122) versucht Davies mögliche naturwissenschaftliche Erklärungsansätze, beginnend bei den Molekülen, vorzustellen. Die Zelle selbst ist so ungeheuerlich komplex, dass noch ein Niels Bohr die Meinung vertrat, dass Leben als ein unerklärbares Faktum hinzunehmen sei (vgl.Anmk.1,S.99). Für die Rekonstruktion erinnert Davies nochmals daran, dass diejenigen Eigenschaften, die ‚lebende‘ Systeme von ’nicht-lebenden‘ Systemen auszeichnen, Makroeigenschaften sind, die sich nicht allein durch Verweis auf die einzelnen Bestandteile erklären lassen, sondern nur und ausschließlich durch das Zusammenspiel der einzelnen Komponenten. Zentrale Eigenschaft ist hier die Reproduktion. (vgl.SS.97-99)

  14. Reproduktion ist im Kern gebunden an das Kopieren von drei-dimensional charakterisierten DNA-Molekülen. Vereinfacht besteht solch ein DNA-Molekül aus zwei komplementären Strängen, die über eine vierelementiges Alphabet von Nukleinsäurebasen miteinander so verbunden sind, dass es zu jeder Nukleinsäurebase genau ein passendes Gegenstück gibt. Fehlt ein Gegenstück, ist es bei Kenntnis des Kodes einfach, das andere Stück zu ergänzen. Ketten von den vierelementigen Basen können ‚Wörter‘ bilden, die ‚genetische Informationen‘ kodieren. Ein ‚Gen‘ wäre dann solch ein ‚Basen-Wort‘. Und das ganze Molekül wäre dann die Summe aller Gene als ‚Genom‘. Das ‚Auftrennen‘ von Doppelsträngen zum Zwecke des Kopierens wie auch das wieder ‚Zusammenfügen‘ besorgen spezialisierte andere Moleküle (Enzyme). Insgesamt kann es beim Auftrennen, Kopieren und wieder Zusammenfügen zu ‚Fehlern‘ (Mutationen) kommen. (vgl.SS.100-104)

  15. Da DNA-Moleküle als solche nicht handlungsfähig sind benötigen sie eine Umgebung, die dafür Sorge trägt, dass die genetischen Informationen gesichert und weitergegeben werden. Im einfachen Fall ist dies eine Zelle. Um eine Zelle aufzubauen benötigt man Proteine als Baumaterial und als Enzyme. Proteine werden mithilfe der genetischen Informationen in der DNA erzeugt. Dazu wird eine Kopie der DNA-Informationen in ein Molekül genannt Boten-RNA (messenger RNA, mRNA) kopiert, dieses wandert zu einem komplexen Molekülnetzwerk genannt ‚Ribosom‘. Ribosomen ‚lesen‘ ein mRNA-Molekül als ‚Bauanleitung‘ und generieren anhand dieser Informationen Proteine, die aus einem Alphabet von 20 (bisweilen 21) Aminosäuren zusammengesetzt werden. Die Aminosäuren, die mithilfe des Ribosoms Stück für Stück aneinandergereiht werden, werden von spezialisierten Transportmolekülen (transfer RNA, tRNA) ‚gebracht‘, die so gebaut sind, dass immer nur dasjenige tRNA-Molekül andocken kann, das zur jeweiligen mRNA-Information ‚passt‘. Sobald die mRNA-Information ‚abgearbeitet‘ ist, liegt eines von vielen zehntausend möglichen Proteinen vor. (vgl.SS. 104-107) Bemerkenswert ist die ‚Dualität‘ der DNA-Moleküle (wie auch der mRNA) sowohl als ‚Material/ Hardware‘ wie auch als ‚Information/ Software‘. (vgl.S.108)

  16. Diese ‚digitale‘ Perspektive vertieft Davies durch weitere Betrachtung und führt den Leser zu einem Punkt, bei dem man den Eindruck gewinnt, dass die beobachtbaren und messbaren Materialien letztlich austauschbar sind bezogen auf die ‚impliziten Strukturen‘, die damit realisiert werden. Am Beispiel eines Modellflugzeugs, das mittels Radiowellen ferngesteuert wird, baut er eine Analogie dahingehend auf, dass die Hardware (das Material) des Flugzeugs wie auch der Radiowellen selbst als solche nicht erklären, was das Flugzeug tut. Die Hardware ermöglicht zwar grundsätzlich bestimmte Flugeigenschaften, aber ob und wie diese Eigenschaften genutzt werden, das wird durch ‚Informationen‘ bestimmt, die per Radiowellen von einem Sender/ Empfänger kommuniziert werden. Im Fall einer Zelle bilden komplexe Molekülnetzwerke die Hardware mit bestimmten verfügbaren chemischen Eigenschaften, aber ihr Gesamtverhalten wird gesteuert durch Informationen, die primär im DNA-Molekül kodiert vorliegt und die als ‚dekodierte‘ Information alles steuert.(vgl. SS.113-115)

  17. [Anmerkung: Wie schon zuvor festgestellt, repräsentieren Atome und Moleküle als solche keine ‚Information‘ ‚von sich aus‘. Sie bilden mögliche ‚Ereignisse‘ E ‚für andere‘ Strukturen S, sofern diese andere Strukturen S auf irgendeine Weise von E ‚beeinflusst‘ werden können. Rein physikalisch (und chemisch) gibt es unterschiedliche Einwirkungsmöglichkeiten (z.B. elektrische Ladungen, Gravitation,…). Im Falle der ‚Information‘ sind es aber nicht nur solche primären physikalisch-chemischen Eigenschaften, die benutzt werden, sondern das ‚empfangende‘ System S befindet sich in einem Zustand, S_inf, der es dem System ermöglicht, bestimmte physikalisch-chemische Ereignisse E als ‚Elemente eines Kodes‘ zu ‚interpretieren. Ein Kode ist minimal eine Abbildungsvorschrift, die Elemente einer Menge X (die primäre Ereignismenge) in eine Bildmenge Y (irgendwelche anderen Ereignisse, die Bedeutung) ‚übersetzt‘ (kodiert), also CODE: X —> Y. Das Materiell-Stoffliche wird damit zum ‚Träger von Informationen‘, zu einem ‚Zeichen‘, das von einem Empfänger S ‚verstanden‘ wird. Im Falle der zuvor geschilderten Replikation wurden ausgehend von einem DNA-Molekül (= X, Ereignis, Zeichen) mittels mRNA, tRNA und Ribosom (= Kode, CODE) bestimmte Proteine (=Y, Bedeutung) erzeugt. Dies bedeutet, dass die erzeugten Proteine die ‚Bedeutung des DNA-Moleküls‘ sind unter Voraussetzung eines ‚existierenden Kodes‘ realisiert im Zusammenspiel eines Netzwerkes von mRNA, tRNAs und Ribosom. Das Paradoxe daran ist, das die einzelnen Bestandteile des Kodes, die Moleküle mRNA, tRNA und Ribosom (letzteres selber hochkomplex) ‚für sich genommen‘ keinen Kode darstellen, nur in dem spezifischen Zusammenspiel! Wenn also die einzelnen materiellen Bestandteile, die Atome und Moleküle ‚für sich gesehen‘ keinen komplexen Kode darstellen, woher kommt dann die Information, die alle diese materiell hochkomplexen Bestandteile auf eine Weise ‚zusammenspielen‘ lässt, die weit über das hinausgeht, was die Bestandteile einzeln ‚verkörpern‘? ]

  18. "Zelle und Turingmaschine"
    zelle_tm

    [Anmerkung: Es gibt noch eine andere interssante Perspektive. Das mit Abstand wichtigste Konzept in der (theoretischen) Informatik ist das Konzept der Berechenbarkeit, wie es zunächst von Goedel 1931, dann von Turing in seinem berühmten Artikel von 1936-7 vorgelegt worden ist. In seinem Artikel definiert Turing das mathematische (!) Konzept einer Vorrichtung, die alle denkbaren berechenbaren Prozesse beschreiben soll. Später gaben andere dieser Vorrichtung den Namen ‚Turingmaschine‘ und bis heute haben alle Beweise immer nur dies eine gezeigt, dass es kein anderes formales Konzept der intuitiven ‚Berechenbarkeit‘ gibt, das ’stärker‘ ist als das der Turingmaschine. Die Turingmaschine ist damit einer der wichtigsten – wenn nicht überhaupt der wichtigste — philosophischen Begriff(e). Viele verbinden den Begriff der Turingmaschine oft mit den heute bekannten Computern oder sehen darin die Beschreibung eines konkreten, wenngleich sehr ‚umständlichen‘ Computers. Das ist aber vollständig an der Sache vorbei. Die Turingmaschine ist weder ein konkreter Computer noch überhaupt etwas Konkretes. Genau wie der mathematische Begriff der natürlichen Zahlen ein mathematisches Konzept ist, das aufgrund der ihm innewohnenden endlichen Unendlichkeit niemals eine reale Zahlenmenge beschreibt, sondern nur das mathematische Konzept einer endlich-unendlichen Menge von abstrakten Objekten, für die die Zahlen des Alltags ‚Beispiele‘ sind, genauso ist auch das Konzept der Turingmaschine ein rein abstraktes Gebilde, für das man konkrete Beispiele angeben kann, die aber das mathematische Konzept selbst nie erschöpfen (die Turingmaschine hat z.B. ein unendliches Schreib-Lese-Band, etwas, das niemals real existieren kann).
    ]

  19. [Anmerkung: Das Interessante ist nun, dass man z.B. die Funktion des Ribosoms strukturell mit dem Konzept einer Turingmaschine beschreiben kann (vgl. Bild). Das Ribosom ist jene Funktionseinheit von Molekülen, die einen Input bestehend aus mRNA und tRNAs überführen kann in einen Output bestehend aus einem Protein. Dies ist nur möglich, weil das Ribosom die mRNA als Kette von Informationseinheiten ‚interpretiert‘ (dekodiert), die dazu führen, dass bestimmte tRNA-Einheiten zu einem Protein zusammengebaut werden. Mathematisch kann man diese funktionelle Verhalten eines Ribosoms daher als ein ‚Programm‘ beschreiben, das gleichbedeutend ist mit einer ‚Funktion‘ bzw. Abbildungsvorschrift der Art ‚RIBOSOM: mRNA x tRNA —> PROTEIN. Das Ribosom stellt somit eine chemische Variante einer Turingmaschine dar (statt digitalen Chips oder Neuronen). Bleibt die Frage, wie es zur ‚Ausbildung‘ eines Ribosoms kommen kann, das ’synchron‘ zu entsprechenden mRNA-Molekülen die richtige Abbildungsvorschrift besitzt.
    ]
  20. Eine andere Blickweise auf das Phänomen der Information ist jene des Mathematikers Chaitin, der darauf aufmerksam gemacht hat, dass man das ‚Programm‘ eines Computers (sein Algorithmus, seine Abbildungsfunktion, seine Dekodierungsfunktion…) auch als eine Zeichenkette auffassen kann, die nur aus Einsen und Nullen besteht (also ‚1101001101010..‘). Je mehr Wiederholungen solch eine Zeichenkette enthalten würde, um so mehr Redundanz würde sie enthalten. Je weniger Wiederholung, um so weniger Redundanz, um so höher die ‚Informationsdichte‘. In einer Zeichenkette ohne jegliche Redundanz wäre jedes einzelne Zeichen wichtig. Solche Zeichenketten sind formal nicht mehr von reinen zufallsbedingten Ketten unterscheidbar. Dennoch haben biologisch nicht alle zufälligen Ketten eine ’nützliche‘ Bedeutung. DNA-Moleküle ( bzw. deren Komplement die jeweiligen mRNA-Moleküle) kann man wegen ihrer Funktion als ‚Befehlssequenzen‘ als solche binär kodierten Programme auffassen. DNA-Moleküle können also durch Zufall erzeugt worden sein, aber nicht alle zufälligen Erzeugungen sind ’nützlich‘, nur ein verschwindend geringer Teil.  Dass die ‚Natur‘ es geschafft hat, aus der unendlichen Menge der nicht-nützlichen Moleküle per Zufall die herauszufischen, die ’nützlich‘ sind, geschah einmal durch das Zusammenspiel von Zufall in Gestalt von ‚Mutation‘ sowie Auswahl der ‚Nützlichen‘ durch Selektion. Es stellt sich die Frage, ob diese Randbedingungen ausreichen, um das hohe Mass an Unwahrscheinlichkeit zu überwinden. (vgl. SS. 119-122)
  21. [Anmerkung: Im Falle ‚lernender‘ Systeme S_learn haben wir den Fall, dass diese Systeme einen ‚Kode‘ ‚lernen‘ können, weil sie in der Lage sind, Ereignisse in bestimmter Weise zu ‚bearbeiten‘ und zu ’speichern‘, d.h. sie haben Speichersysteme, Gedächtnisse (Memory), die dies ermöglichen. Jedes Kind kann ‚lernen‘, welche Ereignisse welche Wirkung haben und z.B. welche Worte was bedeuten. Ein Gedächtnis ist eine Art ‚Metasystem‘, in dem sich ‚wahrnehmbare‘ Ereignisse E in einer abgeleiteten Form E^+ so speichern (= spiegeln) lassen, dass mit dieser abgeleiteten Form E^+ ‚gearbeitet‘ werden kann. Dies setzt voraus, dass es mindestens zwei verschiedene ‚Ebenen‘ (layer, level) im Gedächtnis gibt: die ‚primären Ereignisse‘ E^+ sowie die möglichen ‚Beziehungen‘ RE, innerhalb deren diese vorkommen. Ohne dieses ‚Beziehungswissen‘ gibt es nur isolierte Ereignisse. Im Falle multizellulärer Organismen wird diese Speicheraufgabe durch ein Netzwerk von neuronalen Zellen (Gehirn, Brain) realisiert. Der einzelnen Zelle kann man nicht ansehen, welche Funktion sie hat; nur im Zusammenwirken von vielen Zellen ergeben sich bestimmte Funktionen, wie z.B. die ‚Bearbeitung‘ sensorischer Signale oder das ‚Speichern‘ oder die Einordnung in eine ‚Beziehung‘. Sieht man mal von der spannenden Frage ab, wie es zur Ausbildung eines so komplexen Netzwerkes von Neuronen kommen konnte, ohne dass ein einzelnes Neuron als solches ‚irgend etwas weiß‘, dann stellt sich die Frage, auf welche Weise Netzwerke von Molekülen ‚lernen‘ können.  Eine minimale Form von Lernen wäre das ‚Bewahren‘ eines Zustandes E^+, der durch ein anderes Ereignis E ausgelöst wurde; zusätzlich müsste es ein ‚Bewahren‘ von Zuständen geben, die Relationen RE zwischen primären Zuständen E^+ ‚bewahren‘. Solange wir es mit frei beweglichen Molekülen zu tun haben, ist kaum zu sehen, wie es zu solchen ‚Bewahrungs-‚ sprich ‚Speicherereignissen‘ kommen kann. Sollte es in irgend einer Weise Raumgebiete geben, die über eine ‚hinreichend lange Zeit‘ ‚konstant bleiben, dann wäre es zumindest im Prinzip möglich, dass solche ‚Bewahrungsereignisse‘ stattfinden. Andererseits muss man aber auch sehen, dass diese ‚Bewahrungsereignisse‘ aus Sicht eines möglichen Kodes nur möglich sind, wenn die realisierenden Materialien – hier die Moleküle bzw. Vorstufen zu diesen – physikalisch-chemische Eigenschaften aufweisen, die grundsätzlich solche Prozesse nicht nur ermöglichen, sondern tendenziell auch ‚begünstigen‘, und dies unter Berücksichtigung, dass diese Prozesse ‚entgegen der Entropie‘ wirken müssen. Dies bedeutet, dass — will man keine ‚magischen Kräfte‘ annehmen —  diese Reaktionspotentiale schon in den physikalisch-chemischen Materialien ‚angelegt‘ sein müssen, damit sie überhaupt auftreten können. Weder Energie entsteht aus dem Nichts noch – wie wir hier annehmen – Information. Wenn wir also sagen müssen, dass sämtliche bekannte Materie nur eine andere Zustandsform von Energie ist, dann müssen wir vielleicht auch annehmen, dass alle bekannten ‚Kodes‘ im Universum nichts anderes sind als eine andere Form derjenigen Information, die von vornherein in der Energie ‚enthalten‘ ist. Genauso wie Atome und die subatomaren Teilchen nicht ’neutral‘ sind sondern von vornherein nur mit charakteristischen (messbaren) Eigenschaften auftreten, genauso müsste man dann annehmen, dass die komplexen Kodes, die wir in der Welt und dann vor allem am Beispiel biologischer Systeme bestaunen können, ihre Wurzeln in der grundsätzlichen ‚Informiertheit‘ aller Materie hat. Atome formieren zu Molekülen, weil die physikalischen Eigenschaften sie dazu ‚bewegen‘. Molkülnetzwerke entfalten ein spezifisches ‚Zusammenspiel‘, weil ihre physikalischen Eigenschaften das ‚Wahrnehmen‘, ‚Speichern‘ und ‚Dekodieren‘ von Ereignissen E in einem anderen System S grundsätzlich ermöglichen und begünstigen. Mit dieser Annahme verschwindet ‚dunkle Magie‘ und die Phänomene werden ‚transparent‘, ‚messbar‘, ‚manipulierbar‘, ‚reproduzierbar‘. Und noch mehr: das bisherige physikalische Universum erscheint in einem völlig neuen Licht. Die bekannte Materie verkörpert neben den bislang bekannten physikalisch-chemischen Eigenschaften auch ‚Information‘ von ungeheuerlichen Ausmaßen. Und diese Information ‚bricht sich selbst Bahn‘, sie ‚zeigt‘ sich in Gestalt des Biologischen. Das ‚Wesen‘ des Biologischen sind dann nicht die ‚Zellen als Material‘, das Blut, die Muskeln, die Energieversorgung usw., sondern die Fähigkeit, immer komplexer Informationen aus dem Universum ‚heraus zu ziehen, aufzubereiten, verfügbar zu machen, und damit das ‚innere Gesicht‘ des Universums sichtbar zu machen. Somit wird ‚Wissen‘ und ‚Wissenschaft‘ zur zentralen Eigenschaft des Universums samt den dazugehörigen Kommunikationsmechanismen.]

  22. Fortsetzung Teil 3

Einen Überblick über alle bisherigen Themen findet sich HIER

Zitierte  Literatur:

Chaitin, G.J. Information, Randomness & Incompleteness, 2nd ed.,  World Scientific, 1990

Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

 Interessante Links:

Ein Video in Youtube, das eine Rede von Pauls Davies dokumentiert, die thematisch zur Buchbesprechung passt und ihn als Person etwas erkennbar macht.

Teil 1:
http://www.youtube.com/watch?v=9tB1jppI3fo

Teil 2:
http://www.youtube.com/watch?v=DXXFNnmgcVs

Teil 3:
http://www.youtube.com/watch?v=Ok9APrXfIOU

Teil 4:
http://www.youtube.com/watch?v=vXqqa1_0i7E

Part 5:
http://www.youtube.com/watch?v=QVrRL3u0dF4
Es gibt noch einige andere Videos mit Paul Davies bei Youtube.

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier

SINN, SINN, und nochmals SINN

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.März 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 16.Februar 2019 (Kontext eingefügt sowie im Text kursive Hervorhebungen)

KONTEXT

Zum Thema ‚Sinn‘ hab es zwei  vorausgehende Beiträge mit den Titel „Zur Grammatik des Sinns„ sowie „Weil es Sinn gibt, kann sich Wissen akkumulieren, das Sinn sichtbar macht. Oder: warum die Frage ‚Warum gerade ich?‘ in die Irre führen kann„. Beide Beiträge sind ziemlich  grundsätzlich und können den vorliegenden Text weiter vertiefen.

(1) Wie die vorausgehenden Beiträge auf unterschiedliche Weise gezeigt haben, führt die Frage nach dem ‚Sinn‘ (eng verknüpft mit der Frage nach der Wahrheit), wenn man sie ernsthaft stellt, schnell auf allerlei ‚Randbedingungen‘ des ‚Erkennens‘, die nicht nur ‚passiver Natur‘ sind (was ‚uns geschieht‘), sondern zugleich auch vielfältiger ‚aktiver‘ Momente (was ‚wir tun‘), damit wir überhaupt etwas erkennen, ‚wie‘ wir erkennen, ‚wann‘, ‚wo‘, usw. ‚Erkennen‘ zeigt sich somit als ein komplexes Geschehen, eingebettet in eine Vielzahl von Randbedingungen, die eine unüberschaubare Anzahl von Möglichkeiten zulassen.

(2) In jeder dieser unendlich vielen Kombinationen haben wir ein Erkenntniserlebnis, was immer auch die aktuelle Konstellation sein mag (Fernsehen gucken, Lesen, Laufen, reden, arbeiten, Malen, Streiten, Internet surfen, ….). Dieses aktuelle Erlebnis ist als Erlebnis ‚real‘. Wir können uns diesem realen Erleben nicht entziehen. Wir sind ‚mitten drin‘. Und wenn wir über das, was wir erleben, nicht explizit und zusätzlich ’nachdenken‘ (reflektieren…), dann ist die Welt das, was wir aktuell faktisch erleben (Wittgensteins berühmter Satz ‚Die Welt ist, was der Fall ist‘ (der in einem ganz bestimmten Kontext geäußert wurde) würde hier jetzt genau dies bedeuten: die Welt ist, was ich erlebe (was Wittgenstein genau vehement abstreiten würde (das war sein Problem…)). Denn nur das haben wir zur Verfügung (oder, wie zuvor mehrfach ausgeführt, das ist das, was das Gehirn ’sich selbst‘ aufgrund der verfügbaren Signale ‚zubereitet‘ (… wobei ‚Gehirn‘ ein komplexes theoretisches Konzept ist, dessen Anführung in diesem Kontext für viele Leser eher irreführend als zielführend sein kann)).

(3) Was die Sache mit dem Erleben (aus theoretischer Sicht) ’schwierig‘ macht (mit den entsprechenden weitreichenden Folgen für das alltägliche praktische Leben), ist die Tatsache, dass unser Erleben (wie jetzt schon oft besprochen) keine 1-zu-1-Abbildung von ‚Dingen außerhalb des Körpers‘ ist, sondern eine permanente dynamische Konstruktionsleistung unseres Gehirns, das aktuell verfügbare Signale mit schon zuvor ‚erworbenen (gelernten?)‘ Daten (Erinnerung, Gedächtnis) ‚verrechnet‘ und ‚Arbeitshypothesen‘ entwickelt, wie das alles ‚zusammenpassen‘ (Kohärenz, Konsistenz…) kann. Da das Gehirn endlich ist und in knapp bemessener Zeit aus einer Signalflut permanent auswählen muss, fallen beständig Sachen unter den Tisch, werden ausgeklammert, werden Dinge ‚vereinfacht‘ usw. Auf der ‚Habenseite‘ dieses atemberaubenden Geschehens verbleibt aber ein ‚Erkenntniseindruck‘, der ‚uns‘ das Gefühl vermittelt, wir ’sehen‘ etwas, wir ‚hören‘, usw.

(4) Dieser permanente Rückgriff auf ’schon Bekanntes‘ hat den großen Vorteil, dass die meist unvollkommenen Daten durch den Bezug auf ‚Ähnliches‘ ‚ergänzt‘ (interpretiert, gedeutet…) werden können und damit der ‚Entscheidungsprozess‘ während der ‚Berechnung‘ der ‚möglichen Strukturen in den Signalströmen‘ in Richtung des ’schon Bekannten‘ geleitet und damit abgekürzt werden kann (in Experimenten im Rahmen der Phonetik konnte man zeigen, dass Menschen bei der Identifizierung von akustischen Signalen ohne ‚Kontextwissen‘ deutlich schlechter waren, als mathematische Algorithmen für die Signalerkennung. Sobald die Menschen aber nur ein wenig Kontextwissen besaßen, waren sie den Algorithmen (nachvollziehbarerweise) deutlich überlegen. Andererseits konnte man sie dadurch aber auch gezielter ‚manipulieren‘: wenn man weiß, welches Kontextwissen bei einem bestimmten Menschen ‚dominant‘ ist, dann kann man ihm Daten so servieren, dass er diese Daten ’spontan‘ (wenn er nicht kritisch nachdenkt) im Sinne seines Kontextwissens interpretiert und damit zu ‚Schlüssen‘ kommt, die mit der tatsächlich auslösenden Situation gar nichts mehr zu tun haben).

(5) Diese ambivalente Rückwirkung des ’schon Bekannten‘ wird noch komplexer, wenn man berücksichtigt, dass mit dem Erlernen einer Sprache die ‚Gegenstandswelt‚ erweitert wird um eine ‚Welt der Zeichen‚, die auf diese Gegenstandswelt (und auf sich selbst!) auf vielfältige Weise ‚verweisen‘ kann. Ein sprachlicher Ausdruck als solcher ist auch ein reales Erlebnis, das aber – im Normalfall – von sich weg auf etwas ‚Anderes‘, auf seine ‚Bedeutung‘ ‚verweist‘. Jede mögliche Bedeutung ist letztlich immer erst mal wieder nur ein Erlebnis, das irgendwann einmal stattgefunden hat, und sei es als bloß ‚Imaginiertes/ Vorgestelltes/…‘. D.h. die Verwendung der Sprache als solche führt nicht grundsätzlich über den Bereich des Erlebbaren hinaus. Ein Denken mit Hilfe von sprachlichen Ausdrücken ist nur ’strukturierter‘, ‚berechenbarer‘, ‚handhabbarer‘ als ein Denken ohne sprachliche Ausdrücke. Sprache erlaubt die ‚wunderbare Vermehrung der Dinge‘, ohne dass real die Dinge tatsächlich vermehrt oder verändert werden (ein Roman von vielen hundert oder gar über tausend Seiten kann für den Leser ein sehr intensives ‚Erlebnis‘ erzeugen, gestiftet von einem bunten Strauss von sprachlich induzierten ‚Vorstellungen‘, die als solche real sind, ohne dass diesen Vorstellungen irgendetwas in der Außenwelt entsprechen muss.

(6) Mit den modernen Medien (Film, Fernsehen, Video, Computeranimation…) wird die Erzeugung von ‚Vorstellungen‘ nach ‚außen‘ verlagert in ein Medium, das Erlebnisse erzeugt ’scheinbar wie die Außenwelt‘, die aber ‚willkürlich erzeugt‘ wurden und die mit der empirisch-realen Welt nichts zu tun haben müssen. Dem ‚Erlebnis als solchem‘ kann man dies u.U. Nicht mehr ansehen, sofern man nicht (wie auch in allen anderen Fällen) sehr bewusst ‚kritisch‘ Randbedingungen überprüft und berücksichtigt. Während das Lesen eines Romans ‚als Lesen‘ deutlich macht, dass alle durch das Lesen induzierten Erlebnisse ‚künstlich‘ sind, kann das sehen/ hören/ fühlen… eines künstlichen Mediums die Einsichtsschwelle in die ‚Künstlichkeit‘ immer ‚höher‘ legen. Ein Film über ‚Erfundenes‘ neben einem Film über ‚empirisch-Reales‘ ist nicht mehr ohne weiteres identifizierbar.

(7) Sofern man nicht explizit die Frage nach der ‚Wahrheit‘ stellt (ich definiere ‚Wahrheit‘ hier jetzt nicht; siehe dazu die vorausgehenden Reflexionen) sind alle diese möglichen Erlebniswelten (real-empirisch bezogen oder beliebig generiert) aus Sicht des Erlebens ‚gleichwertig‘. Wer hier nicht ausdrücklich immer darauf achtet, was wann wie von wem mit welcher Absicht usw. ‚erzeugt‘ wurde, für den verschwimmen alle diese erlebnisfundierten Bilder zu einem großen Gesamtbild, wo jedes jedes ‚interpretiert‘ und wo die Frage nach der Wahrheit aus den Händen gleitet. Dennoch bieten alle diese Bilder – so verzerrt und willkürlich sie auch sein mögen – für den, der sie ‚hat‘ eine ‚Interpretation‘ und damit einen ‚möglichen Sinn‘. Ohne die ‚Gewichtung‘ durch den Aspekt der Wahrheit sind alle diese ‚möglichen Sinne‘ ‚gleichwertig‘. Es gibt im Bereich des möglichen Sinns keine ausgezeichnete Instanz, die einen besonderen Vorzug verdienen würde. Entsprechend ‚bunt‘ ist das Bild, das sich bietet, wenn man schaut, was Menschen alles für ’sinnvoll‘ halten. Es kann für jemand anderen noch so ‚grotesk‘ erscheinen, für den ‚Besitzer‘ dieses Sinns ist es ‚der allein Seligmachende‘.

(8) Wie gesagt, solange man die Frage nach der ‚Wahrheit‘ ausklammert, geht alles. Die Frage nach der Wahrheit wiederum setzt eine ‚kritische Reflexion‘ auf Randbedingungen voraus. Wie der Alltag zeigt, ist aber den meisten Menschen gar nicht klar, was ‚kritische Reflexion‘ praktisch bedeutet. Selbst wenn sie ‚kritisch reflektieren‘ wollten, sie könnten es nicht. Millionen von Menschen sind zwar bereit, viel Geld, viel persönliche Zeit, ja sogar ihr ganzes persönliche Leben, in ‚Gefolgschaften‘ von Kursen und Organisationen zu investieren, ohne ein Minimum an kritischem Denken dafür zurück zu bekommen. Das ‚Verwirrspiel‘ um den ‚Sinn‘, um den ‚Lebenssinn‘, um den ‚wahren Sinn‘ wird damit nur schlimmer und furchtbarer. Meist werden ein paar Leute dadurch sehr viel reicher, und viele andere sehr viel ärmer. So etwas sollte immer als ein mögliches Alarmzeichen dienen, um darauf aufmerksam zu machen, dass es bei solchen Veranstaltungen (das müssen nicht nur sogenannte ‚Sekten‘ sein, das kann — wie wir täglich leidvoll dazu lernen — jede Art von sogenannten ‚Beratern‘ sein) nicht um ‚wahren Sinn‘ geht, sondern um simple materielle Vorteile einzelner auf Kosten anderer.

(9) Das Thema ist damit nicht erschöpft (was ja auch die vorausgehenden Eindrücke zusätzlich belegen können), …es ist nur eine ‚Notiz‘ zwischendurch….

LITERATURNACHWEISE

Wittgenstein, L.: Logisch-philosophische Abhandlung, W. Ostwald (Hrsg.), Annalen der Naturphilosophie, Band 14, 1921, S. 185–262

nachlesbar in:

Wittgenstein, L.: Logisch-philosophische Abhandlung, Tractatus logico-philosophicus. Kritische Edition. Suhrkamp, Frankfurt am Main 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

A POSTERIORI, A PRIORI, TRANSZENDENZ, AN SICH, FÜR SICH – Überlegungen zu N.Hartmanns Metaphysik der Erkenntnis

Begrifflicher Rahmen zu N.Hartmann’s MdE

VORGESCHICHTE

(1) Bei der Lektüre von Husserls Pariser Vorlesungen von 1929 –bekannt als ‚Cartesianische Meditationen‘– hatte sich gezeigt, dass sich Husserl im Rahmen seiner Beschreibung der phänomenologischen Analyse schwer tat, die Eigenstellung des ‚Objektes‘ in seinem Denkrahmen zu beschreiben (siehe dazu die vorausgehenden Reflexionen in diesem Block; eine Übersicht findet sich hier). Obgleich das ‚Objekt‘ ein wesentliches Moment in seiner Beschreibung des ‚transzendentalen ego‘ war, hatte es dennoch keine absolute Eigenständigkeit innerhalb des Denkhorizontes. Das Denken war primär. In diesem Sinne erweist sich das Husserlsche Denken als ‚idealistisch‘. Zum Ende seiner Vorlesungen bemerkt Husserl, dass er mit diesem Denkansatz ein Problem bekommt um dem Phänomen des ‚Anderen‘ als ‚Du‘ gerecht werden zu können.

 

(2) In meinem Vortrag in Bremerhaven hatte ich nachfolgend herausgearbeitet, dass ein phänomenologisches Denken sich nicht im absoluten Gegensatz zu einem empirischen Denken befindet und dass, darüber hinaus, ein phänomenologisches Denken sogar der Unterstützung des empirischen Denkens bedarf, um seine eigenen Denkvoraussetzungen ‚kritisch‘ zu klären. Kritisch nicht im Sinne von Kants ‚Kritik der reinen Vernunft‘ als Klärung ohne Bezug zur Empirie, sondern durch Einbeziehung der Empirie hinsichtlich der empirischen Voraussetzungen des Denkens.

(3) Die Vorgehensweise der Einbeziehung der Empirie zur Klärung der Voraussetzungen des Denkens wurde schon von anderen praktiziert (im Vortrag verweise ich auf einige Publikationen im Rahmen einer sogenannten ‚Evolutionären Erkenntnistheorie‘: Literaturhinweise). Ein solches Vorgehen setzt allerdings die Annahme voraus, dass das uns bekannte bewusste Denken eine Leistung des Gehirns ist. Dies bedeutet, dass wir nur solches bewusst erleben und denken können, was durch die ‚Schaltungen der neuronalen Maschinerie‘ möglich ist. Allerdings folgt daraus nicht, dass man aus den physikalischen Eigenschaften dieser neuronalen Maschinerie die korrespondierenden bewussten Leistungen direkt erschließen könnte. Die ‚bewussten‘ Leistungen gehören zur ‚Innensicht‘ des Gehirns und sind als solche nur von dem beschreibbar, der diese ‚Erlebnisse‘ hat. Daraus ergibt sich, dass eine Beschreibung der Struktur und Dynamik des Bewusstseins aus der Innensicht eine unverzichtbare und irreduzible Aufgabe einer philosophischen Analyse des menschlichen Denkens ist –als phänomenologische Theorie TH_ph–, allerdings notwendigerweise korrespondierend mit neuropsychologischen Untersuchungen zur Denkmaschinerie TH_nn und dem korrespondierenden Verhalten TH_sr, will man ein minimal vollständiges Bild gewinnen.

(4) In diesem Zusammenhang bin ich durch die Lektüre von K.Lorenz ‚Die Rückseite des Spiegels‘ aufmerksam geworden auf die Philosophie Nicolai Hartmanns. In der Darstellung von Konrad Lorenz gewann ich den Eindruck, dass N.Hartmann der Stellung des ‚Objekts‘ innerhalb des Denkens von vornherein mehr Gewicht verleiht als Husserl. Während Husserl gegen Ende seiner Pariser Vorträge große Probleme hat, dem ‚Objekt‘ innerhalb seines Denkens wieder eine angemessene Stellung zu verschaffen, nachdem er es zuvor weitgehend annulliert hatte, soll Hartmann nach Lorenz dem ‚Objekt‘ innerhalb des Denkens von vornherein eine sehr starke Stellung eingeräumt haben.

(5) Nach kurzer Recherche habe ich dann begonnen jenes Werk von Hartmann zu lesen, durch das er sich vom Idealismus einer Marburger Schule abgewendet haben soll, eben seine ‚Grundzüge einer Metaphysik der Erkenntnis‘ [MdE] von 1929.

MdE – AUSGANGSPUNKT

(6) In der ‚gnoseologischen‘ Einleitung bezeugt Hartmann, dass er den Ausgangspunkt einer philosophischen Analyse analog zu Husserl in einer ‚phänomenologischen Analyse‘ des Gegebenen sieht. So schreibt er explizit „Nur das größtmögliche Maximum an Gegebenheit kann der wahrhaft kritischen Einstellung genügen, die bis hinter alle möglichen Standpunkte zurückgreift und auch gegen sie kritisch bleibt.“ (MdE,43). Und weiter „Der Phänomenologie müssen alle Phänomene als gleichwertig gelten. Für die Theorie können sie es nicht sein. Phänomenologie … steht ja nicht nur diesseits der Theorie, sondern diesseits aller Problemstellung. Ihre ganze Arbeit ist die Ordnung und Zusammenfassung des Gegebenen unter der Einheit deskriptiver Begriffe. Was sie als gegeben zusammenstellt, erhebt nicht den Anspruch auf objektive Realität, sondern nur auf Geltung als Phänomen. Und eben das Phänomen ist es, was die Theorie zu deuten hat.“ (MdE,43)

 

(7) Dieser Abschnitt enthält eine Reihe von wichtigen Begriffen, die innerhalb der Einleitung nicht wirklich erläutert werden, die aber dennoch Schlüsselbegriffe zu sein scheinen, die einen ‚Rahmen‘ aufspannen, innerhalb dessen sich alle weiteren Überlegungen bewegen werden.

(8) Ein erstes Gegensatzpaar bilden einerseits die ‚Phänomen als Gegebenes‘ und andererseits ein möglicher ‚Standpunkt‘, der von den gegebenen Phänomenen insoweit als ‚unabhängig‘ anzunehmen ist, als es offensichtlich mehr als einen einzigen Standpunkt zu den gleichen Phänomenen geben kann (andernfalls gäbe es eine denknotwendige Verbindung von gegebenen Phänomenen zu einem Standpunkt und eine Betonung auf die Phänomene ‚hinter allen möglichen‘ Standpunkten wäre unnötig). An dieser Stelle ist nicht ganz klar, was ein solcher ‚möglicher Standpunkt‘ unterschieden von gegebenen Phänomenen sein soll. Hartmann stellt nur fest, dass die Konzeption des ‚Standpunktes‘ auf der „letzten und abhängigsten“ Einsicht basiert, die vom „Ganzen der Problembehandlung“ abhängig ist (vgl. MdE, 43).

 

(9) Ebenso gibt es eine Unterscheidung zwischen gegebenen Phänomenen und einer ‚Theorie‘, von der gesagt wird, dass sie die Phänomene ‚deute‘. Was man sich genau unter ‚Theorie‘ oder unter ‚Deuten‘ vorstellen sollte, erklärt er auf den ersten 43 Seiten nicht). Man kann vermuten, dass es sich um eine von den gegebenen Phänomenen verschiedene Ebene des Denkens handeln kann, die durch Bereitstellung von eigenständigen Zusammenhängen diese Phänomene ‚deutet‘.

 

(10) Er spricht außerdem von ‚deskriptiven Begriffen‘, die dazu dienen, die gegebenen Phänomene Ph zu ‚Ordnen und Zusammenzufassen‘ bzw. ‚Zusammenzustellen‘. Was man sich unter ‚deskriptiven Begriffen‘ vorstellen soll bzw. wie man sich ein ‚Ordnen‘ und ‚Zusammenstellen‘ vorzustellen habe, wird nicht erklärt. Man kann spekulieren, dass ‚deskriptive Begriffe‘ B_des Ausdrücke einer Sprache L sind (B_des subset L), mittels deren Bezug genommen wird auf gegebene Phänomene als mögliche ‚Bedeutungsträger‘ D subset Ph (Designate, Bezeichnete, Signifie, …) M: L —> D. Es stellt sich dann die Frage, inwieweit solche deskriptiven Begriffe B_des selbst auch Phänomene sind/ sein müssen. Wären die Ausdrücke B_des Phänomene im Sinne Husserls, dann wären sie bar jeglicher Bedeutung D, da die Bedeutungsbeziehung M(L,D) als solche etwas ist, was weder einem Ausdruck B_des als solchem noch einem potentiellen Bedeutungsträger D als solchem zukommt. Die Bedeutungsbeziehung ist ein ‚eigenständig Gegebenes‘ als Eigenschaft unseres Bewusstseins, das wir ‚vorfinden‘. D.h. unser Bewusstsein ‚zeigt‘ uns, dass wir zwei unterschiedliche eigenständige gegebene Phänomene B_des_i und Ph_j über eine Bedeutungsbeziehung M() so miteinander verknüpfen können, dass ab einem bestimmten ‚Punkt‘ eine Bedeutungsbeziehung M(B_des_i, Ph_j) gegeben ist, durch die das Phänomen Ph_j zu einem ‚Designat‘ (zu einer Bedeutung) für das Phänomen B_des_i wird und umgekehrt das Phänomen B_des_i zu einem ‚Zeichen‘ für das Phänomen Ph_j. In diesem Zusammenhang könnte man die deskriptiven Begriffe dann ‚definieren‘ als solche ‚Zeichen‘, die in einer Bedeutungsbeziehung M() zu einem gegebenen Phänomen des Bewusstseins stehen. Sofern man solche deskriptiven Begriffe zur Kommunikation zwischen verschiedenen Bewusstseinen benutzen möchte müsste geklärt sein, wie es möglich ist, dass zwei verschiedene Bewusstseine A und B eine ‚hinreichend ähnliche‘ Bedeutungsbeziehung etablieren können, obschon weder A die Phänomene von B kennt noch B jene von A. Ferner wäre zu klären, ob und wie die Bedeutungsbeziehung M() in beiden Bewusstseinen ‚hinreichend ähnlich‘ ist bzw. sein kann.

 

(11) Schließlich bringt Hartmann den Begriff ‚objektive Realität‘ ins Spiel, und zwar als etwas, was außerhalb der phänomenologischen Analyse liegt. Phänomene sind zwar per se auch ‚real‘, aber nicht ‚objektiv‘. An dieser Stelle ist schwer ersichtlich, was mit einer Realität ‚außerhalb‘ der Phänomene des Bewusstseins gemeint sein kann, da ja nach allgemeiner Annahme alles, was wir wissen und wissen können nur durch die Vermittlung des Bewusstseins erkenntnismäßig fassbar wird.

 

MdE – SUBJEKT, OBJEKT, TRANSZENDENTAL

 

(12) Hartmann beginnt seine Analyse mit der Annahme, dass jegliche ‚Erkenntnis‘ geprägt ist von den unterscheidbaren Momenten ‚Subjekt‘ und ‚Objekt‘: das Subjekt ‚erfasst‘ das Objekt und das Objekt ist für das Subjekt ‚erfassbar‘. Diese Asymmetrie ist nicht ‚umkehrbar‘ bzw. nicht ‚vertauschbar‘. Hartmann spricht sogar davon, dass sich in diesem ‚Hinausgreifen des Subjekts‘ anzeigt, dass die Sphäre des Objekts für das Subjekt ‚transzendent‘ ist, da das Subjekt zum Erfassen des Objekts ’sich verlassen‘ (‚transzendieren‘) muss. Andererseits bedingt eine Objekt-Erkenntnis, dass das Subjekt im Erkennen nicht beim Objekt verbleibt, sondern trotz allem auch bei ’sich selbst‘ ist; dadurch nur ist ein Bewusst-sein-des-Objekts möglich. Schließlich gilt, dass innerhalb der durch das Erkennen zustande kommenden Verknüpfung von Subjekt und Objekt das Objekt ‚unaufhebbar erhalten‘ bleibt. (vgl. MdE, 44f,Nr.1-6)

 

(13) Wie so oft werden in diesem Buch Begriffe –hier ‚Subjekt‘ und ‚Objekt‘– eingeführt, die nicht weiter erklärt werden. Da es sich um komplexe Begriffe handelt, denen allem Anschein nach eine zentrale Rolle zukommt, ist dies ein wenig befremdlich. Andererseits ist aus dem Bereich der modernen Theoriebildung bekannt, dass man innerhalb eines theoretischen Gefüges ‚theoretische Terme‘ einführen kann, deren Bedeutung nur durch ihre logische Funktion im Gesamtkontext gegeben ist. Angenommen, dass es sich bei den Begriffen ‚Objekt‘ und ‚Subjekt‘ um solche theoretischen Begriffe handelt, dann müssen wir ihre Bedeutung durch den ‚Kontext ihrer Verwendung‘ erschließen. Dabei sollte man bedenken, dass moderne Theorien formale Theorien sind, in denen der Kontext eindeutig gegeben ist. Davon kann hier nicht die Rede sein. Gegen diese Interpretation als ‚theoretische Terme‘ spricht auch, dass Hartmann ja gerade zuvor eine deutliche Abgrenzung zwischen einer ‚phänomenologischen Analyse mittels deskriptiver Begriffe‘ einerseits und möglichen ‚deutenden Theorien‘ andererseits gefordert hat. In diesem Sinne würde man erwarten, dass er hier nicht mit theoretischen Begriffen operiert, sondern mit deskriptiven. Deskriptive Begriffe sollten sich dann aber auf jene Phänomene beziehen, von deren Gegebenheiten wir ausgehen. Nehmen wir dies als Deutungshypothese an, dann müssten wir fragen, auf welche Phänomene beziehen sich die deskriptiven Begriffe ‚Objekt‘ und ‚Subjekt‘?

 

(14) Husserl hatte den Begriff des ‚transzendentalen ego‘ eingeführt, um den nicht weiter aufzeigbaren ‚Fluchtpunkt‘ allen Wissens um etwas zu benennen. Descartes hatte in der Formulierung des ‚cogito ergo sum‘ ein ‚ego‘ impliziert, das als solches kein Phänomen ist wie ein Phänomenkomplex ‚Stuhl‘, ‚Hund‘, ‚Hand‘ usw. Das ‚wissende ego‘ wurde sowohl von Descartes wie auch Husserl als Bedingung jeglicher Erkenntnis geortet –und insofern von Husserl als ‚transzendental‘ bezeichnet–, aber eben nicht vergleichbar jenen Phänomenkomplexen, die gewöhnlicherweise das ‚Etwas‘ im Erkennen markieren, den intentionalen Gegenstand. Nehmen wir einmal an, Hartmann meint mit ‚Subjekt‘ in diesem Kontext das, was Husserl ‚transzendentales ego‘ nannte und Descartes implizit mit seinem ‚cogito ergo sum‘ meinte. Dann könnte man annehmen, dass Hartmann vielleicht mit ‚Objekt‘ all jene Phänomenkomplexe meint, die in der Erkenntnisbeziehung dem transzendentalem ego als ein ‚Etwas‘ gegenübertreten.

 

(15) Mit dieser Interpretation könnte man dann formulieren, dass das in der Erkenntnisbeziehung aufscheinende ‚Etwas‘ als Gegenüber zum transzendentalen ego weder durch das transzendentale ego ‚hervorgebracht‘ wird noch im Erkennen vom transzendentalen ego ‚absorbiert‘ wird. Innerhalb der Erkenntnisbeziehung ist ein mögliches ‚Objekt‘ als ein Etwas der Erkenntnis gegenüber dem erkennenden transzendentalem ego gleichberechtigt und damit dann auch transzendental; es bildet eine Voraussetzung der Erkenntnis, die das transzendentale ego nicht selbst hervorbringt, sondern vorfindet. Gerade darin liegt ja auch irgendwie der Reiz des Erkennens; es hat fundamental den Charakter des ‚Vorfindens‘, ‚Entdeckens‘, ‚Begegnens‘ mit etwas Verschiedenem, Anderem. Strenggenommen geht aber eine Qualifizierung von etwas Gegebenem als ‚transzendental‘ über die phänomenologische Analyse schon hinaus. Zwischen ‚Objekt‘ und ‚Subjekt‘ zu unterscheiden macht Sinn, da sich hier unterschiedliche Eigenschaften im gegebenen Phänomen einer Beschreibung ‚aufdrängen‘. Diese Beschreibungen weiter zu analysieren hinsichtlich logischer Verhältnisse gehört eigentlich schon in den Bereich einer möglichen Theorie.

 

MdE – BILD DES OBJEKTS

(16) An dieser Stelle trifft Hartmann eine Entscheidung von großer Tragweite. Er schreibt „Das Einholen des Erfaßten bedeutet nicht ein Einholen des Objekts in das Subjekt, sondern nur die Wiederkehr der Bestimmtheiten des Objekts an einem inhaltlichen Gebilde im Subjekt, dem Erkenntnisgebilde, oder dem ‚Bilde‘ des Objekts…. Am Objekt entsteht nichts Neues, im Subjekt aber entsteht das Gegenstandsbewußtsein mit seinem Inhalt, dem ‚Bilde‘ des Objekts.“ (MdE, 5, Nr.7). Auf den ersten Blick verletzt er mit dieser Feststellung seine eigenen methodischen Forderungen. Wenn es nicht das Objekt selbst ist, was im Erkennen aufscheint, sondern nur ein ‚Bild‘ von dem Objekt, dann gehört das vorausgesetzte Objekt nicht zu den Phänomenen. Dann aber liegt es außerhalb der von ihm selbst postulierten deskriptiven Phänomenologie. Bestenfalls könnte es Gegenstand einer theoretischen Diskussion sein, die sich um eine angemessene theoretische Deutung des phänomenologischen Sachverhalte bemüht. Innerhalb einer deskriptiven Phänomenologie habe ich aber nur jene Phänomene, die tatsächlich innerhalb des Erkennens aufscheinen. Lässt sich der Begriff des ‚Objekts‘ wie vorher angesprochen einigermaßen deuten als typische Phänomenkomplexe, die innerhalb des Erkennens als ‚Etwas‘ aufscheinen, entzieht sich der Begriff eines ‚Objekts als dem Erkennen jenseitig‘, verstanden als ‚Objekt als solches‘, jeglicher Phänomenologie; dies ist mehr als transzendent und daher –in diesem Kontext– rational nicht nachvollziehbar.

(17) Hartmann scheint sich dieser Problematik bewusst zu sein. Er führt nämlich dann die Unterscheidung zwischen ’schlichter, unreflektierter Erkenntnis‘ ein und solcher Erkenntnis (MdE. 45), in der ein Moment von ‚Reflexion‘ vorkommt; letztere aber noch unterschieden von einer vollständigen ‚Theorie‘ (MdE,46). Die schlichte, naive, unreflektierte Erkenntnis kann nach ihm nicht unterscheiden zwischen dem ‚Objekt als solchem‘ und dem ‚Bilde des Objektes‘. Erst in Verbindung mit Reflexion lassen sich die ‚Bestandteile des Phänomens aufzeigen‘, bewusst machen. Die hier notwendige Reflexion ist noch nicht die Theorie, aber doch die Voraussetzung einer möglichen Theorie. Aufgrund ihrer Unterscheidung kann eine Theorie entstehen. Zugleich stellt er fest, dass eine schlichte, naive Erkenntnis im Alltag niemals isoliert auftritt sondern immer schon eingebettet in ein alltägliches ‚Meinen über das Erfasste‘, das direkt in das Erfasste ‚hineininterpoliert‘ ist (vgl. MdE, 46).

(18) Selbst wenn man Hartmann zustimmt, dass das alltägliche Erkennen eine beständige Mixtur von phänomenologischen Sachverhalten, vorgefertigten Interpretationen in Form von Meinungen und andauernden Reflexionen ist, so kann und muss man sich fragen, warum er zuvor so klare methodische Unterscheidungen aufstellt, wenn er sie dann doch nicht –mit Verweis auf eine vorphilosophische, davon abweichende Praxis– dann noch nicht selbst beherzigt?

 

(19) Nach diesem Einschub mit ’naiver‘ versus ‚reflektierender‘ Erkenntnis wiederholt er dann seine These „Es ist der Gegenstand nicht wie er an sich ist, sondern wie er gesehen, erfaßt oder gemeint ist. Zum Bewusstsein kommt dieser Unterschied wo erneutes Erfassen zu erstmaligem Erfassen in inhaltlichen Gegensatz tritt.“ (MdE,46) Und, etwas später „…Dieses Etwas nun,als welches er vorkam oder vorschwebte, ist offenbar weder der Gegenstand selbst noch auch das Subjekt, sondern ein von beiden unterschiedenen Drittes, das in die Erkenntnisrelation eingeflochten ist. Es ist das, was man die ‚Vorstellung‘ des Gegenstandes genannt hat.“ (MdE, 46f)

 

(20) Entscheidend ist hier der Satz „Zum Bewusstsein kommt dieser Unterschied wo erneutes Erfassen zu erstmaligem Erfassen in inhaltlichen Gegensatz tritt.“ Dieser Satz setzt voraus, dass es beim Erfassen eine Unterscheidung von ‚Vorher – nachher‘ gibt

also eine Art Folge von Erfasstem <Erf_1, Erf_2, …, Erf_n>

und dass die inhaltlichen Eigenschaften von etwas Erfassten Erf_i und Erf_i+1 vergleichbar sind, mindestens im Sinne von ‚gleich’/ ‚ungleich‘, also

comp(Erf_i, Erf_i+1) = 1, wenn ‚gleich‘ und =0, wenn ‚ungleich‘.

Eine solche komplexe Operation setzt voraus, dass es ein minimales Gedächtnis (Memory) gibt, das in der Lage ist, ‚vorausgehende‘ Erfassungen soweit zu speichern, dass ein Vergleich mit ’neuem‘, ‚aktuellem‘ Erfassten möglich ist. Sagen wir, dass die zu vergleichenden Gebilde Erf_i und Erf_i+1 auf der ‚gedanklichen Ebene‘ Level_k liegen, dann operiert der Vergleich auf einer höheren Ebene Level_k+1. Auf dieser höheren Ebene Level_k+1 ließe sich dann eine Art ‚Metakonzept‘ MK(Erf_i, Erf_i+1) bilden, in dem Gemeinsamkeiten und Unterschiede repräsentiert werden könnten (Anmk: in der kognitiven Psychologie gibt es zahlreiche Modelle, wie man solche begrifflichen Strukturen beschreiben könnte). Die ‚Vorstellung‘ bzw. das ‚Bild‘ eines Objektes wäre in dieser theoretischen Rekonstruktion dann eine aktuelle ‚Instanz‘ (Erf_i) eines abstrakten ‚Objektkonzeptes‘ (MK()), das sich anhand der vielen individuellen Instanzen langsam ‚bilden‘ würde. Das ‚Objekt an sich‘ wäre dann ein theoretisches Konstrukt auf der Basis der phänomenalen Ereignisse. In diesem Modell könnt man zum Level_k+1 einen weiteren Level_k+2 bilden. Auf diesem Level könnte man dann Eigenschaften von Objektkonzepten modellieren, z.B. dass ein Objektkonzept ‚unabgeschlossen‘ ist, d.h. ein Objektkonzept kann sich grundsätzlich verändern, weiter entwickeln (Anmk: dieses Modell wurde schon anlässlich der Diskussion von Husserls Cartesiansichen Meditationen beschrieben. Würde man es akzeptieren, dann würden sich hier Husserl und Hartmann bis zu diesem Punkt nicht wirklich unterscheiden).

 

(21) Für Hartmann ist es wichtig, zu betonen, –hier Fichte positiv zitierend– „Erkenntnis ist Bestimmung des Subjekts durch das Objekt“. (MdE,47) Und „Das Subjekt verhält sich in der Erkenntnisrelation prinzipiell rezeptiv zum Objekt“. (MdE,48) Obgleich wir heute wissen (und in anderem Zusammenhang geht Hartmann selbst darauf ein), dass das Subjekt sehr wohl das Aufscheinen von Objekten in seinem Bewusstsein so manipulieren kann, dass das, was aufscheint, mit ‚unabhängig vom Bewusstsein existieren Objekten‘ wenig bis gar nichts mehr zu tun hat (Selbsttäuschung, Wahn, Lüge, Propaganda, Desinformation, Fantasie, Virtuelle Welten,…), kann man zustimmen, dass dort, wo das Subjekt in einer ’nicht manipulierten Umgebung‘ lebt, das im Bewusstsein Erfasste Eigenschaften ‚von Etwas jenseits des Bewusstseins‘ transportiert, die die Gestalt des Bewusstseins ‚prägen‘ können. In gewisser Weise folgt dann das Bewusstsein dem Objekt anhand des postulierten Gedächtnisses.

 

MdE – A POSTERIORI, A PRIORI

(22) Hartmann führt dann auch noch die Unterscheidung ‚a posteriori‘ und ‚a priori‘ ein. ‚A posteriori‘ nennt er alles Erfassen, bei dem das Erkennen sich auf einen ‚realen Einzelfall‘ bezieht. (cf. MdE,50). Alles Erfassen, bei dem ein realer Einzelfall nicht vorliegt und eine Erkenntnis aufgrund des ‚allgemeinen Wesenszuges‘ des Gegenstandes, aufgrund seines ‚idealen‘ Seins, möglich ist, nennt er ‚a priori‘. (vgl. MdE, 50).

 

(23) Auf den ersten Blick bieten diese Begriffsdeutungen zum Vorausgehenden kein Problem, da Metakonzepte als solche immer Möglichkeiten bieten, allgemeine Aussagen über ein Erfasstes zu machen, ohne dass dieses als Instanz gegeben ist. D.h. das ‚A priorische‘ wäre in diesem Modell indirekt gegeben durch die sich herausbildenden Strukturen im Bereich der Metakonzepte. Es ist aber nicht ganz klar, ob Hartmann nicht doch noch etwas anderes, und sogar ‚mehr‘ meint, wenn er diese Begriffe benutzt.

(24) So spricht er vom ‚äußeren‘ und ‚inneren‘ Sinn und zitiert Kant mit dem Gedanken, „… dass er das eigentliche Erkenntnisphänomen des Apriorischen in seiner ‚objektiven Gültigkeit‘ erblickt, d.h. im Zutreffen des innerlich Erschauten auf den transzendenten Gegenstand.“ (MdE, 51). Im vorausgehenden Modell könnte man zwar ein entstehendes Metakonzept immer wieder neu mit dem aktuell Erfassten vergleichen und im Falle der ‚hinreichenden Ähnlichkeit‘ dies als ‚Bestätigung‘ mit der ‚transzendentalen Quelle‘ interpretieren, unabhängig von den Metakonzepten macht es aber keinen rechten Sinn, von einem ‚transzendenten Objekt‘ zu sprechen, da hierfür jeglicher Ansatzpunkt fehlt. Man kann sich zwar vorstellen, dass man die Erkenntnisebenen Level_k+2 weiter ausdehnt und z.B. ein umfassendes Metakonzept bildet, in dem das Konzept (die Idee?) eines Raumes formiert wird, in der das Bewusstsein als ein Element vorkommt, das von hypothetischen Objekten beeinflusst werden kann. Dies wären dann Konzepte möglicher transzendenter Objekte, aber diese Metakonzepte selbst wären natürlich keine transzendenten Objekte. Es ist schwer zu sehen, wie Hartmann diese Rede von transzendenten Objekten im Rahmen der menschlichen Erkenntnis rechtfertigen kann. Auch die Rede vom ‚äußeren‘ und ‚inneren‘ Sinn ist problematisch. Wenn das Subjekt über phänomenologische Komplexe sowie darauf aufbauende Metakonzepte nicht hinauskommt, wie kann er dann in einem absoluten Sinne von ‚Außen‘ versus ‚Innen‘ sprechen? Bislang wäre eine Reden von ‚Außen‘ nur in einem abgeleiteten Sinne innerhalb der Metakonzeptbildung möglich.

 

(25) Hartmann hält diese Mehrdeutigkeit eine Zeitlang noch in der Schwebe, da er für den Bereich des Erkennens (die gnoseologische Sicht) eine letzte Unabhängigkeit von Subjekt und Objekt voneinander ausschließt (vgl. MdE, 51-53), formuliert aber so, dass mit Blick auf eine ontologische (die Existenz betreffende) Sicht ein An-sich-sein postuliert, von dem aus das Objekt vom Subjekt unabhängig ist und in diesem Sinne wahrhaft ‚transzendent‘ und nicht nur ‚transzendental‘. Ferner schließt er in ontologischer Sicht nicht aus, dass auch das Subjekt ‚mehr‘ ist als nur Erkennen. (vgl. MdE, 52f)

 

(26) Ein solcher ‚Flirt‘ mit einer ontologischen Sicht mag ’nett‘ wirken, ist aber letztlich ‚unseriös‘, wenn darauf verzichtet wird, heraus zu arbeiten, wie es möglich ist, auf der Basis einer gnoseologischen (strikt an der Erkenntnis orientierten) Sicht zu ontologischen Aussagen zu kommen, die deutlich mehr Informationen enthaltenen, als die Erkenntnisbasis hergibt. Ich sehe in dem Text soweit bislang keinerlei Ansatzpunkt, wie Hartmann seine ontologischen Deutungen rechtfertigen könnte.

 

MdE – HANDLUNG

(27) Hartmann weist kurz darauf hin, dass das Subjekt durch sein ‚Handeln‘ sehr wohl auch das Objekt verändern könne. (vgl. MdE, 53f). Er gibt hier aber weiter keine Erläuterungen. Dies wäre aber sinnvoll, da das Reden von ‚Handlungen des Subjekts, die das Objekt verändern‘ phänomenologisch alles andere als einfach ist. Allein der saubere Aufweis, wie man begrifflich beschreiben sollte, dass ein Subjekt ‚Aktivitäten‘ ‚plant/ intendiert/ will…‘, diese dann ‚umsetzt‘, die ‚Wirkung‘ dieses seines ‚Handelns‘ erfassen kann als sein eigener Beitrag zur Veränderung des erfahrbaren Objektes ist maximal komplex und ist nach meiner Kenntnis bis heute von niemandem auch nur annähernd geleistet worden. Dies reisst eine gewaltige Lücke in die philosophische Reflexion um das Verhältnis von Subjekt und Objekt.

 

MdE – VARIABLES OBJEKT

(28) Oszillierend zwischen Gnoseologie und Ontologie kreist Hartmann beständig um die Differenz von aktuell erkanntem Objekt und dem allgemeineren Konzept, das sich aus vielen konkreten Ereignissen herausbilden kann. Er selbst neigt dazu (mit Anlehnung an eine nicht begründete Ontologie) diese Differenz interpretierend auszuweiten auf ein Objekt an sich, auf ein wahrhaft transzendentes Objekt, auf ein ‚Transobjektives‘. (MdE, 54) Und er nimmt an, dass das Subjekt von dieser Inadäquatheit zwischen realisiertem und transzendentem Objekt wissen kann, ein ‚Wissen des Nichtswissens‘. (MdE, 54). Daraus leitet Hartmann ein Bewusstsein der ‚Beschränkung‘ her, das zu einem Spannungsmoment wird, welches wiederum den Erkenntnisprozess als Progreß antreibt. (vgl. MdE, 55)

 

(29) Diese schon eher psychologisch anmutenden Spekulationen zeigen, was passiert, wenn man die Bedingungen der Aussagen nicht mehr sauber kontrolliert. Im Rahmen des Erkenntnisprozesses gibt es kein ‚Objekt an sich‘ als ‚transzendierendes‘ Objekt. Wohl lässt sich vorstellen, wie man mit Hilfe von Erkenntnisebenen unterschiedliche Abstraktionsebenen konstruieren kann, die unter Einbeziehung eines –noch näher zu beschreibenden– Gedächtnismodells aus einem Strom von Einzelereignissen abstrakte Konzepte bilden können, die sich durch eine Kontrolle möglicher Übereinstimmungen als abstrakte Metakonzepte etablieren können, mit deren Hilfe das Subjekt seine Orientierung in der Flut der Phänomene verbessern kann. Als Metakonzept lassen sich auch Eigenschaften wie die ‚Unabgeschlossenheit eines Konzeptes‘ bilden, die wiederum die Ausarbeitung einer Strategie erlauben würde, mit Unabgeschlossenheit umzugehen, aber dieser Mechanismus könnte seine eigenen immanenten Beschränkungen nicht vollständig überwinden. Das ‚Objekt an sich‘ bleibt wesentlich unerreichbar. Eine Konsequenz davon ist, dass das subjektive Wissen wesenhaft unabgeschlossen ist und von daher der Strom der Phänomene einen hohen Informationswert besitzt; alles, was ‚abweicht vom Bekannten‘ kann extrem bedeutsam sein.

(30) Erkennen bleibt für ein Subjekt eine zentrale Aufgabe, da das Wissen ‚um das mögliche Ganze‘ ‚verpackt‘ ist im Strom der Phänomene. Das einzelne Subjekt kann nur in der Gemeinsamkeit aller Phänomene die mögliche umfassende ‚wahre‘ Antwort finden. Kein einzelnes menschliches Subjekt kann die Wahrheit des potentiellen Ganzen alleine vorweg nehmen. Die ‚Neugierde‘ wird von Hartmann psychologisch gedeutet als verursacht aus der anhaltenden Differenz, aus dem Wissen des Nichtwissens. Evolutionär-Philosophisch gibt es Hinweise, dass das nackte Überleben eines Organismus von einer immer besseren ‚Anpassung‘ des gesamten Organismus an das vorgegebene ‚universale Objekt‘ Welt – Sonnensystem – Universum abhängt, d.h. unser gesamter Organismus ist so ausgelegt, dass er kontinuierlich auf ein ‚Begreifen des Ganzen‘ ‚programmiert‘ ist, unabhängig vom ‚Wollen‘ eines einzelnen. Der einzelne kann sich allerdings verweigern.

 

Zur Fortsetzung der Überlegungen zu Hartmanns MdE klicke hier

LITERATURVERWEISE

Hartmann, N. “ Grundzüge einer Metaphysik der Erkenntnis“, Berlin: Walter de Gruyter & Co, 5.Aufl. 1965 (Erstausgabe 1929).