DAS UNIVERSUM MIT DEN AUGEN VON Lawrence M.Krauss. Gedanken zu seinem Buch A UNIVERS FROM NOTHING. Teil 1

Lawrence M.Krauss, a universe from nothing. why there is something rather than nothing. London: Simon & Schuster UK Ltd, 2012

KONTEXT

  1. In den vorausgehenden Einträgen zu diesem Blog gab es schon einige Beiträge, die sich mit dem Blick von Physikern auf unser Universum beschäftigt haben. Allerdings fast immer mit dem Blick von Physikern auf das biologische Leben, auf die Evolution, auf die Zelle (mit dem Befund, dass die Physik zwar einiges sagen kann, aber bei den entscheidenden Phänomenen letztlich passen muss (noch). Die Perspektive der Physik auf das Ganze, auf das Universum, kam im Blog selbst bislang nicht explizit vor. Allerdings wurde das Standardmodell einer Entwicklung vom BigBang bis hin zur Evolution im Großen und Ganzen durchgehend unterstellt. Da die Physiker – wie in vielen anderen Disziplinen auch verbreitet – in der Regel ‚Physikalisch‘ schreiben, d.h. Eine Amalgam von Alltagssprache, durchmischt mit vielen Fachbegriffen, dazu – im Normalbetrieb – viele Formeln, ist es für einen Fachfremden in der Regel kaum möglich, diese Texte so einfach zu lesen (geschweige denn, sie überhaupt zu finden). Man ist darauf angewiesen, dass ein Physiker gelegentlich versucht, das komplexe Wissen seines Fachs in eine allgemein verständliche Sprache zu fassen. Dies führt zwar zu einem Verlust an fachlicher Genauigkeit, erschließt aber dafür das Verstehen von vielen Fachfremden. Das Buch von Lawrence M.Krauss ist so ein Buch. Im Folgenden wird versucht werden, seine Gedanken aufzugreifen und zu schauen, ob und wie diese in den bisher im Blog erarbeiteten Zusammenhang hinein passen.

VORWORT

  1. Im Vorwort stellt Krauss die Frage ins Zentrum Warum es so ist, dass eher Etwas da ist als Nichts. Seit je her gab es dazu verschiedene Antwortversuche, die in der Zeit vor den modernen Wissenschaften in religiösen oder philosophischen Versionen daher kamen. Je nach den Denkvoraussetzungen der jeweiligen Betrachter vermutete man erste Ursachen, erste Beweger, einen Schöpfer des Ganzen, also irgendetwas, was das Denken zu dieser Zeit so hergab. Krauss geht hier aber nicht auf Details ein. Er belässt es bei ein paar allgemeinen Bemerkungen. Seine eigene Position ist allerdings klar. Für ihn ist es ungewiss, ob wir jemals genügend empirisches Wissen haben werden, um diese Frage klar beantworten zu können. (vgl. S.xiii)
  2. [Anmerkung: Von heute aus betrachtet muss man festhalten, dass sich die Interpreten der Vergangenheit selten Gedanken darüber machten, ob und in welcher Form sie überhaupt über genügend Wissen verfügten, die Frage zu beantworten (deutlich fassbar in den Texten der drei Offenbarungsreligionen). In einem naiven Denken denkt man einfach, ohne sich darüber Rechenschaft zu geben, unter welchen Bedingungen man denkt, was Denken überhaupt ist, usw. Mit dem Erstarken des philosophischen Denken (zu unterschiedlichen Zeiten an unterschiedlichen Orten unterschiedlich stark; wichtiges Beispiel: die antike Philosophie in Griechenland) begannen Philosophen, ihr eigenes Denken zu erforschen. In Ermangelung moderner Erkenntnisse über den Körper, das Gehirn, die Materie waren die Bilder dieses Denkens über das Denken zwar auch einfach, aber es entstanden doch erheblich differenziertere Bilder der Wirklichkeit im Lichte von Denkmodellen. Ein Platon und ein Aristoteles benutzen dann ihre Modelle des Denkens, um über die Welt im Lichte dieser Denkmodelle zu spekulieren. So beeindruckend diese Spekulationen (speziell im Falle des Aristoteles) sind, so wenig hilfreich sind sie aufs Ganze gesehen, weil ihre Voraussetzungen zu viele Schwachstellen aufweisen. Wenn dann eine Offenbarungsreligion wie das Christentum sich für Jahrhunderte mit diesen bedingt gültigen philosophischen Denkmodellen verbindet, werden die resultierenden Aussagen nicht wahrer.]
  3. Krauss liefert sich im Vorwort außerdem ein kleines Scharmützel mit jenen philosophischen und theologischen Positionen, die den Begriff Nichts (’nothing‘) im Gegensatz zum Begriff Irgendetwas (’something‘) so konstruieren wollen, dass das mit dem Begriff ‚Nichts‘ Gemeinte radikal nichts ist, in keiner Weise irgendetwas (Er nennt allerdings keine konkrete Autoren oder Texte). Eine solche Feststellung hält er für eine intellektuelle Bankrotterklärung, da für ihn, Kraus, das mit ‚Nichts‘ Gemeinte genauso etwas Physikalisches ist wie das mit ‚Irgendetwas‘ Gemeinte. Und – unter dieser Voraussetzung – kann es für das mit ‚Nichts‘ Gemeinte, wenn überhaupt, nur eine empirische Definition geben. (vgl. S.xiv)
  4. [Anmerkung: Nimmt man diese letzte Feststellung ernst, dann geht Krauss davon aus, dass das Reden über die Wirklichkeit nur in Begriffen empirischer Wissenschaft stattfinden kann. Diese Annahme ist (wie in vielen Blogbeiträgen zuvor schon angesprochen) eine unzulässige Vereinfachung des menschlichen Erkenntnisstandpunktes. (i) Die empirische Phänomene sind eindeutig nur eine echte Teilmenge der erlebbaren Phänomene überhaupt. Über diese nicht-empirischen Aspekte unserer Wirklichkeit zu sprechen ist nicht nur Alltag legitim, sondern selbst für einen strengen empirischen Wissenschaftsbetrieb bis zu einem gewissen Grad unausweichlich! Die intellektuelle Bankrotterklärung läge in diesem Punkt dann eher bei Krauss und nicht bei den andern. Im übrigen (ii) ist eine moderne empirische Theorie eine Synthese von empirischen Daten und formaler Mathematik als Ausdrucksmittel. Die Mathematik, die eingesetzt wird, enthält Begriffe, die in keiner Weise empirische verifiziert werden können, abgesehen davon, dass die in der Physik benutzte Mathematik grundsätzlich nicht vollständig entscheidbar ist (Goedel 1931, Turing 1936/7). Die moderne Mathematik selbst ist im Ansatz nicht empirisch, sondern vom Grundkonzept her metaphysisch. Darüber haben bislang schon viele Wissenschaftsphilosophen nachgedacht. Krauss offenbar nicht.]
  5. Als stärkste Motivation, dieses Buch zu schreiben, benennt Krauss die Entdeckung, dass sich der größte Teil der Energie im Universum in einem Zustand befindet, der von der Wissenschaft bislang nicht wirklich erklärt werden kann. Diese Entdeckung hat die gesamte Wissenschaft verändert, und auch sein Leben als Physiker. Denn sie führte dazu, dass er sich jahrelang genau diesem Phänomen gewidmet hat und nun über seine Erkenntnisse berichten möchte.

Eine Fortsetzung findet sich HIER.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

WAS DIE WELT IM INNERSTEN ZUSAMMENHÄLT …

Quelle: Johann Wolfgang von Goethe: Faust: Eine Tragödie – Kapitel 4

GOETHES FAUST

1. Goethes Text ist ein literarischer Klassiker wenn es um das Ringen des Menschen um seine letzte Erkenntnis geht. Goethes Ausblick in dieses Ringen ist düster, negativ, sehr pessimistisch. In wundersamen – wenngleich heute ‚altertümlich‘, merkwürdig ‚geschraubt‘ klingenden – Texten lässt er vor dem inneren Auge des Lesers das Bild eines Menschen entstehen, der so alles ausprobiert hat, was seine Zeit zu bieten hat, und dennoch letztlich unwissend und unglücklich erscheint. Sein Packt mit einer (projizierten) größeren – aber ‚bösen‘ – Macht führt letztlich nicht zum Ziel. Das Bild eines Scheiterns, das bei aller theatralischen Tragik keine Einladung zu ‚mehr Wissen‘ darstellt. Eher wirkt es abschreckend auf potentielle Nachahmer; es gibt keine wirklichen Antworten; und der Packt mit den bösen übermenschlichen Geistern führt nur mehr ins Verderben.

2. Unabhängig vom tatsächlichen Wissen wird hier wortreich ein ‚Wertesystem‘ propagiert, das letztlich der Möglichkeit von Wissen eine Absage erteilt und den Menschen als minderwertig gegenüber möglichen ‚größeren‘ Geistern erscheinen lässt. Wer diese ‚Sicht der Dinge‘ übernimmt, wird fortan eine Brille zur Welt, zum Leben vor sich hertragen, die ihm viel Dunkelheit und wenig Licht spenden wird. Die Dunkelheit ist wenig geeignet, Lebensmut, Hoffnung, Begeisterung zu nähren. Diese Art von Dunkelheit ist ‚lebensverneinend‘, nihilistisch, fatalistisch, dazu noch ‚abergläubisch‘, da ‚Geister‘ ins Spiel gebracht werden, die denkerischen Fantasien entspringen, die sich mit der übrigen poetischen Realität zu einem virtuellen Etwas vermischen, welches einem wahrhaft suchenden Geist nur Verwirrung bieten kann.

3. Dieser Text erscheint damit auf den ersten Blick als anti-rational, nicht aufklärerisch, wissensfeindlich.

Grundlegende Präferenzsysteme bei der Wahnehmung von Welt

Grundlegende Präferenzsysteme bei der Wahnehmung von Welt

PRÄFERENZSYSTEME

4. Dies führt zu dem übergreifenden Thema der ‚grundsätzlichen Präferenzsysteme‘ allen Wissens, Denkens und Handelns.

5. Im Normalfall unterstellen wir einem Menschen, der etwas tut oder etwas untersucht, dass er dazu ein ‚Motiv‘ hat, ‚Gründe‘, ‚Interessen‘, ein ‚Ziel‘, einen ‚Zweck‘ verfolgt, oder wie immer man dieses ‚geleitete Handeln‘ umschreiben möchte. Man kann diese dem Handeln voraus liegenden ‚Motivationen‘ generell als ‚Präferenzen‘ bezeichnen; dies sind bewusste – oder auch unbewusste – Auswahlkriterien, dass man ein X – aus welchen Gründen auch immer – eher machen will als ein Y.

6. Manche dieser Präferenzen sind sehr generell und damit weitreichend.

THEISTEN – ATHEISTEN

7. Wenn z.B. jemand einer der großen religiösen Strömungen folgt (z.B. Hinduismus, Buddhismus, Judentum, Christentum, Islam), dann übernimmt er im Rahmen der jeweiligen ‚Tradition‘ vielerlei Anschauungen von dem, was ‚man tut‘ und was ‚man nicht tut‘, was ‚gut‘ ist und was ‚böse‘. Wer z.B. an die (römisch-katholische) christliche Variante von ‚Gott‘ glaubt, der ‚glaubt‘, dass Jesus von Nazareth nicht nur ein Mensch war, sondern zugleich auch – wie immer man sich dies genau vorstellen kann – ‚Sohn Gottes‘. Egal, was solch ein ‚christlich Glaubender‘ ansonsten denken wird, er wird diesen Glaubenssatz als ‚Grundsatz‘ seines Denkens ansehen und ihn solange nicht in Frage stellen, solange er sich als glaubender (römisch-katholischer) Christ versteht. Für solch einen Menschen stellt dieser Glaubenssatz gleichsam ein ‚Axiom‘ in seinem Denken dar, eine ‚grundlegende erste Annahme‘, die über das rein wissensmäßige hinaus einen regulativ-normativen Charakter besitzt: unabhängig von dem Wissen gilt dieser Glaubenssatz als ‚gesetzt‘, als ‚Norm‘, als ‚Präferenz‘, wodurch es nicht möglich ist, andere Glaubenssätze an die gleiche Stelle zu setzen.

8. Analog haben alle anderen großen religiösen Strömungen verschiedene ‚Axiome‘, Präferenzen, die ihnen als ‚Kern‘ ihrer religiösen Überzeugung dienen. Sie dienen als ‚Unterscheidungskriterium‘ ob man ‚in der rechten Weise glaubt‘ oder nicht.

9. Aus Sicht einer Religion X wäre demnach ein ‚Ungläubiger‘, wer die Glaubenssätze des ‚Kerns‘ nicht teilt. Im Fall des römisch-katholischen Christentums wäre die Ablehnung der Überzeugung von der Gottessohnschaft Jesu solch ein Tatbestand, der – gemessen am Glaubenskanon – eine Ablehnung der christlichen Überzeugung darstellen würde, und zwar eines sehr zentralen Axioms (Dogmas). In der Geschichte wurden die ‚Ungläubigen‘ auch oft als ‚Atheisten‘ eingestuft, als Menschen, die nicht an Gott glauben.

10. Wichtig ist hier, dass man sich klar macht, dass die ‚Klassifikation‘ als ‚ungläubig‘ nicht absolut ist, sondern nur relativ zu den speziellen Glaubensüberzeugungen einer Religion X. Jemand der ‚hinduistisch-ungläubig‘ ist kann sehr wohl ‚jüdisch-gläubig‘ sein. Und jemand, der ‚ungläubig‘ im Sinne aller bekannten großen Religionen ist, kann dennoch gläubig sein in dem Sinne, dass er an eine ‚übergeordnete Macht‘ glaubt, die allem Leben und Sinn verleiht, ohne dass er die unterschiedlichen religiösen Anschauungen teilt. Die Begriffe ‚ungläubig‘ und ‚atheistisch‘ sind von daher entweder nur kontextuell bezogen auf eine bestimmte Religion X verstehbar oder sie verschwimmen in ihrer Bedeutung, da nicht klar ist, was man genau unter einem ‚Gott jenseits der bekannten Religionen‘ vorstellen soll. Grundsätzlich ist nicht auszuschließen, dass es so etwas wie einen ‚Gott jenseits der bekannten Religionen‘ gibt, da alle bekannten Religionen ja ’nur‘ aus einer Sammlung von Überzeugungen bestehen, die letztlich von Menschen formuliert wurden. Solchen ‚Überzeugungsbringern‘ einen besonderen sozialen Status zu verleihen (‚Prophet‘, ‚Sohn Gottes‘ …) ändert ja nichts an dem grundsätzlichen Sachverhalt, dass es ‚Menschen‘ waren.

11. Wenn also Menschen als ‚Atheisten‘ bezeichnet werden – oder sich selbst so bezeichnen! – dann drückt sich darin zwar eine grundsätzliche Einstellung zur ‚Sicht des Leben‘ aus, ihre genaue ‚Form‘, ihre genaue ‚Beschaffenheit‘ muss aber im Einzelfall geklärt werden.

HUMANISTEN – AHUMANISTEN

12. Jemand, der von sich sagt, er sei ‚Ungläubiger‘, ‚Atheist‘ im Sinne von Religion X kann sehr wohl z.B. ‚Humanist‘ sein. D.h. er sieht im Phänomen des Menschen eine Ausprägung von Leben, der ein besonderer Wert zukommt, und deshalb sei das Leben von Menschen in besonderer Weise zu schützen und zu unterstützen.

13. So kann es sehr wohl passieren (und es ist schon viel hunderttausend Mal passiert), dass ein ‚Gläubiger einer Religion X‘ einen anderen Menschen tötet nur weil er kein Gläubiger der Religion X ist. Ein Humanist würde dies niemals tun, weil für ihn alle Menschen einen hohen Wert besitzen.

14. Mittlerweile gibt es Strömungen (z.B. im ‚Transhumanismus‘), für die der Mensch keinen ‚besonderen‘ Wert verkörpert verglichen mit dem ganzen Phänomen des Lebens. Der Mensch ist für diese Anschauung eine Ausprägung des Lebens unter vielen anderen und es ist nur eine Frage der Zeit, bis die Menschen ‚aussterben‘, weil sie nicht ‚lebenstüchtig genug‘ sind. Für diese Strömung gibt es noch keinen offiziellen Begriff. Ich nenne solche Vertreter hier mal ‚Ahumanisten‘; für die spielt der Mensch keine besondere Rolle, stellt keinen besonderen Wert dar.

15. Sofern eine solche ahumanistische ‚Glaubensrichtung‘ zur Grundanschauung von Wissenschaftlern gehört, hat dies natürlich eine Auswirkung auf ihre forschende Tätigkeit. Wer dem Phänomen des Menschen als Teil des Phänomen des Lebens keine besondere Bedeutung beimisst, wird eine solche potentielle Besonderheit auch nicht ‚erkennen‘ können. Umgekehrt gilt natürlich auch, dass eine ‚humanistische‘ Weltsicht möglicherweise etwas ‚in die Welt hinein interpretiert‘, was gar nicht da ist (vergleiche dazu die Diskussion zum Für und Wider einer ‚anthropozentrischen‘ Weltsicht).

BIOLOGISMUS – ABIOLOGISMUS

16. Wer eine Sonderstellung des Menschen ablehnt kann deswegen trotzdem im Phänomen des (biologischen) Lebens als solchem einen besonderen Wert sehen. Ich nenne diese Sicht hier bewusst ‚Biologismus‘ im Gegensatz zu einem ‚Abiologismus‘, der dem Phänomen des Lebens auf dieser Erde (und letztlich im gesamten bekannten Universum) keinerlei besonderen Wert zumisst. Das biologische Leben ist irgendwie entstanden, letztlich ‚zufällig‘, halt so, und es ist nun mal so; irgendwann wird es wieder vergehen (z.B spätestens dann, wenn die Sonne sich aufgrund ihrer Fusionsprozesse soweit aufblähen wird, dass ein Leben auf der Erde gar nicht mehr möglich sein wird. Es kann aber auch schon vorher z.B. ein umherirrender Himmelskörper auf die Erde treffen und damit das Leben auslöschen).

NOMISMUS – ANOMISMUS

17. Eine mögliche Steigerung im Ausmaß der ‚Wertlosigkeit‘ könnte eine Haltung sein, die ich in Anlehnung an das griechische Wort für ‚Gesetz‘ Nomos ‚anomistisch‘ nennen würde. Eine anomistische Glaubenseinstellung kann im gesamten Universum keinerlei Gesetzmäßigkeit und damit verbunden keinerlei Werte erkennen. Während der ‚Nomist‘ im Universum eine Gesetzmäßigkeit am Werke sieht, die einen minimalen Sinn verkörpert und darin den letzten und höchsten Wert, dem sich alles andere unterordnet, kann der Anomist in allem nichts Sinnvolles, nichts Wertvolles erkennen. Das Ganze ist schlicht ’sinnlos‘.

GESELLSCHAFTSVERTRAG

18. Möglicherweise wirken diese Überlegungen für viele (für die meisten?) sehr abstrakt, weltfremd. Aber wenn man sieht, wie die verschiedenen Gesellschaftssysteme auf dieser Erde unterschiedliche Handlungs- und Lebensräume für ihre Bürger eröffnen, dann kann man fragen, warum dies so ist. Bei näherer Betrachtung wird man feststellen können, dass die verschiedenen Gesellschaftssysteme auf unterschiedlichen Präferenzsystemen beruhen. Das deutsche Grundgesetz sieht sich z.B. in der Tradition der UN-Menschenrechtskonvention und stellt in Art.1 die ‚Menschenwürde‘ ins Zentrum. Betrachtet man die verschiedenen Weltsichten (Theisten Version X, Humanisten, Biologisten sowie Nomisten), dann sind eigentlich nur die Humanisten ‚kompatibel‘ mit dem Grundgesetz, alle anderen nicht. Bedenkt man, dass klassisch theistische Positionen heute wieder sehr in Mode sind, und dies zeitgleich mit der Zunahme von Ahumanisten oder gar Anomisten, dann kann man sich fragen, wie lange das Grundgesetz noch Bestand haben wird. Die globale Wirtschaft tendiert dazu, nationale Regierungen (und damit auch die national geltenden Verfassungen) zu ’neutralisieren‘. Auch hier gibt es keine Unterstützung für das Grundgesetz. Allerdings spricht noch niemand vom Staatsterrorismus … ferner benutzt man schießwütige Minderheiten als Vorwand, um die sogenannte nationale Sicherheit zu gewährleisten, was bislang faktisch zu einem immer größeren Abbau von elementaren Menschenrechten geführt hat und damit faktisch das Grundgesetz von innen aushöhlt.

19. Welche ‚Freiheit‘ meinen wir, welche Art von ‚Menschenwürde‘, wenn wir das Grundgesetz vor uns hertragen? Wer soll die Fragen beantworten? Sind es die Richter, die eingesetzt werden? Sind es die Politiker, die wir wählen? Sind wir selbst es, die wir uns Klarheit verschaffen sollten, wie wir uns im Kosmos sehen? Wann wollen wir darüber nachdenken? Wie? Woher wollen wir das Ziel erkennen, wenn wir garnicht glauben, dass es ein gemeinsames Ziel gibt?

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER: Blog gesamt.

NACHÜBERLEGUNGEN ZUM VORTRAG „NOTION OF GOD“ von GIUSEPPE TANZELLA-NITTI, Prof. für Dogmatische Theologie der Theologischen Fakultät der Päpstlichen Universität vom Heiligen Kreuz (Rom); Vortrag gehaltem am 17.Aug.2013 an der Universität UNICAMP (Campinas, Brasilien)

Letzte Änderung: Einfügung zweier Musikstücke am 24.August 2013

Als Begleitmusik (Variante 1)

PERSÖNLICHER NACHHALL

1) Die folgenden Überlegungen beabsichtigen nicht, den Vortrag als solchen wieder zu geben (als Hintergrundlektüre für den Vortrag war angegeben worden God, Notion of), sondern Gedanken, die sich für mich aus dem Vortrag ergeben haben, auch in Verbindung mit einem der anschließenden Gesprächskreise (der zum Glück auf Englisch war, da sich mein Portugiesisch bislang nur auf wenige Worte beschränkt).
2) Aufgrund meiner Biographie vermeide ich es eher, mich mit kirchlichen Themen zu beschäftigen, da das offiziell-kirchliche Denken — ich muss es so sagen — in meiner Erfahrung aufklärendes Denken eher verhindert als befördert. Aber da ich nun mal hier war und mein Freund den Vortrag besuchen wollte, bin ich mal mitgegangen.

EINSCHRÄNKUNG AUF GRENZEN DER WISSENSCHAFTEN

3) Eine kleine Überraschung war, dass der Vortrag selbst sich nur auf Aussagen der Wissenschaft beschränkte, und hier besonders auf die großen Diskussionen in der Physik bis ca. Ende des 20.Jahrhunderts. Alle anderen Wissenschaften wie die Geologie und Biologie mit dem evolutionären Veränderungsgeschehen auf der Erde, die Molekularbiologie und Neurowissenschaften mit den neuen Erkenntnissen zu den Grundlagen des Menschseins samt den Auswirkungen auf die moderne Philosophie, dies alles fehlte in dem Vortrag. Erst recht fehlte die Position der Kirche, die Theologie, wie diese sich zu dem Ganzen verhält (die in dem oben genannten Artikel ‚Notion of God‘ sehr wohl vorkommt).

GRENZEN UND IHRE ÜBERWINDUNG

4) Der Vortrag artikulierte im Munde des Vortragenden besonders drei Leitthemen: (i) Die Wissenschaft leistet aus Sicht der Kirche sehr wohl einen Beitrag zur Erkenntnis der Welt, wie sie ist; (ii) aufgrund der verwendeten empirischen Methoden in Kombination mit der Mathematik hat die Wissenschaft aber eingebaute Erkenntnisgrenzen, die verhindern, dass man das ‚große Ganze‘ sehen kann; (iii) die Lücken, die die Wissenschaft lässt, verlangen dennoch nach einer ‚Füllung‘, die mittels philosophischem und theologischen Denken geschlossen werden können.
5) Akzeptiert man die Annahmen, die der Vortragenden in seinem Vortrag stillschweigend macht (Anmerkung: Er hat nirgends seine eigenen Voraussetzungen offengelegt (und dies geschieht auch nicht in dem angegebenen Hintergrundartikel)), dann ist dies ein recht plausibler, schlüssiger Gedankengang.
6) Er brachte dann eine Fülle von Originalzitaten aus Briefen und Büchern berühmter Forscher, die alle mit je eigenen Worten ihre persönliche Position bezüglich der Grenzen der wissenschaftlichen Erkenntnis zum Ausdruck brachten; diese mündeten in den einen Tenor, dass sie ‚hinter allem‘ letztlich eine alles übergreifende Ordnung vermuten oder gar direkt von ‚Gott‘ sprechen. Abgerundet wurde der Zitatenstrauss durch eine Episode während einer wissenschaftlichen Konferenz im Vatikan, bei der Stephen Hawking, bekennender Atheist und aus Sicht der Kirche illegal ein zweites Mal verheiratet eine Begegnung mit Papst Paul II. hatte und der Papst Hawking entgegen Hawkings Erwartungen nicht kritisierte (in der Vergangenheit hatte Hawking von einem Papst sogar eine hohe kirchliche Auszeichnung bekommen, die der Papst (Foto war da) ‚kniend‘ überreicht hatte).

EINE FALSCHE ‚HEILE WELT‘?

7) So nett dies alles klingt, es führt letztlich an der Sache vorbei und gaukelt eine ‚heile Welt‘ vor, die so nicht existiert.

KOMMENTAR: HISTORISCHE EINORDNUNG DER WISSENSCHAFT FRAGWÜRDIG

8) In meinem ersten Kommentar in der Vortragsrunde habe ich versucht deutlich zu machen, dass die Fokussierung auf die ‚Grenzen‘ wissenschaftlichen Erkennens — so lehrreich sie in gewissen Details sind — letztlich aber die Sicht auf den tatsächlichen Gang der historischen Entwicklung verstellt. Das, was aus einer vom Vortragenden bewusst gewählten Sicht als ‚Begrenzung‘ des Wissens durch die moderne Wissenschaften erscheint, erweist sich im realen historischen Kontext als gewaltige Befreiung! Vor dem systematischen Betrieb von empirischer Wissenschaft — wobei man Galileo Galilei (1564– 1642) als einen Bezugspunkt für den historischen Beginn setzen kann (natürlich gab es auch vor Galileo andere, die schon empirische Untersuchungen angestellt haben, die Mathematik zur Beschreibung benutzt haben, aber mit seiner Person, seinen Werken und seinem Schicksal verbindet sich die Geschichte der modernen Wissenschaften in besonderer Weise) — gab es ein Sammelsurium von Wissen, stark dominiert von einem philosophischen Denken, das trotz der Klarheit eines Aristoteles (384-322BC) stark in den Fallstricken der natürlichen Denkens verhaftet war und mittels einer sogenannten Meta-Physik alle die Fragen löste, die das übrige Wissen zu dieser Zeit noch nicht lösen konnte. Dies vermittelte zwar den Eindruck von ‚Klarheit‘ und ‚Sicherheit‘, da man ja alles meinte ‚erklären‘ zu können. Der große Nachteil dieses Wissens war, dass es nicht ‚falsch‘ werden konnte. Unter der Flagge der Meta-Physik konnten also auch größte Unsinnigkeit geäußert werden und man konnte sie nicht widerlegen. So schlimm dies in sich schon ist, so schlimm wird dies dann, wenn eine politische oder kirchliche Macht (oder beide zusammen, was geschehen ist), ihre eigenen Wahrheits- und Machtansprüche mit solch einer Denkform, die nicht falsch werden kann, verknüpft. Eine kirchliche Macht formal verknüpft mit einem ‚abgeleiteten‘ Aristoteles konnte jedes ’neue‘ und ‚andersartige‘ Denken im Ansatz unterbinden. Vor diesem Hintergrund war das Aufkommen der empirischen Wissenschaften eine wirkliche Befreiung, eine Revolution und das harte unerbittliche Vorgehen der Kirche gegen die ersten Wissenschaftler (bis hin zum Tod auf dem Scheiterhaufen) belegt, dass die Inhaber der Macht sehr wohl gespürt haben, dass ein empirisch wissenschaftliches Denken trotz seiner eingebauten Grenzen mächtig genug ist, die metaphysischen Kartengebäude der Vergangenheit zum Einsturz zu bringen. Und die weitere Entwicklung zeigt überdeutlich, dass es genau dieses empirische-wissenschaftliche Denken war, das im Laufe der letzten 400 Jahre schrittweise immer mehr unser gesamtes Denken über das Universum, die Erde, das Leben und den Menschen ‚umgegraben‘ hat; wir haben atemberaubende Einblicke erlangt in ein universelles Geschehen und in einen Mikrokosmos, der alles übersteigt, was frühere Zeiten nicht einmal ahnen konnten. Wenn ein Aristoteles heute leben könnte, er wäre sicher besinnungslos vor Glück angesichts all dieser aufregenden Erkenntnisse (und natürlich würde er seine Meta-Physik komplett neu schreiben; er würde es sicher tun, nicht so die vielen philologischen Philosophen, die immer nur neue Ausgaben editieren (so wertvoll dies für sich auch sein mag)).
9) Von all dem hat der Vortragende nichts gesagt! Er hat es tunlichst vermieden, hätte er doch unweigerlich die hochproblematische Rolle der realen Kirche in diesem historischen Prozess zur Sprache bringen müssen, noch mehr, er hätte sich unangenehmen Fragen danach stellen müssen, wie es denn die Kirche heute mit der wissenschaftlichen Erkenntnis hält. Dies war mein zweiter Punkt, den ich im Plenum angemerkt habe.

KOMMENTAR: AUSLASSUNG DER NEUEREN WISSENSCHAFTSENTWICKLUNG; SCHWEIGEN ÜBER WISSENSCHAFTLICHE ERKENNTNISSE IN ANWENDUNG AUF DIE BIBEL

10) In dem zitierten Dokument God, Notion of) werden einige kirchliche Dokumente aufgelistet, die auf die eine oder andere Weise — zumindest in Worten — eine grundlegende Wertschätzung von allgemeinen wissenschaftlichen und philosophischen Erkenntnissen zum Ausdruck bringen. Allerdings, wie oben schon angemerkt, werden viele neue wissenschaftliche Disziplinen, speziell jene im Umfeld der chemisch-biologischen Evolution, Neurowissenschaften, künstliche Intelligenzforschung, ausgeklammert. Und — dies fällt vielen Nicht-Theologen vermutlich gar nicht auf — die Anwendung wissenschaftlicher Methoden auf die sogenannten ‚Offenbarungsschriften‘ des alten und Neuen Testaments (kurz ‚Bibel‘ von Griechisch ‚biblos‘ = Buch) und die theologische Lehre insgesamt wird nahezu vollständig ausgeblendet. In allen offiziellen kirchlichen Texten spielen die gut 100 Jahre andauernden wissenschaftlichen Untersuchungen zur Überlieferungsgeschichte der biblischen Dokumente, ihre historischen Kontexte, ihre literarische Formen, ihre redaktionellen Be- und Überarbeitungen, ihre Übernahme vorgegebener Themen aus dem Umfeld, usw. keine ernsthafte Rolle (Anmerkung: Diese Feststellung bezieht sich wohlgemerkt auf die offiziellen kirchlichen Verlautbarungen. In den meisten theologischen Hochschulen — zumindest im deutschsprachigen Bereich –werden diese Methoden im Rahmen der Wissenschaften von der Bibel (Exegese) sehr wohl gelehrt und angewendet, allerdings, wie man sieht, im offiziell kirchlichen Denken ohne Konsequenzen). Das gleiche zieht sich fort in den theologischen Disziplinen, die zum dogmatischen Denken gehören. Hier wird Wissenschaft und moderne Philosophie — wenn überhaupt — nur sehr selektiv einbezogen. Diese gelebten Realitäten einer Kirche sprechen eine andere Sprache als die schönen Worte der offiziell kirchlichen Verlautbarungen. Würde man die hier in den letzten 100 Jahren gewonnenen Erkenntnisse ernst nehmen, dazu die übrigen neuen wissenschaftlichen Erkenntnisse, dann würde man viele gewohnte kirchliche Positionen ziemlich sicher korrigieren müssen. Während die einen dies als ‚Verlust‘ empfinden mögen, als ‚Bedrohung‘, werden andere daran einen möglichen Weg sehen, die ursprüngliche Sprengkraft eines christlichen Glaubens auch unter veränderten Erkenntnisbedingungen wieder besser denken und dann vielleicht auch besser leben zu können. Auf diesen ganzen Komplex von Wissenschaftsverachtung durch die reale Kirche heute ist der Vortragende mit keinem Wort eingegangen (in dem von ihm angegebenen Text lässt der abschließende Abschnitt über die Sicht der Theologie den Eindruck entstehen, als ob er selbst als Autor diese 100 Jahre umfangreichster wissenschaftlicher Arbeiten zur Bibel auch völlig ausklammert und stattdessen nur klassische metaphysische Muster wiederholt, deren Gültigkeit heute mehr als fragwürdig ist).

KOMMENTAR: SCHLIESSEN DER LÜCKEN MIT UNGEEIGNETEN MITTELN

11) Damit kommen wir zum dritten Themenkreis, dem Schließen der ‚Lücken‘, die das wissenschaftliche Denken angeblich lässt. Nu muss man an dieser Stelle selbstkritisch einräumen, dass die vielen empirisch-wissenschaftlichen Disziplinen bis heute keinen einheitlichen, überall anerkannten ‚meta-wissenchaftlichen‘ Überbau in Form einer allgemein verbreiteten ‚Wissenschaftstheorie‘ oder ‚Philosophy of Science‘ haben; sofern es solche Professuren gibt, sind diese oft vereinzelt, isoliert, eher der Philosophie zugeschlagen und abgetrennt von den Wissenschaften, die dieses Denken eigentlich brauchen. Die ohne Zweifel in jedes wissenschaftliche Erkennen einfließenden philosophischen Anteile sind oft wenig thematisiert oder gar nicht thematisiert. Andererseits ist es aber so, dass de reale Gang der empirischen Wissenschaften beständig begleitet war von allerlei methodologischen Diskussionen. Die große Mannigfaltigkeit der Disziplinen und der hohe Veränderungsgrad machen es allerdings schwierig, hier mit einer Reflexion Schritt zu halten (zumal diese von den Universitäten zum Leidwesen der Wissenschaften kaum honoriert oder unterstützt wird). Aus dieser, sich aus der Sache heraus ergebenden, Schwierigkeit dann abzuleiten, dass es so etwas wie eine Philosophie der realen Wissenschaften nicht geben kann und dass man stattdessen doch lieber Vorlieb nimmt mit den ‚Philosophen der Vergangenheit‘ (die können sich ja nicht mehr wehren), ist verständlich, wenngleich für den Wissenschaftsbetrieb unglücklich. Statt die Kluft zwischen ‚Denken in der Vergangenheit und Denken heute‘ zu schließen, wird diese Kluft dann eher zementiert. Aus dieser unbefriedigenden Situation heraus entstehen dann solche Lösungsvorschläge, die ‚Erkenntnislücken‘ der heutigen Wissenschaften mit den Konzepten der alten klassischen Metaphysik zu ‚überbrücken‘ (zu ‚transzendieren‘), da man ja letztlich (so die stillschweigende Annahme) aus dem vorausgesetzten allgemeinen ‚Logos‘ (ein Begriff aus der griechischen Philosophie, zusätzlich aufgeladen durch die biblischen Schriften, u.a. vom Johannesevangelium her, das im griechischen Text auch vom ‚logos‘ spricht) existentiell und logisch meint allgemeine Zusammenhänge herleiten zu können, um die Erkenntnislücken empirischer Wissenschaften zu schließen.
12) Wie gesagt, die empirischen Wissenschaften bieten leider kein ideales Bild, aber die Einbeziehung von klassischen philosophischen Positionen ohne weitere Begründung ist nicht sehr rational. Da werden mindestens 400 Jahre kritische methodische Reflexionen komplett unterschlagen. Hier nur ein paar Anmerkungen (eine korrekte Darstellung könnte ganze Bücher füllen):

EINWÄNDE GEGEN NAIVE INANSPRUCHNAHME VON ‚LOGOS‘ UND METAPHYSIK
– ERKENNTNISTHEORIE

13) (i) ein Einspruch kommt von der modernen Erkenntnistheorie (etwa ab Descartes, über Hume, Kant, Locke und vielen anderen bis hin zur evolutionären Erkenntnistheorie). Hier hat man erkannt, dass unsere subjektive Erlebnis- und Denkwelt ganz konkrete Voraussetzungen hat, die in der Struktur und der Funktion des Gehirns begründet sind, das wiederum zusammen mit dem umgebenden Körper eine Entwicklung von vielen Millionen Jahren hinter sich hat. Die Art und Weise unseres Denkens ist ein Produkt, und die heutigen Erlebnis- und Denkformen bilden keinen endgültigen Schlusspunkt, sondern repräsentieren eine Übergangsform, die in einigen Zehntausend Jahren (falls die Gentechnik nicht schon früher Änderungen hervorbringt) anders aussehen werden als heute. Beispielsweise sehen wir (durch die Kodierung des Gehirns) beständig ‚Objekte‘, aber in der physikalischen Welt gibt es keine Objekte, nur Eigenschaftsmengen, Energiefelder. Eine klassische Metaphysik konnte unter Voraussetzung des subjektiven Denkens mit Objekten in Form einer ‚Ontologie‘ operieren, eine moderne Philosophie muss erst einmal erklären, wie sie damit klar kommt, dass unser Gehirn subjektiv überall Objekte konstruiert, obwohl es physikalisch eigentlich keine Objekte gibt (und eine moderne Philosophie muss natürlich noch erheblich mehr erklären als dieses).

– SPRACHPHILOSOPHIE

14) (ii) Ein zweiter Einspruch kommt von der Sprachphilosophie. Der Vortragende erwähnte zwar auch den frühen Wittgenstein (1889-1951) als Kronzeugen für die Einsicht in die Grenzen dessen, was man mit Sprache sagen kann, um damit einmal mehr die Grenzen der empirisch-wissenschaftlichen Methode zu thematisieren, er versäumte es dann aber, auch den späten Wittgenstein zu erwähnen, der nachhaltig aufzeigen konnte, wie die Grenzen des Sagbaren alle Sprachspiele durchziehen, auch die Alltagssprache, auch — und nicht zuletzt! — die Sprache der Philosophen. Konnte man in früheren Zeiten als Philosoph einfach einen Satz hinschreiben mit der trügerischen Annahme, das könne wohl jeder verstehen, der verstehen will, kann nach Wittgenstein jeder, der es wissen will, wissen, dass dies eine wenig haltbare Position ist. Nicht nur jeder Satz, sondern sogar jedes einzelne Wort unterliegen dem Problem, dass ein Sprecher A das, was er mit bestimmten Lauten oder Zeichen verbunden wissen will (die Bedeutung), in keinem einzigen Fall als selbstverständlich gegeben bei einem anderen Sprecher B voraussetzen kann. Dies liegt daran, dass die Zuordnung von sprachlichem Ausdruck und das mit dem Ausdruck Gemeintem nicht zwangsweise mit dem Ausdruck selbst verknüpft ist, sondern in jedem einzelnen Fall mühsam gelernt werden muss (was jeder, der mühsam eine neue Sprache lernen will auf Schritt und Tritt erfährt). Mag dies bei Bezugnahme auf empirische Sachverhalte noch einigermaßen gehen, wird es bei nicht-empirischen Sachverhalten zu einem Rate- und Glücksspiel, das umso abenteuerlicher ist, je weniger Bezugspunkte zu etwas anderem, was schon bekannt ist, vorliegen. Wer schon einmal klassische philosophische Texte gelesen hat, der weiß, dass philosophische Texte in der Regel NICHT von empirischen Sachverhalten sprechen, sondern von Erlebnis- und Denkstrukturen, die als solche nicht wie Objekte aufzeigbar sind. Die Vielzahl unterschiedlicher Interpretationen ein und desselben klassischen philosophischen Textes ist von daher kein Zufall sondern resultiert aus dieser schwierigen Bedeutungslage. Klassische philosophische Texte sind ’schön‘, solange man sie nicht ernsthaft analysiert; tut man dies, verliert man sich unweigerlich in immer mehr Aporien.
15) [Anmerkung: Ich selbst war Teilnehmer des folgenden Experimentes an derjenigen deutschen Universität, die als einzige unter den ersten 50 Plätzen internationalen Universitätsrankings vorkommt. Teilnehmer waren zwei bekannte Philosophieprofessoren, zwei habilitierte Assistenten und mindestens drei Doktoranden der Philosophie. Es ging um die Frage, ob man die Einleitung in Kants Kritik der reinen Vernunft so interpretieren könne, dass alle ausnahmslos zustimmen müssten. Das Experiment lief zwei Semester lang. An Methoden war alles erlaubt, was bekannt war und dienlich erschien. Natürlich wurden u.a. auch alle bisher verfügbaren Kommentare berücksichtigt. Nach zwei Semestern gab es nicht einmal ansatzweise eine gemeinsame Sicht der Dinge. Beweisen tut dies im strengen Sinne nichts. Ich fand es damals sehr ernüchternd.]
16) Fasst man die Erkenntnisse der modernen Erkenntnistheorie und die der modernen Sprachphilosophie zusammen, dann erscheint es nicht nachvollziehbar und geradezu gewagt, anzunehmen, man könne die bislang erkannten Grenzen der modernen empirisch-wissenschaftlichen Erkenntnis durch einen unreflektierten Rekurs auf einen alles übergreifenden ‚Logos‘ einfach so überbrücken. Diese Art von ’naiver‘ (sprich ‚unreflektierter‘) Meta-Physik (und Ontologie) ist vorbei.
17) Bedenkt man die Bedeutungs-Probleme, die die Alltagssprache besitzt, ist die Situation in den empirisch-wissenschaftlichen Disziplinen ja geradezu noch ‚idyllisch‘. Bis zu einem gewissen Grad gibt es hier noch aufzeigbare und kontrollierbare ‚Bedeutung‘, wenn auch nicht vollständig.

VERZICHT AUF ‚LOGOS‘ ODER METAPHYSIK BEDEUTET NICHT GOTTLOSIGKEIT

18) Akzeptiert man die kritischen Argumente, dann folgt daraus NICHT — wie der Vortragende zu unterstellen scheint –, dass sich damit die Frage nach einem letzten ‚Sinn‘ oder gar die Frage nach etwas, das wir ‚Gott‘ nennen, grundsätzlich erledigt hat. Was sich allerdings weitgehend erledigt hat, ist, dass man tiefgreifende Fragen, die sich durch das Fortschreiten der Wissenschaften dem Wahrheitssuchenden öffnen weder durch Rekurs auf eine vor-kritische naive Metaphysik ‚überspielen‘ kann, noch dass man theologische Positionen als Antworten benutzen kann, die sowohl die wissenschaftliche kritische Analyse der religiösen Überlieferungsgeschichte wie auch der sich aus den Wissenschaften ergebenden neuen Erkenntnisse zur Struktur des Menschen, seiner Erkenntnisfähigkeit, seinen Erlebnisstrukturen usw. unberücksichtigt lassen. Das, was der Vortragende in dem zitierten Artikel tut, ist aber genau dies: er benutzt die alte naive Metaphysik, als ob es die letzten 400 Jahre nicht gab, und er benutzt eine theologische Interpretation, die genau jene Wissenschaft, die zuvor als so wichtig gepriesen wird, vollständig ausklammert. Das ist in meinen Augen nicht seriös, das ist nicht rational, das ist unwissenschaftlich, das hilft all den Menschen nicht, die ernsthaft nach Wahrheit suchen und nicht nur eine ‚psychologische Beruhigung‘ mit ‚einlullenden Bildern‘ (obwohl das Erzählen von Märchen sehr wohl der Wahrheitsfindung dienen kann; man muss sie nur richtig erzählen. Viele der Gleichnisse (einfache Form von Märchen?), die der Gestalt Jesus von Nazareth zugeschrieben werden, sind z.B. von dieser Natur: sie machen Punkte im Verhalten von Menschen deutlich, denen man eine gewisse Lebensweisheit nicht absprechen kann (eine Weisheit, die nicht jeder mögen muss)).

DIE GRENZEN DER SPRACHE IMPLIZIEREN NICHT EINE BEGRENZTHEIT DER WELT

19) Der Gesprächskreis im Anschluss an den Vortrag war sehr heterogen. Ich selbst habe aus den vielen Aussagen folgenden Gedanken mitgenommen: Die Grenzen der Sprache (Für die Mathematik aufgezeigt durch Gödel (und auch Turing)), für die allgemeine Sprache durch Wittgenstein) bedeuten nicht das Ende der Erkenntnis, sie machen uns nur deutlich, dass die grundsätzlichen Möglichkeiten des Erkennens für uns Menschen (bisher, unter Voraussetzung des aktuellen Erkenntnisapparates) nicht beliebig sind und dass wir, wenn wir ‚wahre‘ Erkenntnis wollen, jene, die uns aus den Wirrungen des alltäglichen naiven Weltbildes tatsächlich herausführen kann, dass wir dann diese Grenzen beherzigen und berücksichtigen sollten. Dass die scheinbare Begrenzung des wahren Erkennens auf die empirisch-wissenschaftliche Vorgehensweise uns gegenüber dem Vorgehen mit der nur scheinbar alles umfassenden naiven metaphysischen Denkweise in geradezu explosionsartiger Weise in Denkräume hinein katapultiert hat, von denen keiner der alten Philosophen auch nur träumen konnte, dies sollte uns Ermutigung und Anstoß sein, diesen Weg beherzt weiter zu gehen. Darüber hinaus zeigt sich aber ein fundamentaler Tatbestand: explizites, sprachlich vermitteltes Denken kann letztlich nur jener Wirklichkeit folgen, in der wir uns vorfinden und die allem Denken voraus ist. Was wir nicht aufzeigen können, ist letztlich nicht greifbar. Mehr noch, nur im Erfahren des ‚wirklich Anderen‘ — dem Empirisch-widerständigen — erfahren wir uns selbst als das ‚Andere zum anderen‘, als ‚Selbst‘ und das, ‚was‘ wir sind bzw. sein können, wissen wir erst dann, wenn wir selbst in unserem konkreten Dasein uns selbst sichtbar werden. Dies aber bedeutet, nur wenn wir ‚aus uns heraus‘ gehen, nur wenn wir ‚uns aufs Spiel setzen‘, nur wenn wir etwas ‚Probieren‘, nur dann kann sichtbar werden, ‚was‘ bzw. ‚wer‘ wir ‚tatsächlich sind‘. Nur weil das ‚biologische Leben‘ beständig weiter ‚aus sich heraus‘ gewachsen ist, immer mehr ‚Varianten probiert‘ und ‚Komplexitäten geschaffen‘ hat sind Formen des Lebens entstanden, von denen wir ein kleiner Teil sind. Dass das DNA-Molekül und der zugehörige Übersetzungsmechanismus ‚begrenzt‘ ist (verglichen mit den klassischen metaphysischen Konzepten geradezu lächerlich primitiv) war — und ist — kein Hindernis dafür, dass immer komplexere Lebensformen entstanden sind, so komplex, dass unser heutiges Denkvermögen sie nicht vollständig beschreiben kann. Die Grenzen der Sprache sind NICHT die Grenzen des Lebens und der Wahrheit. Die Wahrheit geht jeder Sprache — und erst recht jeder Metaphysik — um Lichtjahre voraus.

JEDER KANN SEIN ‚GOTTESEXPERIMENT‘ MACHEN

20) Sollte es so etwas wie einen ‚Gott‘ geben, so brauchen wir uns mit Sicherheit keine Sorgen darum machen, ob er ‚ist‘, was er ‚tut‘ oder ob wir ihn ‚richtig erkennen‘. Wenn es einen ‚Gott‘ als das letztlich Unbegreiflich alles Umfassende geben sollte, dann kann man davon ausgehen, dass er schon immer handelt (auch ohne uns zu fragen), er ist schon immer bei und in uns, ohne dass wir darum bitten müssen, und er lässt die ‚Wahrheit‘ auch in Lebensformen aufscheinen und sich entwickeln, die wir uns nicht ausgedacht haben und über die wir keine Verfügungsgewalt haben. Mit Sicherheit ist dieser Gott nicht an eine spezielle ethnische Gruppe gebunden, mit Sicherheit interessiert diesen Gott nicht, was wir essen und trinken, mit Sicherheit spielt Jungfrauengeburt und ähnliche Folklore keine Rolle. Für diesen Gott, so es ihn gibt, geht es um wirklich Grundlegendes. Aus meiner beschränkten Wahrnehmung sehe ich nicht, dass irgendeiner der heute lebenden Religionen (Judentum, Christentum, Islam…) wirklich ernsthaft an Gott interessiert ist. Dazu ist viel zu viel Hass unterwegs, zu viel Menschenverachtung, zu viele gruppenspezifische Egoismen, zu viele Herrschaftsstrukturen, die nur denen dienen, die herrschen, zu viel Folklore, zu viel Geldmacherei, zu wenig echtes Wissen.
21) Alles in allem — das habe ich in einem andren Blogeintrag auch schon mal ausgeführt — kann man den Eindruck gewinnen, dass es heute weniger die alten Religionen sind, die uns etwas Interessantes über den Sinn dieser Welt und über Gott zu sagen haben, als vielmehr die modernen Wissenschaften, die trotz ihrer Unvollkommenheiten ein Fenster der Erkenntnis aufgestoßen haben, dass alle Räume sehr weit aufmacht, so weit, dass wir noch gar nicht alles fassen können, was wir da sehen, zugleich werden die Grundrisse einer neuen Spiritualität sichtbar, die zu erkunden und auszuprobieren noch viel zu tun bleibt.
22) Das wäre mein letzter Punkt (zu dem es auch schon frühere Blogeinträge gibt). Wenn das alles stimmt, was uns die empirischen Wissenschaften sagen, dann ist die Annahme einer direkten Kommunikation ‚Gottes‘ — was immer man alles über ihn im Detail noch sagen kann — mit jedem Punkt des Universums — und damit natürlich auch mit jedem Lebewesen, auch mit uns Menschen — grundsätzlich möglich, und zwar jederzeit und überall. Niemand braucht eine vermittelnde Instanz dazu, da wir durch unsere Körper (die ja alle aus Zellen bestehen, diese aus Molekülen, diese aus Atomen, diese aus subatomaren Teilchen) jederzeit mit jedem Punkt im Universum kommunizieren können. Die grundlegenden Regeln der — zumindest christlichen — Mystik sind mit diesem empirischen Befund deckungsgleich. Es macht ja auch keinen Sinn, ‚Gott‘ als alles umfassenden und ermöglichenden Grund allen Seins zu postulieren und ihm dann zu verbieten, sich mit jedem Punkt des Universums verbinden zu können. Von der Quantenphysik her gibt es jedenfalls keine grundlegenden Einwände (was nicht bedeutet, dass wir in der Quantenphysik soweit wären, eine solche Kommunikation vollständig beschreiben zu können). Das gute daran ist, man muss dies nicht ‚glauben‘, sondern man kann es ‚tun‘, d.h. jeder kann sein privates ‚Gottesexperiment‘ machen und mit Gott in Kontakt treten. Man muss dafür kein Geld bezahlen, man braucht dazu keine ‚Genehmigung‘, man muss dazu keinen Universitätsabschluss gemacht haben, man muss dazu keiner bestimmten politischen Partei angehören, man muss dazu kein Millionär sein; das ‚einfache Menschsein‘ genügt. Die einzige Bedingung, man muss es einfach ‚tun‘, womit wir wieder bei dem zentralen Sachverhalt sind: Leben gibt es nur dort, wo es sich ‚ereignet‘, indem man seine Möglichkeiten ausübt…

Eine Übersicht über alle bishergen Blogeinträge nach Titeln gibt es HIER

Variante Nr.2

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Erste Notizen


(Unter twitter bei ‚cagentartist‘))

Letzte Änderung: 29.Juli 2013, 00:14h

THEMATISCHER RAHMEN BISHER

1) Dieser Blog widmet sich primär der Frage nach dem neuen Weltbild: wie können, bzw. dann auch, wie sollten wir unsere Welt und das Leben in ihr ‚deuten‘, wenn wir alles Wissen zusammen nehmen, was wir uns bislang erarbeitet haben. Es ist eine grundlegend philosophische Frage insofern im Blog die Philosophie als die allgemeinste und umfassendste Reflexionseinstellung identifiziert wurde, der man sämtliche andere Disziplinen zuordnen auch. Die ‚Kunst‘ gehört zur ‚Art und Weise‘, wie man philosophieren kann. Die ‚Theologie‘ ist eine spezialisierte Fragestellung innerhalb der Philosophie, und sie ist als ‚theologia naturalis‘ nicht beliebig sondern ‚unausweichlich‘ (was nicht impliziert, dass es so etwas wie einen ‚Schöpfergott‘ geben muss).
2) Im Laufe der vielen Einzelreflexionen hat sich bislang ein Bild vom Universum und der Welt herausgeschält, in dem der klassische Begriff von ‚Geist‘ und der von ‚Materie‘ immer mehr dahingehend aufgelöst wurden , dass man sie nicht mehr trennen kann. Zwar sind die Alltagsphänomene, die wir mit ‚Geist‘ verknüpfen, grundsätzlich verschieden von den Alltagsphänomenen, die wir mit ‚Materie‘ verknüpfen, aber die wissenschaftlichen Forschungen haben uns geholfen, die Makrophänomene des Alltags mehr und mehr von ihren Grundlagen her zu verstehen und sie in den Zusammenhang einer dynamischen Entwicklung zu setzen. In dieser Perspektive verschwimmen die Abgrenzungen und es wird deutlich, dass das im Alltag über Jahrtausende Getrennte einen inneren Zusammenhang aufweist, und letztlich sich in dem, was wir alltäglich ‚geistig‘ nennen, genau jene Eigenschaften zeigen, die die sogenannte ‚Materie‘ ausmachen. Mehr noch, wir konnten lernen, das Materie und ‚Energie‘ nur zwei verschiedene Zustandsformen ein und derselben Sache sind. Während man also – Einstein vereinfachend – sagen kann Energie ist gleich Materie, müsste man im Fall des Geistes sagen, das uns vom Geist Bekannte zeigt die ‚inneren‘ Eigenschaften der Energie-Materie an, was natürlich die Frage aufwirft, was man sich unter dem ‚Inneren‘ von Materie bzw. Energie vorzustellen hat. Aus der Mathematik – und dann aus der Physik, die die Mathematik als Sprache benutzt – kennen wir den Begriff der ‚Funktion‘ (andere Worte für das Gleiche: ‚Abbildung‘, ‚Operation‘, ‚Prozedur‘, ‚Programm‘, ‚Algorithmus‘,…).

BEGRIFF DER FUNKTION

3) Funktionen definiert man als spezielle Beziehungen zwischen ‚Mengen‘. Während Mengen für irgendwelche ‚Elemente‘ stehen, die man im empirischen Bereich mit irgendetwas Messbarem verknüpfen können muss, sind die Abbildungsbeziehungen, die durch eine Funktion beschrieben werden sollen, selbst keine Objekte, nicht direkt messbar! Eine Funktion ‚zeigt sich‘ nur indirekt ‚anhand ihrer Wirkungen‘. Wenn der berühmte Apfel Newtons zu Boden fällt, kann man ein Objekt beobachten, das seine Position im Raum relativ zum Beobachter verändert. Man bekommt sozusagen eine Folge (Serie, Sequenz, …) von Einzelbeobachtungen. In der Alltagssprache hat man diese Menge von Positionsveränderungen in der Richtung ‚von oben‘ (Sicht des Beobachters) nach ‚Unten‘ mit dem Verb ‚fallen‘ zusammengefasst. Der Apfel selbst mit seiner aktuellen Position fällt nicht, aber relativ zu einem Beobachter mit Gedächtnis, gibt es eine Folge von vielen Einzelpositionen, die es ermöglichen, den Begriff der ‚Veränderung‘ mit einer ‚Richtung‘ zu ‚konstruieren‘ und in diesem nur im Beobachter existierenden ‚Wissen‘ dann das Konzept des ‚Fallens‘ zu bilden und auf die Objekte der Alltagswelt anzuwenden. Ein Beobachter, der den Begriff ‚Fallen‘ gebildet hat, ’sieht‘ ab sofort ‚fallende Objekte‘ – obwohl natürlich kein einziges Objekt tatsächlich ‚fällt‘. Das Fallen ist eine Konstruktion und dann ‚Projektion‘ unserer geistigen Struktur im Umgang mit der Alltagswelt.
4) [Anmerkung: Möglicherweise werden an dieser Stelle viele sagen, dass dies doch ‚Unsinn‘ sei, da wir doch die Veränderung ’sehen‘. Und in der Tat ist es sehr schwer bis unmöglich, diese Analyse zu vollziehen, wenn man den Vorgang nicht rekonstruiert. Eine ideale Möglichkeit, solch eine ‚Analyse durch Synthese‘ vorzunehmen ist heute gegeben durch die Computersimulation von kognitiven Prozessen, allerdings nicht automatisch; man braucht natürlich schon eine passende Theorie. Bei dem Versuch, solche Prozesse nachzubauen sieht man sehr schnell, dass noch so viele Einzelbeobachtungen keinen komplexen Begriff ergeben; würde unser Gehirn die verschiedenen Positionen des Apfels nicht ’speichern‘ und zugleich wieder auch ‚erinnern‘ können, und diese einzelnen Erinnerungen zu einem komplexeren Konzept ‚zusammenbauen‘, und zwar so, dass aktuelle Beobachtungen als ‚zugehörig‘ zu dem neuen komplexen Begriff ‚entschieden werden können‘, wir könnten keine ‚Fallbewegung‘ erkennen. Wir würden immer nur einen Apfel sehen, der eben ‚da‘ ist. Die ‚Aufschlüsselung des ‚Daseins‘ in eine komplexe ‚Bewegung‘ setzt einen komplexen Erkenntnisapparat voraus, der dies ’sichtbar‘ macht. ]

WIRKLICHKEITSSTATUS EINER FUNKTION

5) Welchen Wirklichkeitsstatus sollen wir jetzt der Eigenschaft des Fallens zusprechen? Ist es eine reine ‚Einbildung‘, eine bloße ‚gedankliche Konstruktion des Gehirns‘, zwar gültig ‚im‘ Gehirn aber nicht ‚außerhalb‘ des Gehirns, also ‚gedacht = virtuell‘ und nicht ‚real‘ existierend (allerdings auch als Gedachtes ist es etwas real Existierendes, dessen ‚Begleitwirkungen‘ man als physikalische Prozesse im Gehirn partiell messen kann)? Allerdings, wenn sich im ‚Verhalten‘ eines Objektes der Außenwelt etwas – wenngleich durch durch ‚Zwischenschaltung eines Erkenntnisprozesses‘ – zeigt, so gilt, dass es sich nicht zeigen muss. Das, was wir ‚Empirisch‘ nennen, hat die Eigenschaft, dass es sich zeigen kann, auch wenn wir nicht wollen, und sich nicht zeigen kann, obwohl wir wollen. Das – für uns als Beobachter – Empirische ist das uns gegenüber ‚Widerständige‘, das sich unserer subjektiven Kontrolle entzieht. Die Zwischenschaltung von ‚Messprozessen‘ bzw. ‚Erkenntnisprozessen‘, die in sich ‚unveränderlich‘ sind, d.h. als eine Konstante in den verschiedenen Ereignissen betrachtet werden können, erlaubt damit das Wahrnehmen von ‚Empirischem‘, und dieses Empirische zeigt sich dann auch in ‚Veränderungsprozessen‘, die zwar nur ’sichtbar‘ werden durch komplexe Operationen, die aber unter Beibehaltung der ‚konstanten‘ Erkenntnisprozesse reproduzierbar sind und damit offensichtlich etwas vom ‚Anderen‘ enthüllen, eine implizite Eigenschaft, eine ‚emergente‘ Eigenschaft, die über das Einzelereignis hinausgeht.
6) Bekommt man auf diese Weise eine erste Ahnung davon, was eine ‚Funktion‘ ist und weiß man, dass nahezu alle wichtigen Eigenschaften der Natur mittels Funktionen beschrieben werden (in der Alltagssprache die ‚Verben‘, ‚Tätigkeitswörter‘), dann kann man vielleicht ahnen, was es heißt, dass das, was wir traditionellerweise ‚Geist‘ genannt haben, ausschließlich auf solche Eigenschaften zurückgeht, die wir mittels Funktionen beschreiben: Veränderungen, die stattfinden, die keinen ‚äußeren‘ Grund erkennen lassen, sondern eher den Eindruck erwecken, dass es ‚Faktoren/ Eigenschaften‘ im ‚Innern‘ der beteiligten Elemente gibt, die wir ‚postulieren‘, um zu ‚erklären‘, was wir sehen. Aristoteles nannte solch ein Denken ‚meta-physisch‘; die moderne Physik tut nichts anderes, nur sind ihre Bordmittel ein wenig ausgeweitet worden….

STRUKTURELLE KOMPLEXITÄT WÄCHST EXPONENTIELL

7) Zwar wissen wir mit all diesen Überlegungen immer noch nicht so richtig, was ‚Geist‘ denn nun ‚eigentlich‘ ist, aber wir konnten auch sehen, dass seit dem sogenannten ‚Big Bang‘ vor ca. 13.8 Milliarden Jahren die ’strukturelle Komplexität‘ (siehe die genauere Beschreibung in den vorausgehenden Blogeinträgen) des beobachtbaren Universums – entgegen allen bekannten physikalischen Gesetzen, insbesondere gegen die Thermodynamik – exponentiell zunimmt. Wir leben heute in einer Phase, wo die Beschleunigung der Komplexitätsbildung gegenüber den Zeiten vor uns ein Maximum erreicht hat (was nicht heißt, dass es nicht ’noch schneller‘ gehen könnte). Von den vielen Merkmalen der strukturellen Komplexitätsbildung hatte ich nur einige wenige herausgegriffen. Während der homo sapiens sapiens als solcher einen gewaltigen Sprung markiert, so ist es neben vielen seiner kognitiven Fähigkeiten insbesondere seine Fähigkeit zur Koordination mit den anderen Gehirnen, seine Fähigkeit zum Sprechen, zum Erstellen komplexer Werkzeuge, die Fähigkeit komplexe soziale Rollen und Strukturen einzurichten und zu befolgen, die überindividuelle Wissensspeicherung und der Wissensaustausch, die Erfindung des Computers und der Computernetzwerke, die das lokal-individuelle Denken ins scheinbar Unendliche ausgedehnt und beschleunigt haben.

ENDE DER NATIONALSTAATEN?

8) Fasst man alle diese Veränderungsphänomene zusammen, dann entsteht der Eindruck, als ob die Entwicklung des Lebens in Gestalt des homo sapiens sapiens auf einen neuen Entwicklungssprung hinausläuft, der sowohl eine massive Veränderung seines Körpers (durch Veränderung des Genoms) mit einschließt wie auch eine massive Veränderung in der Art des konkreten Lebens: so wie es ca. 2 Milliarden Jahre gedauert hat, bis aus den einzelnen Zellen organisierte Zellverbände gebildet haben, die hochdifferenzierte ‚Körper‘ als ‚Funktionseinheit‘ ausgebildet haben, so kann man den Eindruck gewinnen, dass wir uns in solch einer Übergangsphase von einzelnen Personen, kleinen Kommunen, Städten zu einem ‚globalen Organismus‘ befinden, in dem zwar jeder einzelne als einzelner noch vorkommt, wo aber die ‚Gesamtfunktion‘ immer größere Teile der Erdpopulation umfassen wird. Die Zeit der ‚Nationalstaaten‘ neigt sich dem Ende entgegen (ein paar tausend Jahre Übergangszeit wären in der Evolution weniger wie eine Sekunde; es spricht aber alles dafür, dass es erheblich schneller gehen wird)) .

FRAGEN DURCH DAS AKTUELL NEUE

9) Dies alles wirft ungeheuer viele Fragen auf, auf die wir bislang wohl kaum die passenden Antworten haben, woher auch. Antworten ergeben sich ja immer nur aus Fragen, und Fragen ergeben sich aus Begegnung mit etwas Neuem. Das neue geschieht ja erst gerade, jetzt.

KONTROLLE ODER KREATIVITÄT?

10) Wie schon in vorausgehenden Blogeinträgen angemerkt, gibt es unterschiedliche Stile, wie einzelne, Firmen und ganze Gesellschaften mit neuen Herausforderungen umgehen. Eine beliebte Form ist die ‚Kontrolle‘ anhand ‚bekannter‘ Parameter. Evolutionstheoretisch und aus Sicht des Lernens ist dies die schlechteste aller Strategien. Es ist der schnellste Weg zum Zusammenbruch des bisherigen Systems, speziell dann wenn es wenigstens ein konkurrierendes System gibt, das statt mit Kontrolle mit gesteigerter Kreativität, Kommunikation, und erneuerter Modellbildung reagieren kann. Die Wahrscheinlichkeit mit der zweiten Strategie neuere und bessere Antworten zu finden, ist um Dimensionen größer, wenngleich nicht ohne Risiko. Die Kontrollstrategie hat aber das größere Gesamtrisiko und führt fast unausweichlich zum Scheitern, während die Kreative Strategie partiell riskant ist, aber insgesamt – sofern es überhaupt eine Lösung gibt – diese finden wird. Die Kontrollstrategie ist emotional gekoppelt an ‚Angst‘, die Kreative Strategie an ‚Vertrauen‘. (In der Tradition der christlichen Spiritualität gibt es eine Grundregel, mittels der man erkennen kann, ob man sich in Übereinstimmung mit ‚Gott‘ befindet oder nicht: das Phänomen des ‚Trostes‘, der ‚Freude‘, der ‚Gelassenheit‘, des ‚Vertrauens‘, der ‚Angstfreiheit‘; d.h. wenn ich etwas tue, was in mir ‚real‘ (!) auf Dauer keinen ‚Trost‘ bewirkt, keine ‚Freude‘, keine ‚Gelassenheit‘, kein ‚Vertrauen‘, keine ‚Angstfreiheit‘, dann bewege ich mich nicht in die Richtung, die Gott von mir erwartet. Auch wenn man nicht an die Existenz eines ‚Gottes‘ glaubt, ist es interessant, dass die Kernelemente christlicher Spiritualität nahezu identisch sind mit den Kernelementen einer modernen mathematischen Lerntheorie, die für alle lernende System gilt, die auf der Erde überleben wollen).

DAS SNOWDON SYNDROM

11) Was hat dies alles mit dem ‚Snowdon Syndrom‘ zu tun? Warum ‚Syndrom‘? Ich verstehe unter ‚Syndrom‘ hier das Zusammenspiel vieler Faktoren, die einerseits einzeln zu wirken scheinen, andererseits aber vielfältig untereinander wechselwirken, sich gegenseitig beeinflussen. Und die Ereignisse ‚um Snowdon herum‘ erscheinen mir so als ein Netzwerk von Ereignissen, Äußerungen, Entscheidungen, die, bei näherer Betrachtung, sehr wohl Zusammenhänge erkennen lassen, die sich mit der Thematik des neuen Weltbildes berühren.
12) Innerhalb der letzten knapp vier Wochen (2.-27.Juli 2013) konnte ich 48 Artikel zum Snowdon Syndrom lesen, zwei Artikel aus dem Frühjahr 2012 habe ich nachgelesen. Dazu kam die eine oder andere Sendung im Radio und Fernsehen. Bedenkt man, wie wenig Zeit man täglich hat, überhaupt Zeitung zu lesen, ist das viel. Gemessen am Thema und seinen sachlichen Verästlungen ist es verschwindend gering. Die folgenden Gedanken sollten daher nur als Denkanstöße verstanden werden.

NETZÜBERWACHUNG REIN TECHNISCH

13) Auslöser für die vielen Artikeln und Beiträgen in den Medien waren die spektakuläre Reise von Snowdon nach Hongkong, seine Weitereise nach Moskau, sein dortiges bislang aufgezwungenes Verweilen, und natürlich seine Mitteilungen über Praktiken amerikanischer Geheimdienste, insbesondere der NSA, der National Security Agency. Viele behaupteten nach den ‚Enthüllungen‘, dass sich das ja eigentlich jeder hätte denken können, dass so etwas passiert, was zumindest für alle Informatikexperten gilt, und hier insbesondere bei jenen, die sich mit Netz- und Computersicherheit beschäftigen; die wissen seit vielen Jahren nicht nur, wie man in Netze und Computer eindringen und sie manipulieren kann, sondern auch, dass dies täglich in tausendfachen Formen geschieht. Akteure sind einmal kriminelle Organisation, die hier ein Eldorado zum Geldverdienen entdeckt haben, Teile davon sind Wirtschaftsspionage, anderes sind geheimdienstliche Aktivitäten für allerlei Zwecke, u.a. einfach zur ‚Absicherung der Macht‘ bestimmter Gruppen. Für diese Experten haben die Meldungen von Snowdon in der Tat nichts wirklich Neues gebracht, höchstens ein paar mehr Details zum Ausmaß der Aktivitäten der amerikanischen Regierung.
14) Ich würde hier auch gerne unterscheiden zwischen den ‚technischen‘ Aspekten von Datenausspähungen, Datenmanipulationen einerseits und den ’sozialen‘, ‚politischen‘, ‚kulturellen‘ und ‚ethischen‘ Aspekten andererseits. Rein technisch haben die Mitteilungen von Snowdon nichts Neues erbracht. Auch die verschiedenen Techniken, die sowohl Geheimdienste wie auch Netzfirmen wie Google, Facebook und Amazon (um die bekanntesten zu nennen) anwenden, aus einer großen Datenmenge (‚big data‘) solche ‚Informationen‘ zu extrahieren, die Hinweise auf spezielle Eigenschaften oder Trends bestimmter Personen und Personengruppen liefern, sind generell bekannt, werden an vielen Universitäten und speziellen Firmen dieser Welt gelehrt und entwickelt (dazu natürlich in vielen speziellen Labors vieler Staaten im Wahn, ein spezielles Labor könnte geheim etwas entwickeln, was die vielen Universitäten nicht könnten. Das ist eine grobe Täuschung. Würde man die Gelder der NSA in alle Universitäten umleiten, wäre der kreativ-produktive Effekt auf die Gesellschaft und Wirtschaft ein Vielfaches von dem, was jetzt stattfindet. Vielleicht sollten die anderen Staaten froh sein, dass die USA auf diese Weise einen Großteil ihres Kapital quasi ‚vernichten‘, da sonst die amerikanische Wirtschaft im Bereich Computer, Software und Netzwerke noch übermächtiger wäre…)).

NETZWERKE: JENSEITS DER TECHNIK

15) Was viele erregt und aufregt, liegt daher weniger im Bereich der verwendeten Technologien, sondern in den sozialen, kulturellen, ethischen und dann auch politischen Dimensionen, die sich mit dem immer mehr publik werden neuen Computer-Netz-Technologien und ihrer Nutzung verknüpfen.
16) Für die meisten wirkten sich die neuen Technologien zunächst darin aus, dass sie im Bereich alltäglicher Kommunikation und alltäglichen Informationsaustausches ganz praktisch neue Möglichkeiten erhielten. Sehr schnell änderten sich flächendeckend alltägliche Verhaltensweisen. Dazu kam, dass nahezu alle Dienste zu Beginn ‚kostenlos‘ waren. Das Geschäftsmodell war einfach: deine Informationen als frei verwertbarer Inhalt für mich, dafür für dich deine Nutzung aller Dienste kostenfrei. Dass die Netzfirmen und die Geheimdienste damit ein Dateneldorado vorfanden, in dem sie sich mit Zustimmung der ‚Lieferanten‘ ungehemmt bewegen konnten, war vielen zunächst nicht so richtig bewusst und erschien vernachlässigbar angesichts der konkreten praktischen Nutzen auf privater Ebene. Mit der massenhaften Nutzung kam natürlich auch der wachsende Missbrauch und in den beginnenden Klagen, Streitigkeiten und Prozessen begann zaghaft ein wachsendes Bewusstsein von der Realität (und den Gefahren) der freien Nutzung zu wachsen. Dass sich die öffentliche Diskussion speziell an den Mitteilungen Snowdons dann mehr als bisher entzündete (Wer konnte bis heute überhaupt Snowdons Miteilungen überprüfen?), erscheint mir eher als ein Zufall. Das Thema war am Aufkochen und auch ohne Snowdon gab es erste alternative Geschäftsmodelle, die sich den wachsenden Unmut der großen Menge zunutze machen wollen, und bezahlte Dienste anbieten, dafür aber ohne Ausspähung und Datenmissbrauch. Der Fall Snowdon hat den ganzen Prozess jetzt womöglich nur beschleunigt. Der Wertzuwachs in der Nutzung von Netzen für viele private und zivile Zwecke ist zu groß, als dass man darauf in der Zukunft wieder verzichten möchte. Wie immer gibt es hier eine ’natürliche‘ evolutionäre Entwicklung, bei der negative Auswüchse recht schnell von der Gesellschaft weder abgestoßen werden. Die Geschäftsmodelle von Google, Facebook und Amazon (und auch andere ‚closed shops‘ wie z.B. Apple, Samsung oder Microsoft) sind schon heute eigentlich tot, was nicht heißt, dass sie es noch ein paar Jahre schaffen.

US-REGIERUNGSFORM – PROBLEMATISCHE ENTWICKLUNG?

17) Ein ernsteres Problem hat nach meinem aktuellen Verständnis allerdings das amerikanische politische System. Die USA hatten immer einen überaus mächtigen Komplex aus Geheimdiensten, Militär und Wirtschaft, deren Interessen nicht unbedingt ‚zum Wohle‘ der übrigen amerikanischen Bevölkerung waren. Dazu kommt das Ethos des ‚weißen Ritters‘, der zumindest im Umfeld des zweiten Weltkrieges die USA lange Zeit weithin als ein großes Vorbild für viele hat erstrahlen lassen. Doch seitdem häufen sich Ereignisse, die eher die schmutzigen Seiten dieses Systems nach außen kehren. In dem Zusammenhang erscheinen die Ereignisse um den 11.September 2001 als sehr verhängnisvoll. Der Kampf gegen den ‚Terrorismus‘ wurde zu einem neuen Leitthema, das so stark war, dass diesem fast alles andere untergeordnet wurde. Nach der Verabschiedung des USA-Patriot Act: Uniting (and) Strengthening America (by) Providing Appropriate Tools Required (to) Intercept (and) Obstruct Terrorism Act 2001 war die Gründung des US Staatsministerium für Sicherheit der Heimat 2002 war nach Ansicht vieler Experten die größte Veränderung in der Architektur der Exekutive seit dem Nationalen Sicherheitsvertrag von 1947. Der Schutz vor Bedrohung, speziell ‚Terrorismus‘ gewann ein Ausmaß, das fast alles andere zu ersticken drohte. Ergänzend dazu gab es seit 1978 die Verordnung zur Überwachung fremder geheimdienstlicher Aktivitäten (Foreign Intelligence Surveillance Act (FISA)), die mehrfach erweitert wurde und dabei die Grenzziehung zum Schutz der Privatsphäre selbst für Amerikaner immer schwächer werden lies (für Nichtamerikaner gibt es sowieso überhaupt keine Rechte; vor dem Gesetz ist ein Nicht-Amerikaner unterschiedslos ein rechtloses Subjekt, mit dem die Exekutive machen kann, was sie will). Das wachsende Unbehagen über die übermächtigen Zugriffsmöglichkeiten der Exekutive in die Privatsphäre des einzelnen, sollte durch Einrichtung des Staatlichen Gerichtshofes zur Überwachung der Überwachung (‚United States Foreign Intelligence Surveillance Court (FIS)) 1978 gewährleistet werden.
18) Wie der tatsächliche Verlauf seitdem mit seinen vielen Änderungen, Diskussionen und Gerichtsprozessen anzeigt, verläuft die Gesamtentwicklung eher in Richtung Ausweitung der Aktivitäten der Geheimdienste weit über die vorgesehenen Grenzwerte hinaus.
19) Es gibt zwar grundsätzlich den vierten Zusatz zur US-Verfassung, zum Schutz der Privatsphäre, auch ein Gesetz für den freien Zugang zu Informationen staatlicher Stellen (‚Freedom of Information Act (FOIA)‘), sowie zeitgleich mit dem Staatsministerium für die Sicherheit der Heimat ein Amt zur Sicherung des Schutzes der Privatsphäre (Privacy Office of the U.S. Department of Homeland Security), aber was nützt ein Verfassungsartikel, wenn die täglicher Praxis ihn beständig unterläuft und die Überwachungsgremien eher den Eindruck erwecken, dass sie alles durchwinken und sich einer öffentlichen politischen Diskussion entziehen. Wichtige kritische Gruppierungen sind hier vielleicht das Zentrum für Zivilrecht (Center for Civil Rights (CCR)) oder auch die der Vereinigung für die Grenzen der Elektronik (Electronic Frontier Foundation (EFF)) , aber der entscheidende Punkt ist, wieweit die staatlichen Stellen und die Regierung dem Bürger noch reale Freiräume einräumen, zuerst mal für die US-Bürger selbst, dann aber auch für Nicht-US-Bürger. Irgendwo gibt es die Idee der ‚Menschenrechte‘ und es wäre nicht schlecht, wenn ein Land wie USA die Menschenrecht innerhalb ihres Rechtssystems einen solchen Platz einräumen würden, der der reinen Willkür von US-Behörden gegenüber Nicht-Amerikaner einen klaren rechtlichen Rahmen geben würden. Ansonsten müßten alle Nichtamerikaner die USA aufgrund ihrer rechtlich fixierten Menschenverachtung als direkten Feind betrachten. Dies kann nicht das Ziel sein.

WHISTLEBLOWER

20) Neben dem vierten Verfassungsartikel, dem Amt zum Schutz der Privatsphäre sowie dem Spezialgericht zur Kontrolle der Geheimdiensttätigkeiten (FISA) gibt es in den USA seit 1983 auch ein eigenes Gesetz, das Beschluss zur Ermöglichung von Hinweisen zum Missbrauch (False Claims Act), das eigentlich solche Menschen schützen soll, die Missbrauch entdecken und aufdecken, es geht um die ‚Whistleblower‘, etwa ‚Zuflüsterer‘. Bekanntgewordene Fälle zeigen aber, dass dieses Gesetz von staatlichen Stellen und der Regierung auf vielfache Weise abgeschwächt und unterdrückt werden kann. Die besten Gesetze nützen nichts, wenn die staatlichen Stellen sie nicht hinreichend anwenden (Eines von mehreren beeindruckenden Negativbeispielen für ein Versagen der staatlichen Stellen ist der Bericht (und das Buch) von Peter van Buren , hier eine Liste von einschlägigen Artikeln Artikel zu Whistleblower und Staatsverhalten). Im Falle von Snowdon sieht Snowdon sich als Whistleblower, da er aus seiner Sicht in den überbordenden Aktivitäten der NSA einen ‚Missbrauch‘ sieht, den man anzeigen muss. Die NSA selbst und die Regierung sieht aber in ihrem Verhalten ein ‚gesetzeskonformes‘ Vorgehen, das den Interessen der USA dient. Aus Sicht der staatlichen Stellen ist Snowdon von daher ein ‚Verräter‘; aus Sicht derjenigen Menschen, die im Verhalten der NSA und der US-Regierung eine Grenzüberschreitung sehen, die elementare Rechtsauffassungen verletzt, ist Snowdon ein ‚Whistleblower‘. Der Ausgang ist offen.

DIE USA HABEN EINE GLOBALE BEDEUTUNG

21) Man könnte versucht sein, diese Problemlage in den USA als ‚Sache der Amerikaner‘ abzutun. Das ist meines Erachtens zu einfach. Die USA sind nicht irgendein Land. Die USA sind eines der wichtigsten Länder dieser Erde und sie werden dies auch noch einige Zeit bleiben. Dort vollzieht sich momentan ein Prozess der Umwälzung der Gesellschaft durch die neuen Computer-Netz-basierten Technologien, bei gleichzeitiger Regredierung des politischen Systems in Richtung ‚Überwachungsstaat‘. Die Beteiligten selbst sehen dies noch nicht so, da sie alles mit der Brille der ‚Bedrohung‘ und des ‚Terrorismus‘ sehen (ich unterstelle mal, dass die entscheidenden Leute tatsächlich ‚Patrioten‘ sind und keine finstren Machtmenschen, die den Staat für sich unter Kontrolle bringen wollen (in den Filmen ist es so)). Und es gibt genügend kompetente Kritikern in den USA selbst, die vielfach aufzeigen, wie ineffizient, zu teuer, und letztlich weitgehend wirkungslos diese ganzen Maßnahmen sind (für jemanden, der einen terroristischen Akt gegen die USA ausüben wollte, sind alle die Maßnahmen geradezu lächerlich; meist werden ahnungslose Bürger aufgegriffen, die aus Versehen die falschen Worte benutzt haben). Doch kann keiner voraussagen, wie dieser Transformationsprozeß ausgehen wird. Wir sollten alle daran interessiert sein, dass er nicht in einem hochtechnologischen Überwachungsstaat endet.

ABSPANN

22) Es gibt einerseits die Visionen für das große Ganze, die weder leicht noch selbstverständlich sind, und dann gibt es die unendlich vielen kleinen Schritte im Alltag, durch die sich das große Ganze realisiert oder nicht.
23) Wenn der Erfolg nur davon abhängen würde, dass wir als einzelne alles perfekt und richtig machen, würde wir beständig grandios scheitern. Der Prozeß folgt aber vielen Logiken gleichzeitig. Die meisten verstehen wir nicht.
24) Vielleicht werden Historiker später einmal sagen, dass es gut war, dass die amerikanische Regierung diese Überwachungsmonströsitäten versucht hat, um alle aufzuwecken und zur ‚Vernunft‘ zu bringen, dass es so nicht geht. Vielleicht…
25) Ob der deutsche Innenminister dabei irgendeine Rolle spielen wird? Die Bundeskanzlerin? Welch Rolle die Presse in Deutschland überhaupt spielt? Vielleicht sollten Deutsche und Amerikaner in der Öffentlichkeit mehr miteinander reden. Anders wird sich kaum etwas ändern.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

EMERGING MIND PROJECT – SICHTBARMACHUNG DES GEISTES PROJEKT – Erste Lebenszeichen

VORGESCHICHTE

1) In der Vergangenheit wurde in diesem Blog schon öfters über das Emerging Mind Project gesprochen; zu Beginn noch unter einem anderen Namen. Wobei letztlich – wer diesen Blog intensiv liest, wird es merken bzw. gemerkt haben – der ganze Blog im Grunde auf dieses Projekt hingeführt hat – was sich natürlich erst im Nachhinein so feststellen lässt.
2) Einige Blogeinträge, die einen besonders deutlichen Bezug haben zum Emerging Mind Project sind etwa die folgenden: Erste öffentliche Idee zu einem Projekt; damals noch ‚Reengineering Goethes Faust‘ genannt.; Treffen im Cafe Siesmayer; die Projekt-Idee gewinnt weiter an Fahrt. Überlegungen zu ein paar theoretischen Begriffen; Im Anschluss an die Brasilienvorträge erste Konkretisierungen des ‚Geist‘-Begriffs im Kontext der Evolution; das zog weitere Kreise; die ausführliche Reflexion zu Kauffmans Buch brachte an vielen Punkten wertvolle Anregungen; Beobachtungen im Kontext des Komplexitätsbegriffs und seiner Verdichtung in der globalen Evolution; weitere Präzisierung zur Beschleunigung der Komplexitätsentwicklung.

ROLLE DES BLOGS FÜR EMP

3) Im Blog geht es auf der persönlichen Seite um die Klärung der eigenen Fragen und Gedanken; auf der offiziellen Ebene geht es um eine philosophische Auseinandersetzung mit dem heute verfügbaren Wissen um unsere gemeinsame Welt. Dabei kam es bislang schon zu erstaunlichen Umakzentuierungen. Aus meiner Sicht besonders stimulierend ist die Klärung des Verhältnisses von Philosophie und Wissenschaft (Wissenschaft als Untergebiet der Philosophie), Philosophie und Kunst (Kunst ist der kreative Teil des Denkens), Philosophie und Theologie (Theologie als jener Teil der Philosophie, der sich speziell mit der Frage der möglichen ‚Botschaft in allem‘ beschäftigt und den sich daraus ergebenden spezifischen Anforderungen an den einzelnen (Spiritualität)). Eine Konsequenz vom letzten Punkt scheint zu sein, dass alle bisherigen Religionen damit in einer einzigen Religion münden, in einem Universum, mit einem Sinn für alle (was nicht heißt, dass alle den einen Sinn in gleicher Weise ‚interpretieren‘).

EMERGING MIND PROJECT – INM 11.Juni 2013

4) Am 11.Juni 2013 gab es im Institut für neue Medien (INM)(Frankfurt) eine erste öffentliche Veranstaltung im Rahmen der unplugged heads Reihe, die sich offiziell dem Emerging Mind Projekt widmete. Michael Klein (Mitgründer und Direktor des INMs), Gerd Doeben-Henisch (Professur für ‚Dynamisches Wissen‘ an der FH Frankfurt, Mitgründer und Vorstand des INM), Manfred Faßler (Professor am Institut für Kulturanthropologie und Europäische Ethnologie an der Johann Wolfgang Goethe-Universität in Frankfurt am Main. Seine Forschungs- und Lehrbereiche sind die Medienevolution und medienintegrierte Wissenskulturen. )
5) Dieses Treffen diente dem Zweck, das öffentliche Gespräch zum Projekt zu eröffnen und war – auch entsprechend der offenen Gesprächskultur der unplugged heads Reihe – sehr locker. Im Folgenden folgt keine Beschreibung dieses Gesprächs sondern ein paar Gedanken, die der Autor des Blogs im Anschluss an dieser Veranstaltung hatte.

EXPERIMENTELLE MUSIK

6) Wer rechtzeitig da war, konnte zur Einstimmung ein Stück experimentelle Musik hören mit dem Titel They Appear and Disappear von cagentArtist. Gegen Ende wurde auch noch das Stück Another Pattern-Cloud Exercise, extended aufgeführt, ebenfalls von cagentArtist. Bei dieser Musik handelt es sich nicht um Musik für den Konzertsaal, sondern um ‚Labormusik‘, die nach der ‚Radically Unplugged‘ Methode im Labor erzeugt wird zur Erforschung des Klangraums unter spezifischen Randbedingungen.

IDEENGESCHICHTLICHER WENDEPUNKT?

7) An diesem Abend kamen in sehr intensiven 3 Stunden sehr viele interessante Aspekte zur Sprache. Mir selbst wurde im Laufe des Abends bewusst, dass man die Geschichte der Ideen möglicherweise neu strukturieren könnte bzw. müsste. Der große ‚Umschaltpunkt‘ wäre dann die Zeit des Auftretens der neuen experimentellen und formalen Wissenschaften (ungefähr ab der Renaissance) bis zum Emerging Mind project. Denn bis zum Aufkommen und zur gesellschaftlich relevanten Etablierung der neueren Wissenschaften konnotierten die Menschen das ‚Lebendige‘ im Gegensatz um ‚Nichtlebendigen‘ mit etwas Besonderem, schrieben im besondere Eigenschaften zu, und einer der dabei benutzten Begriffe (mit jeweils anderen Worten in anderen Sprachen) war der Begriff ‚Geist‘, der insbesondere dem Lebewesen Mensch inne zu wohnen schien.

‚GEIST‘ FRÜHER

8) Der Begriff ‚Geist‘ ist aber – wie sich jeder in den Zeugnissen der Geschichte überzeugen kann – alles andere als klar und gebunden an eine Vielzahl von ‚Manifestationen‘, die alle Bereiche überdecken: normales Leben, Rhetorik, Handwerk, Kunst, Philosophie usw. Man kann diesen Begriff wie so eine Art ‚imaginären Fluchtpunkt aller Projektionen‘ ansehen, die man auf den Menschen aufgrund seines erfahrbaren Verhaltens richten konnte. Mit neuzeitlichen Begriffen könnte man mit Kant vielleicht von einer allgemeinen ‚transzendentalen Bedingung‘ sprechen, die man annehmen muss, um die verschiedenen Erscheinungsweisen des Menschen zu verstehen. Noch moderner könnte man von einer ‚Funktion‘ sprechen, die dem ‚Körper‘ des Menschen eben jene charakteristischen Eigenschaften verleiht, die wir als spezifisch ‚Menschlich‘ ansehen gelernt haben.
9) Nebenbei: Es gibt ein starkes Wechselverhältnis zwischen diesen Auffassungen von ‚Geist‘ und der Annahme einer menschlichen ‚Seele‘. Ich habe aber nicht den Eindruck, dass dieses Verhältnis bislang abschließend geklärt wurde. Dies mag darin begründet sein, dass beide Begriffe ‚geist‘ und ‚Seele‘ in sich weitgehend unbestimmt sind; sie leben von ‚Randbedingungen‘, von ‚Konnotationen‘, von ‚Manifestationen‘, von begrifflich-logischen Schlüssen, die wenig Anhaltspunkte in der Realität haben.

AUSTREIBUNG DES BEGRIFFES ‚GEIST‘

10) Für den Gesamtzusammenhang wichtig ist es, dass diese über viele tausend Jahre anhaltende vage Sprechweise von ‚Geist‘ mit der Entwicklung der experimentellen und formalen Wissenschaften immer mehr an Anhaltspunkten verloren hat. Die Erforschung der realen Natur und des Weltalls konnte zunächst nirgends ‚Geist‘ entdecken und trugen damit zum Bilde eines ‚toten, leeren Weltalls‘ bei. Parallel führten die Untersuchungen der Entstehung der Lebensformen und des Körpers dazu, dass man zwar immer mehr Details der Körper und ihres ‚Formenwandels‘ entdeckte, aber auch nirgends ‚Geist‘ dingfest machen konnte. Im Körper fand man über all nur Zellen; auch isolierte Zellen im Gehirn (ca. 100*10^6), und jede Zelle zerfällt in Moleküle, diese in Atome, diese in Quanten, usw. Nirgends traf man auf ‚Geist‘. Damit geriet das Selbstbild des Menschen, seine Besonderheiten immer mehr in einen Erklärungsnotstand. Theologische Interpretationen verlieren weitgehend ihre rationale Basis; sie hängen quasi ‚in der Luft‘.
11) Betrachtet man die verschiedenen einzelwissenschaftlichen Erkenntnisse, dann sind sie alle transparent, nachvollziehbar, wirken sie rational. Allerdings leiden nahezu alle diese Erkenntnisse an der einzelwissenschaftlichen Zersplitterung; keine Disziplin hat mehr die Zusammenhänge im Blick.

RÜCKKEHR DES ‚GEISTES‘ – MENS REDIVIVUS?

12) Die massivste Erschütterung dieses trostlosen Blicks auf unendlich viele Einzelteile, die sich im Dunst der Quanten und primären Anfangsenergie zu verlieren scheinen, kommt nun aber ausgerechnet nicht von den Geisteswissenschaften (dazu sind ihre Elfenbeintürme doch ein bisschen zu hermetisch geworden), auch nicht von der Anatomie und den Neurowissenschaften, sondern von jener Disziplin, die die Entzauberung des alten Weltbildes als erste begonnen hatte: von der Physik.
13) Es sind letztlich Physiker, die auf unterschiedliche Weise die Ungereimtheiten der Strukturbildungen seit dem Energieausbruch des Big Bang bemerken und beim Namen nennen. Schon der Übergang von reiner Energie zu Quanten gibt fundamentale Fragen auf. Während das Gesetz von der Entropie bei Vorliegen von Energieungleichheiten (sprich Strukturen) einen großen Teil von Vorgängen des gerichteten Ausgleichs beschreiben kann, versagt das Entropiegesetz vollständig für den umgekehrten Vorgang, für die Erklärung einer anhaltenden Strukturbildung, und nicht nur einer ‚Strukturbildung einfach so‘, sondern einer Strukturbildung mit einer sich exponentiell beschleunigten Komplexität.
14) Angestoßen von diesen drängenden Fragen der Physiker kann man beginnen, die verschiedenen Evolutionen (chemische, biologische, soziale, usw.) als ‚Hervorbringungen von immer komplexeren Strukturen‘ zu sehen, für die bestimmte ‚Strukturbildungsfunktionen‘ zu unterstellen sind, die weitab vom ‚Zufall‘ operieren.
15) Erste Indizien deuten darauf hin, dass die exponentielle Beschleunigung daraus resultiert, dass die zum Zeitpunkt t entstandenen Strukturen S mitursächlich dafür sind, dass die nächsten noch komplexeren Strukturen S‘ zum Zeitpunkt t+n gebildet werden können. Wir haben also eine Art Zusammenhang S'(t+n) = f(S(t)) mit ‚f‘ als der unbekannten Funktionalität, die dies ermöglicht.
16) Wenn man jetzt weiß, dass Funktionen (man denke nur an einfache Additionen oder Subtraktionen) nicht an den Elementen ablesbar sind (also man hat ‚4‘, ‚2‘, und nach der Addition hat man ‚6‘), sondern als Funktionszusammenhang in einem ‚anderen Medium‘ vorausgesetzt werden müssen, dann ist klar, dass die Analyse der Bestandteile von Körpern oder Zellen oder Atomen usw. niemals das zutage fördern, was eigentlich interessant ist, nämlich deren Funktionalität. Wenn nun also das mit ‚Geist‘ Gemeinte mit solchen zu unterstellenden (da sich in Ereignissen manifestierende) Funktionen konnotieren würde, dann wäre klar, dass die vielen einzelwissenschaftlichen Detailanalysen so gut wie keine interessanten Zusammenhänge enthüllen können; die ‚Unsichtbarkeit‘ von ‚Geist‘ wäre dann nicht der Tatsache geschuldet, dass es so etwas wie ‚Geist‘ nicht gäbe, sondern der Tatsache, dass wir nur ‚falsch hinschauen‘.
17) Hier bleibt einiges zu tun.

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

Eine Welt ohne Seele und freien Willen? – Teil 2

Reflexionen im Anschluss an Herms: Horizont der Hirnforschung….

Letzte Änderung: 2.März 2013, 10:10h (Anmerkung am Ende des Artikels)

PHILOSOPHIE

Herms nutzt in seinem Denken über das Ganze die phänomenologische Tradition, hier insbesondere Husserl und Heidegger (mündlich bestätigt). Die phänomenologische Tradition in der Philosophie wurde in diesem Blog schon mehrfach diskutiert (siehe Themenüberblick). Ihre Stärke liegt eindeutig darin, dass sie den Ankerpunkt unseres subjektiven Denkens ernst nimmt und die Wirklichkeit, wie sie sich dort darbietet, so voraussetzungslos wie möglich wahrzunehmen und zu beschreiben versucht. Die Schwierigkeiten, die sich hier bieten, wurden schon oft von sehr vielen reflektiert und angemerkt.

Positiv kann man festhalten, dass der gesamte Erkenntnishorizont eines Individuums dort aufscheint und sich in seiner Gesamtheit besprechen lässt. Man kann auch weitere Reflexionsschichten eröffnen und als solche benennen und explizieren. Einzelwissenschaftliche Erkenntnisse erscheinen hier als Teilmengen in der Gesamtmenge der Phänomene und die diversen begrifflichen Explikationen sind Teilmodelle im Gesamtrahmen möglicher Modelle. Aus phänomenologischer Sicht ist das Individuum daher grundsätzlich ‚mehr‘ als eine einzelwissenschaftliche Beschreibung eines Weltausschnitts.

Andererseits gibt es grundsätzliche Grenzen der phänomenologischen Weltsicht. Die eine resultiert aus den vorgegebenen Grenzen des einzelnen Bewusstseinsraumes, die andere aus der Existenz vieler Bewusstseinsräume, die sich über die Interaktion von Wahrnehmungsräumen erschließen kann.

Erscheint ‚der Andere‘ innerhalb der Phänomene zunächst nur als ‚Oberfläche‘ mit sich veränderten Phänomenmengen als ‚Manifestationen‘ eines möglichen ‚Zusammenhangs‘, so erzwingt das soziale Zusammenleben schon sehr früh eine ‚auf-den-anderen-bezogene‘ Modellbildung im (betrachtenden individuellen) Phänomenraum. Dies bedeutet, dass der aktive Phänomenraum die auftretenden Phänomensequenzen ‚versuchsweise/ hypothetisch‘ mit Teilen seines ‚Selbsmodells‘ in Verbindung bringen muss, um diese Phänomensequenzen des potentiell Anderen zu ‚interpretieren‘.

Sei PH der jeweils aktive Phänomenraum, seien PH_a jene Sequenzen von Phänomenen aus PH, die man einem ‚bestimmten Anderen‘ zuordnen möchte, also PH_a subset pow(PH^n), und sei M ein expliziertes Modell innerhalb von PH über Teilbereiche von PH, also M:PH —> PH (!!! Ein logisches Paradoxon, da M auch in PH liegt !!!), dann wäre eine ‚Interpretation‘ eine Abbildung zwischen PH_a und solch einem M, also I: Ph_a —> M. Dies zeigt u.a., dass jemand einen potentiell anderen nur insoweit verstehen kann, als er über ein explizites Selbstmodell verfügt. Normalerweise führt solch eine Interpretation I(PH_a) auch dazu, dass der aktive Phänomenraum PH ‚unterstellt/ annimmt‘, dass das explizierte Selbstmodell M ‚im anderen‘ auch ‚gegeben‘ ist und im anderen ‚funktioniert‘. Dies ist eine Art ‚Ontologisierung‘ des Selbstmodells im anderen, eine Form von ‚realistischer Transzendenz‘. Man könnte also sagen, dass das Selbstmodell in seiner Projektion auf einen anderen — nennen wir es M_a — ein Modell des Anderen darstellt.

Interaktionen im ‚vorsprachlichen‘ Bereich können unterschiedliche ‚Bestätigungen‘ für die Interpretation I(Ph_a) liefern, sie sind allerdings nur sehr grob. Durch Einbeziehung der Sprache lässt sich die Bestätigung — und eventuell die Interpretation I(PH_a) selbst — verfeinern.

Dazu muss man sich kurz vergegenwärtigen, wie Sprache funktioniert. In der Tradition von Peirce, Saussure und Morris kann man einen Zeichenbegriff extrahieren, in dem ‚Zeichenmaterial‘ ZM subset PH mit anderen Phänomenen PH_x subset PH ‚assoziiert‘ wird, und zwar als ‚aktivierbare Beziehung‘ BED(ZM,PH_x). Phänomenologisch ist diese Beziehung nicht ‚explizit‘, d.h. sie ist kein Phänomen wie ein sensorisches Phänomen, das ‚auftritt‘, sondern es ist ein ‚Wirkzusammenhang‘, der sich ‚indirekt andeutet‘. Also wenn das Phänomen ‚Haus‘ als Zeichenmaterial auftritt, dann werden diverse andere assoziierte Phämene PH_haus auftreten, da sie in einer aktivierbaren Beziehung zu ‚Haus‘ stehen. Diese phänomenologische Wenn-Dann-Beziehung kann man erklären durch die Annahme einer Hilfsstruktur ‚Gedächtnis‘ (MEM), deren Inhalte als solche ‚unbewusst‘ sind, die aber über den aktiven Phänomenraum PH ‚zugänglich‘ sind, so eine Art ‚phänomenologische Schnittstelle‘. Diese ‚indirekten‘ Phänomene berühren einen Sachverhalt, den wir weiter unten noch diskutieren werden.

Unter Voraussetzung von Bedeutungsbeziehungen kann man sich immer komplexere Hierarchien solcher Beziehungen denken, die es erlauben, ‚Ketten von Zeichen‘ zu bilden, bis hin zu dem, was wir Äußerungen, Sätze nennen. Diese Bedeutungsbeziehungen beruhen auf den Phänomenen eines aktiven Phänomenraumes PH. In Kombination mit dem Modell des Anderen M_a können jetzt Zeichenbeziehungen dazu benutzt werden, differenzierte Strukturen mit Hilfe des Selbstmodells M zu kodieren, die dann über das Konstrukt ‚Modell des Anderen M_a‘ auch ‚im anderen unterstellt werden können‘.

Diese Annahme macht allerdings nur Sinn, wenn man zugleich annimmt — ganz im Sinne der Bildung eines Fremdmodells M_a überhaupt — dass die Gesetze des aktiven Phänomenraumes PH auch im anderen M_a gelten (Symmetrie, Homomorphie,…)!!! Je mehr man diese Annahmen akzeptiert, um so mehr wird klar, dass man eine mögliche explizite Beschreibung M eines aktiven Phänomenraumes PH ergänzen sollte um eine ‚Metaebene‘ MM, die nicht mehr nur über einen einzelnen Phänomenraum PH spricht, sondern über die Menge aller möglichen Phänomenräume UPH. Diese universelle Menge UPH ist rein fiktiv, rein gedacht, und doch kann sie durch Interaktionen einer mehr oder weniger großen Bestätigung zugeführt werden. MM wäre eine genuin philosophische Theorie!

Kommen wir zurück zum Phänomen der indirekten Bedeutungsbeziehung und dem Konzept des ‚unbewussten‘.

Grundsätzlich ist die Annahme des Unbewussten M_ubw nicht sehr anders als die Annahme eines ‚Anderen‘ M_a. Es gibt bestimmte Phänomene, die sich in der Zeit verteilen, die aber einen ‚übergreifenden Zusammenhang‘ offenbaren (der letztlich schon immer ein Konstrukt wie ein Gedächtnis voraussetzt), der als ‚Zusammenhang‘ zu thematisieren ist. Analog wie man im Falle des Anderen, wo man ‚hinter der Oberfläche‘ eine Struktur M_a annehmen muss, kann man auch ‚hinter dem aktiven Phänomenraum‘ PH Strukturen annehmen, den ‚Körper‘, das ‚Gedächtnis‘, usw. Dies führt dazu, dass man das Selbstmodell M entsprechend ‚erweitern‘ muss. Je differenzierter das Selbstmodell M wird, umso differenzierter wird auch das Modell des anderen M_a und das universelle Modell MM.

WELTHEORIE?

Mit den obigen Überlegungen eröffnet sich die Perspektive einer möglichen phänomenologischen Theorie der Welt, in der alle Teiltheorien integriert werden können. Meines Wissens hat dies bis heute noch niemand versucht. Es wäre interessant, zu schauen, inwieweit eine solche Theorie helfen könnte, aktuelle Bruchstellen durch die Vielzahl der nicht integrierten Teiltheorien ein wenig zu überbrücken.

THEOLOGIE

Der Theologe Prof. Herms hatte ziemlich zu Beginn seines Vortrags vermerkt, dass sein Verständnis von Theologie nicht so sei, wie die meisten sich Theologie vorstellen. Diese zunächst kryptische Bemerkung gewann im Laufe seines Vortrags mehr und mehr Gestalt. Durch seine philosophische Grundausrichtung benötigt er zunächst keine offenbarungsspezifische Inhalte, da er nach den allgemeinen Bedingungen von Leben (und Erkennen) fragt. Aus diesen allgemeinen Bedingungen kann er dann allgemeine Prinzipien ableiten, innerhalb deren wir uns als Lebende orientieren sollten. Übernimmt man diese Position dann kann man sogar die Grundsatzfrage stellen, ob man überhaupt offenbarungsspezifische Inhalte noch benötigt, da ja diese keinesfalls im Gegensatz zu den allgemeinen Prinzipien stehen dürften. Vielmehr müsste es so sein, dass die potentiellen ‚Offenbarungsinhalte‘ nichts anderes sind als Instanzen dieses allgemeinen Möglichkeitsraumes.

Innerhalb des Vortrags wurde diese Fragen nicht Thema, da Herms sich auf die allgemeine Perspektive und daraus resultierenden allgemeinen Prinzipien beschränkte.

Allerdings könnte man — oder müsste man sogar? — natürlich die Frage aufwerfen, inwieweit nicht die tatsächlichen Realisierungen — wie auch im Falle der Entwicklung des Universums, der Milchstraße, der Erde, des Lebens auf der Erde … — dann doch in ihrer Konkretheit eine wichtige Aussage darstellen können. Konfrontiert mit den konkreten Ergebnissen der biologischen Evolution hat man auch dieses Dilemma: (i) relativiert man die gewordene Konkretheit durch den Verweis auf den allgemeinen Möglichkeitsraum oder (ii) nimmt man die Konkretheit ‚beim Wort‘ und sieht in ihre eine Form von ‚Mitteilung‘. Im letzteren Fall wäre die ‚Konkretheit an sich‘ dann eine Form von ‚Offenbarung‘ einer unterstellten ‚Superwirklichkeit‘, die ‚ihr Inneres‘ über die ungeheuren Werdeprozesse in der jeweiligen Konkretheit zeigt und — im Falle des menschlichen Bewusstseins — sich quasi ’selbst anschaut‘! Menschliches Bewusstsein also als eine Art ‚Minimodell‘ von universaler ‚Selbstanschauung‘ als Hinweis auf die ‚wahre Natur‘ des im Werden des Universums sich andeutenden Superwirklichkeit.

Diese Perspektive des allgemeinen Werdens als ‚möglicher Offenbarung‘ würde damit in jeder Art von Konkretisierung eine Aussage zutreffen. Vor diesem Hintergrund sind alle historisch überlieferten spezielle Ereignisse, die von Menschen als ‚offenbarungsrelevant‘ qualifiziert wurden, interessantes empirisches Material, das entweder das allgemeines Offenbarungskonzept zusätzlich konkretisieren kann oder aber nicht kompatibel ist. Im Falle der Nichtübereinstimmung (Inkompatibilität) würde dies dann eher gegen (!) die spezifischen Stoffe sprechen, da die Fülle der allgemein zusätzlichen Daten um ein Vielfaches größer ist als fragil überlieferte historische Ereignisse.

Versteht man Theologie als jene Denkhaltung und Theoriebildung, die von der allgemeinen Offenbarung ausgeht, um innerhalb dieses Rahmens mögliche konkrete Inhalte zu studieren, dann würde ich mein Erkenntnisinteresse auch als ‚theologisch‘ qualifizieren. Ich habe auch den Eindruck, dass Prof. Herms sich so versteht. Eine endgültige Bestätigung müsste ein Gespräch liefern. Ferner unterscheidet sich solch eine allgemein orientierte Theologie nicht grundsätzlich von einer philosophischen Gesamttheorie der Welt, höchstens in einer unterschiedlichen Akzentsetzung: die philosophische Gesamttheorie der Welt MM orientiert sich primär an den allgemeinen Erkenntnisstrukturen und der möglichen Integration des Einzelwissens, während eine Allgemeine Theologie sich speziell für den Aspekt einer möglichen Mitteilung durch das Gesamtgeschehen interessiert.

Diese spezifische Interessenrichtung der Theologie hat eine spezielle Pragmatik im Gefolge: während die Einzelwissenschaften (und die Philosophie) letztlich objektivierbare Messverfahren benutzen, um ihre Daten zu sichern, kann die Theologie darüber hinaus (!) die spezifischen bewusstseinsgebundenen Erfahrungsmöglichkeiten benutzen, die unter dem Begriff ‚Gotteserfahrung‘ gehandelt werden.

Der Kern des Konzepts ‚Gotteserfahrung‘ besteht — zumindest in der jüdisch-christlichen — Tradition darin, dass die Arbeitshypothese einer ‚Superwirklichkeit‘ genannt ‚Gott‘ (deus, theos, Jahwe,….) davon ausgeht, dass diese Superwirklichkeit sich nicht nur über die allgemeinen Offenbarungsstrukturen ‚mitteilen‘ kann, sondern auch zugleich ganz individuell in jedem Bewusstseinsraum (angesichts der neuesten Erkenntnisse zur Struktur der Materie grundsätzlich zumindest kein physikalisches Problem). Diese ‚Mitteilungen‘ haben — nimmt man die bekannten Zeugnisse ernst — (i) die Form von spezifischen ‚Gefühlsregungen‘, ‚Stimmungen‘, bisweilen begleitet von weiteren ‚Vorstellungsinhalten‘. Dabei kommt es auch hier nicht auf das ‚punktuelle‘ Erleben alleine an, sondern auf die ‚Abfolge verschiedener solcher Erlebnisse‘ und deren ‚Deutung‘ in Form eines Modells. Ferner (ii) implizieren sie normalerweise bestimmte Handlungen, um diese Art von innerem Erleben nicht zum ‚Versiegen‘ zu bringen, und (iii) können diese inneren Erlebnisse nicht durch das eigene Wollen verursacht werden, sondern gehen ‚von einem anderen‘ aus (dies unterscheidet Gotteserfahrung wesentlich von jeglicher Form von ‚Meditation‘, die sich auf selbstinszenierte Zustände bezieht). Im einzelnen sind diese Tatbestände eingebettet in das ‚allgemeine Rauschen des Alltags‘ und bedürfen — wie alle anderen Lernprozesse auch — meist eine Praxis von vielen, vielen Jahren, um sie wirklich zu ‚beherrschen‘, und, wie auch beim allgemeinen Lernen, geht es meist nicht ohne ‚Lehrer‘ im Sinne von ‚geistlichen Führern‘ ab. Durch die unvermeidbar radikal subjektivistischen Anteile bleibt all dies immer schwierig. Denken alleine hilft nicht. Praxis ohne Denken kann durch unreflektierte Interpretationen zu vielen falschen Schlüssen kommen.

Es ist schwer zu sagen, ob und wieweit die bekannten kirchlichen Gemeinschaften in der Lage sind, solche ‚geistliche (= spirituelle, mystische) Erfahrungen‘ angemessen zu vermitteln. Wir befinden uns hier in einer rechten Grauzone. Die offiziellen theologischen Positionen und die bekannten kirchlichen Praktiken sprechen eher gegen die Annahme.

Anmerkung 2.3.13: Eine Fortsetzung dieser Überlegungen findet sich im nachfolgenden Beitrag Gott ohne Kirche …. Der zentrale Punkt ist eigentlich ein neues Verständnis von Theologie und Offenbarung, durch die ‚Kirchen‘ nicht eigentlich verschwinden, aber stark relativiert werden auf ihren wesentlichen Punkt: ihre einzige Existenzberechtigung liegt in ihrem möglichen Dienst, anderen Menschen zu helfen, ihre Gottesbeziehung zu finden und zu leben. Wenn sie darin versagen, verlieren sie ihre Existenzberechtigung.

Einen Überblick über alle Beiträge des Blogs nach Themen findet sich HIER

Blitzbesprechung zu „Eine Welt ohne Seele und freien Willen?“

Letzte Änderung: Mo, 11.Febr.2013, 13:35h

Referenten:

  • Prof. Dr. Wolf Singer, Max-Planck-Institut für Hirnforschung, Frankfurt am Main
  • Prof. Dr. Thomas Metzinger, Johannes Gutenberg-Universität Mainz
  • Prof. Dr. Andreas Meyer-Lindenberg, Zentralinstitut für Seelische Gesundheit, Mannheim
  • Prof. Dr. Hauke Heekeren, Freie Universität Berlin
  • Prof. Dr. Eilert Herms, Eberhard Karls Universität, Tübingen (Mit Link auf zusätzliche Reflexionen)
  • Prof. Dr. Hannah Monyer, Universitätsklinikum Heidelberg

Einleitung

Unter dem Titel „Eine Welt ohne Seele und freien Willen?“ veranstaltete die EKHN Stiftung ein öffentliches Symposium zu den „Methoden, Erkenntnissen und Konsequenzen der modernen Hirnforschung“. Laut Veranstalter gab es 1400 Anmeldungen von Erwachsenen und dazu 600 Schüler. Bei letzteren wurden 220 für einen 2-Tages-Workshop ausgewählt. Das war eine überwältigende Resonanz. Dies führte dazu, dass das Audimax auf dem Campus Westend am Samstag vollständig gefüllt war. Am Do 7.2., hatte ich mich spontan beschlossen, mich auch anzumelden.

Um es vorweg zu nehmen: alle Beiträge waren unterhaltsam, wurden  engagiert vorgetragen, waren von viel Wissen und Erfahrung geprägt, und es wurden meistens relativ neue und exzellente Ergebnisse vorgestellt. Allerdings wurden — außer im Beitrag des emeritierten Theologen Prof. Herms — keine wirklich fachübergreifenden Beziehungen hergestellt, geschweige denn ein Dialog von den Naturwissenschaften hin zu den Geisteswissenschaften versucht. Personenbezogene Begriffe wie ‚Seele‘, ‚Bewusstsein‘, ‚Ich‘ usw. blieben von daher weitgehend ‚ortlos‘ und es war dem Publikum überlassen, sich aus all den verschiedenen Beiträgen ein mögliches Gesamtbild zu erarbeiten.

Singer: Im Netz der Neuronen

Der Vortrag „Im Netz der Neuronen. Wie bringt das Gehirn unser Selbst hervor?“ von Prof. Singer, dem ehemaligen Direktor des Max-Planck-Institut für Hirnforschung (Frankfurt am Main) eröffnete mit einigen — eher bekannten — Grundthesen zum Gehirn die Vortragsreihe. Das Gehirn als Produkt der Evolution, Sitz aller bekannten geistigen (mentalen) Fähigkeiten, ein verteiltes, paralleles System mit stark nicht-linearem Charakter (mathematisch beschreibbar als Small-World-Network), strukturiert in Arealen, wo sich die Frage stellt, wie diese ungeheure Mengen an Neuronen sich für bestimmte Ereignisse ’synchronisieren‘ können. Einerseits deutete Singer an, dass hier viele Fragen offen sind, andererseits wagte er weitreichende Aussagen zur Natur von Entscheidungsprozessen, zum ‚freien Willen‘, zum ‚Selbst‘, wo eigentlich nicht ganz klar war, wie er die verschiedenen Aussagen wirklich begründen könnte. Das wirkte schon eher spekulativ. Auf konkrete Fragen von Schülern verwies er u.a. auf ‚hochdimensionale Zustandsräume‘ durch die wir ‚hindurchspazieren‘ müssten…So kann man eine Frage auch nicht beantworten. Sehr bedauerlih war, dass er zwar Spekulationen über Konzepte wie ‚Selbst‘, ‚Ich‘ ‚freien Willen‘ usw. aus Sicht der Neurowissenschaften anstellte, ohne sich aber der Mühe zu unterziehen, vorher zu klären, welche begrifflich-methodischen Voraussetzungen erfüllt sein müssten, um diese Konzepte sinnvoll benutzen zu können (einschlägig hier vor allem die Philosophie und die Psychologie).

Mit Blick auf theologische Deutungszusammenhänge entledigte Singer sich der Frage durch die Feststellung, dass die Aussagen der Theologie ‚orthogonal‘ zu den Aussagen der empirischen Wissenschaften ständen. Dieser Standpunkt ist sehr weit verbreitet, ist aber keinesfalls zwingend. Weder muss eine Theologie sich so verstehen noch eine sich selbst reflektierende wissenschaftliche Disziplin. Eine Immunisierungsstrategie, wie sie von Singer propagiert wird, ist negativ für alle Beteiligten (siehe dazu die alternativen Überlegungen des Theologen Herms weiter unten).

Metzinger: Leben im Ego-Tunnel

Der nachfolgende zweite Vortrag „Leben im Ego-Tunnel. Ist das Ich-Gefühl nur eine Illusion?“ von Prof. Metzinger (Johannes Gutenberg-Universität Mainz) war in meinen Augen eher enttäuschend. Er trat als Philosoph auf, zeigte aber sehr wenig philosophische Reflexionsansätze. In einem kühnen Handstreich schaffte er zunächst das ‚Phänomenale Selbst‘ ab (inklusive das ‚Ich‘), um es unmittelbar danach in einem ebenso kühnen Handstreich durch das ‚Phänomenale Selbstmodell‘ zu ersetzen. Argumente ersparte er sich. Das ‚phänomenale Selbstmodell‘ qualifizierte er als ‚wahre repräsentationale Beschreibung‘ ohne zu thematisieren, wie man denn wohl wissenschaftlich über subjektive Gegebenheiten überhaupt reden kann, ganz zu schweigen davon, in welchem Sinne man hier von ‚Repräsentation‘ sprechen kann. Seine Ausführungen und seine Verwendung verschiedener Begriffe blieben auch im weiteren Verlauf leider durchgehend sehr unklar. Zu Beginn hatte er Texte von Ludwig Wittgenstein eingeblendet (ohne sie zu erläutern). Hätte er Wittgenstein nur beherzigt, er hätte sich seine Ausführungen weitgehend sparen können. Er referierte recht unterhaltsam verschiedene Experimente (z.B. eine Gummihand, die man über Reflexe mit einer normalen Hand konditionieren kann; einem Roboter mit unterstelltem Selbstmodell; das psychologische Konstrukt des inneren Körpermodells, das zu überraschenden Selbstwahrnehmungen führen kann; die Steuerung eines Roboters auf der Basis eines Gehirnscans). Der philosophische Gehalt dieser Beispiele vermittelte sich mir nicht. Die Sachen selbst wirkten nicht neu: Konditionierungen haben schon die Behavioristen untersucht, selbstlernende Roboter gibt es seit langem, die Nutzung von Gehirnwellen zur Steuerung von Vorgängen ist ebenfalls alt. Die Verwendung des Begriffs ‚Ego‘ — aus dem Titel — nach vorausgehender Abschaffung des Ich blieb unklar.

Meyer-Lindenberg: Das gestörte Ich

Der Vortrag „Das gestörte Ich. Welchen Einfluss haben Gene und die Umwelt auf die psychische Gesundheit?“ von  Prof. Dr. Andreas Meyer-Lindenberg vom Zentralinstitut für Seelische Gesundheit (Mannheim) war brilliant, stellte neueste Forschung vor und setzte eine gesellschaftliche Problematik in Szene, die uns alle betrifft. Sein Hauptthema war das Zusammenspiel von Genen, Gehirn, Verhalten und Umwelt. Illustriert am Beispiel des Krankheitsbildes Depression und Schizophrenie konnte er zunächst einmal zeigen, wie diese Krankheitsbilder signifikant häufiger in städtischen Umgebungen auftreten. Bei der stetigen Zunahme städtischer Lebensumgebungen ist dies eine Herausforderung an die Politik. Er berichtete, dass man herausgefunden hat, dass es zwischen dem psychotherapeutischen Krankheitsbild der Depression und Schizophrenie eine deutliche Korrelation zu Eigenschaften des Funktionskreises Amygdala und Zingulum gibt. Dieser Funktionskreis benötigt eine bestimmte hormonal modulierte Kommunikation, die wiederum durch genetische Faktoren geprägt ist. Wie vor allem Experimente mit Nagern aufzeigen konnten, können frühkindliche Traumata mittels epigenetischer Mechanismen über Generationen zudem weitergereicht werden. Hiermit ergeben sich zwei Handlungsansätze: (i) eine entsprechende Gestaltung des städtischen Umfeldes (mit seinen diversen sozialen Subräumen, auch am Arbeitsplatz; neue Disziplin der Neurogeographie)), (ii) pharmakologische Therapien genetischer Defekte.

Insgesamt, so scheint es, eröffnen sich durch die Korrelation von Lebensumwelt, Verhalten, Gehirn und Genen für die Psychotherapie hochinteressante neue theoretische und auch therapeutische Ansätze.

Heekeren: Entscheidung wider die Vernunft?

Prof. Dr. Hauke Heekeren von der Freien Universität Berlin begann seinen Vortrag „Entscheidung wider die Vernunft? Wie unser Gehirn Entscheidungen triff“ mit Hinweisen auf die bisherigen Entscheidungsmodelle, am berühmtestens hier wohl das Modell des homo oeconomicus. Eine Schwäche (und Stärke) der bisherigen Modelle war — und ist — ihre zu große Einfachheit. Die Annahme des ideal rationalen Menschen spiegelt das tatsächliche Verhalten von Menschen jedoch  nur bedingt wieder. Die Aufgabe bestand also darin, einen Weg zu finden, weitere real wirkende Faktoren für die Erklärung messbar zu machen. Anhand unterhaltsamer Entscheidungsexperimente, die er z.T. auch mit den anwesenden Zuhörer machte, konnte er verdeutlichen, dass dem ‚erwarteten Nutzen‘ und dem erwarteten ‚Verlust‘ aus einer Entscheidung neuronal ein Prozess entspricht, in dem identifizierbare Gehirnbereiche ‚Nutzen‘, ‚Verlust‘ über einen ‚Vergleich‘ so berechnen, dass dann der ‚Nettonutzen‘ sichtbar wird. Dieser Nettonutzen induziert dann die Entscheidung. Der Berechnungsprozeß benötigt Zeit und arbeitet mit internen ‚Schwellwerten‘. Dabei wird der ‚Verlust‘ normalerweise schwerer gewichtet als der ‚Nutzen‘.

Auch bei dem Forschungsansatz von Heekeren eröffnen sich durch die Korrelation von Lebensumwelt, Verhalten, Gehirn und Genen hochinteressante neue theoretische Ansätze zur Verhaltenserklärung. Erster Nutznießer scheint in diesem Fall allerdings die Werbeindustrie zu sein, die ihre Werbeangebote ziemlich genau auf dieses Entscheidungsstruktur des Menschen abstellt: durch eine geschickte Kombination von genau drei Angeboten (das vom Anbieter favorisierte Angebot, ein verglichen damit ganz schlechtes Angebot, und ein nur wenig Schlechteres leiten den Entscheidungsprozess meistens zum Angebot des potentiellen Kunden; die tendenzielle Kurzsichtigkeit unserer Entscheidung (2 Monate gratis) und die tendenzielle Trägheit (explizite Abmeldung nach 2 Monaten) führt dann zu vielen Neukunden.

Herms: Horizont der Hirnforschung

Der emeritierte Theologe, Prof. Dr. Eilert Herms von der Eberhard Karls Universität, Tübingen, war der einzige an diesem Tag, der mit seinem Vortrag „Horizont der Hirnforschung – Wie weit reicht der Beitrag zur Erfassung unserer Lebenswirklichkeit?“ einen größeren Denkzusammenhang aufspannte, innerhalb dessen sich die unterschiedlichen einzelwissenschaftlichen Erklärungsansätze mit Blick auf eine ‚Gesamterklärung‘ einordnen ließen. Dies war nur möglich, weil sein Verständnis von Theologie sich mit den Mitteln einer phänomenologischen Philosophie (Husserl, Heidegger) sowohl der ganzen Breite der (alltagsbezogenen) Gegenwart öffnete wie auch auf die ‚universalen Bedingungen‘ ausgerichtet ist, unter denen sich unser Leben ereignet. Die konkreten Offenbarungsinhalte sind — so muss sich jeder Zuhörer diese Position ergänzen — nur insoweit möglich und wahr, als sie sich diesem allgemeinen Rahmen einordnen lassen. Spezifisch christliche Offenbarungsinhalte muss man dann nicht erwähnen und wurden auch nicht erwähnt.

Mit dieser Ausrichtung wird Theologie kaum noch unterscheidbar von einer Philosophie, die wahrheitsorientiert das Ganze des Lebens im Blick hat, also eine Art Vereinigung von Metaphysik, Ontologie und Ethik in einem.

Entsprechend dem Geist des phänomenologischen Denkens tritt die Gegenwart in den Mittelpunkt, das sich ‚Vorfinden‘ in einem Prozess, der als solcher — auch mit seiner Körperlichkeit — als ein weitgehend Vorgegebenes eine ‚Zumutung‘ darstellt, der als Prozess zwar ‚bestimmt‘ ist, aber nicht ‚determiniert‘. Die Einzelwissenschaften tauchen in diesem Denkmodell als Teilbereiche innerhalb des Gesamthorizontes auf; in ihrer Konkretheit Beiträge zur Kunst des Zurechtfindens. Entsprechend der Aufgabenstellung jeder Disziplin sind ihre Beiträge zwar jeweils limitiert, aber durch die Einordnung im Gesamtbezug können Sie zur Enthüllung der ‚größeren Wahrheit‘ mit beitragen. Durch die körperliche Teilhabe des Erkennenden an diesem Prozess erwächst daraus auch eine — subjektiv volle, objektiv partielle — ‚Verantwortung‘ für diesen Prozess.

Innerhalb dieses phänomenologischen Denkansatzes ergibt sich, dass sich dem einzelnen Erkennenden Gestalten der Wirklichkeit zeigen, die als solche nur ‚in diesem Erkennen‘ auftreten, die an diese Erkenntnisform gebunden sind. Durch einen Rekurs auf Teilbereiche, insbesondere einzelwissenschaftliche Modelle, geraten diese Wirklichkeiten außer Blick; nicht nur das, der spezifische Gesamtzusammenhang wie auch die spezifische Verantwortung ist nur in dieser Perspektive gegeben. Prof. Herms meinte auch, dass der Begriff des ‚Selbst‘ nicht geeignet sei, diesen Gesamtzusammenhang zu beschreiben, sondern eher der Begriff der ‚Person‘, die nicht nur das ‚Selbst‘ umfasst, sondern auch die ganze Leiblichkeit mit ihrer Einbettung in den Prozess.

Seine im Dialog geäußerte Meinung, dass Wissenschaft nicht an ‚Wahrheit‘ orientiert sei, sondern an ‚Bewährung‘, und dass Wahrheit nur im Rahmen der Logik vorkomme, die inhaltsfrei operiere, scheint mir nicht zutreffend, aber das wäre im Detail zu klären.

Festhalten möchte ich noch, dass die Sprache von Prof.Herms deutlich abwich von den Sprachspielen der anderen Vortragenden und dass er zu Beginn seines Vortags keinerlei besondere Anstalten traf, um die einzelwissenschaftlichen Beiträge in seinen Denkrahmen einzuordnen. Zwar haben alle anderen sich auch in keiner Weise um den Zusammenhang mit den anderen Vorträgen bemüht, aber als Vortrag mit Gesamtinterpretationsanspruch wäre es vielleicht eher gefordert. Es dauerte daher 10 – 15 Minuten bis man sich in dieses phänomenologische Sprachspiel hineinhören konnte und bis die Bezugnahmen auf die Einzelwissenschaften explizit stattfanden.

Zusätzliche Reflexionen, angeregt durch den Beitrag von Prof. Herms, finden sich unter dem Titel Eine Welt ohne Seele und freien Willen? Teil 2.

Monyer: Was bleibt im Gedächtnis?

Frau Prof. Dr. Hannah Monyer vom Universitätsklinikum Heidelberg kehrte mit ihrem Vortrag „Was bleibt im Gedächtnis? Erinnerung und Erwartung“ nochmals zu einer einzelwissenschaftlichen Perspektive zurück. Allerdings begann sie mit lebensweltlich-kulturellen Bezügen aus der Kunst, die an einzelnen Beispielen verdeutlichten, dass das Gedächtnis schon immer ein Phänomen war, das uns Menschen beschäftigt hat, speziell auch der Aspekt der ‚Verräumlichung‘ des Erinnerbarem.

Sie begann ihre neurologischen Darlegungen mit der berühmten Studie von Kandel et al. von 2001 mit einer Meeresschnecke, in der an einem extrem einfachen Organismus der Gesamtmechanismus eines Organismus, mit besonderer Berücksichtigung seiner Gedächtnisleistung untersucht worden ist. Sie machte deutlich, dass der Weg von diesem einfachen Organismus bis hin zur Komplexität des menschlichen Gehirns noch sehr, sehr weit ist und dass wir bislang die Funktionalität des menschlichen Gehirns mit Blick auf sein Gedächtnis bislang nur sehr ansatzweise verstehen.

In mehreren Schritten führte sie grundsätzliche Begriffe wie ’synaptische Plastizität‘ sowie ’strukturalistische Plastizität‘ ein, letztere unterschieden danach, ob es um ‚Spikes‘ auf Dendriten geht oder um ganze ‚Neuronen‘, die neugebildet werden. Neubildungen von Spikes und Neuronen können zwar auch bei älteren Menschen (nach ca. 25 Jahren…) auftreten, diese Neubildungen — speziell im Falle von Neuronen — werden aber meistens nicht in Funktionsabläufe ‚integriert‘, so dass sie wieder absterben.

Ihr Forschungsgebiet ist das ‚episodische Gedächtnis‘, und hier speziell das ‚räumliche Gedächtnis‘. Es ist bekannt, dass für die im Gedächtnis wichtigen Korrelationen zwischen sensorischem Input und räumlichen Lokalisierungen der Hippocampus eine zentrale Rolle spielt. In ihm kann man sogenannte ‚Place Zellen‘ (Ortszellen) identifizieren, die in Interaktion treten mit sogenannten ‚Gridzellen‘ (Gitter/Netzwerkzellen) im Entorhinalen Cortex. Zusätzlich konnte man einen skalierenden Größenparameter identifizieren: ‚dorsal‘ sind die Ortszellen ‚kleiner‘ und der Abstand zwischen Gitterzellen ‚enger‘, ventral ‚größer‘ bzw. sie haben größere Abstände. Ferner hob Prof. Monyer hervor, dass eine tatsächliche langandauernde Speicherung nur erfolgt, wenn die zunächst im Hippocampus erfolgenden Assoziierungen während des Schlafes (nicht Tiefschlaf, nicht Traumphase) mehrfach ‚intern‘ wiederholt werden, um dann in das Langzeitgedächtnis über zu gehen. Die wichtigste Erkenntnisquellen sind bislang Nagetiere (Ratten, Mäuse), bei denen die gesamte Kette Verhalten – Gehirn – Gene untersucht und manipuliert wird. Ein solcher Forschungszyklus dauert aktuell ca. 5 Jahre. ferner sind die aktuell verfügbaren Messverfahren noch sehr ungenau. Bildgebende Verfahren sind kaum brauchbar, alle anderen elektrodenbasierten Messungen sind sowohl zufällig (welche Neuronen trifft man tatsächlich bei der Einführung) und ungenau (mit welchen anderen Neuronen ist das zufällig ausgewählte Neuron verbunden). Eine kleine Verbesserung ergibt sich durch die neuartige Möglichkeit, zusätzliche Ionenkanäle in eine Membran einfügen zu können, die kontrolliert zu- und abgeschaltet werden können, um so gezielt eine Membran zu aktivieren oder zu deaktivieren. Insgesamt ist die Lage noch nicht endgültig klar und es bleibt noch viel zu tun.

Kommentierung

Weitere Kommentierungen folgen, sobald ich Zeit finde.

Programm des Symposiums

10:00 Begrüßung

Prof. Dr. Peter Steinacker, Vorsitzender des Kuratoriums der EKHN Stiftung

Im Netz der Neuronen. Wie bringt das Gehirn unser Selbst hervor?

Prof. Dr. Wolf Singer, Max-Planck-Institut für Hirnforschung, Frankfurt am Main

11:00 Leben im Ego-Tunnel. Ist das Ich-Gefühl nur eine Illusion?

Prof. Dr. Thomas Metzinger, Johannes Gutenberg-Universität Mainz

12:00 Das gestörte Ich. Welchen Einfluss haben Gene und die Umwelt auf die psychische Gesundheit?

Prof. Dr. Andreas Meyer-Lindenberg, Zentralinstitut für Seelische Gesundheit, Mannheim

13:00 Mittagsessen und Diskussion mit Schülern an den von den Arbeitsgruppen im Schülerseminar erarbeiteten Plakaten.

14:30 Entscheidung wider die Vernunft? Wie unser Gehirn Entscheidungen trifft.

Prof. Dr. Hauke Heekeren, Freie Universität Berlin

15:30 Horizont der Hirnforschung – Wie weit reicht der Beitrag zur Erfassung unserer Lebenswirklichkeit?

Prof. Dr. Eilert Herms, Eberhard Karls Universität, Tübingen

16:30 Was bleibt im Gedächtnis? Erinnerung und Erwartung.

Prof. Dr. Hannah Monyer, Universitätsklinikum Heidelberg

HINWEISE AUF QUELLEN

(Werden noch ergänzt)

  • EKHN-Stiftung http://www.ekhn-stiftung.de
  • Symposium URL: http://www.ekhn-stiftung.de/symposium2013/

Eine Übersicht über alle Blogeinträge nach Themen findet sich HIER

WEIHNACHTEN 2012 – MENSCHWERDUNG GOTTES – UND WIR

  1. Wir schreiben heute den 24.Dez.2012. Für die Christen ist dies das Datum, an dem sie das Weihnachtsfest feiern.
  2. Dieses Fest geht zurück auf Texte im Neuen Testament (einem Teil der christlichen Bibel), in denen von der Geburt von Jesus von Nazareth die Rede ist.
  3. Die Texte selbst sind keine historischen Zeitzeugnisse. Sie wurden mehrere Jahrzehnte nach dem Tod des Jesus von Nazareths von Menschen aufgeschrieben, die nicht dabei waren, von Menschen die von dem grausamen Tod dieses Jesus wussten und die sich im Nachhinein Gedanken darüber gemacht haben, wer er denn war, ob er ein besonderer Mensch war, vielleicht sogar der lang erwartete Messias, oder gar der Sohn Gottes?
  4. Die Geburtstexte lassen denn auch keinen Zweifel darüber, wie die Autoren dieser Texte (die genaue Identität der Autoren konnte bis heute nicht vollständig aufgeklärt werden) den Menschen Jesus von Nazareth sahen: für sie war er der Sohn Gottes. Sie bringen dies u.a. dadurch zum Ausdruck, dass sie die Mutter so darstellen, dass sie von Gott selbst schwanger wurde, ohne Einwirkung eines Mannes (natürlich auch nicht im Sinne einer künstlichen Befruchtung, was heute möglich wäre).
  5. Sehr bemerkenswert finde ich auch die Aussagerichtung des Textes, dass Gott das Kind im Bauch der Mutter unter den aller ärmlichsten Verhältnissen zur Welt bringen lies, außerhalb der Städte, außerhalb der Machtzentren, in der Nähe von Tieren.
  6. Im späteren, Jahrhunderte langen, Ringen um die ‚richtige‘ ‚theologische‘ Interpretation der ‚wahren Natur‘ des Menschen Jesus von Nazareth setzte sich in der christlichen Kirche schließlich die zum ‚Dogma‘ erhobene Formulierung durch, dass Jesus ganz und gar Mensch war, in allem uns gleich (außer der Ursünde Adams), und doch zugleich auch Gottes Sohn, ohne dass auch nur ansatzweise geklärt wird, wie beides zusammen gehen soll. Wie soll man sich das vorstellen, dass jemand ganz und gar ‚Mensch‘ ist und zugleich ‚Sohn Gottes‘? (Siehe das Konzil von Chalcedon 451 nach christlicher Zeitrechnung).
  7. Nach dem Verständnis der christlichen Kirchen haben wir es durch die Person Jesus von Nazareth also mit einer ‚Menschwerdung Gottes‘ zu tun, ohne dass uns bis heute jemand erklären konnte, wie man sich dies vorstellen soll. Obwohl die christliche Kirchen (es ist nicht nur die katholische Kirche, die dieses Lehrmeinung vertritt) im Laufe der Jahrtausende über viele Dinge gesprochen haben, diesen Kernsachverhalt haben sie bis heute nicht aufgeklärt.
  8. Mit einem Abstand von nun fast 2000 Jahren lässt sich mancher Gedanke anders denken als er in der Vergangenheit gedacht wurde.
  9. Jeder, der die Geburtstexte liest (natürlich im Urtext, im ‚Bibel-Griechischen‘, samt all den textkritischen Erkenntnissen zu den unterschiedlichen Überlieferungen der Textfragmente) wird — wie es so viele Bibelwissenschaftler (‚Exegeten‚ genannt) schon getan haben — zu der Einschätzung kommen, dass es sich um einen stark ‚interpretierenden‘ Text handelt, in dem aus dem nachträglichen Glauben an die ‚Besonderheit Jesu‚ der Text so ausgestaltet worden ist, dass alle Textelemente auf diese eine Aussage hin ‚komponiert‘ worden sind (Bezüge auf das Alte Testament, die idealisierte Jungfräulichkeit, die Rolle des Jesu gegenüber dem Täufer Johannes, usw.). Mit der ‚wahren‘ Geburtsgeschichte muss dies nicht viel zu tun gehabt haben; eher spricht alles dafür, dass es so ziemlich gar nichts mit der tatsächlichen Geburt und Kindheit Jesu zu tun hat (neben grundsätzlichen Erwägungen sind dies auch die anderen Stellen im Neuen Testament, wo von den leiblichen Brüdern und Schwestern Jesu die Rede ist).
  10. Noch so viele wissenschaftlichen Analysen werden aber im Nachhinein natürlich keine 100%-Klarheit in den Sachverhalt bringen können. Diejenigen, die die ‚GöttlichkeitJesu durch Hinweis auf ‚besondere göttliche Umstände‘ ‚belegt‘ sehen wollen, werden solche Umstände immer und überall sehen (unsere reale Welt hat so viele ‚kognitiven Löcher‘, dass es jeder Fantasie ein Leichtes ist, diese Lücken mit Interpretationen zu füllen, die einen ‚Sinn‘ ergeben, auch wenn die Fakten dies nicht unbedingt hergeben).
  11. Ist die Lage daher für unser Erkennen ‚hoffnungslos‘? Natürlich nicht. Es gibt einen einfachen Grundsatz des menschlichen (logischen) Denkens, der besagt ‚Aus Nichts kann ich nichts beweisen‘, oder, ausgedehnt auf das metaphysische (philosophische) Denken: ‚Wahrheit kann ich nur erkennen, wenn es Wahrheit gibt‘! Im Falle der Beziehung zwischen Menschen (und damit dem ganzen biologischen Leben) und dem, was die christlichen Kirchen als ‚Gott‘ bezeichnen (und vermutlich alle anderen Menschen auf dieser Erde auch, wenn sie in Richtung des mit ‚Gott Gemeinten‘ denken) bedeutet dies, dass wir nur dann über diese Beziehung sinnvoll etwas sagen können, wenn es eine reale Beziehung zwischen dem mit Gott Gemeinten und dem biologischen Leben auf der Erde geben würde. Die besonderen Umstände (‚Wunder‘), mit denen die Autoren der verschiedenen Texte des Neuen Testaments an verschiedenen Stellen immer wieder versuchen, solche ‚Hinweise auf das Göttliche‘ im ‚irdischen Alltag‘ einzubauen, sind ja letztlich nichts anderes als genau jene ‚kognitiven Reflexe‘, durch die man versucht, den ‚Brückenschlag‘ zwischen ‚Irdischem‘ und ‚Göttlichem‘ herzustellen wohl wissend, dass ohne jeglichen aufweisbaren Bezüge solch ein Reden über Gott sich in er ‚Nacht der puren Willkür‘ nahezu völlig auflösen würde.
  12. Während die Menschen zur Zeit und kurz nach Jesus von Nazareth sich nur dadurch behelfen konnten, dass sie ‚wundersame Mittel‘ literarisch einsetzten, um diese Brückenschläge kognitiv anzudeuten, konnten wir in den letzten 2000 Jahren sehr viel darüber dazu lernen, wie die Natur ist, wie wir Menschen als Teil dieser Natur ‚gebaut‘ sind, wie diese ganze Welt sich als Teil des Universums in atemberaubender Weise entwickelt hat und immer noch weiter entwickelt. Wir haben begonnen, zu verstehen, wie unsere Körper funktionieren, wie unser Denken in den Gehirnen abläuft, was biologisch determinierte ‚Bedürfnisse‘ und ‚Gefühle‘ sind, wie der ‚Geist‘, der sich im Verhalten von Menschen zeigt, eine tiefliegende Eigenschaft nicht nur von allem biologisch-Lebendigem zu sein scheint, sondern geradezu von allem ‚Materiellen‘, das in der ‚Energie‘ gründet. Wir beginnen zu verstehen, dass es zwischen allem ‚Materiellen‘ im Universum eine viel größere, tiefere und reichere Verbindung gibt, als alles Denken der vorausgehenden Jahrtausende uns enthüllen konnte. Wenn es etwas gibt, das wir das ‚Göttliche‘ nennen, dann ist es nicht nur unendlich ‚weit entrückt‘ (transzendent), sondern es ist zugleich immer und überall ‚unendlich nah‘ (immanent)(es gibt eine Reihe von Textstellen im Neuen Testament, die die Exegeten sehr nah an Jesus heranrücken, in denen der Mensch Jesus von dieser Immanenz des Göttlichen in JEDEM Menschen zu sprechen scheint). Und es ist genau diese ‚Umkehrung‘ der Wirkungsrichtung im Denken, die ‚Licht ins Dunkle‘ bringt: es ist nicht so, dass wir ’nachträglich‘ einen Weg zum mit ‚Gott Gemeinten‘ finden, sondern weil alles, was es im Universum gibt — wenn überhaupt — von genau diesem mit ‚Gott Gemeinten‘ ‚Kommt‘, und zwar real, konkret, nur deshalb gibt es eine ‚Verbindung‘ zum mit ‚Gott Gemeinten‘ von Anfang an, immer, beständig, und nur deshalb können wir sagen, dass das ‚Leben‘ in diesem Sinne ein ‚Abbild Gottes‘ sei, nur deshalb können wir das mit ‚Gott Gemeinte‘ in uns ’spüren‘ (‚Mystik‘, ‚Gotteserfahrung‘, …), und nur deshalb zeigt das ‚Leben‘ Eigenschaften, die es vom physikalischen Eigenschaftsfeld ‚abheben‘, es zum ‚Rätsel‘ für die Physik machen und nach Erklärungen verlangen, die weit über das hinausgehen, was wir bislang an Erklärungen zu bieten hatten.
  13. Das ‚Reden über‘ den Menschen Jesus von Nazareth mag also eine Reihe von ‚bizarren Gedanken enthalten, die im Nachhinein betrachtet ‚unangemessen‘ sind, möglicherweise sogar ‚falsch‘ und ‚irreführend‘, Jesus selbst — sofern man den textkritischen Analysen trauen darf — hatte mit Wundern und ‚Extravaganzen‘ eher weniger ‚am Hut‘, da er — so ist mein Eindruck — die Tiefe des allgemeinen menschlichen Daseins mit Blick auf seine Herkunft und mögliche Bestimmung als Mensch (!) in einer Weise erahnt und erfasst zu haben scheint, wie sie ALLEN Menschen — auch uns — immer und jederzeit möglich ist. Mit dem mit ‚Gott Gemeintem‘ ‚verbunden‘ zu sein erscheint sowohl vom heutigen Wissensstand her wie auch in den Augen eines Jesus von Nazareth daher kein ‚Privileg‘ von einigen wenigen zu sein, sondern gehört zur ‚Grundausstattung‘ von allem Materiellen, insbesondere natürlich von allem Lebendigen, und hier insbesondere von der ‚jüngsten Spezies‘ auf der Erde, dem homo sapiens sapiens, also zu uns. Wer also das mit ‚Gott Gemeinte‘ suchen will, muss keine Millionenspenden an obskure Organisationen entrichten, muss seine ‚Seele‘ nicht an selbsternannte ‚Gurus‘ vermieten oder verkaufen, muss keine speziellen Trainingskurse oder Fastenpraktiken absolvieren, er muss nur anfangen sich selbst, die anderen Menschen, diese Erde, dieses Universum zu sehen, ‚wie es ist‘, sich selbst und die anderen ‚ernst‘ nehmen.
  14. Die ‚Wahrheit‘ ist da und sie wahr ‚von Anbeginn‘ da. Unser Problem ist offensichtlich, zur Kenntnis zu nehmen, was ‚da‘ ist. Wir Menschen sind extrem erfindungsreich im ‚Fabulieren‚ von Besonderheiten, da es natürlich allemal einfacher ist, irgendetwas ‚Besonderes‘ zu erfinden und es nach Belieben hoch zu stilisieren, als das zur Kenntnis zu nehmen, was tatsächlich da ist. So gesehen könnte man sagen, dass die Naturwissenschaften heute ‚eher‘ ‚das Theologische‘ enthüllen als die ‚Theologie‘ (wobei viele sogenannte Religionen ja noch nicht einmal eine systematische Theologie (als ’systematische Untersuchung von dem mit Gott Gemeintem) besitzen.

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER

Womit hat der Bundestag dies verdient?

Zur Rede des Papstes im Deutschen Bundestag am 22.Sept.2011, abgedruckt in der FAZ Nr.222, 23.Sept.2011,S.8

 

(1) Der deutsche Bundestag ist ein demokratisch gewähltes Organ in einer rechtsstaatlichen Demokratie und kann darauf stolz sein. Der Weg zu diesem Zustand führte über viele, viele Jahrhunderte von Suchen, Debatten, Kriegen, Leiden, Ungerechtigkeiten, Leidenschaften, Widerstand, und vieles mehr.

 

(2) Der Papst hingegen verkörpert eine Institution, die von hierarchischen Strukturen geprägt ist, die nahezu keine Mitbestimmung kennt, die in den Jahrhunderten Andersdenkende oft — bisweilen im großen Stil — verfolgt, gefoltert und getötet hat. Die moderne Wissenschaft wurde bis ins letzte Jahrhundert auf vielfache Weise unterdrückt und bekämpft. Und selbst heute, selbst in dieser Rede, wird ein Bild von der modernen Wissenschaft gezeichnet, das man nur als Zerrbild bezeichnen kann. Und dieser Papst möchte über die Grundlagen des ‚freiheitlichen Rechtsstaates‘ sprechen? Er möchte zum Dialog einladen? Was soll man davon halten?

 

(3) Als Diskussionsgegenstand wählt er die Grundlagen des freiheitlichen Rechtsstaates, das Recht, an dem sich jeder Politiker orientieren sollte. In diesem Zusammenhang baut er u.a. einen zeitlichen Zusammenhang auf zwischen vorchristlicher (griechischer) Philosophie, christlicher Offenbarung, christliches Mittelalter, Aufklärung, Menschenrechte, und Demokratien. Er interpretiert diesen zeitlichen Zusammenhang mit den Worten: „Von der Überzeugung eines Schöpfergottes her ist die Idee der Menschenrechte… entwickelt worden“. Wenn man berücksichtigt, dass sich Aufklärung, neuzeitliche Wissenschaft und die Menschenrechte in heftigster Auseinandersetzung gegen die katholische Kirche entwickelt mussten (und bis heute sind in der Kirche noch nicht alle Menschenrechte umgesetzt!), dann erscheint die Interpretation des Papstes als geradezu dreist. Das ist Geschichtsklitterung und Demagogie in einem.

 

(4) Besonders bizarr wirkt die Argumentation, wenn es darum geht, die theologische Position gegen die neuzeitliche Wissenschaft in Position zubringen. Zunächst verortet er die Wurzeln des Rechts in Vernunft und Natur (als Besonderheit der katholischen Kirche; eine in sich mehr als fragwürdige Behauptung). Dann verknüpft er die Begriffe ‚Vernunft‘ und ‚Natur‘ mit einer positivistischen Interpretation, mit einem rein funktionalistischen Wissenschaftsbegriff, der das Subjektive, den Geist, den Ethos, die Religion nicht zulassen würde. In der sich daraus ergebenden ‚Lücke‘ , die er als Kulturlosigkeit‘ bezeichnet, sieht er dann ein Einfallstor für die ‚Vorräte Gottes‘, für eine ’schöpferische Vernunft‘, für einen ‚creator spiritus‘. Das Problem mit dieser Interpretation ist jedoch, dass sie ein Bild von Wissenschaft und Gesellschaft zeichnet, das schlicht und einfach falsch ist. Wer die Entwicklung der modernen Wissenschaften in den letzten 100 Jahren aufmerksam verfolgt hat, weiß, dass Begriffspaare wie z.B. ‚Geist‘ und ‚Materie‘, ‚Vernunft‘ und ‚Natur‘ aus der Zeit einer vorwissenschaftlichen Philosophie heutzutage eine völlig neuartige Bedeutung bekommen haben, und immer noch weiter bekommen. Die schrittweise Rekonstruktion der Struktur von Materie und biologischem Leben haben dazu geführt, dass man das ‚Subjektive‘ und ‚Geistige‘ mehr und mehr als Eigenschaft des ‚Materiellen‘ zu verstehen beginnt, was umgekehrt bedeutet, die ‚tote Materie‘ der klassischen Philosophie erweist sich als Chimäre. Die Gegenübersetzung von ‚Geisteswissenschaften‘ und ‚Naturwissenschaften‘ fällt heute immer mehr zusammen. Fachbezeichnungen wie ‚Neuropsychologie‘ oder ‚Kognitive Neurowissenschaften‘ deuten dies an. Entsprechend kann man z.B. in der größten Ingenieurvereinigung der Welt — IEEE — eine Teilgesellschaften finden, die sich ‚Computational Intelligence‘ nennt; dort werden  klassische Philosophen, das Bewusstsein, Gefühle, Werte usw. ganz selbstverständlich im Kontext von Maschinen diskutiert werden. Wer allerdings sein Denken auf einige wenige klassische Begriffspaare ‚programmiert‘ hat, derjenige tut sich schwer, diese neuen Entwicklungen zu denken.

 

(5) Aber genau das ist der Gang der Geschichte: das Denken entwickelt sich — bislang zumindest — dynamisch weiter. Das Bild von der Welt wird ‚bunter‘, ‚reicher‘, ’spannender‘. Die Frage der Werte ist lebendiger denn je: gerade im Bereich der Evolutionsforschung und der lernenden Systeme hat man die zentrale Rolle von ‚Werten‘ entdeckt und man muss feststellen, dass wir im Verständnis der Wertentstehung ganz am Anfang stehen. Klassische Naturrechtsargumentationen wirken hier wie Relikte aus einer Vorwelt, denen eine wirkliche Rationalität fehlt.

 

(6) Vor diesem Hintergrund einer überaus lebendigen modernen Wissenschaft, die immer mehr in alle Bereich des Lebens — auch des Subjektiven, des bewussten wie auch des ‚unbewussten‘, sogar in die Bereiche der Kunst und der Kreativität — vordringt, kann sich die theologische Frage nach einem Schöpfer u.U. ganz neu stellen. Allerdings bestimmt nicht so, dass man das Bild der Wissenschaft künstlich verzerrt, um damit alte, lieb gewonnene Begriffe und Vorurteile, die keinen Verkehrswert mehr haben, neu zu installieren.

 

(7) Am meisten erschüttert hat mich die Aussage des Papstes im Kontext der Bestimmung der Würde des Menschen und der Menschheit, dass „das Mehrheitsprinzip nicht ausreicht, ist offensichtlich“. In diesem Moment hätten alle Abgeordneten sofort den Saal verlassen müssen. Natürlich garantiert das Mehrheitsprinzip keine Erkenntnis, aber es gehört mit zu den größten Errungenschaft neuzeitlichen Denkens, erkannt zu haben, dass zu keiner Zeit niemand über ein absolutes Wissen verfügt. Man kann immer nur versuchen, ein ‚relatives Optimum‘ zu erreichen. Und wenn alle ‚unfähig‘ sind, dann wird auch nicht viel herauskommen. Aber grundsätzlich besteht mit dem Mehrheitsprinzip die Möglichkeit, dem Willen der Mehrheit Ausdruck zu verleihen.

 

(8) Demgegenüber belegt der Wahrheitskatalog der katholischen Kirche eindrücklich, wie veraltete und falsche begriffliche Konstruktionen über Jahrhunderte konserviert werden können, die das Erkennen der Welt und die Achtung vor dem Menschen massiv behindert haben (und auch heute noch behindern). Man sollte sich immer wieder ins Bewusstsein rufen, dass die Sache ‚Gottes‘ und eine konkrete soziale Institution keinesfalls zwangsläufig miteinander zu tun haben müssen. Menschen — auch ‚Kirchenmenschen‘ — haben die Freiheit, die Sache Gottes zu verleugnen. Ein letztes Urteil darüber haben wir zum Glück nicht zu sprechen.

 

MENSCHENBILD IM WANDEL

Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main

Kurzfassung

Einleitungsmusik

  1. Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.

  2. Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.

  3. Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.

  4. In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.

  5. Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).

  6. Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.

  7. Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.

  8. Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.

  9. Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.

  10. Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.

  11. Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.

  12. Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).

  13. Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.

  14. Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.

Überleitungsmusik Vortrag zu Diskussion

EXPERIMENTELLE HÖRBUCHFASSUNG

Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)