Archiv der Kategorie: Logik

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 2

VORGESCHICHTE

1. In einem vorausgehenden Beitrag AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 1 hatte ich geschildert, wie ich zur Lektüre des Textes von Avicenna gekommen bin und wie der Text grob einzuordnen ist. In diesem Teil beginnt nun die kommentierende Lektüre des Hauptteils.

DANK AN GOTT, MOHAMMED und den HERRSCHER

2. Der Text beginnt mit einem Dank an Gott, an den Propheten Mohammed und an seinen Herrschern dafür, dass er über all die Voraussetzungen verfügt, die notwendig sind, überhaupt solch einen Text schreiben zu können. Dazu gehört auch das Bewusstsein, letztlich kein Experte zu sein, der alles weiß, sondern eher ein Suchender, der versucht, nach bestem Wissen und Gewissen zu verstehen, was es zu verstehen gibt.

3. Und bevor nun Avicenna mit der eigentlichen Logik beginnt, spendiert er ein paar Gedanken zur Frage, warum Logik überhaupt wichtig ist.

WARUM LOGIK?

4. Fluchtpunkt aller konkreten Denktätigkeiten ist für ihn die Wissenschaft (’science‘), die versucht, die Eigenart der Dinge, ihre Zusammenhänge, so zu klären, dass der einzelne Mensch darin genügend Klarheit findet, seinen Weg als Mensch gehen zu können.

5. Wissenschaft hat auf jeden Fall damit zu tun, das aktuelle Wissen zu vermehren, indem das, was aktuell noch nicht gewusst wird, in Wissen umgewandelt werden soll.

6. Avicenna unterscheidet verschiedene Arten von Wissen: (i) Wissen, das durch die Sinne zu uns kommt (perzeptiv, apprehensiv, intuitiv1), Wissen, das uns intuitiv2 durch das ‚erste Prinzip‘ gegeben wird, (iii) Wissen, das wir uns durch ‚Urteile‘ erschließen, und (iv) Wissen, das wir von anderen (Autoritäten, von dem Propheten, von Weisen, über ‚allgemeine Meinungen‘, …) übernehmen.

7. Interessant ist auch das Detail, dass er aufmerksam macht auf den Zusammenhang von sinnlicher (intuiv1) Erfahrung und Worten. So habe für uns das Wort ‚Mensch‘ solange keine Bedeutung, solange wir die Verwendung des Wortes im Kontext nicht kennengelernt haben.

8. Der Weg zum Wissen ist ein langer Prozess, durch den man mehr und mehr Details und Zusammenhänge erkennen kann, die schließlich einen Menschen dazu befähigen können, alle die wichtigen Zusammenhänge hinreichend erkennen zu können, die er für sein Leben als Mensch benötigt.

9. Und insofern die Logik jener Teil der Wissenschaft ist, der sich mit der Kunst des ‚richtigen‘ Urteilens beschäftigt, ist die Logik eine unverzichtbare Voraussetzung für die Wissenschaft. Ohne eine klare Kenntnis der Logik bleibt unklar, ob das wissenschaftliche Denken zurecht einen bestimmten Zusammenhang behauptet oder nicht.

DISKUSSION

10. Obwohl Avicenna die Wissenschaft in einer sehr prominenten Rolle für das Leben der Menschen sieht, lässt er die Erklärung dessen, was Wissenschaft ist, an dieser Stelle weitgehend im Dunklen; sein Beispiel mit der Erkenntnis der reinen Form der Seele und derjenigen Neigungen, die davon wegführen, gehört eigentlich eher in die Bereiche Metaphysik und Ethik.

11. Trotz seiner Unterteilung des Wissens in verschiedene Arten bleibt manches an dieser Stelle unklar.

12. So nimmt er sinnliches Wissen an, das durch die Sinnesorgane uns zugänglich wird.

13. Nehmen wir einmal an, dass das, was Avicenna ‚Wissen‘ [KNOW, K] nennt, ‚im‘ Menschen ist, und nennen wir alles ‚um den Menschen herum‘ einmal ‚Welt‘ [WORLD, W], dann könnte man sagen, dass das sinnliche perzeptive Wissen eine Abbildung von bestimmten Eigenschaften der Welt in das Wissen K ist ($latex perc: W \longrightarrow K$). Und da das sinnliche Wissen sich offenbar von anderen Wissensarten unterscheiden lässt, nennen wir das sinnliche Wissen $latex K_{s}$, also $latex perc: W \longrightarrow K_{s}$, oder $latex perc(W) = K_{s}$ und $latex K_{s} \subseteq K $.

14. Nun weist Avicenna aber auch ausdrücklich darauf hin, dass es ’sprachlich vermitteltes Wissen‘ in der Form gibt, dass Gruppen von sinnlichen Eindrücken ($latex k \subseteq K_{s}$) mit ‚Worten‘ [EXPRESSIONS, E] ($latex E \subseteq K_{s}$) verknüpft werden können $latex M(K_{s},K_{s})$ (mit M für Meaning), dass diese Verknüpfungen einzeln gelernt werden müssen (sie sind also ‚arbiträr‘, ‚konventionell‘), und dass damit ein intuives1 Wissen entsteht, auf das sich dann das ‚Urteilen‘ beziehen kann.

15. Offensichtlich ist ein solches ’sprachliches Wissen‘ eine ‚komplexere‘ Art von Wissen, da hier nicht einfach nur Muster von sinnlichen Eindrücken als ‚Wissensgegenstände‘ genommen werden, sondern jeweils ‚Paare von Gegenständen‘ mit einem eigenen Namen, wie z.B. M(Baumeigenschaften, ‚Baum‘). Nennen wir diese Art von sprachlich vermitteltem Wissen $latex K_{m}$ (auch als eine Teilmenge von K).

16. Das ‚Urteilen’/ ‚Schlussfolgern‘ soll sich u.a. auch auf dieses sprachliche Wissen $latex K_m$ beziehen können. Avicenna erklärt hier noch nicht wirklich, was er genau unter Urteilen versteht. Allerdings bringt er ein Beispiele (in der Form eines Syllogismus). Wenn man die Annahmen macht (i) Alles, was Farben hat, ist erschaffen und (ii) Die Welt besitzt Farben, dann könnte man folgern (iii) Die Welt ist erschaffen.

17. Diese Folgerungsmuster finden sich schon ca. 1300 Jahre früher bei Aristoteles und sie besitzen eine gewisse ‚intuitive‘ Kraft, was ihnen über die Zeiten hin Eindruck verschaffte. Schaut man näher hin (und die Entwicklung der modernen formalen Logik hat hier unseren Blick geschärft), dann basiert diese ‚Intuition‘ aber auf unterschiedlichen Voraussetzungen, die weitgehend (bis heute!!!) nicht vollständig erklärt worden sind. Die moderne Logik hat sich dieses Problems dadurch entledigt, dass sie die schwer fassbaren ‚Bedeutungsanteile‘ (vgl. das Beispiel M(Baumereignisse, ‚Baum‘)) einfach ersetzt hat durch den abstrakten formalen Begriff ‚Wahrheit‘ [‚true‘, t, $latex \top$], der nur noch eine syntaktische Bedeutung besitzt, und dass die moderne Logik die komplexen sprachlichen Muster ebenfalls durch einfache isolierte Symbole ersetzt hat, um dann alle Folgerungsmuster nur noch unter Voraussetzung des abstrakten Wahrheitsbegriffes und syntaktisch heruntergedimmter Symbole zu untersuchen. Dies hat viele wertvolle Erkenntnisse geliefert, das zentrale Problem einer sprachlich vermittelten Erkenntniss wurde damit aber sich selbst überlassen. Schlimmer noch, seit über hundert Jahren glaubt die Wissenschaft, mit der Erfindung der formalen Logik jetzt alle Probleme eines logischen Alltagsdenkens gelöst zu haben. Das Gegenteil ist der Fall: durch die einseitige Fixierung auf die Spezialisierung mit der formalen Logik fiel das Wissen über das ’normale logische‘ Denken möglicherweise hinter den Reflexionsstand des Mittelalters zurück.

18. Avicenna nennt neben dem ‚intuitiven1‘ Wissen der Sinneserkenntnis und des sprachlichen Wissens noch ein anderes ‚intuitives2‘ Wissen, nämlich jenes, das aus dem ‚ersten Prinzip‘ folge. Er zitiert das Beispiel, dass man aus dem Wissen, dass A=X und B=X ‚intuitiv2‘ folgern könne, dass dann A gleich B sei (Streng genommen müsste man vielleicht einschränkend sagen, dass A nur bezogen auf X gleich B ist). Man kann hier nur vermuten, dass Avicenna ‚implizite Regeln des Denkens‘ unterstellt, die im Denken ‚wirksam‘ werden, und zwar so, dass wir diese Wirkung ‚intuitiv2‘ als ‚richtig‘ empfinden. Nennen wir dieses intutive2 Wissen aus dem ‚ersten Prinzip‘ K_p1. Vielleicht könnte man das so rekonstruieren, dass unser Denken [think, t] aufgrund des intuiven2 Wissens $latex K_{p1}$ in der Lage ist, von Wissen K allgemein auf ‚wahres Wissen‘ [KW] zu schließen, also $latex t: K \times K_{p1} \longrightarrow KW$.

19. Entsprechend könnte man vielleicht auch das ‚Urteilen‘ [judge, j] so rekonstruieren, dass das ‚Urteilen‘ von Wissen allgemein K mittels – noch zu klärender Urteilsregeln $latex K_{p2}$ – auf wahres Wissen schließen kann, also $latex j: K \times K_{p2} \longrightarrow KW$.

20. Wir nehmen hier – bis auf weiteres – einmal an, dass die Prinzipien des Urteilens $latex K_{p2}$ auch den Fall des sprachlichen Wissens einschließen.

21. Es bleibt dann noch der Fall des Wissens, das man von anderen übernommen hat; nennen wir es $latex K_{a}$ (für ‚a‘ von ‚accepted‘).

22. Wie wir wissen, kann dies vielfältige Formen haben, z.B. Verhaltensweisen, die man einfach imitiert, oder aber sprachlich vermitteltes Wissen $latex K_{m}$ über Eigenschaften und Zusammenhänge in der Welt W, das wir ‚hören‘ und zu ‚verstehen/ interpretieren‘ versuchen. Wie wir auch wissen, kann man von der sprachlichen Form grundsätzlich nicht direkt und nicht zweifelsfrei auf die damit intendierte ‚Bedeutung‘ schließen. Überliefertes sprachlich vermitteltes Wissen ist also in allen Fällen zunächst kein ‚volles‘ Wissen, sondern nur ein ‚potentielles‘ Wissen der Art, dass die sinnliche Wahrnehmung perc() von sprachlich vermitteltem Wissen $latex K_{m}$ mit dem aktuell verfügbaren Wissen K des Hörers zwar eine Hypothese [Hyp] über eine mögliche Bedeutung bilden kann, dass diese Hypothese aber dann erst einmal noch überprüft werden muss: Verstehen [‚interprete‘, int] als Abbildung der Form $latex int: perc(K_{m}) \times K \longrightarrow Hyp(M(K_{s}))$. Eine solche Überprüfung von Bedeutungshypothesen ist schwierig, aufwendig und kann niemals zu einer vollständigen Klarheit führen. Alle Welt spricht von der ‚Unschärferelation‘, die Heisenberg in die moderne Physik eingeführt hat; viel weitreichender und problematischer ist jedoch diese radikale ’semantische Unschärferelation‘, die für jeden Menschen gilt. Diese zu verstehen und praktisch zu bewältigen ist eine der wichtigsten Herausforderungen für jeden Menschen zu allen Zeiten und an allen Orten.

23. Also, beim Wissen K werden spezielle Teilmengen unterschieden: sensorisches Wissen$latex K_{s}$, sprachlich vermitteltes Wissen $latex K_{m}$, implizites Denkwissen $latex K_{p1}, K_{p2}$, von anderen übernommenes Wissen $latex K_{a}$, sowie ‚wahres‘ Wissen KW; zusammenfasend $latex K=K_{s} \cup K_{m} \cup K_{p1} \cup K_{p2} \cup K_{a} \cup KW$. Die genauen Beziehungen dieser verschiedenen Wissensformen untereinander ist dabei noch offen.

24. Bezüglich Wissensaktivitäten werden unterschieden: Wahrnehmung perc(), Denken t(), Urteilen j(), Interpretieren int().

25. Alle Details im Umfeld dieser Begriffe liegen bei diesem Standpunkt der Lektüre noch im Dunklen.

26. Wenn man bedenkt, dass im Jahr 2014 alle diese Prozesse weiterhin weitgehend ungeklärt sind (!), dann darf man gespannt sein, was Avicenna vor nunmehr ca. 1000 Jahre dazu gesagt hat.

Eine Fortsetzung findet sich HIER.

QUELLEN

Avicenny, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.

Digital Averroes Research Environment

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 1

VORGESCHICHTE

1. In einem vorausgehenden Beitrag Avicennas Metaphysik hatte ich meine erste Begegnung mit der Person und dem Werk Avicennas (Ibn Sina (980 – 1038)) geschildert. Nach einer ersten begeisterten Lektüre der ersten 100 Seiten gab es aber dann eine lange Unterbrechung; andere Dinge mussten getan werden und forderten meine ganze Kraft.

TEXT ÜBER LOGIK

2. Immerhin ist es mir in dieser Zeit gelungen, die englische Übersetzung eines Werkes von Avicenna über die Logik zu bekommen, eingeleitet und kommentiert von Faran Zabeeh (siehe Quellenangabe unten). Dieser Text lag seitdem die ganze Zeit auf meinem Nachttisch, um gelesen zu werden. Heute habe ich beschlossen, es mit der Lektüre zu versuchen.

GLAUBE UND WISSEN

3. In der vierseitigen Einleitung zum Text über die Logik ordnet Zabeeh Avicenna der Gruppe der islamischen Philosophen zu, die sich aus vielen verschiedenen Nationen rekrutieren. Ein gemeinsames Charakteristikum dieser islamischen Philosophen war es (hierin vergleichbar auch den christlichen Philosophen), die griechische Philosophie – vornehmlich Aristoteles (384-322 v. Chr.) – mit den Grundaussagen ihrer Religion entweder zu ‚harmonisieren‘ oder zu ‚verurteilen‘.

4. Zabeeh erwähnt beispielsweise einen Landsmann von Avicenna, den Theologen Ghazali (1058 – 1111), der sich z.B. die Frage stellte, wie man die religiöse Lehre der ‚Schöpfung aus dem Nichts‘ mit der griechischen Auffassung versöhnen könnte, das ‚Aus Nichts nichts entstehen kann‘. Ein anderer Punkt war die Verträglichkeit des Glaubens an ‚Wunder‘ mit dem Anspruch ‚wissenschaftlicher Erklärung aus Gründen‘, also ganz allgemein: das Verhältnis von ‚Glauben‘ und ‚rationale Vernunft‘ (Englisch: ‚reason‘). Ghazali selbst vertrat die Auffassung, dass eine Versöhnung zwischen Glauben und rationaler Vernunft letztlich nicht möglich sei, was schlecht sei für den Glauben.

5. Eine Gegenposition zu Ghazali wurde von dem spanischen (islamischen) Philosophen Averroes (Ibn Ruschd (1126 – 1198)) repräsentiert. Er sah eine Vereinbarkeit zwischen Aristoteles und dem Glauben dadurch, dass er die religiösen Texte nicht ‚wortwörtlich‘ interpretierte, sondern in ihnen auch eine ‚allegorisierende‘ Darstellungsweise sah, die einen breiteren Interpretationsspielraum bietet.

6. [Anmerkung: Averroes nimmt mit dieser Position eine spätere Entwicklung in der christlichen Bibelwissenschaft vorweg, die ca. 750 Jahre später damit begonnen hatte, die biblischen Texte von ihrer historischen Entstehung her kritisch zu lesen, und dann, auf dieser neu gewonnenen kritischen Basis, neu interpretieren zu können. Mit dieser ‚kritischen‘ Bibelwissenschaften wurde der Blick frei für das größere Ganze und viel weitreichenderen Interpretationen, als sie bis dahin möglich waren. Damit begann eine neue Theologie und eine Versöhnung von Glauben und Wissen wurde unbeschränkt möglich. Allerdings kam diese Entwicklung dann irgendwie wieder zum Stillstand, da ab ca. 1970 die gesellschaftliche Bedeutung der Religionen in den westlichen Ländern kontinuierlich abnahm und es immer weniger Wissenschaftler gab, die sich dieser Aufgabe auf hohem Niveau widmeten.]

WELTANSCHAULICH NEUTRAL: LOGIK

7. Neben den verschiedenen philosophischen Disziplinen Erkenntnistheorie, Metaphysik, Politik und Ethik, die alle irgendwie direkt in Wechselwirkung zu religiösen Auffassungen treten konnten, gab es eine Disziplin, von der selbst ein philosophie-kritischer Theologe wie Ghazali sagte, sie sei weltanschauungsmäßig neutral: die Logik.

8. Zur antiken Logik (Lateinisch: ‚logica vetus‘) gibt es in der deutschen Wikipedia einen sehr guten ersten Überblick.

9. Während die meisten islamischen Philosophen und Wissenschaftler sich – wie auch die christlichen – im Kommentieren und Interpretieren der aristotelischen Texte erschöpften, soll Avicenna streckenweise eine eigenständige Position bezogen haben (vgl. Zabeeh, S.3). Die vorliegende Abhandlung ‚Danesh-Name Alai‘ ist einer von vier Texten, in denen Avicenna über Logik schreibt; sie alle ähneln sich sehr. Der vollständige Text von ‚Danesh-Name Alai‘ ist eine komplette Enzyklopädie mit den Themenbereichen ‚Logik‘, ‚Metaphysik‘, ‚Naturphilosophie‘, ‚Geometrie‘, ‚Astronomie‘ und ‚Musik‘. Im vorliegenden Text geht es nur um den Teil der Logik.

AVICENNA (AUTO-)BIOGRAPHIE

10. Es folgt dann eine Übersetzung der Autobiographie von Avicenna, vollendet von seinem langjährigen Schüler Abu-Abid Gorgani. Lässt man die Details weg, dann zeigen sich folgende große Linien. (i) Aufgrund der herausgehobenen Position seines Vaters konnte Avicenna sich von ’sehr frühen Jugendjahren an‘ bis zu seinem 21.Lebensjahr vollständig dem Lernen und Experimentieren widmen, dies unterstützt durch sehr kundige Lehrer und fürstlichen Bibliotheken. So kam es, dass er (ii) schon mit 18 Jahren von sich sagen konnte, er habe alle Wissenschaften vollständig gelernt, hatte in dieser Zeit auch schon mehrere Bücher verfasst und begann dann (iii) ein Leben als hoher Beamter und Mediziner an verschiedenen Fürstenhäusern. Obgleich er immer sehr belastet war, setzte er seine Studien kontinuierlich (meist Nachts) fort und schrieb eine Unzahl von Büchern, oft mehrbändig.

Zur Fortsetzung HIER klicken.

QUELLEN

Avicenny, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.

Digital Averroes Research Environment

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

WIEDER TRITT FINDEN – Nach einer längeren Pause – WAHRHEIT DEMOKRATIE RELIGIONen

SCHREIBSTILLSTAND

1. Bedingt durch Urlaub und einer vorausgehenden absoluten Stresszeit kam mein Schreiben zum Erliegen – auch gewollt. Ab und zu braucht man Pausen, reale Pausen. Dies bedeutet nicht, dass das Denken aufhört, aber doch zumindest so viel, dass man sich nicht bei jedem Gedanken die Frage stellen muss, ob und wie man dies in einen beschreibbaren Zusammenhang einordnen kann/ sollte.
2. Natürlich rührt dies auch an Grundsätzliches – wie immer – ‚Warum überhaupt schreiben’… das Thema vom allerersten Blogeintrag.

VERSTEHEN WOLLEN

3. Wie auch schon damals entspringt die Antwort nicht aus rein objektiven Gegebenheiten sondern aus der subjektiven Situation, des Verstehen Wollens; die Welt verstehen, sich selbst, die anderen, überhaupt einfach verstehen, und dann vielleicht sogar ein Handeln, das sich davon inspirieren lässt.
4. Und in diesem Prozess des Verstehen Wollens gibt es keinen absoluten Punkt der allerletzten Klarheit, wann etwas vollständig oder wann etwas nur partiell verstanden ist. ‚Verstehen Wollen‘ hat keinen klaren Anfang und kein klares Ende. Es ist ein realer, konkreter Prozess von Lesen, Nachdenken, Reden, Schreiben, Hören, Träumen, Nichtstun, … währenddessen ‚Bilder‘ entstehen, die ‚Zusammenhänge‘ sichtbar machen, von denen man zuvor nichts gewusst hat, die man oft nicht einmal geahnt hat. In gewisser Weise erzeugt erst die ‚gedankliche Bewegung‘ die gedanklichen Zustände des ‚Erkennens‘. Und dies ist das ‚Gefährliche‘ in zweierlei Sinne: ‚gefährlich‘, weil man ‚vor‘ der Bewegung nicht weiß und nicht wissen kann, ob und was man erkennen wird, und gefährlich, weil man sich vorab irgendwelchen Vermutungen, Hoffnungen oder Ängsten hingeben kann, die einen entweder daran hindern, überhaupt das Nachdenken zu beginnen oder einen von vornherein auf eine bestimmte Einschätzung fixieren, die einem im Folgenden mindestens das Nachdenken schwer macht, wenn nicht ganz blockiert.

ERSCHEINT UNÜBERWINDLICH

5. In den letzten Wochen habe ich so viele sehr spannende und provozierenden und anregende Inhalte/ Themen kennen gelernt – ohne dies schreibend zu verarbeiten –, dass dies alles jetzt wie ein riesiger, unüberwindlicher Berg erscheint, der einem jeden Mut nimmt, ihn zu besteigen, sprich: überhaupt wieder zu schreiben; denn, egal wo man anfängt, es hängt da dieses Gefühl im Raum, es ist doch von vornherein vergeblich, sinnlos, unmöglich, diesem Wirrwarr an komplexen Ideen irgendeine Struktur abzugewinnen.

DAS ZUNÄCHST UNWIRKLICH IST DAS EINZIG WIRKLICHE

6. Dies führt zu einem sehr grundsätzlichen Problem, dass mich seit spätestens Frühjahr 2013 immer mehr beschäftigt, und auf das ich noch keine abschließenden Antworten habe: (i) Das, was wir primär als Daten/ Fakten ‚wahrnehmen‘, der Stoff, aus dem unsere ‚Realität‘ gemacht ist, enthält als solches eigentlich nahezu keine Wahrheiten oder Erkenntnisse. Diese (ii) ‚werden erst sichtbar‘, wenn man das sich Ereignende auf der ‚Zeitlinie‘ (mit Hilfe des Gedächtnisses) im zeitlichen (und räumlichen) Kontext sieht, wenn man Häufigkeiten, Wiederholungen, Zusammenhänge ‚bemerken‘ kann, wenn man ‚Einzeldinge‘ als ‚Beispiele‘ (Instanzen) von allgemeinen Mustern (Objekten) erkennen kann, wenn sich aus solchen Zusammenhängen und Mustern weitere allgemeine ‚Strukturen‘ ‚erkennen lassen‘, … kurzum: die einzig ‚wirklichen‘ und ‚wahrheitsfähigen‘ Erkenntnisse finden sich nicht schon in den primären Ereignissen des Alltags, sondern erst und einzig in dem ‚verarbeitenden Denken‘, in den Aktivitäten der individuellen Gehirne, soweit diese in der Lage sind, solche allgemeinen Muster zu erzeugen und damit weiter zu arbeiten.

KLASSISCHE PHILOSOPHIE

7. In der klassischen Philosophie waren dies z.B. Themen der Erkenntnistheorie, der Logik, der Naturbetrachtungen, der Metaphysik/ Ontologie. Hier hat man versucht, das eigene Denken zu ‚belauschen‘ und aus diesen Betrachtungen das ‚Wesentliche‘ vom ‚Unwesentlichen‘ zu unterscheiden. Wirklich ‚große‘ Philosophen wie ein Aristoteles oder ein Avicenna (Ibn Sina) waren sich während ihres Untersuchens der realen Welt immer auch bewusst, dass es in allem Erkennen neben dem sinnlichen Anteil immer auch einen gedanklichen Anteil gibt, und dass es letztlich genau dieser ist, mit dem Erkennen überhaupt beginnt. Unter anderem Kant und Hegel hatten diese Thematik verschärft, aber, anstatt dass wir alle daraus soviel Klarheit ziehen konnten, dass das Denken und das ‚Denken über das Denken‘ immer ‚einfacher‘ würde, ist etwas ganz anderes passiert.

MODERNE LOGIK

8. Mit der Entwicklung der modernen formalen Logik (seit dem Ende des 19.Jahrhunderts) wurde die Logik aus dem allgemeinen Denken herausgelöst und zu einem abstrakten Formalismus weiterentwickelt, dessen Bezug zum konkreten, realen alltäglichen Denken nicht mehr gegeben ist. Zwar führte diese Herauslösung der modernen formalen Logik einerseits zu mehr Freiheiten (z.B. es gibt nicht mehr nur einen Folgerungsbegriff, sondern beliebig viele; es gibt nicht mehr nur ‚wahr’/’falsch‘, sondern unendliche viele Abstufungen von ‚wahr’/’falsch), aber diese Freiheit wurde damit erkauft, dass eine mögliche Beziehung zwischen einem bestimmten Logikkalkül und dem realen Denken in jedem einzelnen Fall erst mühsam hergestellt werden muss und es niemals ganz klar ist, ob und wie dies der Fall ist.

WITTGENSTEIN

9. Leicht zeitversetzt zur Entwicklung der modernen formalen führte Ludwig Wittgenstein im Anschluss an seinen ‚tractatus logico philosophicus‘ mit seinen philosophischen Untersuchungen das gesamte moderne Denken in eine noch größere Freiheit, indem er die scheinbare Unauflöslichkeit von Denken und Sprache als eine quasi kognitive Täuschung entlarvte und mittels zahlloser genialer Beispiele aufzeigte, dass die ‚Bedeutungsinhalte‘, die wir mit unserer Sprache zu transportieren ‚meinen‘, zunächst mal nur die ’subjektiv intendierten‘ Bedeutungsinhalte sind; ob das Gegenüber die ‚gleichen‘ Bedeutungsinhalte aktiviert, wenn wir sprechen, oder ganz andere, das lässt sich immer nur sehr bedingt – wenn überhaupt – feststellen. Auch hier wird die ‚Freiheit‘ damit erkauft, dass der Vollzug eines verstehenden Sprechens an Selbstverständlichkeit – und damit an Leichtigkeit – verliert (was die Feuilletons dieser Welt bislang kaum daran hindert, Wortgewitter über ihre Leser loszulassen, die weniger dem Leser dienen als vielmehr dem Wortruhm des jeweiligen Schreibers).

VEREINSAMTES ALLTAGSDENKEN

10. Diese Neubesinnung auf Logik und die Sprache haben der modernen Wissenschaft zwar entscheidende Voraussetzungen geliefert, um transparent und nachvollziehbar komplexe empirische Theorien zu entwickeln, aber das alltägliche Denken wurde damit quasi sich selbst überlassen. Das Alltagsdenken interessierte plötzlich niemanden mehr …. und wurde damit zum Spielball einer Vielzahl von Interessen, die alle eines gemeinsam haben: Wahrheit spielt nicht nur keine Rolle mehr, sie ist in keiner Weise erwünscht: je weniger klare Regeln umso mehr Freiheit für Manipulation und Verführung.

AUFKLÄRUNG RELIGIONSÜBERGREIFEND

11. In einem sehr bemerkenswerten Leserbrief in der FAZ vom 5.Aug.2014 S.6 macht Heinz Eimer darauf aufmerksam, dass die ‚Aufklärung‘, die zu moderner Wissenschaft und zu demokratischen Staatsbildungen geführt hat, ihre Heimat weder im Christentum noch in irgendeiner anderen Religion hat. Sie ist religionsübergreifend. Angesichts erstarkender fundamentalistischer Tendenzen in den Religionen muss sich ein Staat auf diese seine demokratischen Werte besinnen um sich gegenüber den verschiedenen ‚Vereinnahmungen von Wahrheit‘ konkret und aktiv in Position bringen.
12. Hans Michael Heinig, Professor für öffentliches Recht, Kirchenrecht und Staatskirchenrecht schlägt sich in der FAZ vom 4.Aug.2014 S.6 bei der Frage des Verhältnisses von Aufklärung und Religion zwar nicht auf eine bestimmte Seite, stellt aber fest, dass ‚religiöse Traditionen keinen demokratischen Eigenwert besitzen‘. Nun ja, daraus folgt mindestens, dass die aus der Aufklärung hervorgegangen Demokratien zu ihrer Wesensbestimmung keines Rückgriffs auf eine Religion bedürfen.
13. Und bei Betrachtung der historischen Umstände dürfte die Faktenlage hinreichend stark sein, um zu behaupten, dass Aufklärung und moderne Demokratien nur in schwierigsten Auseinandersetzungen gegen (!) die herrschenden Religionen (organisiert als Kirchen) entstanden sind und sich behaupten konnten. Erst durch sehr klare und massive Abgrenzungen von Religionen gegenüber der allgemeinen Gesellschaft ist Frieden eingekehrt, konnte Wissenschaft sich entfalten, gibt es minimale Menschenrechte.
14. Prof. Heinig diskutiert das Verhältnis von Staat und Religion – im Lichte seiner Profession verständlich – nur aus rechtlicher Sicht und sieht in rechtlicher Sicht in Deutschland die ‚Multikonfessionalität‘ grundsätzlich angelegt. Dass der Islam noch nicht die Gleichbehandlung erfährt wie die traditionellen christlichen Konfessionen führt er im Wesentlichen darauf zurück, dass die islamischen Konfessionen bislang noch nicht so einheitlich organisiert sind wie die christlichen Kirchen. Dies mag stimmen.

JURISTISCHES DENKEN IST ZU WENIG

15. Allerdings zeigt diese rechtliche Betrachtung auch die Grenzen genau solcher rechtlicher Betrachtungen. Juristisch geht es immer nur sehr bedingt um Wahrheit; primär zählt die politisch gesetzte Norm, deren Wirkungskraft zu klären und zu garantieren ist. Ob die politisch gesetzten Normen (Gesetze) ‚wahr‘ sind in einem übergreifenden Sinne, diese Frage kann und will sich das juristische Denken nicht stellen.

RELIGIONEN UND GEWALT

16. Will man aber das ‚Wesen‘ von Religionen und das ‚Wesen‘ moderner demokratischer Gesellschaften verstehen, dann reichen formal-juristische Überlegungen nicht aus; dann muss man sich schon an die ‚Wahrheitsfrage‘ heranwagen. Auf eine sehr spezielle Weise tut dies in einem bemerkenswerten Artikel in der FAZ vom 7.Aug.2014 (S.9) Friedrich Wilhelm Graf unter der Überschrift ‚Mord als Gottesdienst‘. Als emeritierter Professor für Systematische Theologie und Ethik arbeitet er heraus, dass Gewaltbereitschaft und Enthemmung ihren Ursprung genau im Zentrum dessen haben, was die verschiedenen Religionen als ‚Kern ihres Glaubens‘ ansehen.
17. Das Phänomen, dass aus religiösen Gemeinschaften heraus Enthemmungen entstehen können, die zu brutalsten Handlungen führen, ist nach Graf seit den Anfängen der Religionsgeschichte zu beobachten und betrifft alle Religionen ohne Ausnahme: Hinduisten, Buddhisten, Juden, Christen, Muslime, um nur die größten zu nennen.
18. Dort, wo Religionen sich zu Gewalttätigkeiten hinreißen lassen, findet man nach Graf die Aufteilung der Welt in die ’schlechte‘ Gegenwart und die ‚ideale‘ gottgewollte Welt. Aus dieser diagnostizierten Differenz ergibt sich ein religiös motivierter Handlungsdruck, der umso größer ist, als eine solche Differenz von den Gläubigen so behauptet wird. Besteht zusätzlich eine Identifizierung der religiös Handelnden mit der Absolutheit Gottes zustande, wie sie unterschiedlichen Ausmaß immer in Anspruch genommen wurde (bis hin zur Gleichsetzung von menschlichem Akteur und Weisheit und Willen Gottes), dann gewinnt die religiös motivierte Sicht der Welt und das darin gründende Handeln eine Absolutheit, die keinerlei korrigierende Kritik mehr zulässt.
19. Dass religiöse Deutungsmuster, die in Deutschland lange als überwunden galten, in der Gegenwart zu neuer Stärke wiederfinden können (z.B. die vielen sogenannte Glaubenskriege heute) hat – so Graf – auch damit zu tun, dass politische Akteure aller Couleur sich die alten religiösen Symbole, Vorstellungen und Handlungsmuster zu Nutze machen und sie vor ihren eigenen Karren spannen. Direkt zu sagen, dass man persönlich die Macht über Menschen und Regionen in Anspruch nehmen möchte ist weniger erfolgreich, als die Menschen glauben machen, dass es Gottes Wille sei, die anderen zu vertreiben oder zu töten um sich selbst dann in die Position der Macht zu begeben (so diente Religion in der Vergangenheit allerdings immer schon den verschiedenen Herrschern als probates Mittel, um die Loyalität gegenüber der Macht zu fördern).
20. Was allen diesen unterschiedlichen Spielarten religiös motivierter Gewalt gemeinsam ist, das ist nach Graf das völlige Fehlen einer ernsthaften Nachdenklichkeit, von Selbstreflexion, von kritischer Selbstbegrenzung. Stattdessen eine Ganzhingabe unter Inkaufnahme von Tot auf allen Seiten.
21. Abschließend stellt Graf fest, dass wir eigentlich nicht wissen, wie sich solcherart brutalisierte Frömmigkeit zivilisieren lässt.

DIE WAHRHEITSFRAGE BLEIBT NIEMANDEM ERSPART

22. Im Kontext der vorausgehenden Überlegungen legt sich die Frage nahe, inwieweit das neue gesellschaftliche Erstarken von religiösen Bewegungen neben großen sozialen und politischen Spannungen von vielen Regionen unserer Erde nicht auch damit zu tun hat, dass man im Kontext von Religionen (wie Graf auch deutlich feststellt) die ‚Wahrheitsfrage‘ anscheinend ‚tabuisiert‘. Wenn jemand kritische Fragen an eine konkrete Religiosität stellt, wird dies von den religiösen Vertretern überwiegend als Kritik an ‚Gott selbst‘ gedeutet anstatt als Kritik an der Art und Weise, wie bestimmte Menschen mit der Gottesfrage umgehen. Während Aufklärung, moderne Wissenschaft und moderne Demokratien die Möglichkeit eröffnet haben, die Frage nach Gott in ungeahnt neuer Weise, tiefer weitreichender, allgemeiner als je zuvor zu stellen, fürchten die traditionellen Formen von Religion offensichtlich um ihren Einfluss, um ihre Macht und wiegeln jegliche Form von kritischer Reflexion auf die Voraussetzungen von Glauben und Religion einfach ab. Obgleich ‚wahres Denken‘ eine der lautersten Weisen der Annäherung an ‚Gott‘ sein kann, wird ‚wahres Denken‘ im Umfeld von Religionen (ohne Ausnahme!) verbannt, unterbunden, verteufelt. Die europäischen Nationen müssen sich angesichts von islamischen Terrorgruppen zwar an die eigene Nase fassen mit Blick auf die kolonialistischen Greueltaten und konfessionellen Kriegen der Vergangenheit, aber heute, nachdem man mühsam gelernt hat, dass Wahrheit, Gerechtigkeit, Menschlichkeit, Gesellschaft, Gottesglauben auch ganz anders aussehen kann und mit Blick auf eine nachhaltige Zukunft auch ganz anders aussehen muss, heute müssen die aufgeklärten Gesellschaften ihre einseitig zu Materialismus verkümmerte Aufklärung wieder neu beleben, ansonsten werden sie an ihrer eigenen Lüge zugrunde gehen. Jeder Augenblick ist eine Herausforderung für eine mögliche Zukunft; so oder so. Leben ist genau dieses: das ‚Gleichgewicht‘ immer wieder neu herstellen und auf immer höheren ‚Wahrheitsniveaus‘ neu finden; es kann keine dauerhafte Einfachheit geben. Genau das ist die schlimmste Form des Unglaubens.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DENKEINSTELLUNGEN: BEWUSST, EMPIRISCH, KÖRPER, GERHIRN, VERHALTEN …

Vom 'Bewusstsein' zu 'Modellen', die helfen, die Einzelphänomene zu deuten
Vom ‚Bewusstsein‘ zu ‚Modellen‘, die helfen, die Einzelphänomene zu deuten

1. Die Überlegungen zu den Begriffen ‚Bewusstsein/ Nichtbewusstsein‘ setzen indirekt voraus, dass wir in unserer ‚Bewusstheit‘, und darin in unserem ‚Denken‘, verschiedene ‚Einstellungen‘ unterscheiden können.

2. Ein klares Reden über diese verschiedenen Einstellungen ist schwierig, da es sich um Sachverhalte handelt, die sowohl ‚in‘ einer Person verortet sind als auch ‚immateriell‘ in dem Sinne sind, dass sie sich nicht direkt in der ‚Hardware‘ des Körper – sprich: nicht direkt in den Zellstrukturen – ausdrücken. Es handelt sich vielmehr um ‚Funktionen‘ dieser Hardware, um ‚funktionelle Eigenschaften‘, die im ‚Verhalten‘ von großen Zellverbänden ’sichtbar‘ werden, aber auch nicht unbedingt in einem ‚äußerlich beobachtbaren‘ Verhalten, sondern in der ‚Innenperspektive‘ des Gehirns, in jener Form, die wir ’subjektive Erfahrung‘ nennen, wir sprechen von ‚Bewusstsein‘ als der Gesamtheit dieser subjektiven (introspektiven) Erfahrungen. Diese subjektive Erfahrung repräsentiert das ‚funktionelle Verhalten‘ großer Zellverbände, ohne dass dieses Verhalten an den materiellen Eigenschaften der beteiligten Zellen direkt abgelesen werden könnte.

3. Alle die unterscheidbaren Ereignisse, die wir als ‚bewusste Ereignisse‘ unterscheiden können, nennen wir hier ‚Phänomene‘ [PH]. Man könnte daher auch sagen, dass das ‚Bewusstsein‘ [CONSC] gleichbedeutend ist mit der Menge dieser Phänomene, also CONSC = PH.

4. Man kann herausfinden (lernen), dass es eine bestimmte Teilmenge [PHe] der Phänomene [PH] gibt, die zwar subjektive Erlebnisse sind, aber mit etwas ‚korrelieren‘, was ‚außerhalb‘ des Bewusstseins zu existieren scheint, etwas, was auch andere ‚Bewusstseine‘ ‚ähnlich‘ wahrnehmen können, das, was wir ‚intersubjektiv‘ – oder im engeren Sinne ‚empirische‘ – nennen.Das Empirische lässt sich nicht direkt durch das eigene ‚Wollen‘ beeinflussen.

5. Eine Sonderstellung nehmen jene Phänomene ein, die mit dem korrelieren, was wir unseren ‚Körper‘ nennen. Diese sind sowohl empirisch wie auch subjektiv [PHb]. Im Gegensatz zu den ‚reinen empirischen‘ Phänomenen PHe lassen sich die Körperphänomene PHb begrenzt direkt durch das eigene ‚Wollen‘ beeinflussen.

6. Wendet man auf Körperobjekte in der unterstellten Außenwelt die Methoden der Anatomie und Physiologie an, dann kan man ein ‚Modell der Körperstrukturen‘ [BODY] erstellen.

7. Wendet man auf einen Teilaspekt der Außenweltkörper die Methoden der Gehirnwissenschaft an, dann kann man ‚Modelle des Gehirns‘ [NN, BRAIN] erstellen.

8. Wendet man auf das ‚Verhalten‘ der biologischen Außenweltkörper die Methoden der empirischen Psychologie (verhaltensbasierten Psychologie) an, dann kann man Modelle möglicher interner Verarbeitungsstrukturen‘ erstellen, z.B. bzgl. der verschiedenen Gedächtnisfunktionen.

9. Die Beziehung zwischen verhaltensbasierten funktionalen Modellen der Psychologie und den zellbasierten Modellen der Gehirnforschung ist zunächst unbestimmt. Eine wechselseitige Korrelation ist erstrebenswert (dies wären dann Modelle der ‚Neuropsychologie‘).

10. Liegen solche Modelle vor – egal, ob wirklich ‚zutreffend‘ oder ’nicht zutreffend‘ –, dann stehen diese dem bewussten Denken als ‚Orientierungsbilder‘ zur Verfügung, um die verschiedenen aktuellen Phänomene in solche ‚begrifflichen Zusammenhänge‘ einzuordnen und sie dadurch zu ‚deuten‘, zu ‚interpretieren‘.

11. Hier liegt natürlich eine gewisse ‚Selbstreferenz‘ vor: Um die Phänomene unseres Bewusstseins zu deuten, benutzen wir konzeptuelle Modelle (z.B. die funktionalen Modelle der Psychologie). Andererseits haben wir selbst diese konzeptuellen Modelle erstellt. M.a.W. wir selbst konstruieren Zusammenhänge, machen sie explizit, verleihen ihnen einen gewissen ‚deutenden‘, d.h. ’normativen‘, Status, und dann benutzen wir diese Modelle so, als ob sie die Wirklichkeit der unterstellten Außenwelt ‚angemessen repräsentieren‘.

12. Die Modelle selbst sind ’normalerweise‘ nicht vollständig bewusst; sie können aber aufgrund von Ereignissen anhand von ‚verbindenden Ähnlichkeiten‘ ‚aktiviert‘ werden, und zwar so, dass sie deutend wirksam sind. Mit Bezug auf das pschologische Modell würden wir sagen, dass diese Modelle im Langzeitgedächtnis (‚Long Term Memory‘, LTM) ‚gespeichert‘ sind und über sensorische Ereignisse wie auch durch Ereignisse im Kurzzeitgedächtnis ‚aktiviert‘ werden können. Die Neuropsychologie ist leider noch nicht weit genug, um uns hier entscheidend helfen zu können.

13. In der Nutzung von ‚Modellen‘ unterscheidet sich das ‚Alltgsdenken‘ vom ‚wissenschaftlichen‘ Denken nur graduell: im wissenschaftlichen Denken unterliegt der Gebrauch von Modellen und deren Bezug zur unterstellten Außenwelt Regeln der Transparenz, Wiederholbarkeit und Überprüfbarkeit.

14. Allerdings gibt es hier eine ‚historische Altlast‘, deren Aufarbeitung noch aussteht. Die moderne formale Logik (mit Frege, Russel-Whitehead als Bezugspunkt des fortschreitenden Beginns) hat durch die Trennung von ‚Form und Inhalt‘, die sich in der Logik seit Ariostoteles bis ins 19.Jahrhundert gefunden hatte, eine radikale Umwälzung vollzogen, sie hat es aber versäumt, dieses neue Konzept mit dem Alltagsdenken konstruktiv zu versöhnen. Die verschiedenen formalen Semantiken und Ontologien, die für verschiedenste Anlässe entwickelt wurden, bilden in keiner Weise einen ‚Ersatz‘ für den klassischen Bedeutungsinhalt, wie er im Kontext eines sprachlichen Denkens vorliegt. So sehr die aristotelische Logik durch ide unkritische Verknüpfung von Form und Inhalt Schwächen zeigte, so sehr hat die moderne formale Logik hier ein Defizit, das ihren Einsatz im Bereich sprachbasierten Denkens bislang eher einschränkt.

MUSIK

Es gab schon ein Instrumentalstück, aber es hatte so eine eigentümliche ‚Stimmung‘ … das regte mich an, es fortzusetzen mit dem Titel ‚Wenn aus dem Nichtbewusstsein Worte aufsteigen wie Sterne …‘. Ja, es passt zunm Thema. Wenn wir die Sache mit dem Nichtbewusstsein ernst nehmen, dann ist es eine Art von unfaßbarer ‚Dunkelheit‘, die zugleich ein Maximum an Licht bereit hält … es sind die Worte die aus diesem Dunkel-Nichts aufsteigen können wie Sterne… und sie können Licht bringen, nicht nur Hass oder Lüge. Es ist letztlich schwer zu begreifen, warum die einen mehr so, die anderen mehr so fühlen, denken, sprechen, handeln… Es ist sicher nicht so einfach, wie wir uns das oft so gerne zurecht rücken. Es gibt keine absoluten Mauern, keine absolute Dunkelheit, keine totales Ende … was tatsächlich da ist ist etwas ganz anderes, scheint mir …

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

M.DONALD – EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 1

Merlin Donald, A Mind So Rare. The Evolution of Human Consciousness. New York – London: W.W.Norton & Company, 2001

Zur Person von Merlin Donald gibt es einen Eintrag in der englischen Wikipedia und einen kurzen Text der Case Western University. Das aktuelle Buch ist eine Art Weiterentwickung seines Buches von 1991 (s.u.).

1) Dass ich bei einem Buch nur ausgewählte Kapitel bespreche ist neu. Liegt aber darin begründet, dass die im Kontext dieses Blogs interessante Thesen sich erst in den Schlusskapiteln finden (und weil die knappe Zeit eine Auswahl erzwingt).
2) Im Vorwort (‚Prologue‘) (vgl. SS.X – XIV) macht Donald darauf aufmerksam dass wissenschaftlicher Fortschritt nicht selten erst möglich wurde, wenn wir anscheinend gültige alltäglich Wahrheiten als trügerisch und falsch erkannt haben (z.B. erwiesen sich die Atome Demokrits im Laufe der Zeit nicht nur nicht als nicht ’solide‘, sondern die Unterscheidung zwischen Energie und Materie brach grundsätzlich in sich zusammen). Ähnlich erwiesen sich viele Anschauungen der Philosophie und der Psychologie über den menschlichen Geist als Täuschungen. Die Realität unserer Körper bestätigt keine einzige der Anschauungen der letzten Jahrtausende. Ein Schwerpunkt des Buches von Donald liegt darin, dass er die Besonderheit des menschlichen Geistes nicht in der Besonderheit der spezifischen Beschaffenheit des Gehirns alleine liegt (wenngleich es welche aufweist), sondern in der Fähigkeit, ‚Kultur‘ (‚culture‘) hervorzubringen und zu assimilieren. (vgl. S.XIII) Der menschliche ‚Geist‘ (‚mind‘) existiert nicht ‚für sich‘, sondern nur eingewoben in das Netzwerk einer Kultur. Für sich genommen ist ein einzelnes Gehirn isoliert, eingeschlossen in einen Körper, vollständig ’solipsistisch‘. Und es ist eine spannende Frage, wie es möglich war, dass die einzelnen Gehirne ihre Isoliertheit und Gefangenschaft im einzelnen Körper entkommen konnten.
3) Im Kap.1 zeichnet er ein wenig das Spannungsverhältnis zwischen dem Thema ‚Bewusstsein‘ einerseits und dem Thema ‚Evolution‘ andererseits nach. Im Allgemeinen sehen – nach Donald – Vertreter der Evolutionstheorie das Phänomen des Bewusstseins als etwas an, das ganz und gar unwissenschaftlich ist. (vgl. S.1) Als ‚Anti-Bewusstseins-Denker‘ nennt er ausdrücklich die Namen Daniel Dennett (der sich selbst als ‚Philosoph‘ bezeichnet) und den Psychologen Stephen Pinker. (vgl. S.1f) Die Grundthese von diesen beiden und anderen, die Donald nur ‚evolutionäre Hardliner‘ nennt, besteht nach Donald darin, dass sie die ‚Gene‘ und die ‚Maschinerie der Neuronen‘ zu den eigentlichen ‚Akteuren‘ erklären und dem Phänomen des Bewusstseins nur eine ephemere Rolle zubilligen. Die Erfolge der künstlichen Intelligenzforschung nutzen sie dann als zusätzlichen Hinweis darauf, dass man für die Erklärung sogenannter ‚geistiger Eigenschaften‘ keine speziellen ‚geistigen Eigenschaften‘ benötigt, sondern dass die normale ‚Hardware‘ – also sowohl die Chips der Computer wie die Zellen des Gehirns – ausreiche, um diese ‚Geistigkeit‘ – auch in Form eines ‚Bewusstseins‘ – zu erzeugen. (vgl. S.2f) Entsprechend sind auch emergente Phänomene wie ‚Kultur‘ nur Ausstülpungen der zugrunde liegenden ‚Hardware‘. (vgl. S.3) Richard Dawkins hat in diesem Kontext das Denkmodell der ‚Meme‘ eingeführt; diese sieht er in Analogie zu den Genen als Grundelemente kulturellen Denkens.(vgl. S.4) Der einzelne Mensch ist nach Donald in diesem Modell von Dawkins ein willenloses Etwas, von ‚unten‘ determiniert durch die Gene und die übermächtige Hardware des Körpers, von außen durch eine vorgegebene Umwelt und dann, zusätzlich, durch die Meme der Kultur, die von außen in ihn eindringen und seine Wahrnehmung und sein Denken steuern.(vgl. S.4)
4) Diesem das Bewusstsein herunter spielende Denken setzt Donald zahlreiche empirische Befunde entgegen (Oliver Sacks, Melvyn Goodale, A.D.Milner, Tony Marcel, Ariel Mack, Irvin Rock, Peter Juszyck), die alle zusammen die Hypothese unterstützen sollen, dass nahezu alle wichtigen Lernleistungen ganz bestimmte Aufmerksamkeitsleistungen und Bewusstheit voraussetzen. Nachdem man etwas mit Aufmerksamkeit und Bewusstsein gelernt hat, kann man es oft ‚automatisieren‘. Außerdem zeigt sich, dass diese charakteristischen ‚Bewusstheiten‘ mit bestimmten Gehirnarealen korrelieren; werden diese beschädigt sind diese Bewusstheiten nicht mehr verfügbar. (vgl. SS.4-7)
5) Donald sieht sich selbst nicht im Gegensatz zu einer evolutionären Sicht der Entstehung des Lebens. Im Gegensatz zu jenen, die er evolutionäre Hardliner nennt, betrachtet er aber das Phänomen des Bewusstseins, so, wie es sich bei den Menschen dann zeigte, als eine Entwicklung, die etwas Besonderes repräsentiert, das den Menschen von anderen Lebewesen unterscheidet. Natürlich gibt es reale Veränderungen im Gehirn selbst, die nachweisbar sind, aber diese Veränderungen der ‚Hardware‘ erklärt als solche nicht den zusätzlichen ‚Funktionszuwachs‘, der letztlich der Schlüssel zu allem ist, was den Menschen von den anderen Lebewesen markant unterscheidet; das Phänomen der ‚Sprachen‘ ist hier nur ein Aspekt, wenngleich vielleicht ein sehr zentraler. Während alle anderen Lebewesen – soweit wir heute erkennen können – weitgehend von ihren genetisch induzierten Programmen bestimmt sind, hat der Mensch die Fähigkeit erlangt, durch sein Selbstbewusstsein und durch seine Sprachfähigkeit die vorgegebenen Bahnen eindrücklich und nachhaltig aufzubrechen, nicht nur einmal, sondern andauernd. (vgl. S.7f)
6) Donald gibt auch zu, dass er selbst noch keine ‚Theorie des Selbstbewusstseins‘ im engeren Sinn habe und er sieht auch nicht, dass es solch eine Theorie in naher Zukunft geben könnte. Was er aber versucht, das ist die Inblicknahme des Phänomens ‚Selbstbewusstsein‘ in all seinen Manifestationen, in der Hoffnung, dass dann in der Zukunft vielleicht so langsam eine Theorie entstehen könnte, die diese Manifestationen in Beziehung setzen kann zu der zugrunde liegenden Maschinerie.(vgl. S.8f)
7) [Anmerkung: Donald benutzt ohne erkennbare Logik verschiedene Wortmarken abwechselnd, wenn er von (Selbst-)Bewusstsein spricht, z.B. ‚awareness‘, ‚consciousness‘, ’subjective awareness‘. Mir kommt es so vor, als ob die Wortmarke ‚conscsiousness‘ am häufigsten vorkommt. ]
8) Nach Donald fängt das Problem auch schon mit der Schwierigkeit einer klaren Definition an. Er selbst lehnt es ab, das Phänomen des ‚Selbstbewusstseins‘ z.B. auf reine ’sensorische Empfindung‘ oder auf ‚Sprache‘ zu reduzieren. Für ihn zeigt sich das Phänomen auf vielen Ebenen und in vielen Brennpunkten gleichzeitig und es ist zugleich tief verwurzelt in einem evolutionären Prozess. Unsere Art, Dinge ‚bewusst‘ tun zu können zeichnet uns aus vor allen anderen Arten. (vgl. SS.8-10) Dies schließt nicht aus, dass wir Teile unsere zerebralen Maschinerie mit anderen Lebewesen teilen, aber eben nicht alles. (vgl. S.10f) Und das Besondere des Menschen ist eben, dass seine zerebrale Maschinerie nicht nur Sprache und Kultur ermöglicht, sondern – und das ist das absolut Besondere – dass Sprache und Kultur auf den einzelnen Menschen so zurückwirken können, dass er als Teil von Sprache und Kultur einfach ein ‚anderes Wesen‘ wird als ohne diese beiden Elemente. (vgl. S.11)
9) [Anmerkung: Der Text von Donald liest sich recht packend, fast dramatisch. Man spürt, wie er mit den starken Tendenzen in Wissenschaft und Philosophie ringt, das Phänomen des Selbstbewusstseins ‚klein zu reden‘, es ‚weg zu reden‘. Während man es bei empirischen Wissenschaftlern fast noch verstehen kann, dass sie eine ’natürliche Scheu‘ vor zu komplexen Phänomenen haben, die sich einer einfachen empirischen Analyse entziehen, gewinnt es bei Menschen, die sich Philosophen nennen, dann schon fast bizarre Züge. Andererseits, auch das ‚Kleinreden‘ von Phänomenen kann seinen Wert haben und die Position eines Daniel Dennett hat in ihrer Radikalität so manchen vielleicht aufgeschreckt und dazu gebracht, doch auch einmal selbst über das Phänomen Selbstbewusstsein nachzudenken und nicht nur ’nachdenken zu lassen‘.]
10) [Anmerkung: Wie bei allen ‚emergenten‘ Phänomenen (z.B. ‚Wärme‘, ‚Phänotypen‘, ‚Verhalten‘ usw.) ist es natürlich immer am einfachsten sich einer Erklärung ganz zu verweigern und einfach nur auf die hervorbringenden Einzelelemente zu verweisen, die mit dem emergenten Phänomen korrelieren. So sind die einzelnen neuronalen Zellen in einem Nervensystem als solche aufweisbar und man kann einzelne ihrer Eigenschaften ‚messen‘. Aber mit noch so vielem Aufweisen einzelner Zellen kann man das Gesamtverhalten von z.B. nur zwei einzelnen Zellen NICHT erklären, die sich z.B. wie ein logisches Gatter (UND, ODER) verhalten. Von einer ‚höheren Betrachtungsebene‘ aus ist klar, dass es genau diese logische Struktur ist, die da ‚am Werke‘ ist, aber diese logische Struktur als solche ist kein ‚Objekt‘ wie die einzelnen, beteiligten Zellen. Die logische Struktur ist eine ‚Funktion‘ die sich ‚implizit im Verhalten zeigt‘, wenn man das Verhalten entsprechend ‚betrachtet‘. D.h. im ‚Zusammenwirken‘ beider einzelner Zellen zeigt sich eine ‚Eigenschaft‘, die sie beide ‚zusammen‘ haben, aber nur zusammen; bei Betrachtung jeder Zelle für sich würde diese Eigenschaft nicht sichtbar werden. Die Frage ist dann, wie man den ‚ontologischen Status‘ dieser ‚gemeinsamen Eigenschaft‘ bewertet. Die gemeinsame Eigenschaft ist ‚manifest‘, ‚real‘ beim ‚Zusammenwirken‘ und auch nur für denjenigen, der das Zusammenwirken als Zusammenwirken ‚beobachtet‘. Ohne einen Beobachter werden sich beide Zellen – nach unserem Wissen – genauso verhalten, aber für den menschlichen Erkenntnisraum erschließt sich dieser Sachverhalt nur, wenn es wenigstens einen menschlichen Beobachter gibt, der speziell auf das Zusammenwirken der beiden Zellen achtet und der darüber hinaus in der Lage ist, ein ‚Konzept‘ wie das des ‚logischen Gatters‘ oder einer ‚boolschen logischen Funktion‘ zu denken. Jemand, der keine Ahnung von Logik hat, würde das Verhalten der beiden Zellen, obgleich es da wäre, gar nicht wahrnehmen. ]
11) [Anmerkung: Das emergente Phänomen des Selbstbewusstseins ist zwar um ein Unendliches komplexer als unser Zwei-Neuronen-Modell eines logischen Gatters (es gibt ca. 100 Mrd. Nervenzellen die mit dem Phänomen des Selbstbewusstseins korrelieren…), es ist aber strukturell sehr ähnlich. Sollte es spezielle Verhaltenseigenschaften der 100 Mrd. Neuronen geben, die sich eben nur in ihrem Zusammenwirken zeigen, und zwar als ‚reale‘ Eigenschaften, dann wäre es eine Form von ‚kognitiver Blindheit‘, diese nicht wahrzunehmen, nur weil man die dazu notwendigen begrifflichen Konzepte nicht parat hätte. Bei Dennett und Pinker könnte man – wenn man Donald liest – den Verdacht hegen, dass sie von solch einer Spielart ‚kognitiver Blindheit‘ betroffen sind, dass sie nicht einmal im Ansatz anzunehmen scheinen, dass es reale komplexe Eigenschaften geben kann, die sich nur im Zusammenspiel von vielen einzelnen Elementen – in ‚emergenter‘ Weise, wie man so schön sagt – zeigen können. Wenn man bedenkt, wie schwer wir uns mit unserem Denken tun, schon bei vergleichsweise einfachen emergenten Phänomenen (z.B. bei logischen Sachverhalten mit nur ein paar Duzent logischen Operatoren) den Überblick zu behalten, dann wundert es vielleicht nicht, wenn wir bei so unendlich komplexen Phänomen wie den verschiedenen Verhaltenseigenschaften des Gehirns uns eher auf die ‚kognitive Flucht‘ begeben als uns der mühsamen Analyse ihrer impliziten Logik zu unterziehen. ]

Zur Fortsetzung siehe HIER.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

QUELLENNACHWEISE

Ein älteres Buch von Donald:

Merlin Donald, Origins of the Modern Mind. Three stages in the evolution of culture and cognition. Cambridge (MA) – London: Harvard University Press, 1991

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 7, Epilog

Diesem Beitrag ging voraus Teil 6.

BISHER
(ohne kritische Anmerkungen)

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen. Allerdings, und dies ist ein oft übersehener Umstand, durch die Benutzung eines Artefaktes werden nicht die kognitiven Eigenschaften des Benutzers als solchen geändert, sondern – bestenfalls – sein Zugang zum Problem. Wenn in einem solchen Fall zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ des Problems ein Zusammenhang nur schwer bis gar nicht erkennbar werden kann, dann führt dies zu Unklarheiten, Belastungen und Fehlern. Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Im Prinzip sind es drei Bereiche, in denen sich das Besondere des Menschen zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen, der schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses übergreifende Zusammenhänge erkennen kann (was zugleich ein großes Fehlerrisiko birgt), legt Norman dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er erwähnt auch typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem. Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Am Beispiel von Flugzeugcockpits (Boeing vs. Airbus) und Leitständen großer technischer Anlagen illustriert Norman, wie eine durch die gemeinsam geteilte Situation gestützte Kommunikation alle Mitglieder eines Teams auf indirekte Verweise miteinander verbindet, sie kommunizieren und verstehen lässt. In einer simulierten Situation müsste man die impliziten Gesetze der realen Welt explizit programmieren. Das ist nicht nur sehr aufwendig, sondern entsprechend fehleranfällig. Ein anderes großes Thema ist das Problem, wie man Wissen so anordnen sollte, dass man dann, wenn man etwas Bestimmtes braucht, dieses auch findet. Es ist ein Wechselspiel zwischen den Anforderungen einer Aufgabe, der Struktur des menschlichen Gedächtnisses sowie der Struktur der Ablage von Wissen. Nach Norman ist es generell schwer bis unmöglich, die Zukunft vorauszusagen; zu viele Optionen stehen zur Verfügung. Andererseits brauchen wir Abschätzungen wahrscheinlicher Szenarien. Dazu präsentiert er zahlreiche Beispiele aus der Vergangenheit (Privater Hubschrauber, Atomenergie, Computer, Telephon), anhand deren das Versagen von Prognose illustriert wird. Der größte Schwachpunkt in allen Voraussagen ist immer der Bereich der sozialen Konsequenzen. Auffällig in den neuen Entwicklungen ist der Trend, den Menschen im Handeln durch künstliche Charaktere zu ersetzen. Weitere Themen sind ‚Neurointerface‘, kollaborativesArbeiten, Viel ‚Hype‘ um Visionen, wenig Erfolg in der tatsächlichen Realisierung.

WEICHE UND HARTE TECHNOLOGIE

1) Auf den Seiten 221-242 wiederholt Norman Themen, die er auch schon vorher angesprochen hat. Es geht um die Grundeinsicht, dass der Mensch typische Stärken und Schwächen hat, die zu den heute bekannten Fähigkeiten der Maschinen weitgehend komplementär sind (zusammengefasst in einer Tabelle auf S.224).(vgl. SS.221-224) Statt maschinenorientiert zu denken, indem man den Menschen an Maschinen anzupassen versucht und dadurch den Menschen in für Menschen ungünstige Situationen zu pressen (mit entsprechend großem Fehlerpotential), sollte wir eher versuchen, die Maschinen an die Menschen anzupassen. Im Grunde sind beide komplementär und Maschinen könnten den Menschen hervorragend ergänzen.(vgl. SS.224-227)
2) Er stellt dann nochmals gegenüber die Logik, die in den Maschinen zum Tragen kommt, und die Logik des menschlichen Gehirns, die sich vorwiegend in der Art und Weise äußert, wie wir sprechen, wie wir unsere Sprache benutzen.(vgl. SS.227-232). Er illustriert die Gegenüberstellung von ‚maschinenorientierter (harter)‘ zu ‚menschenorientierter (weicher)‘ Technologie an den Beispielen ‚Telephon‘, ‚Briefmarkenautomat‘ sowie einer wissensunterstützenden Software genannt ‚Rabbit‘. (vgl. SS.232-242)

TECHNIK IST NICHT NEUTRAL

3) Auch auf den Schlussseiten SS.243-253 wiederholt Norman nur Thesen, die er zuvor schon mehrfach besprochen hat. Zentral sind ihm die Themen, dass das Medium für ihn im Gegensatz zu Marshall McLuhan nicht die Botschaft ist, wenngleich das Medium durch seine Eigenschaften einen spezifischen Effekt haben kann.(vgl.S.243f)
4) Er verdeutlicht dies (wiederholt) an der Gegenüberstellung von ‚Text lesen‘ und ‚Fernsehen schauen‘. Letzteres ist passiv und lässt in der Regel keine Zeit zur Verarbeitung. Die enorme Fähigkeit des menschlichen Gehirns, Dinge auf unterschiedliche Weise zu verarbeiten und zu gewichten wird durch das Fernsehen neutralisiert und führt nach jahrelanger mehrstündiger Praxis täglich zu deutlich negativen Effekten.(vgl. SS.244-246)
5) Eine Behebung dieses Problems sieht er (wiederholt) in der Einbeziehung des menschlichen Denkens durch eine Einbettung von Fernsehen in einer interaktive Version, bei der die Darbietung jederzeit unterbrochen werden kann.(vgl. S.248f)
6) Seine Schlusszeile lautet: „Menschen schlagen vor, Wissenschaft untersucht, Technologie macht verfügbar (‚conforms‘)“.(S.253)

EPILOG

ZERFLEDDERT

7) Hat man sich durch das ganze Buch durchgekämpft, dann kann man sich nicht des Eindrucks erwehren, dass die Gesamtheit der Themen nicht sehr streng systematisch organisiert worden sind. Viele Themen kommen immer wieder vor, mal mehr, mal weniger durchanalysiert. Dazu kommt, dass die Reflexion über Beispiele nicht konsequent durchgeführt erscheint. Reflexionsansätze werden immer wieder durchbrochen durch eine Vielzahl von Beispielen, die in sich zwar interessant und lehrreich sind, aber letztlich nicht wirklich in einer kohärenten Theorie aufgefangen werden.

GRUNDLEGENDE EINSICHTEN

8) Dieser negative Eindruck wird aber durch zwei positive Aspekte ausgeglichen: (i) die vielen ausführlichen Beispiele (die ich hier nicht im einzelnen beschrieben habe) illustrieren sehr schön den Reichtum seiner praktischen Erfahrungen; (ii) seine Grundthesen erscheinen mir tatsächlich fundamental, grundlegend, auch nach nunmehr 20 Jahren seit dem ersten Erscheinen des Buches.
9) Zwar nimmt in der Wirtschaft das Bewusstsein für bessere Bedienbarkeit von Geräten deutlich zu, aber eher weniger durch theoretische Einsicht sondern vielmehr durch die Realität des Marktes: schlechte Bedienbarkeit führt zu realen wirtschaftlichen Verlusten oder kann bei Zulassungsverfahren zum Ausschlusskriterium werden.
10) Das grundsätzliche Verhältnis von Menschen vs. Maschinen hat sich im Bewusstsein der Mehrheit deswegen nicht unbedingt zugunsten des Menschen verschoben. Die Unterhaltungsindustrie lebt jedenfalls extensiv von der immer wieder neuen Variierung des Themas ‚Intelligente Maschinen bedrohen die Existenz der Menschen‘.
11) Ich finde, dass Norman zurecht die Stärken und Schwächen des Menschen thematisiert und dass er im großen und ganzen die Möglichkeiten einer technischen Intelligenz demgegenüber als potentiell komplementär skizziert. Aus eigener Erfahrung im Hochschulbetrieb weiß ich, dass im Bereich der Informatik und Ingenieurwissenschaften das explizite Bewusstsein vom ‚Faktor Mensch‘ höchstens bei jenen wenigen Professoren gegeben ist, die das Thema ‚Mensch-Maschine-Interaktion‘ explizit betreuen; aber selbst in dieser verschwindend kleinen Gruppe gibt es noch genügend, die das Fach ‚maschinenorientiert‘ verstehen: wie kann ich den Menschen am besten an die Gegebenheiten eines bestimmten technischen Systems anpassen?‘.
12) Seine letztlich tiefgreifenden Einsichten in den Fundamentalzusammenhang zwischen Menschen und Technologie berühren allerdings ein Thema, das weit über die Disziplin Mensch-Maschine Interaktion hinausgeht. Es berührt den grundsätzlichen Wertekanon einer informationstechnologisch geprägten Gesellschaft, berührt die grundsätzlichen Fragen nach dem ‚Selbstbild des Menschen‘, die Frage, wie wir als Menschen uns selbst sehen, begreifen, verstehen angesichts einer immer mehr beschleunigten Komplexität.
13) Und in diesem Bereich der übergreifenden ‚Weltbilder‘ erleben wir neben einer großen Ungleichzeitigkeit zwischen unterschiedlichen Regionen und Kulturen auf der Erde im Bereich der stark wissenschaftlich geprägten Gesellschaften ein gefährliches denkerisches Vakuum: Bis zum Beginn der Entwicklung neuzeitlicher experimenteller und formal-mathematischer Wissenschaften verbanden die Menschen das ‚Lebendige‘, speziell den ‚Menschen‘ – also sich selbst – mit der Kategorie, etwas ‚Besonderes‘ zu sein, und die unterschiedlichen Manifestationen dieser Besonderheiten im Verhalten nannte man – im weitesten Sinne – z.B. ‚intelligent‘, ‚vernunftbegabt‘, ‚geistig‘, bis dahin, dass man einem Menschen einen ‚Geist‘ unterstellte (was immer dies auch im einzelnen war), der einen Menschen genau zu diesem wunderbaren Verhalten befähigt. Dieser unterstellte ‚Geist‘ war eine beliebte Projektionsfläche für sehr vieles, u.a. auch für religiöse Vorstellungen. Mit dem Fortschreiten der experimentellen und formalen Wissenschaften begann aber eine zunehmende ‚Durchleuchtung‘ der empirischen Welt, auch des menschlichen Körpers einschließlich Gehirn, auch des Universums, und überall fand man immer nur noch Kleineres, Zellen, Moleküle, Atome, Quanten, aber eben keinen ‚Geist‘. Diese zunehmende Zerkleinerung mit Verlust der Sicht auf potentielle Zusammenhänge oder Hervorbringungen haben die Aura des ‚Besonderen‘ denkerisch ausgetrocknet. Die ‚Rückbesinnungen‘ auf das typisch, ursprünglich Menschliche, auf immer buntere Formen von Religiosität, wirken in diesem Zusammenhang wie Verzweiflungsaktionen, eher emotional, wenig rational, kaum erhellend, auf keinen Fall kraftvoll genug, um die Stellung des Menschen (und überhaupt des Lebens) im Kosmos nennenswert zu stärken. In einer solchen denkerisch ausgehöhlten, ausgelutschten Situation gibt es keine wirklichen Argumente für den Menschen. Philosophie und Religion sind sprachlos, die Wissenschaft gefangen in ihre einzelwissenschaftlichen Zerkleinerungen eines großen Ganzen, das dem Blick entschwunden ist. Die Lücke füllen Fantasien aller Arten.
14) Das schon mehrfach erwähnte ‚Emerging Mind Project‘ stellt in diesem Zusammenhang einen Versuch dar, den Zusammenhang wieder zurück zu gewinnen und das Phänomen des ‚Lebens‘ (einschließlich des Menschen) in seiner spezifischen Rolle neu sichtbar zu machen. Technologie wird hier dann zu einem genuinen Teil des Lebens, nicht als Gegensatz, sondern als ‚genuiner Teil‘!

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

DONALD A.NORMAN, THINGS THAT MAKE US SMART – Teil 5

Diesem Beitrag ging voraus Teil 4.

BISHER

In den vorausgehenden Teilen wurden bislang zwei Aspekte sichtbar: einmal die ‚Menschenvergessenheit‘ in der Entwicklung und Nutzung von Technologie sowie die Einbeziehung von ‚wissensunterstützenden Dingen‘ sowohl außerhalb des Körpers (physisch) wie auch im Denken selber (kognitiv). Ferner hatte Norman die Vielfalt des Denkens auf zwei ‚Arbeitsweisen‘ reduziert: die ‚erfahrungsorientierte‘ Vorgehensweise, ohne explizite Reflexion (die aber über ‚Training‘ implizit in die Erfahrung eingegangen sein kann), und die ‚reflektierende‘ Vorgehensweise. Er unterschied ferner grob zwischen dem Sammeln (‚accretion‘) von Fakten, einer ‚Abstimmung‘ (‚tuning‘) der verschiedenen Parameter für ein reibungsloses Laufen, Schreiben, Sprechen, usw., und einer Restrukturierung (‚restructuring‘) vorhandener begrifflicher Konzepte. Ferner sieht er in der ‚Motivation‘ einen wichtigen Faktor. Diese Faktoren können ergänzt werden um Artefakte, die Denkprozesse unterstützen. In diesem Zusammenhang führt Norman die Begriffe ‚Repräsentation‘ und ‚Abstraktion‘ ein, ergänzt um ‚Symbol‘ (nicht sauber unterschieden von ‚Zeichen‘) und ‚Interpreter‘. Mit Hilfe von Abstraktionen und Symbolen können Repräsentationen von Objekten realisiert werden, die eine deutliche Verstärkung der kognitiven Fähigkeiten darstellen.

PROBLEMZUGANG DURCH INTERFACE VERBESSERN

1) Auf den S.77-113 widmet sich Norman dem Thema, wie Artefakte die Behandlung einer Aufgabe ändern können. Er geht dabei aus von der fundamentalen Einsicht, dass die Benutzung eines Artefaktes nicht die kognitiven Eigenschaften des Benutzers als solchen ändert, sondern – bestenfalls – den Zugang zum Problem. (vgl. S.77f).
2) [Anmerkung: Wir haben also zwei Situationen Sit1= und Sit2= mit ‚P‘ für ‚Problem=Aufgabe‘, ‚Int‘ für ‚Interface = Artefakt‘ und ‚U‘ für ‚User = Benutzer‘. Während in Situation 1 der Benutzer mit seinen ‚angeborenen kognitiven Strukturen‘ das Problem verarbeiten muss, kann er in Situation 2 auf ein Interface Int zurückgreifen, das idealerweise alle jene Aspekte des Problems, die für ihn wichtig sind, in einer Weise ‚aufbereitet‘, die es ihm ‚leichter‘ macht, mit seinen ‚angeborenen‘ kognitiven Fähigkeiten damit umzugehen. Nehmen wir zusätzlich an, dass der Benutzer U ein lernfähiges System ist mit der minimalen Struktur U= und fu: I x IS —> IS x O, dann würde man annehmen, dass das Interface eine Art Abbildung leistet der Art Int: P —> I und Int: O —> P. Wie ‚gut‘ oder ’schlecht‘ ein Interface ist, könnte man dann einfach daran überprüfen, wieweit der Benutzer U dadurch seine Aufgaben ’schneller‘, ‚leichter‘, ‚mit weniger Fehlern‘, mit ‚mehr Zufriedenheit‘ usw. leisten könnte.]
3) Norman macht dann auf den Umstand aufmerksam, dass zwischen den wahrnehmbaren Eigenschaften eines Artefakts und den korrelierenden ‚Zuständen‘ bei der heutigen stark integrierten Technologie oft kein Zusammenhang mehr erkennbar ist. Dies führt zu Unklarheiten, Belastungen und Fehlern. Er spricht sogar von dem ‚Oberflächen‘- (’surface‘) und dem ‚Internen‘- (‚internal‘) Artefakt. (vgl. S.70-81).
4) [Anmerkung: Die Unterscheidung von ‚Oberfläche‘ und ‚Intern‘ halte ich für problematisch, da natürlich jedes Artefakt, das als Interface einen Benutzerbezug hat letztlich nur über sein äußerlich beobachtbares Verhalten definierbar und kontrollierbar ist. Die jeweiligen internen Strukturen sind eher beliebig. Allerdings macht die Unterscheidung von ‚Oberflächeneigenschaften‘ und ‚Funktionszustand‘ Sinn. Wenn also ein Drehknopf die Lautstärke reguliert, dann wäre der Drehknopf mit seiner ‚Stellung‘ die Oberflächeneigenschaft und die jeweilige Lautstärke wäre ein davon abhängiger ‚Funktionszustand‘ oder einfach ‚Zustand‘. Der Zustand wäre Teil der Aufgabenstellung P. Das, was ein Benutzer U kontrollieren möchte, sind die verschiedenen Zustände {…,p_i.1, …, pi.n,…} von P. Nimm man also an, dass das Interface Int auch eine Menge von Oberflächeneigenschaften {ui_i.1, …, ui_i.m} umfasst, dann würde ein Interface eine Abbildung darstellen der Art Int: {…,ui_i.j, …} —> {…,p_r.s,…}. Nehmen wir an, die Menge P enthält genau die Zustände des Problems P, die ‚wichtig‘ sind, dann wäre es für einen Benutzer U natürlich um so ‚einfacher‘, P zu ‚kontrollieren‘, (i) um so direkter die Menge dom(Int) = {ui_i.1, …, ui_i.m} bestimmten Problemzuständen entsprechen würde und (ii) um so mehr die Menge dom(Int) den kognitiven Fähigkeiten des Benutzers entsprechen würde. ]
5) Auf den SS.82-90 illustriert Norman diesen grundlegenden Sachverhalt mit einer Reihe von Beispielen (Türme von Hanoi, Kaffeetassen).

COMPUTER KEIN MENSCH
FORMALE LOGIK vs. ALLTAGS-LOGIK

6) Norman wiederholt dann die Feststellung, dass die Art wie das menschliche Gehirn ‚denkt‘ und wie Computer oder die mathematische Logik Probleme behandeln, grundlegend verschieden ist. Er unterstreicht auch nochmals, dass die Qualität von psychologischen Zuständen (z.B. im Wahrnehmen, Denken) oft keine direkten Rückschlüsse auf die realen Gegebenheiten zulassen. (vgl. S.90-93)
7) [Anmerkung1: Die Tatsache, dass die ‚formale Logik‘ Logik der Neuzeit nicht der ‚Logik des Gehirns‘ entspricht, wird meines Erachtens bislang zu wenig untersucht. Alle Beweise in der Mathematik und jenen Disziplinen, die es schaffen, mathematische Modelle = Theorien zu ihren empirischen Fakten zu generieren, benutzen als offizielle Methode der Beweisführung die formale Logik. Diese formale Logik arbeitet aber anders als die ‚Logik des Alltags‘, in der wir mit unserem Gehirn Abstrahieren und Schlüsse ziehen. In meiner Ausbildung habe ich erlebt, wie man vom ‚alltäglichen‘ Denken in ein ‚formales‘ Denken quasi umschalten kann; man muss bestimmte Regeln einhalten, dann läuft es quasi ‚wie von selbst‘, aber das Umschalten selbst, die Unterschiede beider Denkweisen, sind meines Wissens bislang noch nie richtig erforscht worden. Hier täte ein geeignetes Artefakt = Interface wirklich Not. Während man im Bereich der formalen Logik genau sagen kann,was ein Beweis ist bzw. ob eine bestimmte Aussage ‚bewiesen‘ worden ist, kann man das im alltäglichen denken nur sehr schwer bis gar nicht. Dennoch können wir mit unserem alltäglichen Denken Denkleistungen erbringen, die sich mit einem formalen Apparat nur schwer bis (zur Zeit) gar nicht erbringen lassen. (Auf den SS.128f ergänzt Norman seine Bemerkungen zum Unterschied von formaler Logik und dem menschlichen Denken.)]
8) [Anmerkung2: Daraus folgt u.a., dass nicht nur die Ausgestaltung von konkreten Artefakten/ Schnittstellen sehr ausführlich getestet werden müssen, sondern auch der Benutzer selbst muss in all diesen Tests in allen wichtigen Bereichen vollständig einbezogen werden.]
9) Auf den SS.93-102 diskutiert Norman diesen allgemeinen Sachverhalt am Beispiel von graphischen Darstellungen, Für und Wider, beliebte Fehlerquellen, gefolgt von einigen weiteren allgemeinen Überlegungen. vgl. S.102-113)
10) Auf den Seiten 115-121 trägt Norman viele Eigenschaften zusammen, die für Menschen (den homo sapiens sapiens) charakteristisch sind und die ihn nicht nur von anderen Lebewesen (einschließlich Affen) unterscheiden, sondern vor allem auch von allen Arten von Maschinen, insbesondere Computer, einschließlich sogenannter ‚intelligenter‘ Maschinen (Roboter). Im Prinzip sind es drei Bereiche, in denen sich das Besondere zeigt: (i) der hochkomplexe Körper, (ii) das hochkomplexe Gehirn im Körper, (iii) die Interaktions- und Kooperationsmöglichkeiten, die soziale Strukturen, Kultur und Technologie ermöglichen. Die Komplexität des Gehirns ist so groß, dass im gesamten bekannten Universum nichts Vergleichbares existiert. Die Aufzählung von charakteristischen Eigenschaften auf S.119 ist beeindruckend und lässt sich sicher noch erweitern.
11) [Anmerkung: Im Bereich Mench-Maschine Interaktion (MMI)/ Human-Machine Interaction (HMI) – und ähnlich lautenden Bezeichnungen – geht es – wie der Name schon sagt – primär um die Beziehungen zwischen möglichen technischen Systemen und den spezifischen Eigenschaften des Menschen. In der Regel wird aber der Mensch ‚als Mensch‘, die besondere Stellung des Menschen nicht so thematisiert, wie es hier Norman tut. Die MMI/ HMI Literatur hat immer den Hauch einer ‚Effizienz-Disziplin‘: nicht die Bedürfnisse des Menschen als Menschen stehen im Mittelpunkt, sondern (unterstelle ich jetzt) ein übergeordneter Produktionsprozess, für dessen Funktionieren und dessen Kosten es wichtig ist, dass die Mensch-Maschine Schnittstellen möglichst wenig Fehler produzieren und dass sie mit möglichst geringem Trainingsaufwand beherrschbar sind. In gewissem Sinne ist diese Effizienzorientierung legitim, da der Mensch ‚als Mensch‘ in sich eine Art ‚unendliches Thema‘ ist, das kaum geeignet ist für konkrete Produktionsprozesse. Wenn ich aber einen konkreten Produktionsprozess verantworten muss, dann bin ich (unter Voraussetzung dieses Prozesses) gezwungen, mich auf das zu beschränken, was notwendig ist, um genau diesen Prozess zum Laufen zu bringen. Allgemeine Fragen nach dem Menschen und seiner ‚Bestimmung‘ können hier nur stören bzw. sind kaum behandelbar. Andererseits, wo ist der Ort, um über die Besonderheiten des Menschen nachzudenken wenn nicht dort, wo Menschen real vorkommen und arbeiten müssen? Philosophie im ‚Reservat des gesellschaftlichen Nirgendwo‘ oder dort, wo das Leben stattfindet?]

EVOLUTIONÄRE HERLEITUNG DES JETZT

12) Mit Bezugnahme auf Mervin Donald (1991) macht Norman darauf aufmerksam dass die auffälligen Eigenschaften des Menschen auch einen entsprechenden evolutionären Entwicklungsprozess voraussetzen, innerhalb dessen sich die heutigen Eigenschaften schrittweise herausgebildet haben. Das Besondere am evolutionären Prozess liegt darin, dass er immer nur ‚weiterbauen‘ kann an dem, was schon erreicht wurde. Während moderne Ingenieure immer wieder auch mal einen kompletten ‚Neuentwurf‘ angehen können (der natürlich niemals radikal ganz neu ist), kann die biologische Evolution immer nur etwas, was gerade da ist, geringfügig modifizieren, also ein System S‘ zum Zeitpunkt t+1 geht hervor aus einem System S zum Zeitpunkt t und irgendwelchen Umgebungseigenschaften (E = environmental properties): S'(t+1) = Evol(S(t),E). Die Details dieses Prozesses, so wie Donald sie herausarbeitet, sind sicher diskutierbar, aber das Grundmodell sicher nicht.(vgl. SS.121-127)
13) [Anmerkung: Obwohl die Wissenschaft heute die Idee einer evolutionären Entwicklung als quasi Standard akzeptiert hat ist doch auffällig, wie wenig diese Erkenntnisse in einer theoretischen Biologie, theoretischen Psychologie und auch nicht in einer Künstlichen Intelligenzforschung wirklich angewendet werden. Eine ‚Anwendung‘ dieser Einsichten würde bedeuten, dass man relativ zu bestimmten phäomenalen Verhaltenseigenschaften nicht nur ein Strukturmodell S'(t) angibt, das diese Leistungen punktuell ‚erklären‘ kann, sondern darüber hinaus auch ein evolutionäres (prozessurales) Modell, aus dem sichtbar wird, wie die aktuelle Struktur S'(t) aus einer Vorgängerstruktur S(t-1) hervorgehen konnte. In der künstlichen Intelligenzforschung gibt es zwar einen Bereich ‚evolutionäre Programmierung‘, aber der hat wenig mit der bewussten theoretischen Rekonstruktion von Strukturentstehungen zu tun. Näher dran ist vielleicht das Paradigma ‚Artificial Life‘. aber da habe ich aktuell noch zu wenig Breitenwissen.]

GESCHICHTEN

14) Nach kurzen Bemerkungen zur Leistungsfähigkeit des Menschen schon mit wenig partiellen Informationen aufgrund seines Gedächtnisses Zusammenhänge erkennen zu können, was zugleich ein großes Fehlerrisiko birgt (vgl. S.127f), verlagert er dann den Fokus auf die erstaunliche Fähigkeit des Menschen, mit großer Leichtigkeit sowohl komplexe Geschichten (’stories‘) erzeugen, erinnern, und verstehen zu können. Er verweist dabei vor allem auf die Forschungen von Roger Schanck.(vgl. 129f)

TYPISCHE MENSCHLICHE FEHLER

15) Norman erwähnt typische Fehler, die Menschen aufgrund ihrer kognitiven Struktur machen: Flüchtigkeitsfehler (’slips‘) und richtige Fehler (‚mistakes‘). Fehler erhöhen sich, wenn man nicht berücksichtigt, dass Menschen sich eher keine Details merken, sondern ‚wesentliche Sachverhalte‘ (’substance and meaning‘); wir können uns in der Regel nur auf eine einzige Sache konzentrieren, und hier nicht so sehr ‚kontinuierlich‘ sondern punktuell mit Blick auf stattfindende ‚Änderungen‘. Dementsprechend merken wir uns eher ‚Neuheiten‘ und weniger Wiederholungen von Bekanntem.(vgl. S.131) Ein anderes typisches Fehlerverhalten ist die Fixierung auf eine bestimmte Hypothese. Es ist eine gewisse Stärke, einen bestimmten Erklärungsansatz durch viele unterschiedliche Situation ‚durchzutragen‘, ihn unter wechselnden Randbedingungen zu ‚bestätigen‘; zugleich ist es aber auch eine der größten Fehlerquellen, nicht genügend Alternativen zu sehen und aktiv zu überprüfen. Man nennt dies den ‚Tunnelblick‘ (‚tunnel vision‘). (vgl. SS.31-138)

Fortsetzung folgt mit Teil 6

LITERATURVERWEISE

Merlin Donald, „Origins of the Modern Mind: Three Stages in the Evolution of Culture and Cognition“, Cambridge (MA): Harvard University Press,1991

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

EIN ABEND MIT DEM SALON SLALOM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Dezember 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderung: Postscript 23.Febr.2021

Loser Kontakt

Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:

http://salonslalom.wordpress.com/termine/hinter-dem-phanomen-lauert-das-ich-aber-was-kommt-dann/. Der Ort war also, wie man aus der Ankündigung entnehmen kann, im INM (Institut für Neue Medien, url: http://www.inm.de), da einige Mitglieder explizit das INM mal kennen lernen wollten (in Frankfurt nicht ganz unbekannt).

Wintereinbruch

Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.

Harakiri?

Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.

Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:

Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…

Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.

Phänomene und hinter den Phänomenen

Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,

Vielschichtigkeit des Menschen (vier verschiedene Bilder von Wikipedia (en) zusammengesetzt (siehe Quellenangaben unten)

um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.

Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.

Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).

Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).

Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?

Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.

Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.

Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.

Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.

Die klassische Musikproduktion und Rezeption wird heute ergänzt durch eine technische Muskproduktion auf der Basis der Mathematik. Damit dehnen sich die potentiellen Klangräume schier unendlich aus.

Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.

Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).

The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…

Mathematik und Computer

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.

Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.

Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.

Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).

Intelligenz bei Tieren und Computern

Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.

Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.

Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.

Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.

Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.

Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.

Zentrale Komponenten eines minimalen lernenden Classifier Systems (ohne Anzeige des Bedürfnisses Hunger). Mit Hilfe des Fitnesswertes können alle jene Komponenten hervorgehoben werden, die im Zusammenwirken einen Pfad generieren. Fitnessgeber können auch ‚eingebaut‘ sein

Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.

Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?

Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.

Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.

In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.

Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:

Verhaltensformel Mensch: phi: I x IS —> IS x O

Verhaltensformel UTM: phi: I x IS —> IS x O

Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.

Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:

You are the message of the universe (Rap-like…)  Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..

PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….

PS2: Es gab noch eine recht intensive Diskussion.

PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechend kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Definition entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müsste man von daher vielleicht sagen, dass wir in diesem Experiment zeigen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.

PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…

Literaturnachweise

Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
Wilson, S.W. ZCS: a zeroth level classifier system, Evolutionary Computation, 2(1), 1-18 (1994)

POSTSCRIPT 23.Februar 2021

8 Jahre und drei Monate später … es hat etwas Berührendes, nach einer so langen Zeit einen eigenen Text samt Musikbeispielen nochmals zu lesen (und zu hören). Alles gesagte würde ich auch heute wieder unterschreiben. Es ist sehr ‚zum Punkt‘; besonders das Rapp-artige Musikstück ‚You are the message of the universe‘ geht mir noch immer ‚unter die Haut‘. Das im Text angekündigte Experiment am INM hatte tatsächlich unter dem Label ‚emerging-mind‚ stattgefunden. Aber es ist wieder versandet… Seit ca. 2018/19 ist ein neues Projekt entstanden, nicht wirklich geplant, aber irgendwie auch nicht planlos, und gewinnt immer mehr Fahrt. Der innere Motor ist der Gedankenkomplex ‚Kollektive Mensch-Maschine Intelligenz. Der treibende Motor ist die Vereinigung von Philosopie, Engineering und Gesellschaft. Ausgang offen, aber die Dynamik ist stark. Das Thema ‚You are the Message of the Universe‘ schwingt in allem weiter …

Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER

SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?

COMPUTERSPIEL

 

(1) In Computerspielen müssen die Spieler in der Regel Aufgaben lösen, für die sie dann irgendwie ‚belohnt‘ werden (Tierdressur funktioniert nach einem ähnlichen Prinzip…). Meist gibt es dann verschiedene ‚Level‘ die man aufgrund der spielerischen Leistungen erreichen kann (Punktezahlen, ein vergleichender Rang mit anderen, mehr Handlungsmöglichkeiten, …). Zugleich werden die Aufgaben ’schwieriger‘, umfassender, ‚bedeutsamer‘. Und wenn es kein expliziter ‚Level‘ ist, dann ist es ein ‚quantifizierbarer‘ Zustand (mehr Einwohner, mehr Waffen, mehr Land, ….). Für die Spieler ist ihre Spielwelt ‚real‘, sind die durch das Spielen ausgelösten Erlebnisse ‚real‘. Wenn ich über die Kopfhörer (oder die HiFi-Anlage) die Geräusche der Spielwelt höre, die Gespräche anderer Spielteilnehmer, ich in 3D eine Situation wahrnehme mit nahezu realistisch anmutenden Pflanzen, Gegenständen, Körpern usw. bei der ich selbst die Perspektive steuern und Aktionen einfließen lassen kann, dann erzeugt dies schon eine sehr realistisch wirkende Situation, der man sich nur mit Mühe entziehen kann (obgleich das Gehirn, wenn es soll/ will, den Unterschied noch erkennen kann).

 

 

SIND WIR EINE SIMULATION?

 

(2) Nicht erst seitdem es Computerspiele gibt haben sich Menschen darüber Gedanken gemacht, ob all das, was wir erleben, ‚wirklich real‘ sei, ob wir nicht einer großen ‚Täuschung‘ unterliegen (z.B. Platons Höhlengleichnis, Descartes Reflexionen über einen unbezweifelbaren Wahrheitsgrund), oder ob wir nicht Teil einer gigantischen ‚Simulation‘ seien (möglicherweise Leibnizens Spekulationen über die Möglichkeit der Welt in seiner später so genannten Schrift ‚Monadologie‘, verschiedene — mittlerweile sehr viele — Science-Fiction Bücher und Filme (z.B. Simulacron 2, 13th Floor, Matrix, um nur einige zu nennen). Ein kürzlicher, vergleichsweise systematischer Versuch unter Berücksichtigung der modernen Physik findet sich bei Witworth (2008). Dazu mein Kommentar an der angegebenen URL).

 

(3) Eines der methodischen Problemen mit solchen Überlegungen ist, dass das Wort ‚Simulation‘ voraussetzt, dass man zwischen mindestens zwei ‚Bereichen‘ unterscheiden kann, dem ‚Simulierten Bereich‘ – nennen wir ihn den ‚S-Raum‘ [SR] – und der ‚hervorbringenden Funktion‘ – nennen wir dies die ‚S-Funktion‘ [f_s] –. Sofern wir als Menschen solche Simulationen organisieren befinden wir uns ‚außerhalb‘ dieser Simulationen, d.h. wir sind im ‚organisierenden Raum‘ [OR], innerhalb dessen der simulierte Raum SR , die simulationserzeugende Funktion f_s, und wir als Simulationsarrangeure [SA] als Bestandteile vorkommen, also irgendwie OR(x) gdw x = <SA, SR, f_s,…>. Auf jeden Fall sind wir nicht selbst direkt Bestandteile unsere eigenen Simulationsräume, höchstens mittels sogenannter ‚Avatare‘ (quasi ‚Platzhalter‘). Dies sind simulierte Objekte im Simulationsraum, die über vereinbarte Interaktionen zwischen SR und SA Eigenschaften des Simulationsarrangeurs in der simulierten Welt repräsentieren können und umgekehrt.

 

(4) Wenn jetzt also spekuliert wird, ob wir nicht selbst Teil einer Simulation seien, d.h. dass unsere ganze Welt eine ’simulierte Welt‘ sei (ein Simulationsraum: Welt = SR_Welt), dann macht diese Rede nur Sinn, wenn wir annehmen, dass es einen ‚übergeordneten‘ organisierenden Raum OR_Welt gibt, innerhalb dessen wir als simulierter Raum vorkommen, dann muss es auch jenseits unserer simulierten Welt SR_Welt eine erzeugenden Simulationsfunktion f_s_Welt geben, also OR_Welt(x) gdw x = <SA_Welt, SR_Welt, f_s_Welt,…>. Weder die Simulationsfunktion f_s_Welt noch die zugehörigen Simulations-Arrangeure und ihre möglichen organisierenden Räume sind uns direkt zugänglich.

 

(5) Die alten Philosophen nannten Spekulationen über die mögliche Wirklichkeit ‚hinter‘ der erfahrbaren Welt hinaus ‚Meta-Physik‘. Dies kann ein sehr seriöses Geschäft sein; bei unsachgemäßer Handhabung wird es aber zu einer ‚Spekulationsblase‘ die mehr verwirrt, als sie klarstellt‘. Und in ’naiven‘ Formen der Spekulationen über ‚das, was die Welt im Inneren zusammenhält‘ finden wir dann die bekannten Formen von ‚Aberglauben‘, ‚Magie‘, ‚Mythen‘, ‚Märchen‘, ‚Propaganda‘, ‚Ideologien‘, usw. Natürlich enthalten alle diese ‚Grenzformen‘ des Wissens meist einen kleinen Teil an ’scheinbarer‘ Wahrheit als ‚Einstiegsdroge‘ in das dann einsetzende größere Verwirrspiel. Aber entscheidend ist der Gesamtzusammenhang, der durch diese Verwirrspiele in der Regel die Bruchstellen mit der Wahrheit verdeckt.

 

(6) Dies scheint mir auch im Fall des Redens über die Welt als ‚Simulation‘ der Fall zu sein. Unser ‚Meta-Wissen‘ über mögliche Zusammenhänge ‚hinter‘ der erfahrbaren Welt beziehen wir aus einem Standpunkt ‚in‘ dieser Welt (laut Simulationshypothese sind wir ‚in‘ dem simulierten Raum SR_Welt). Jede Form von ‚Spekulation‘ über die möglichen Gesetzmäßigkeiten der erfahrbaren Welt sind –aber auch in einer simulierten Welt — letztlich ‚Netzwerke von Begriffen‘ (natürliche Sprachen, Diagramme, mathematische Formeln,…), die im bestmöglichen Fall als ‚empirische Theorien‘ organisiert sind, deren Erfahrungsbezug über nachkontrollierbare Experimente verlaufen und deren ‚Zusammenhang‘ über eine nachvollziehbare ‚Logik‘ organisiert ist (über das dazu notwendige ‚Know-How‘ verfügt die Menschheit erst seit ca. Beginn des 20.Jahrhunderts (mit ersten ‚Spuren‘ eines solchen KnowHows – wie so oft – schon zu früheren Zeiten), wobei es selbst in der offiziellen Wissenschaft bei den meisten Wissenschaftlern sicher noch kein wirkliches explizit abrufbares Wissen darstellt). Fast alle ‚Nicht-Wissenschaftler‘ wissen nichts von alledem (allerdings: selbst Leute mit einem Doktortitel können faktisch – trotz aller akademischen Regeln – noch in einem magisch-mythischen Denken in all jenen Bereichen verhaftet sein, die sie nicht direkt untersucht haben; nicht auszuschließen ist sogar, dass sie selbst in ihrem eigenen Untersuchungsbereich Ansätze zu Magie und Mythos huldigen, da es akademische Bereiche gibt, die ohne explizite Theorien auskommen…!!!).

 

(7) Wenn also – selbst in einer simulierten Welt – die Gesamtheit der Wissenschaften zu einem bestimmten Zeitpunkt – z.B. im Jahr 2008, als der Artikel von Witworth publiziert wurde — eine empirische Theorie T_2008 hatte, in der keine erzeugende Funktion f_s_Welt_2008 vorkommt, dann kann man die Einführung einer solchen Funktion seitens Witworth in die offizielle Theorie zunächst einmal als ‚Spekulation‘ bezeichnen. Spekulationen gehören bis zu einem gewissen Grade zum Alltagsgeschäft der Wissenschaft. Man spielt mal verschiedene ‚Varianten‘ der Begriffsnetze durch um zu prüfen, ob man damit die bekannten Daten eventuell ‚besser‘ erklären kann (wobei es nicht einfach ist, zu definieren, was ‚besser‘ in jedem Fall bedeutet (hier zitiert man gerne Ockhams Rasiermesser und ähnliche ‚vertraute Sprüche’…). Grundsätzlich ist die Hypothese von Witworth – falls sie eine ’seriöse‘ Variante der allgemeinen Welttheorie ist, und das nehmen wir bis zum Beweis des Gegenteils hier an – zunächst einmal nichts anderes als eine andere ‚formale Variante‘ eines Begriffsnetzes, also neben der geltenden Welttheorie T_2008 (die es so natürlich nirgends explizit gibt) nun eben T_2008_Witworth. Damit hat sie die ‚gleiche Aussagekraft‘ (die gleiche ‚Bedeutung‘, den gleichen ‚Beschreibungsumfang‘, den gleichen ‚Wahrheitswert‘,…) wie die offizielle Variante T_2008. Nur die benutzten Worte sind ‚verschieden‘ (so sprechen   z.B. die einen von ‚Grad Celsius‘, die anderen von ‚Fahrenheit‘, die einen von ‚miles per hour‘, die anderen von ‚Kilometer pro Stunde‘. Andere ‚Worte‘ erschaffen nicht notwendigerweise einen neuen ‚Inhalt‘. In der Theorie der Informatik gibt es z.B. neben dem Konzept der Berechenbarkeit repräsentiert im Konzept der Turingmaschine sehr viele andere Konzepte (formale Sprachen, funktionsbasierte Kalküle,…) die völlig verschiedene Begriffe und Regeln benutzen, die aber alle – wie bewiesen wurde – den ‚gleichen‘ Begriff der Berechenbarkeit repräsentieren. Wenn also irgendwer plötzlich anfängt, von der erfahrbaren Welt als von einer ‚Simulation‘ zu sprechen, dann bedeutet dies bezogen auf die erfahrbare Welt nicht notwendigerweise irgendetwas Neues. Der abweichende Wortgebrauch fällt zu Beginn noch auf, dann aber –wie heute –, wenn immer mehr das Wort ‚Simulation‘ benutzen, fällt nicht einmal mehr das  auf. Ich sehe nicht, dass das Reden von Simulation im Falle der Welterklärung irgendeine nennenswerte brauchbare neue Erkenntnis geliefert hat oder liefert.

 

 

WIR SIND MONADEN

 

(8) Eventuell ist die Benutzung des Begriffs ‚Monade‘ hier nicht ganz glücklich, da das Konzept der Monade bei Leibniz (ursprünglich 1714 französisch, dann 1720 deutsch, dann 1721 lateinisch), ein sehr komplexes Begriffsnetz voraussetzt, das mit den populären Verkürzungen (von denen ich hier Gebrauch mache) nur wenig gemein hat. Immerhin hat er Formulierungen, die in Richtung der Vereinfachungen deutbar sind (siehe Beispiele: (Nr.51) … eine geschaffene Monade keinen physischen Einfluss auf das Innere der anderen haben kann… (Nr.56) …..dass jede einfache Substanz..fortwährender lebendiger Spiegel der Welt…(Nr.57) ..dass es wegen der unendlichen Menge der einfachen Substanzen gleichsam ebenso viele verschiedene Welten gibt, die gleichwohl nichts anderes sind als die perspektivischen Ansichten des einzigen Universums, je nach den verschiedenen Gesichtspunkten jeder einzelnen Monade….(Nr.60) … es ist also nicht der Gegenstand, sondern die Abstufung der Erkenntnis des Gegenstandes, worin die Monaden beschränkt sind…(Nr.61) … Aber eine Seele kann in sich selbst nur das deutlich Vorgestellte lesen; sie kann nicht auf einen Schlag auseinanderlegen, was in ihr zusammengefaltet ist, denn diese Fältelung geht ins Unendliche…(alles nach der Übersetzung von Glockner))(Vielleicht schaffe ich mal demnächst eine ausführliche Diskussion des ganzen Textes der sogenannten Monadologie)..

 

(9) Die vereinfachende Grundidee ist die einer Monade als eines Systems, das zwar mit der umgebenden Wirklichkeit in einem gewissen Austausch steht, aber bzgl. jener internen Zustände, die seine Geistigkeit charakterisieren, gibt es keinen direkten Austausch, sondern nur einen hochgradig ‚vermittelten‘.

 

(10) Dies entspricht dem heutigen Erkenntnisstand von dem Gehirn im Körper, das nur sehr begrenzt Informationen von der ‚Welt jenseits des Körpers‘ empfangen kann und das auf seine Weise immer komplexere ‚Modelle‘ einer ‚möglichen Außenwelt‘ entwirft, die wir als ‚Bewusstsein‘ eines solchen Gehirns mit Körper so benutzen, als ob die Modelle die Welt selbst seien. D.h. schon an der Wurzel unserer Erkenntnis basiert unser Weltzugang auf einer ‚Simulation einer möglichen Welt‘, die allerdings so gut ist, dass wir damit nicht nur viele praktische Aufgaben befriedigend lösen können, sondern darüber hinaus fällt es uns Menschen im Alltagsbetrieb fast nie auf, dass ‚unsere‘ Welt gar nicht die Welt ist, innerhalb deren diese simulierten Welten auftreten (natürlich kann man den Unterschied zwischen der simulierten Welt genannt ‚Bewusstsein‘ und ‚Außenwelt‘ feststellen, aber nur bei expliziter Reflexion und sehr oft nur durch Einbeziehung expliziter experimenteller Arrangements).

 

 

MONADEN ALS OFFENE SYSTEME

 

(11) Entscheidend scheint aber zu sein, dass unsere Monadenstruktur eben nicht vollständig ist; wir sind keine völlig abgeschlossenen Systeme, weder auf der körperlichen Ebene noch auf der geistigen.

 

(12) Wie wir heute wissen sind unsere körperlichen Strukturen Teil eines evolutionären Geschehens, innerhalb dessen sich alle Körper (‚Phänotypen‘ von zugrunde liegenden ‚Genotypen‘, aus denen die Phänotypen mittels Wachstum hervorgehen) in direkter Wechselwirkung mit der umgebenden ‚Welt‘ so herausgebildet haben, dass die ‚äußeren‘ Bedingungen nahezu vollständig alles bestimmt haben, was sich dann faktisch ‚entwickelt‘ hat. Nichts an den Phänotypen des biologischen Lebens (Bakterien, Pflanzen, Tiere, homo sapiens sapiens,….) ist ‚einfach so‘ entstanden; alles, radikal alles ist eine ‚Antwort‘ auf die Vielzahl der ‚Randbedingungen‘, die die umgebende Welt repräsentiert (wäre das Leben auf einem anderen Planeten, in einem anderen Sonnensystem entstanden (was wir grundsätzlich nicht ausschließen können, dass dies auch geschehen ist), dann würde die evolutionäre Entwicklung unausweichlich andere konkrete Strukturen favorisiert haben als jene, die wir kennen. Allerdings nicht beliebig andere, sondern nur ’solche andere‘, die die ‚Anreicherung von freier Energie in sich selbst organisierenden Strukturen‘ ermöglichen.

 

(13) Von daher sind die inneren Zustände der empirischen Monaden nicht völlig unbestimmt, sondern gebunden an Phänotypen, die hochgradige Ähnlichkeiten aufweisen (Leibniz spricht – wenngleich auch mit einer etwas anderen Konnotation – von der sogenannten ‚prästabilisierten Harmonie‘, ein Gedanke, den die moderne Physik und Biologie letztlich vollständig bestätigen) und die auch wechselseitig über kontinuierliche Kausalketten miteinander verknüpft sind. Es gibt innerhalb des Universums keinen radikal ‚isolierten‘ Ort, eher einen beständigen ‚Austausch‘).

 

(14) Zusätzlich benutzen die Lebewesen auf jeder Komplexitätsebene die materiellen Interaktionsmechanismen, um mittels dieser ‚direkten‘ Interaktionsereignisse ‚indirekte‘ (kodierte) Ereignisse zu ‚übertragen‘ und dann zusätzlich zu ‚interpretieren‘, ‚deuten‘, ‚verstehen‘, indem materielle Ereignisse zu ‚Zeichen‘ werden, mittels deren sich ‚Bedeutungen‘ kodieren lassen. Aufgrund der hochgradigen Ähnlichkeiten der materiellen, körperlichen Strukturen lassen sich solche semiotischen Kodierungsprozesse bis zu einem gewissen Grade erfolgreich durchführen. Sofern solche semiotischen Kodierungen gelingen lassen sich ‚abstrakte‘ (und ‚virtuelle‘!) Modelle entwickeln, die ‚mögliche Weltzustände‘ repräsentieren, die zur Orientierung für komplexe Handlungsabläufe werden können, die ohne diese semiotische Kodierungen unmöglich wären. Trotz der Abgeschlossenheit der ‚inneren‘ Zustände einer Monade von der Außenwelt ist also ein kontinuierlicher ‚Strom‘ von semiotischen Ereignissen möglich, der zu einem daran ‚gekoppelten‘ kontinuierlichen ‚Verarbeitungsprozess‘ ‚im Innern‘ einer Monade führen kann. In diesem Sinne sind wir als ‚Monaden‘ ‚offene Systeme‘, die sich bis zu einem gewissen Grad mit den Zuständen anderer Monaden ‚koordinieren‘ können.

 

STUFEN DER INTERAKTION

 

(15) Wie die Kulturgeschichte der Menschheit als Teil der übergreifenden biologischen Evolution (diese wiederum als Teil der übergreifenden kosmischen Entwicklung!) zeigt, haben sowohl die materiellen Interaktionsmöglichkeiten wie auch die semiotischen sowohl an Quantität wie auch an Komplexität zugenommen. Im Falle des homo sapiens sapiens kann man geradezu von einer Explosion sprechen, die sich in unvorstellbar kurzer Zeit entwickelt hat und die zugleich eine Beschleunigung andeutet, die – gemessen an der geringen Veränderungsgeschwindigkeit der körperlichen Trägerstrukturen — auf den ersten Blick bedrohlich wirken können (verglichen mit den hier stattfinden Problemkomplexen wirken die Angstreflexe an den Börsen angesichts von Kursverfällen geradezu lächerlich, was nicht heißt, dass diese Kursverläufe konkrete Existenzen im aktuellen gesellschaftlichen Gefüge ‚finanziell‘ zerstören können…).

 

(16) Im Laufe von mindestens 3.5 Mrd Jahren hat das Leben auf der Erde viele sehr dramatische Veränderungen erlebt (beständige Klimawechsel mit großen Eiszeiten, gewaltige Vulkanausbrüche, Einsturz von Kometen mit der Vernichtung von bis zu 90% aller Arten, usw.), aber der homo sapiens sapiens stellt eine so ‚hochentwickelte‘ Lebensform dar, dass er viele solcher Änderungen, wie sie in der Vergangenheit schon stattgefunden haben, heute eher gar nicht überleben würde. Dazu kommen vom homo sapiens sapiens selbst verursachte Veränderungen (z.B. durch erhöhten Verbrauch endlicher Ressourcen für Energie, Ernährung, Trinkwasser, …), die absehen lassen, wann die endlichen Kreislaufsysteme, die bislang über natürliche Rückkoppelungsprozesse eine gewisse Regulierung erfahren hatten, ins Ungleichgewicht kommen.

 

(17) Andererseits hat man den Eindruck, dass die gesamte Entwicklung – von der der homo sapiens sapiens ja nicht isoliert gesehen werden darf – genau auf den Punkt zuläuft, wo nach der kosmologischen, dann der chemischen und schließlich der biologischen Evolution nun eine Art ‚kognitive‘ (man könnte auch ‚geistige‘ sagen) Evolution stattfinden muss, in der die bislang vorwiegend randomisiert-kombinatorischen Suchprozesse im Umfeld des Planeten Erde zusätzlich durch technologisch gestützte modellbasierte Suchprozesse ergänzt werden müssen, um den nächsten ‚Entwicklungsschritt‘ (den nächsten ‚Level‘) zu schaffen. Dieser muss mindestens so ‚kontextsensitiv‘ sein wie die vorausgehenden Entwicklungsprozesse, da die komplexen Prozesse der umgebenden Natur bislang noch in keiner Weise vom homo sapiens sapiens alleine gesteuert werden können. Sicher wird – sofern der homo sapiens sapiens es nicht ‚vermasselt‘ — der Punkt kommen, wo der homo sapiens sapiens nicht nur vor der Notwendigkeit steht, seine Koexistenz mit den vorhanden Systemen dramatisch zu verbessern, er wird es auch können. Alles ist in gewisser Weise daraufhin ‚angelegt‘ (zumindest deutet die gesamte bisherige Entwicklung in genau diese Richtung).

 

 

KOMPLEXITÄTSPROBLEME UND FALSCHE ETHIK

 

(18) Momentan erleben wir – erstmalig für das Leben auf dieser Erde – dass die Handlungsmöglichkeiten des Lebens in Gestalt des homo sapiens sapiens eine immer größere Veränderungsgeschwindigkeit erzeugen, dass aber die Basis dieser Veränderungen, die körperliche Struktur (der Phänotyp) des homo sapiens sapiens sich nicht mit gleicher Geschwindigkeit mitverändert. Zwar wissen wir alle, dass der heutige Phänotyp des Menschen ein ‚Zwischenprodukt‘ ist, etwas ‚Gewordenes‘, auf keinen Fall etwas ‚Endgültiges‘, und in seiner konkreten Ausgestaltung auch nur gerechtfertigt durch die konkreten Lebensnotwendigtkeiten, die vor ca. 200.000 bis einige Millionen Jahre vor unserer Gegenwart (BP := Before Present) bestanden hatten, dennoch leisten wir uns den Luxus einer sogenannten Ethik, nach der wir das menschliche Genom nicht verändern dürfen. Wenn man weiß, dass wir nur deshalb heute leben, weil dieses Genom in den vorausgehenden 3.5 (oder mehr) Milliarden Jahren beständig und kontinuierlich verändert worden ist, dann wirkt es geradezu makaber, dass unter dem Vorwand, Leben zu erhalten, genau das verboten wird, was überhaupt unser Leben ermöglicht hat. Im übrigen ist kein einzelner Mensch ‚Herr‘ über das biologische Leben. Klassisch würde man dies als ‚Hybris‘ bezeichnen. Wenn wir dem Leben ‚dienen‘ wollen dann sicher nur dort und darin, wo wir die Mechanismen, die Leben ‚möglich‘ machen, immer weiter identifizieren und weiter unterstützen. Auf jeden Fall müssen wir das psychische Inventar des homo sapiens sapiens dramatisch verbessern (wobei wir niemanden haben, den wir fragen können! Wir sitzen alle im gleichen Boot des Suchens….).

 

 

OPEN END

 

(19) Ich höre an dieser Stelle mal auf. Natürlich wurde – wie immer – vieles Wichtiges nicht gesagt. Vieles ist zudem kryptisch, verlangt ausführlichere Erklärungen. Aber das genau ist Teil unseres Problems: wir müssen sehr große, komplexe Probleme mit Hilfe eines – trotz allem Fantastischen – sehr endlichen Gehirn mit sehr primitiven Kommunikationsmöglichkeiten in vergleichbar kurzer Zeit lösen. Dazu kommt ein Arsenal von Emotionen und Gefühlen, die für diese Aufgabe wenig geeignet sind (siehe vorausgehende Blog-Einträge). Nichtsdestotrotz, je mehr ich über diese Dinge nachdenke, um so mehr verfestigt sich in mir das Gefühl, dass es in allem viel, viel mehr ‚Ordnung‘ gibt als ‚Chaos‘. Denn, in welcher ‚dunklen‘ Ecke man auch immer anfängt herum zu gucken, über kurz oder lang findet man ‚Spuren‘ von Ordnung. Dies hängt natürlich auch damit zusammen, dass wir selbst als homo sapiens sapiens durch und durch ein hochintegriertes Ordnungssystem darstellen, aus dem wir nicht aussteigen können (weswegen auch der französische Strukturalismus als Antistrukturalismus bestenfalls amüsant war; was soll schon herauskommen, wenn man sein eigenes Gehirn zu leugnen versucht…). Aber genau ist dann auch wichtig: sollte um uns herum tatsächlich nur Chaos herrschen, dann könnte sich auch in keiner Weise irgendeine Ordnungsstruktur daraus entwickeln. Die Tatsache, dass dies aber der Fall war, zeigt, dass es ein sehr hohes Mass an vorgegebener Ordnung gegeben haben muss (und gibt). Zudem bestätigen alle bekannten wissenschaftlichen Ergebnisse genau dieses. Methodisch ist es natürlich allemal besser, man arbeitet mit der ‚Null-Hpothese‘ (in diesem Fall: nur Chaos). Wenn man dann allerdings immer nur und immer mehr ‚Ordnung‘ findet, sollte man sich gelegentlich auch mal den ‚Luxus‘ erlauben, über das Gefundene konstruktiv nachzudenken. Vielleicht scheuen die meisten davor zurück, weil dies z.B. bedeuten würde, wir müssten uns einer neuen Ethik stellen, die vieles von den liebgewordenen Normen in Frage stellt. Noch schlimmer: dem homo sapiens sapiens käme eine Verantwortung zu, nicht für alles und jedes, aber doch für die Lebenden eine ‚totale’…für jeden…wer mag das schon…

 

Drei Jahre später gibt es einen neuen Eintrag, in dem die Worte ‚Computerspiel‘ und ‚Level‘ vorkommen, aber dort konkreter in Richtung von Stufen des phlosophischen Bewusstseins.

 

QUELLENNACHWEISE

 

G. Doeben-Henisch, URL: Skript (ältere Version), dort der Abschnitt ‚Physical World as Virtual Reality?

 

Whitworth, B., The physical world as a virtual reality, CDMTCS Research Report, CDMTCS-316, 2007, http://arxiv.org/abs/0801.0337 1-17, rev. 2008

 

G. W. Leibniz: Monadologie (Deutsch). Übersetzt , eingeleitet und erläutert von Helmut Glockner Stuttgart: Reclam, 1954

 

G. W. Leibniz: Monadologie (Französisch/Deutsch). Übersetzt und herausgegeben von Hartmut Hecht, Stuttgart: Reclam, 1998. ISBN 3-15-007853-9 (eine online Version der ersten deutschen Übersetzung von Köhler 1720 findet sich hier: http://gutenberg.spiegel.de/buch/2790/1)

 

 

 

Eine Übersicht über alle bisherigen Themen von Autor cagent findet sich hier.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

DIE ANDERE DIFFERENZ (im Gespräch über das, was ein ‘glücklicher Zustand’ sein soll)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 2.März 2012

(1) Im Nachklang zu meinem letzten Blogeintrag und in Erinnerung an ein Gespräch, das ich gestern mit einem lieben Freund hatte (und davor mit einem meiner Studenten), trat nochmals die Frage in den Mittelpunkt, was denn das Besondere am Leben sei. Als einzelne(r) erlebt man das Leben aus der individuellen Perspektive und aus dieser Perspektive eröffnen sich zahllose Paradoxien (Widersprüche): z.B. stehen die Endlichkeit des Körpers und der individuellen Lebenszeit in einem scheinbar unauflösbaren Widerspruch zum persönlichen Wunsch nach einem glücklichen, unbeschwerten Leben. Denn, der Körper ist nicht nur endlich, sondern auch geschwängert mit zahllosen Bedürfnissen, Trieben, Emotionen und Gefühlen, die auf vielfältige Weise Spannungen in das Lebensgefühl hineintragen, Unruhen, Unzufriedenheiten, Ängste und dergleichen mehr. Dazu kommt für die überwiegende Anzahl der Menschen die tägliche Notwendigkeit, Zeit und Energie aufwenden zu müssen – man nennt es ‚Arbeiten‘ –, um den ‚Lebensunterhalt‘ zu sichern. Für die allerwenigsten ist diese Arbeit das, was sie tun würden, wenn sie nicht diesem ‚Zwang‘ unterliegen würden; für die meisten erscheint die Arbeit als ‚Last‘, und für nicht wenig ist sie eher ‚Hölle‘ denn ‚Himmel‘. Die täglichen Qualen, die hier sehr viele Menschen erleiden müssen, würden, könnte man sie hörbar machen, eine ‚Musik des Grauens‘ entstehen lassen, die den wenigen, die sich – aus welchen Gründen auch immer –, dieser täglichen Hölle entziehen können, das Leben unerträglich machen, wobei es sicherlich mehr ‚Höllen‘ in diesem Sinne gibt, als der äußere Anschein auf den ersten Blick an Eindruck erweckt. Denn die Endlichkeit, in der wir uns als individuelle Menschen vorfinden ist in sich eine Struktur, der niemand entfliehen kann. Das ‚Hineingeworfensein‘ in das tägliche Leben hat eine Uerbittlichkeit, die letztlich über allem und jedem steht, sie ist Teil unseres Vorkommens in dieser Welt, Teil unseres Erlebens und Fühlens, Teil unseres Denkens, unentrinnbar, wesentlich, selbst im Versuch des ‚Nicht-Denkens‘ verbleibt eine grundlegende ‚Differenz‘ ähnlich wie der kosmischen Hintergrundstrahlung, die noch 13.2 Mrd Jahre nach dem ‚BigBang‘ Kunde gibt, von diesem Anfangsereignis.

(2) Beschreibungen von ‚Glück‘ und ‚Zufriedenheit‘ orientieren sich oft an der gewünschten ‚Abwesenheit‘ der täglichen Spannungen, Abwesenheit von ‚Müssen‘, Abwesenheit von ‚Unruhen‘ oder, konkreter, durch Erfüllung konkreter Bedürfnisse und Triebe wie ‚viel Geld‘, ‚viel Macht‘, ’sexuelle Befriedigung‘, ‚tolles Essen‘, ‚eigenes Haus mit Garten‘, usw. Alle solchen ‚konkreten‘ Erfüllungswünsche tragen den Samen zu neuer Unzufriedenheit, den Samen zu neuen Spannungen schon in sich, bevor sie überhaupt so richtig ‚das Licht dieser Welt‘ erblickt haben. Es sind Wechselpositionen, bei denen man eine Unzufriedenheit gegen eine andere (neue) eintauscht. Hier sind wir alle gern und leicht ‚Wiederholungstäter‘; wir sind unzufrieden mit dem ‚Bisherigen‘, trennen uns, weil wir die Unzufriedenheit loswerden wollen, und schon sind wir im scheinbar ‚Neuen‘ genau wieder da, wo wir eigentlich herkommen: weil wir nicht wirklich etwas Neues kennen oder suchen landen wir immer wieder bei dem, was uns vertraut ist, selbst im Muster der ‚Flucht‘.

(3) Ähnlich der klassischen bewusstseinsorientierten Philosophie, in der alle – auch noch so großen – Gedanken im engen Raum des bewussten Erlebens wie Atome an die Wände eines Behälters prallen und so auf engem Raum verharren, und den Anschein von Aporien (Widersprüchen) entstehen lassen, so unterliegt unser subjektives Erleben der permanenten Gefahr, seine eigentümliche Kraft in einer Art dauerhaften ‚psychischen Selbstverbrennung‘ zu verzehren, anstatt zu erleben, dass es weit über sich selbst hinausweisen kann, dass es sehr wohl individuelle Schranken überwinden kann, dass es nicht nur dem Anschein nach, sondern ‚wirklich‘, ‚real‘ ‚grenzenlos‘ sein kann.

(4) Dies kann man aber nur erkennen, wenn man den Blick über den Augenblick hinaus ausweitet und sich der Zusammenhänge bewusst wird, die alle wirksam sind dafür, dass man selbst in dem jeweiligen Augenblick ‚da ist‘, und zwar ’so‘ da ist, wie man sich gerade vorfindet. Denn, schon der eigene Körper, in den man sich so leicht verlieben kann, ist so da, ohne dass man selbst irgend etwas dafür getan hätte; natürlich, die Ernährung dieses Körpers, die tägliche Bewegung oder Nicht-Bewegung können diese Körper beeinflussen, können ihn ‚dick‘ oder ‚dünn‘ machen, können ihn ‚verschleißen‘ und dergleichen mehr, aber dies sind nur Modulationen eines Grundthemas, das als solches uns vorgegeben ist. Grundsätzlich finden wir uns vor mit unserem Körper, mit den Eigenschaften dieses Körpers; wir finden uns vor mit anderen Menschen, die wir uns nicht ausgesucht haben, wir finden uns vor in Gebäuden, Strassen, Infrastrukturen, die wir selbst nicht gemacht haben, wir finden uns vor mit Pflanzen und Tieren, die wir nicht gemacht haben, mit einer Atmosphäre, einer Erde, usw. Strenggenommen gibt es nahezu nichts von Bedeutung, was wir selbst dazu beigetragen haben, dass das Leben ist, wie wir es vorfinden. Merkwürdigerweise scheint es es nur wenige Menschen zu geben, denen diese Grundtatsache bewusst ist. Nicht wenige zeigen ein Selbstgefühl im Sinne eines ‚Grundanspruchs auf alles‘, ‚Hier bin ich, seht doch, ich habe ein Anspruch auf…‘. Dabei sind Alle ‚Gewordene‘, ungefragt; alle sind Teil eines größeren Prozesses, der nicht nur Orte und Regionen umfasst, sondern die ganze Erde, unser Sonnensystem, unsere Milchstraße, ja sogar das gesamte Universum: wer sich dieser Perspektive verschließt, wird vermutlich niemals verstehen, verstehen können, wer er ist, was das Ganze soll. Es kann keine ‚partielle‘ Wahrheit geben; dies ist ein Widerspruch in sich.

(5) Was ist ein ‚wirklich glücklicher Zustand‘? Wir Menschen haben unzählige Bilder entwickelt von dem, was wir als ’schön‘ und ‚gut‘ empfinden wollen, unzählige (Texte, Musik, Mode, Rezepte, Bauten, soziale Gebilde, Verhaltensweisen,….), aber, was auch immer es war oder ist, im Moment des Geschehens ist klar, dass das nicht ‚voll wirklich‘ sein kann, weil es einen nächsten Moment gibt, noch einen, und noch einen und dann verfällt entweder das mühsame zubereitete Gebilde oder das Erlebnis ist vergangen, wird zur Erinnerung, oder wir selbst haben uns verändert, verändern uns beständig weiter, und noch so viele ‚Verdrängungsmassnahmen‘ können auf Dauer unser Altern und Sterben nicht verhindern, und was ist ’schön‘ und ‚wahr‘ im Moment des Sterbens?

(6) Was also ist ein ‚wahrhaft glücklicher Zustand‘? Die Logik hat uns gelehrt, dass wir nur Dinge als ‚logisch wahr‘ beweisen können, die in den akzeptierten Voraussetzungen potentiell enthalten sind. Angewandt auf unsere Fragestellungen würde dies bedeuten, dass wir nur dann ein ‚umfassendes‘ Glück finden können, wenn unsere jeweiligen Voraussetzungen solch ein umfassendes Glück prinzipiell zulassen könnten.

(7) Erinnert man sich nun, dass das biologische Leben seinen Ausgangspunkt bei der Tatsache nimmt, dass sich in einem Universum, in dem das Gesetz der Entropie gilt (salopp: Ausgleich aller Unterschiede auf Dauer) — in einer bestimmten Region dieses Universums (ob woanders als auf der Erde auch, wissen wir noch nicht; ist aber nicht auszuschließen) durch Verbrauch von Energie lokale Unterschiede gebildet haben, die die Eigenschaft besitzen, als ‚Signale für Ereignisse‘ fungieren zu können, und – mehr noch –, die nicht nur die außergewöhnliche Eigenschaft besitzen, sich ‚kopieren‘ zu können, sondern darüber hinaus auch noch, sich zu ‚immer komplexeren Differenzmustern‘ anreichern zu können, für deren ‚Ausdehnung‘ es keine ‚Grenze‘ zu geben scheint. Diese Differenzmustern verbrauchen immer mehr Energie aus der Umgebung, sind aber in der Lage, ihre ‚Signaleigenschaften‘ dahingehend ‚organisieren‘ zu können, dass Sie unterschiedliche ‚Signalebenen‘ generieren, die sich ‚wechselseitig repräsentieren‘ können. Dadurch besteht die Möglichkeit, dass ‚Ereignisprofile der Umgebung‘ als energetische Muster in die internen Signalstrukturen ‚abgebildet‘ und dort weiter ‚verarbeitet‘ werden können. Auf diese Weise hat das Universum eine Möglichkeit geschaffen, in Form ’selbstorganisierender Differenzstrukturen‘ energetisch bedingte Eigenschaften des Universums in Form von ‚Signalmodellen‘ zu ‚reformulieren‘ und damit ‚explizit‘ zu machen. Durch das Aufspannen von ‚Signalebenen‘ ist auch das entstanden, was wir ‚Bewusstsein‘ nennen. D.h. die sich selbst organisierenden und expandierenden Differenzmuster des ‚Lebens‘ können ‚in sich‘ die Struktur des Universums (einschließlich ihrer selbst) ‚wiederholen‘ und in steigendem Umfang auf diese zurückwirken. Grundsätzlich ist nicht ausgeschlossen, dass das Prinzip der vielschichtigen Differenzmuster nicht nur die wesentlichen Wirkprinzipien des Universums entschlüsselt (und dabei zu einem ‚zweiten‘ Universum, zur ’symbolischen Form‘ des Universums wird), sondern letztlich das gesamte Universum ‚mittels seiner eigenen Prinzipien‘ ‚verändert. In dem Masse, wie dies geschieht, kann das ‚erreichbare Glück‘ für solch eine Differenzstruktur ’sehr weit‘ anwachsen.

(8) Natürlich wird hier auch klar, dass es nicht die einzelne, isolierte Differenzstruktur ist, auf die es ankommt (wenngleich es ohne jede einzelne Struktur auch kein Ganzes geben kann), sondern die Gesamtheit, die nur solange eine ‚Gesamtheit‘ ist, solange es ihr gelingt, sich untereinander durch ‚Kommunikation‘ und entsprechende ‚Verarbeitung‘ zu ‚koordinieren‘. ‚Isolierte‘ hochentwickelte Differenzstrukturen haben keine Überlebenschance auf Dauer; sie vergehen, ohne möglicherweise eine ‚Wirkung‘ entfaltet zu haben. Überleben können nur solche ‚Verbände‘ von Differenzstrukturen, die einen ‚hinreichenden‘ Zusammenhang, sprich eine hinreichende ‚Koordinierung‘ haben. Dies kann bis zu einem gewissen Grad durch ‚Zwang‘ geschehen, aber auf Dauer ist ‚Zwang‘ ‚unproduktiv‘. Ein ‚Optimum‘ liegt nur vor, wenn jede einzelne Differenzstruktur ihr ‚Maximum‘ erreichen kann und diese individuellen Maxima durch ‚Kommunikation‘ miteinander im permanenten ‚Austausch‘ bestehen. Historisch beobachten wir momentan, dass die Kommunkationstechnologie zwar das Ausmaß des Austausches dramatisch erhöhen konnte, dass aber die individuellen Verarbeitungskapazitäten der einzelnen Differenzmuster quasi konstant auf einem bestimmten Niveau verharrt (daneben gibt es  kulturell und machtpolitisch errichtete Barrieren des Austausches und des ungehinderten Denkens, die erheblich sind). Dieser ‚Bottleneck‘ ist eine ernsthafte Gefahr. Es steht den Differenzmustern allerdings frei, ihre Denkpotential zu nutzen, um den ‚eigenen Bottleneck‘ durch geeignete Maßnahmen zu beheben (Denktechnologie in Verbindung mit Gentechnik, d.h. Beschleunigung der Evolution dadurch, dass die Evolution eine ihrer größten Errungenschaften, die Denkmöglichkeiten des homo sapiens, dazu benutzt, ihren Konstruktionsprozess zu beschleunigen. Viele aktuell gehandelte sogenannte ‚Ethiken‘ (salopp: Regeln des richtigen Verhaltens) sind hoffnungslos falsch und damit für das Überleben des Lebens (nicht nur auf der Erde) gefährlich).

Natürlich ist das Thema damit nicht erschöpft. Unser Schicksal ist es, ein großes Ganzes immer nur in Splittern und Bruchstücken denken zu können; viele Splitter können ‚Umrisse‘ ergeben, Umrisse …. usw.

 

 

Eine direkte Fortsetzung zum Thema findet sich hier.

 

 

Eine Übersicht über alle bisherigen Blogeinträge findet sich hier.