Archiv der Kategorie: Struktur

WISSENSCHAFTSPHILOSOPHIE IM ALLTAG. Wahrheit im Dauerversuch

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 26.Nov. 2017
URL: cognitiveagent.org
info@cognitiveagent.org

Autor: cagent
Email: cagent@cognitiveagent.org

INHALT

I Wissenschaftsphilosophie und Wahrheit …1
II Interdisziplinär und Unterschiede …2
III Interdisziplinäres Projekt…2
III-A Einzelvorschläge zum Begriff ’Simulation’ . . . . . . . .3
III-B Vernetzung der Einzelvorschläge . ….3
III-C Formalisierungsversuch . . . . . . . . 4
Weiter zur Wahrheit …7
IV Literaturverweise …8

WORUM ES GEHT

‚Wissenschaftsphilosophie‘ klingt für die meisten sehr abstrakt. Wendet man sich aber dem Alltag zu und betrachtet ein – fast beliebiges – Beispiel, dann kann man
schnell entdecken, dass eine wissenschaftsphilosophische
Sehweise sehr konkret – und auch sehr praktisch – werden
kann. Dies wird in diesem Beitrag illustriert.

PDF

I. WISSENSCHAFTSPHILOSOPHIE UND WAHRHEIT

In einem vorausgehenden Beitrag in diesem Blog mit
der Überschrift ”WAHRHEIT ALS UNABDINGBARER
ROHSTOFF EINER KULTUR DER ZUKUNFT”  wurde
besprochen, welche Mechanismen uns Menschen
zur Verfügung stehen, um wahre Aussagen über
die Welt und uns selbst machen zu können. Die
Blickweise, die hinter diesen Überlegungen stand,
war die der Wissenschaftsphilosophie. Aber was ist
’Wissenschaftsphilosophie’? Warum ist diese Blickweise
so wichtig?

’Wissenschaftsphilosophie’ ist, wie der Name schon
andeutet, ein Teil der philosophischen Blickweise auf die
Welt.

Während sich die Einzelwissenschaften aufgrund ihrer
spezifischen Interessen auf ’Teilgebiete der erfahrbaren
Wirklichkeit’ festlegen und diese im Rahmen des Paradigmas der experimentellen Wissenschaften im Detail erforschen, versteht sich eine philosophische
Blickweise als jene, die nicht von vornherein
Ausgrenzungen vornimmt, sondern alle Phänomene
zulässt, die sich dem menschlichen Bewusstsein zur
Erfahrung geben. Ein philosophisches Denken legt sich
auch nicht auf einige wenige Methoden fest, sondern
erlaubt zunächst einmal alles, was geht.
Eine so verstandene philosophische Blickweise hat
Vor- und Nachteile. Die Nachteile liegen auf der Hand:
der Verzicht auf eine wie auch immer geartete Vorweg-
Zensur von Erfahrung konfrontiert einen Philosophen
von vornherein mit einer solchen Fülle von Phänomen
und Methoden, dass es im Allgemeinen schwer ist,
hier auf einfache und schnelle Weise zu strukturierten
Erkenntnissen zu kommen.

Andererseits, schaut man sich die fortschreitende
Zersplitterung der Einzelwissenschaften an, dann
trifft man auch hier auf eine methodisch bedingte
Vielfalt, die bislang nicht systematisch integriert ist.
Zum aktuellen Zeitpunkt ist es nicht einmal abzusehen,
wann und wie diese immensen, sich gegenseitig
ausschließenden Datengebirge und Teildeutungen, sich
irgendwann zu einem einzigen großen integrierten
Ganzen zusammenfügen lassen lassen.

Die philosophische Blickweise als solche trägt im
Prinzip den Keim der Integration in sich, da sie ja
nicht auf Teilaspekte der Wirklichkeit abonniert ist,
sondern im Prinzip für alles offen ist. So kann sie sich
die Ergebnisse der Einzelwissenschaften vornehmen
und versuchsweise, spielerisch die verschiedenen
Erkenntnisse z.B. zum subjektiven Bewusstsein, zum
objektiven Verhalten oder zum objektiven Körper
aufgreifen, miteinander in Beziehung setzen, und
versuchen, die darin verborgenen Zusammenhänge
sichtbar zu machen.

Philosophen können dies irgendwie machen, oder
sie können sich im Jahr 2017 die denkerischen
Vorarbeiten der Wissenschaftsphilosophen aus den
letzten ca. 150 Jahren zu Nutze machen. Diese haben nämlich spezielle Teilaspekte der Wirklichkeit, des Denkens, der Wissenschaften systematisch untersucht.
Dazu gehören Themen wie Messen, Modellbildung,
logische Argumentation, Überprüfung eines Modells,
Simulation, und vieles mehr. Im Endeffekt haben die
Wissenschaftsphilosophen untersucht, wie das Konzept
einer experimentellen Wissenschaften überhaupt
funktioniert, unter welchen Umständen experimentelle
Theorien wahr sind, und unter welchen Bedingungen
man verschiedene Theorien integrieren kann.

Da das Thema Wissenschaftsphilosophie für sich
sehr umfassend ist und in vielen Bereichen nicht gerade
einfach zu erklären ist, sei an dieser Stelle auf eine solche
umfassende Darstellung verzichtet (Vergleiche dazu z.B.: [Sup79], [Sne79],
[Bal82], [BMS87]). Stattdessen sei hier ein einfaches (reales) Beispiel aus dem (realen) Alltag
vorgestellt, wie es jeder erleben kann oder schon erlebt
hat.

II. INTERDISZIPLINÄR UND UNTERSCHIEDE

Das Wort Interdisziplinär ist heute ja ein
richtiges Modewort, um das Zusammenarbeiten
von unterschiedlichen Disziplinen, Experten mit
unterschiedlichem Knowhow, unterschiedlichen
Erfahrungen zu etikettieren.

Während wir in den verschiedenen Gesellschaften
in Europa und weltweit zunehmend eher wieder
Phänomene der Abgrenzung beobachten, der
Ausgrenzung, der Abschottung, der identitätserhaltenden
Gruppenbildung, haben wir immer mehr international
operierende Firmen, in denen die Zusammenarbeit
von Menschen aus vielen Nationen (bis über 100)
Alltag ist und funktioniert. Es spielt nicht wirklich eine
Rolle, aus welchem Land jemand kommt, welche
Religion er hat, wie sie sich kleidet, was jemand isst,
solange alle im Rahmen der gestellten Aufgabe friedlich
zusammenwirken können. Auch in den Wissenschaften
ist dies eigentlich Alltag. Mathematik ist für alle gleich und
die Welt, die es zu erforschen gilt, ist auch für alle gleich.
Ähnlich ist es in den großen internationalen Metropolen
dieser Welt. Dort leben ganz viele verschiedene Kulturen
so lange friedlich zusammen, so lange niemand anfängt,
bewusst Hass und Zwietracht zu streuen.

Andererseits scheint das Phänomen der Abgrenzung
ein tief sitzender Reflex im menschlichen Verhalten
zu sein. Denn überall, wo Menschen leben und
es in der jeweiligen Gemeinschaft unterschiedliche
Gruppen – alleine schon wegen der notwendigen und
fortschreitenden Spezialisierungen – gibt, tendiert jede
Gruppe dazu, sich von den anderen abzugrenzen.
Es ist letztlich eine kognitive Entlastungsstrategie: es
ist immer einfacher, sich nur dem den Eigenschaften
und Regeln der eigenen Gruppe zu beschäftigen, als
zusätzlich auch noch mit den Eigenheiten und Regeln
einer anderen Gruppe. Dies strengt an und belastet.
Zu diesem Zweck gibt es allgemeine Verhaltensregeln,
die einem im Alltag Entscheidungen abnehmen, und
es gibt Klischees, Stereotype, mit denen man andere
Gruppen – und damit auch die einzelnen Mitglieder
der anderen Gruppen – mit einem einzigen Wort
in eine große Kiste von Klischees einsortiert. Dies
fängt schon im Bereich der Familie an, und erstreckt
sich dann über Schulklassen, Schulen, Abteilungen
in Behörden und Betrieben zu ganzen Einrichtungen,
Stadtteilen, Volksgruppen. Im ’Normalbetrieb’ verläuft
dies friedlich, ohne direkte Auseinandersetzungen, ist
fester Bestandteil von Witzen, Volksbelustigungen und
vielen Fernsehsendungen und Filmen.

Im Konfliktfall sind diese Vorurteile aber wie trockenes
Holz, das sich blitzschnell entzünden kann, und mit
einem Mal sind die Nachbarn, die Arbeitskolleginnen,
und die Leute aus dem anderen Stadtteil nicht einfach
nur anders, sondern gefährlich anders, moralisch anders,
überhaupt anders. Aus unverfänglichen Unterschieden
werden plötzlich metaphysische Ungeheuer. Die
gedankliche Bequemlichkeit, die sich im Alltag im
Gebrauch von Klischees ausruht, wird zur gedanklichen
Hilflosigkeit, die im Stress einfach wild um sich schlägt,
und dann natürlich auf das haut, was sie in ihrer
vereinfachten Weltsicht kennt: auf die stereotypen
Unterschiede, die plötzlich die ganze Welt bedeuten.

III. INTERDISZIPLINÄRES PROJEKT

Während interdisziplinäres Zusammenarbeiten in
großen Firmen und Behörden von Metropolen Alltag ist,
tun sich die Bildungseinrichtungen, speziell Hochschulen
in Deutschland, damit noch schwer. Selbst an einer
Hochschule in einer internationalen Metropole, an der
junge Menschen aus mehr als 100 Nationen studieren,
gibt es nur einen verschwindend geringen Anteil von
wirklich interdisziplinären Studienprogrammen. Die
Lehrenden mögen solche Veranstaltungen nicht, da
der normal Lehrende ein Spezialist ist; auch die
Fachbereichsstrukturen an Hochschulen stehen einer
wirklichen Interdisziplinarität massiv im Wege, und die
Hochschulleitungen sind heute von der Realität der
Lehre in ihren eigenen Hochschulen meist so weit
entfernt, dass sie in der Regel gar nicht wirklich wissen,
wie der Alltag der Lehre aussieht.

Das folgende Beispiel stammt aus einer realen
Lehrveranstaltung von einer realen Hochschule mit
Studierenden aus mehr als 100 Nationen, an der es
offiziell genau zwei interdisziplinäre Studienprogramme
gibt. Im Rahmen des einen Programms gibt es ein Modul,
in dem sich Studierende aus verschiedenen Disziplinen
mit dem Begriff der Simulation auseinander setzen sollen.

So gibt es in diesem Modul z.B. Studierende
aus den Disziplinen soziale Arbeit, Pflege, Case
Management, Architektur, Maschinenbau, Elektrotechnik
und Informatik.

A. Einzelvorschläge zum Begriff ’Simulation’

Das Modul ist so angelegt, dass alle Beteiligten
im Rahmen von Kommunikationsprozessen, eigenen
Recherchen und eigenen Experimenten schrittweise
ihr bisheriges Verständnis des Begriffs ’Simulation’
verfeinern und mit den Vorstellungen der jeweils
anderen Disziplinen integrieren, falls möglich. Im
Folgenden Beispiele von Formulierungen, wie der Begriff
Simulation’ zu Beginn von den Teilnehmern umschrieben
wurde.

  • Team A: Unter Simulation versteht man ein realitätsnahes Nachbilden von Situationen.
    • Ein virtueller Raum wird mit Hilfe von Visualisierungsprogrammen realistisch dargestellt .
    • Nach einer Abbildung mit verschiedenen Programmen kann das Modell mit Hilfe von Grundrissen geschaffen werden.
    • Verschiedene Gebäudetypen, zum Beispiel:
      öffentliche, kulturelle oder soziale Einrichtungen,
      können simuliert werden.
    • Der Außenraum bzw. die Umgebung wird beim
      Entwurf mitberücksichtigt und 3D visualisiert.
    • Durch Materialität, Textur, Lichtverhältnissen
      und Schattierungen wird versucht, den Entwurf
      realitätsnah wie möglich darzustellen.
    • Konstruktionen können in Simulationsprogrammen ebenfalls detailliert ausgeführt werden.
  • Team B: Simulation ist eine Methode Situationen abzubilden, z.B. räumliche Wirkungen, Umwelteinflüsse, Szenarien, um effektiv Probleme und
    Lösungen zu analysieren.
  • Team C: Die Analyse von möglichen Problemen
    im Alltag. Die Nachbildung von Anwendungsfällen
    wie zum Beispiel Flugsimulation und Wettersimulation. Die Optimierung von Systemen und Prozessen.
    Komplexe Sachverhalten zu vereinfachen und (visuell) darzustellen. Es ist eine kostengünstigere Variante als die tatsächliche Umsetzung. Es werden in
    einer Simulation Prognosen und Voraussagen erstellt.
  • Team D:
    1. Analyse von Systemen vor der praktischen An-
      wendung
    2. Die Simulation ist ein Bestandteil eines Produktlebenszyklus. Dabei lassen sich die Entwicklungsschritte wie folgt definieren:
      1. Konzeptentwicklung
      2. Simulation
      3. Konstruktiond) Produktherstellung
      4. Integration im System
    3. Optimierung von einem bestehendem Prozess
      mit Ziel die Effizienz und die Fehlerbehebung
      zu verbessern −→ Prozessoptimierung
  • Team E: Unter dem Begriff ”Simulation” ist das
    theoretische bzw. praktische Durchspielen unterschiedlicher Szenarien zu verstehen. Das Durchspielen oder auch Verifizieren der Situation lässt
    die Übertragung von komplexen Aussagen über das
    mögliche Verhalten des gewählten Klientels zu. Das
    Ergebnis kann auf die Realität projiziert werden,
    ohne damit laufende Prozesse negativ zu beeinflussen.
  • Team F : Eine Simulation ist eine modellhafte
    Darstellung einer möglichen oder reellen Situation.
    Die Situation kann sowohl prospektiv als auch retrospektiv sein. Sie dient der Analyse, Übung und Optimierung verschiedener Prozesse beziehungsweise
    einzelner Prozessabläufe.
  • Team G: Simulationen in der sozialen Arbeit bieten die Möglichkeit insbesondere ethisch schwierig
    vertretbare oder praktisch schwierig umsetzbare Situationen experimentell darzustellen und dadurch
    präventiv Kompetenzen zu erwerben, Lerninhalte
    zu erarbeiten, Lösungsansätze zu entwickeln und
    Problem- bzw. Konfliktsituationen zu vermeiden.
  • Team H: Simulation im Beratungskontext meint das
    Herstellen realitätsnaher Szenarien, um das Verhalten von Personen in speziellen Situationen erproben,
    beobachten und evaluieren zu können.
B. Vernetzung der Einzelvorschläge

Diese Textfragmente wirken unterschiedlich und tragen
deutlich Spuren der unterschiedlichen Fachkulturen. So
ist das Team A unschwer als Team aus dem Bereich
Architektur zu erkennen, oder Team C: das klingt sehr
nach einem technischen Hintergrund. Team E klingt
nach sozialer Arbeit oder Case Management. usw.

Was macht man nun damit?

Es gab ein Live-Gespräch, bei dem die einzelnen
Formulierungen nacheinander diskutiert wurden
und einzelne Begriffe, die hervor stachen, wurden
versuchsweise auf ein Whiteboard geschrieben (siehe
Schaubild Nr. 1).

Bild Nr.1: Tafelbild aus einer Live-Diskussion
Bild Nr.1: Tafelbild aus einer Live-Diskussion

Für einen Unbeteiligten wirkt dieses Bild vermutlich
noch ein wenig ’wirr’, aber bei näherem Hinsehen kann
man die Umrisse einer ersten Struktur erkennen.
In einer im Anschluss erstellten Idealisierung des
ersten Tafelbild (siehe Schaubild Nr. 2) kann man die
in diesen Begriffen liegende verborgene Struktur schon
deutlicher erkennen.

Reinzeichnung des Tafelbildes
Reinzeichnung des Tafelbildes

Man erkennt abgrenzbare Bereiche, Komponenten
wie z.B. die reale Welt oder das Ersatzsystem, Modell,
oder auch so etwas wie die Idee von etwas Neuem.
Zwischen diesen Komponenten findet man Beziehungen
wie Nachbilden oder Erfinden oder Modell nutzen.

Offensichtlich passen diese Größen nicht in das
klassische Schema einer Definition, bei dem ein neuer
Begriff (das ’Definiendum’) durch schon bekannte
Begriffe (das ’Definiens’) ’erklärt’ wird (vgl. dazu [Mit95] und [San10]), sondern es ist
eher die Einführung eines neuen Bedeutungsfeldes im
Sinne einer axiomatischen Theorie: man benennt eine
Reihe von Komponenten, von denen man annimmt, dass
sie alle wichtig sind, beschreibt Beziehungen zwischen
diesen Komponenten, die man ebenfalls für wichtig
findet, und nennt dann das Ganze ’Simulation’. Eine
zunächst diffuse Wirklichkeit gewinnt dadurch Konturen,
gewinnt eine Struktur.

Ob diese sich so heraus schälende Struktur wirklich
brauchbar ist, irgendwelche Wahrheitsansprüche
einlösen lässt, das kann man zu diesem Zeitpunkt
noch nicht entscheiden. Dazu ist das Ganze noch
zu vage. Andererseits gibt es an dieser Stelle auch
keine festen Regeln, wie man solche Strukturen
herausarbeitet. Auf der einen Seite sammelt man
Phänomene ein, auf der anderen Seite sucht man
Begriffe, sprachliche Ausdrücke, die passen könnten.
Was einem auffällt, und wie man es dann anordnet,
hängt offensichtlich von aktuellen Interessen, verfügbarer
Erfahrung und verfügbarem Sprachwissen ab. Drei
verschiedene Personen kämen isoliert vermutlich zu drei
unterschiedlichen Ergebnissen.

Man kann jetzt bei dem Schaubild stehen
bleiben, oder man kann das Instrumentarium der
Wissenschaftsphilosophie weiter nutzen indem man
z.B. eine formale Strukturbildung versucht. Unter
Verwendung einer mengentheoretischen Sprache
kann man versuchen, die erkannten Komponenten
und Beziehungen in mathematische Strukturen
umzuschreiben. Falls es gelingt, führt dies zu noch
mehr struktureller Klarheit, ohne dass man irgendwelche
Feinheiten opfern müsste. Man kann im Verlauf eines
solchen Formalisierungsprozesses Details nach Bedarf
beliebig ergänzen.

C. Formalisierungsversuch

Das idealisierte Schaubild lässt erkennen, dass wir
es mit drei Wirklichkeitsbereichen zu tun haben: (i)
die Reale Welt (W) als Ausgangspunkt; (ii) die Welt
der kreativen Ideen (KID) als Quelle möglicher neuer
Gegenstände oder Verhaltensweisen; und verschiedene
Ersatzsysteme, Modelle (M), mittels deren man etwas tun kann.

Unter Voraussetzung dieser genannten Gegenstandsbereiche W, KID, M wurde folgende wichtige Beziehungen genannt, die zwischen diesen
Gegenstandsbereichen angenommen wurden:

  1. Nachbilden, Abbilden (Abb): Bestimmte Aspekte
    der realen Welt W werden in einem Ersatzsystem,
    in einem Modell M so nachgebildet, dass man
    damit etwas tun kann. Außerdem soll das Modell
    u.a. realitätsnah sein, Kosten sparen, und Risiken
    vermindern.
  2. Erfinden (Erf): Aufgrund von kreativen Ideen KID
    wird ein Modell M erstellt, um diese Ideen sichtbar
    zu machen.
  3. Simulieren (Sim): Hat man ein Modell M gebaut,
    dann können Menschen (ME) mit dem Modell
    unterschiedliche Simulationen für unterschiedliche
    Zwecke vornehmen. Aufgrund von Simulationen
    werden die Menschen Erfahrungen (X+) mit dem
    Modell sammeln, die zu einem verbesserten Verhalten (V+) auch in der realen Welt führen können, zugleich kann aufgrund dieser Erfahrungen das
    bisherige Modell oft auch optimiert werden; man
    kommt also zu einem optimierten Modell (M+).
  4. Transfer (Trans): Aufgrund von neuen Erfahrungen
    (X+) und einem möglicherweise optimierten Modell
    (M+) besteht die Möglichkeit, dass man im Ausgangspunkt, in der realen Welt (W), Sachverhalte und Abläufe ändert, um die Verbesserungen im
    Modell und im neuen Verhalten in die reale Welt,
    in den Alltag, einzubringen. Würde man dies tun,
    dann erhielte man eine verbesserte Welt (W+).

Diese Vorstrukturierung kann man nun weiter treiben und tatsächlich eine mathematische Struktur hinschreiben. Diese könnte folgendermaßen aussehen:

— Siehe hierzu das PDF-Dokument —

Der Ausdruck zu Nummer (1) besagt, dass etwas (x) genau nur dann (iff) eine Simulation (SIMU) genannt wird, wenn es die folgenden Komponenten enthält: W, W+ M, M+ , KID, X+ , ME. Zusätzlich werden folgenden Beziehungen zwischen diesen Komponenten angenommen: Abb, Erf, Sim, Trans. Welcher Art diese Beziehungen sind, wird in den folgenden Nummern (2) – (5) erläutert.

In der Abbildungsbeziehung Abb : ME × W−→ M werden Aspekte der realen Welt W von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Erfindungsbeziehung Erf : ME × KID −→ M werden Aspekte aus der Welt der Ideen KID von Menschen ME in ein idealisierendes Modell M abgebildet.

In der Simulationsbeziehung Sim : ME × M −→ M+ × X+ benutzen Menschen ME Modelle M und machen dadurch neue Erfahrungen X+ und können u.a. das Modell verbessern, optimieren M+ .

In der Transferbeziehung  rans : ME × M+ × X+ −→ W+ können Menschen ME optimierte Modelle M+ und/ oder neue Erfahrungen X+ in ihren Alltag, in die reale Welt so einbringen, dass die bisherige Welt zu einer besseren Welt M+ verändert wird.

IV. WEITER ZUR WAHRHEIT

An diesem kleinen Beispiel wird deutlich, wie man
unterschiedliche alltagssprachliche Formulierungen
miteinander vernetzen kann, daraus Strukturen
herausarbeitet, und diese ansatzweise formalisiert.

Um einen möglichen Wahrheitsanspruch dieser
Formalisierung klären zu können, müsste nun weiter
herausgearbeitet werden, was mit den einzelnen
Größen dieser Struktur gemeint ist. Also, wenn man die
Beziehung Abbildung liest ( Abb : ME × W −→ M), müsste klar sein, welche Menschen gemeint sind, die dort eine Abbildungsbeziehung herstellen, und was
müsste man sich konkret darunter vorstellen, dass
Menschen Aspekte der Welt (W) in ein Modell (M)
abbilden?

Wenn ein Kind ein Stück Holz benutzt, als ob es
ein Spielzeugauto ist, mit dem es auf dem Boden
herumfährt und dazu ’BrumBrum’ macht, dann ist für
das Kind das Stück Holz offensichtlich ein Modell für ein
Autor aus der realen Welt, seine Bewegungen simulieren
das Herumfahren, und das ’BrumBrum’ simuliert das
Motorgeräusch (bald nicht mehr, vielleicht).

Wenn Architekten (früher) aus Gips ein Gebäude im
Maßstab angefertigt hatten, es in eine Modelllandschaft
stellten, und dies einer Lichtquelle aussetzten, die
analog der Sonne bewegt wurde, dann war offensichtlich
das Gipshaus in der Landschaft mit der Lichtquelle
ein Modell des Schattenwurfs eines Gebäudes bei
Sonnenlicht.

Wenn Pflegestudierende heute an einem Krankenbett
mit einer künstlichen Puppe üben, wie man verschiedene
Pflegetätigkeiten ausübt, dann ist diese Puppe im Bett
offensichtlich ein Modell des realen Patienten, an dem
man übt.

Wenn Case Managerinnen in Rollenspielen
Beratungsgespräche üben, dann sind diese Rollen,
die sie ausfüllenden Personen, und die stattfindenden
Interaktionen ein Modell der realen Situation.

Wenn Informatikstudierende am Computerbildschirm
Schaltungen zusammenbauen, dann sind diese Software
basierten Bauteile und Schaltungen offensichtlich
Modelle von richtigen Bauteilen und den daraus
konstruierten Schaltungen.

Die Liste der hier möglichen Beispiele ist potentiell
unendlich lang.

Die Abbildung von Aspekten der realen Welt in
Ersatzsysteme, die wie Modelle fungieren, anhand bzw.
mittels deren man üben kann, analysieren usw. ist
offensichtlich sehr grundlegend.

Ob solch ein modellierendes Ersatzsystem und
die damit möglichen Handlungen die abzubildende
Wirklichkeit hinreichend gut abbilden, oder ob sie diese
so verzerren, dass das Modell bezogen auf die reale
Welt falsch ist, dies zu beurteilen ist nicht immer ganz
einfach oder vielleicht sogar unmöglich. Schwierig und
unmöglich ist dies dann, wenn das erarbeitete Modell
etwas zeigt, was in der realen Welt selbst durch die
Verwobenheit mit anderen Faktoren gar nicht sichtbar
ist, wenn also dass Modell überhaupt erst etwas sichtbar
macht, was ansonsten verdeckt, verborgen ist. Damit
würde das Modell selbst zu einer Art Standard, an dem
man die reale Welt misst.

Was im ersten Moment absurd klingt, ist aber genau
die Praxis der Wissenschaften. Das Ur-Meter, das als
Standard für eine Längeneinheit vereinbart wurde, ist
ein Modell für eine bestimmte Länge, die überall in
der räumlichen Welt angetroffen werden kann, aber
ohne das Ur-Meter können wir nicht sagen, welche der
unendlich vielen Stellen nun einem Meter entspricht. Wir
benutzen also ein künstlich erschaffenes Modell einer
bestimmten Länge, um damit die ansonsten amorphe
reale Welt mit Plaketten zu überziehen. Wir projizieren
das Ur-Meter in die reale Welt und sehen dann überall
Längen, die die realer Welt als solche nicht zeigt. Zu
sagen, diese Strecke hier in der realen Welt ist 1 m lang,
ist eine Äußerung, von der wir normalerweise sagen
würden, sie ist wahr. Wahrheit ist hier eine Beziehung
zwischen einer vereinbarten Einheit und einem Aspekt
der realen Welt.

Im allgemeinen Fall haben wir irgendwelche
sprachlichen Ausdrücke (z.B. Abb : ME × W −→ M), wir ordnen diesen sprachlichen Ausdrücke davon unabhängige Bedeutungen zu, und stellen dann fest,
ob es in der realen Welt Sachverhalte gibt, die mit
dieser vereinbarten Bedeutung korrespondieren oder
nicht. Falls Korrespondenz feststellbar ist, sprechen
wir von Wahrheit, sonst nicht. Eine solche Wahrheit ist
aber keine absolute Wahrheit, sondern eine abgeleitete
Wahrheit, die nur festgestellt werden kann, weil zuvor
eine Bedeutung vereinbart wurde, deren Korrespondenz
man dann feststellt (oder nicht). Sprachlich gefasste
Wahrheiten können also immer nur etwas feststellen,
was zuvor vereinbart worden ist (wie beim Ur-Meter), und
man dann sagt, ja, das früher vereinbarte X liegt jetzt
hier auch vor. Und diese grundsätzliche Feststellung,
diese ist fundamental. Sie erlaubt, in den veränderlichen
vielfältigen Bildern der Welt, ansatzweise Ähnlichkeiten,
Wiederholungen und Unterschiede feststellen zu
können, ohne dass damit immer schon irgendwelche
letzten absoluten Sachverhalte dingfest gemacht werden.

Die moderne Wissenschaft hat uns demonstriert, wie
dieses einfachen Mittel in vielen kleinen Schritten über
Jahrzehnte hinweg dann doch zu sehr allgemeingültigen
Sachverhalten hinführen können.

LITERATURHINWEISE

[Bal82] W. Balzer, editor. Empirische Theorien: Modelle, Strukturen,
Beispiele. Friedr.Vieweg & Sohn, Wiesbaden, 1 edition, 1982.

[BMS87] W. Balzer, C. U. Moulines, and J. D. Sneed. An Architectonic
for Science. D.Reidel Publishing Company, Dordrecht (NL),
1 edition, 1987.

[Mit95] Jürgen Mittelstrass, editor. Enzyklopädie Philosophie und
Wissenschaftstheorie Teil: Bd. 1., A – G. Verlag J.B. Metzler,
Stuttgart – Weimar, 1 edition, 1995.

[San10] Hans Jörg Sandkühler, editor. Enzyklopädie Philosophie,
Bd.1-3. Meiner Verlag, Hamburg, 1 edition, 2010.

[Sne79] J. D. Sneed. The Logical Structure of Mathematical Physics.
D.Reidel Publishing Company, Dordrecht – Boston – London,
2 edition, 1979.

[Sup79] F. Suppe, editor. The Structure of Scientific Theories. Uni-
versity of Illinois Press, Urbana, 2 edition, 1979.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DIE ZUKUNFT STIRBT ZUERST IN DEN KÖPFEN …

LETZTER BLOGEINTRAG

  1. Angeregt durch die Lektüre von Matt Ridleys Buch sind im vorausgehenden Blogeintrag einige sehr grundlegende Prinzipien herausgearbeitet worden, die allgemein wirken, denen jedes einzelne individuelle System unterworfen ist, auch jeder einzelne Mensch.

DIE BESONDERHEIT DES MENSCHEN IM BIOLOGISCHEN

  1. Unter anderem wurde auf die Besonderheiten der Menschen (der homo sapiens sapiens als Vertreter der hss-Population) hingewiesen, durch die sich die Menschen tatsächlich von der allgemeinen biologischen Umgebung abheben. Nicht in dem Sinne abheben, dass der Mensch jetzt plötzlich etwas anderes wäre als das allgemein Biologische, sondern so, dass der Mensch innerhalb des Biologischen neue, markante Eigenschaften an seinem Körper zeigt, die – verglichen mit allem anderen Biologischen – ihn in die Lage versetzen, seine eigene Struktur, seine eigene Entwicklung, sein Wechselspiel mit der jeweiligen Umgebung und mit der gesamten Umwelt anschauen und bewerten zu können, ja, er kann bis zu einem gewissen Grad mit diesen neuen Verstehensmöglichkeiten sich selbst und die ganze Welt probeweise spielerisch verändern, und sein Verhalten danach neu orientieren.

MENSCH ALS GEWOHNHEITSTIER

  1. Wenn wir den konkreten Alltag von Menschen anschauen, heute und in der Vergangenheit, sofern diese uns noch zugänglich ist, könnten wir den Eindruck gewinnen, dass der Mensch eher ein ‚Gewohnheitstier‘ ist, da er im Zweifelsfall eher das vorzieht, was er schon kennt, was ihm vertraut ist, von dem er glaubt, dass er es zu seinen Gunsten beeinflussen kann, von dem er glaubt, dass es ihm die meisten Vorteile bringt.

GEWOHNHEIT ALS ZUKUNFTSVERHINDERUNG

  1. So kann man im Bereich der Wirtschaft mit schöner Regelmäßigkeit beobachten, wie erfolgreiche Konzepte dazu führen, dass Firmen, ganze Wirtschaftsbereiche, sich in ihren Erfolgen einrichten, sie gegen Konkurrenten und Neuerungen abzusichern versuchen, sich von der Politik alle mögliche Unterstützungen sichern (das berühmte Lobbytum, das aus demokratisch gewählten Volksvertretern verkappte Interessenvertreter solcher zukunftsfeindlichen Industriepolitik macht), und dass diese Firmen dann sehr häufig übersehen, dass es alternative, bessere Ideen, Technologien und Vermarktungsmöglichkeiten gibt, die dann ‚über Nacht‘ auftreten und ganze Industriebereiche – bildlich gesprochen – in Schutt und Asche legen. Neben den vielen Beispielen aus der Vergangenheit erleben wir gerade, wie moderne, flexible, kundennahe Bezahldienst den angestammten Finanzdienstleister die Kunden Millionenweise abspenstig machen, oder wie eine selbst-verliebte Automobilindustrie feststellen muss, dass wichtige Schlüsseltechnologien für die Zukunft schon längst von anderen entwickelt und besetzt wurden.
  2. Sind diese Entwicklungen für die jeweiligen Industrie selbst verheerend, so sind sie natürlich auch für die jeweiligen Standorte, Regionen und Volkswirtschaften verheerend. Ganze Regionen können veröden (Stichworte Stahlindustrie in der Vergangenheit, Textilindustrie, Automatisierung, Schiffbau, Agrarindustrie, usw.). Leider ist es so, dass die lokalen und regionalen kommunalen Vertreter sich in allen Fällen blindlings den aktuellen Erfolgen verschrieben haben, anstatt im aktuellen Erfolg den Blick auch auf mögliche Alternativen zu richten, erweiternde Szenarien, so dass eine Region eben nicht nur von einer einzigen Technologie abhängig ist. Statt dass die Politik das kritische Korrektiv zu herrschenden Industrien bildet, diese zu Erneuerungen, Weiterentwicklungen, Alternativen anregt, haben sie ihr eigenes Denken weitgehend ausgeschaltet und spielen das Spiel der Selbstverliebtheit einfach mit. Der unausweichliche Technologie-Crash wird damit auch zu einem gesellschaftlichen Crash, den man hätte verhindern können, aber nicht verhindert hat (aktuell in Deutschland z.B. die Automobilstandorte, die Braunkohle, die Kohle, … ).

PRINZIP DER EVOLUTION WIRKT

  1. Betrachtet man die vielen Aufstiege und Abstürze verschiedener Technologien und gesellschaftlicher Systeme weltweit und im historischen Maßstab, dann kann man das Prinzip der Evolution am Wirken sehen, das Alternativen, wenn sie möglich sind, auch zum Tragen kommen; nicht immer sofort oder schnell, aber irgendwann dann doch, weil Effizienz sich letztlich durchsetzt. … oder weil das Leid und die Unzufriedenheit von großen Teilen einer Bevölkerung sich gegen ein herrschendes System aufgelehnt hat: einseitige Verteilung von Reichtum, einseitige Verteilung von Macht, unwürdige Lebensverhältnisse für Viele,  haben in der Vergangenheit oft zu  umstürzende Veränderungen geführt. Nicht immer war es danach besser.

NADELÖHR MENSCH

  1. Sofern der Mensch bei diesen Entwicklungen beteiligt ist, können  wir zwei gegensätzliche Tendenzen beobachten.
  2. Einerseits verfügt der Mensch über ein großes Potential im Erkunden neuer Möglichkeiten und deren technologischer und gesellschaftlicher Nutzung. Andererseits ist der Mensch durch sein biologisches Erbe als Individuum vielfach begrenzt und stark bedürfnis- und triebgesteuert; seine kognitiven Fähigkeiten sind einerseits außerordentlich, wenn es darum geht, sich mit seinem Körper in einer realen Umgebung zurecht zu finden, er hat aber Probleme, komplexe Zusammenhänge zu erfassen, und seine Kommunikationsfähigkeit ist primär für den Nahbereich ausgelegt, für einfache, alltägliche Sachverhalte. Zwar haben Erfindungen wie Schrift, Rechtssysteme, Handwerk, Technologie, Landwirtschaft, Städtebau usw. die Fähigkeit erhöht, dass Menschen im Zusammenwirken mit anderen auch komplexere Aufgaben lösen können, aber der einzelne individuelle Mensch hat sich bislang biologisch nicht wesentlich verändert. Der endliche, triebgesteuerte, am Nahbereich orientierte einzelne Mensch findet sich in immer komplexeren gesellschaftlichen und technologischen Zusammenhängen vor, die seine individuellen Fähigkeiten real übersteigen. Diese Differenz ist schwer erträglich und ist ein großer Motor für Entlastungsstrategien vielfältigster Art. Die einen erleben sich als krank; andere blenden ganze Bereiche der Wirklichkeit einfach aus; andere propagieren vereinfachte Modelle von der Wirklichkeit, die schön klingen und ein gutes Gefühl vermitteln, aber letztlich zu kurz greifen; usw. Religiöser Fanatismus, nationalistische Tendenzen, Abbau von Demokratie durch scheinbar starke Männer, Korruption, Lobbyismus, Zunahme von Kontrolle und Überwachung, dies sind Symptome von großen Ängsten, Tendenzen zur Vereinfachung, die in der Regel nur wenigen nutzen und vielen schaden.

WISSEN NICHT ANGEBOREN

WELT ALS MODELL IM KOPF

  1. Damit kommen wir zu einem zentralen Punkt. Sofern ein Mensch als Akteur an einem Prozess beteiligt ist, kann er neben den an sich ‚blinden‘ Bedürfnissen, Trieben und dem Bauchgefühl auch sein aktuell verfügbares Wissen zu Rate ziehen. Das Wissen ist nicht angeboren, sondern muss in lang andauernden Prozessen der Interaktion mit der Umgebung erworben, gelernt werden. Dieses Wissen ist etwas ‚in seinem Kopf‘, ‚in seinem Gehirn‘. Es ist das menschliche Gehirn, das aufgrund seiner Bau- und Funktionsweise in der Lage ist, die Vielzahl der sensorischen Eindrücke von der Umgebung zugleich mit der eigenen Körperwahrnehmung zu einem komplexen Puzzle zusammen zu setzen, das ‚im Kopf‘, ‚im Gehirn‘ als eine Art ‚virtuelle Welt‚ existiert, ein vom Gehirn konstruiertes Modell der Welt, das nicht die Welt selbst ist. Für jeden einzelnen aber, der solch ein Modell der Welt im Kopf hat, erscheint dieses Modell der Welt als die Welt selbst!
  2. Je nachdem, wie gut dieses Modell im Kopf ist, kann es im Alltag helfen, sich schnell zu orientieren. Man weiß in etwa, wo man sich befindet, wer die Person ist, die mit einem im Raum ist, wie die vielen Gegenstände benannt werden, welche Verhaltensweisen man von den Dingen und Menschen erwarten darf (meistens), usw. Und solange die Welt im Kopf mit der realen Situation harmoniert, solange erscheint die Welt im Kopf ganz natürlich als die Welt selbst. Wenn ich aber mein Fahrrad holen will und feststelle, es ist nicht mehr da; oder ich sehe ein Handy, das aussieht wie ein anderes, aber dieses Handy dann doch anders funktioniert, wie ich es gewohnt bin; oder die Landwirte in den USA in weiten Gebieten plötzlich Wildpflanzen nicht mehr bekämpfen können, weil das die Wildpflanzen gelernt haben, sich gegenüber den Umweltgiften der Landwirte zu erwehren; … dann fällt einem auf, dass das Modell im Kopf nicht die reale Welt ist. Wenn ganze Volkswirtschaften nur noch Arbeitslosigkeit und Schulden produzieren, dann fällt auf, dass unser Modell einer Volkswirtschaft in den Köpfen der Akteure vielleicht falsch ist; oder Menschen in meiner Umgebung verhalten sich plötzlich anders, als ich es jahrelang gewohnt war – was war das für ein Modell, das ich im Kopf von diesen Menschen hatte?
  3. Kurzum, den wenigstens Menschen ist bewusst, dass die Welt, die sie täglich voraussetzen, nicht einfach die Welt ist, wie sie ist, sondern auch die Welt, wie sie sich die Welt in ihrem Kopf vorstellen. Die klassische (Griechische) Philosophie konnte das Lebendige nicht erklären, erfand aber ein Wort (Pneuma von pneuein, atmen), um es zumindest zu benennen. Viele Jahrhunderte (eigentlich mehr als 2000 Jahre) war es der Fantasie der Menschen überlassen, sich vorzustellen, was dieses Pneuma, dieses Lebensprinzip, sein konnte. Erst seit ca. 100 Jahre konnte die Wissenschaft genügend Wissen erarbeiten, um ein mögliches empirisch motiviertes Modell dieses Pneuma-Lebensprinzips zu gewinnen. Und selbst heute ist vieles noch offen.
  4. Das Modell im Kopf, die Welt als explizite Hypothese, fällt nicht vom Himmel; das Modell muss mühsam von vielen 100.000enden jeden Tag neu erarbeitet, überprüft, modifiziert werden. Es ist ein unfassbarer Schatz an Wissen ohne den wir weitgehend blind sind und Spielbälle von an sich blinden Bedürfnissen, Trieben und Bauchgefühlen jeglicher Art. Dieser globale Prozess wissenschaftlicher Erkenntnis ist eingebettet in ein gesellschaftliches Umfeld, das in der Regel kaum an wirklichem Wissen interessiert ist. In der Gesellschaft geht es wie eh und je primär um Macht, Reichtum, Kontrolle, Befriedigung der primären Bedürfnisse, und die Wissenschaft, die Wissenschaftler, sind davon nicht abgeschottet: selten dürfen sie einfach forschen, was man erforschen könnte, sondern können nur forschen, wofür sie Geld bekommen oder was ‚politisch gewollt‘ ist. Die Kurzsichtigkeit der Politik ist aber ein aktuelles Problem. Es gäbe Wissenschaften, die uns allen helfen könnten, aktuelle Tendenzen besser zu bewerten, aber für solche Wissenschaften gibt es kein Geld; sie würden ja die Politik in ihrer Kurzsichtigkeit kritisieren. Davor scheut man zurück.

ZUKUNFT IST KEIN NORMALES OBJEKT

  1. Und hier sei nochmals an den fundamentalen Gedanken aus einem vorausgehenden Blogeintrag erinnert , dass die Zukunft ja nicht als ein Objekt existiert wie irgend ein anderes Objekt in unserer Umgebung. In der Wahrnehmung haben wir streng genommen nur ein Jetzt, das wir nur insoweit überwinden, übersteigen können, als die Fähigkeit unseres Gedächtnisses uns durch die Erinnerung von vergangenen Jetzt-Momenten und verschiedenen Abstraktions- und Vergleichsprozessen überhaupt Anhaltspunkte für Veränderungen in der realen Welt liefert, Ansatzpunkte für Beziehungen, Regelhaftigkeiten, anhand deren wir dann in die Lage versetzt werden, Ideen von möglichen Zuständen in der Zukunft zu denken, als Hypothesen, als Vermutungen. Zukunft ist von daher immer ein Konstrukt im Bereich der virtuellen Welt unseres Gehirns. Wer nicht nachdenkt, hat keine gedachte mögliche Zukunft. Wer nachdenkt, kann Hypothesen entwickeln, die die eine oder andere mögliche Entwicklung vorweg nehmen können, aber insgesamt sind dies Variationen von Themen der Vergangenheit. Die echte Zukunft lässt sich nur sehr angenähert denken.

DIE ZUKUNFT STIRB IM KOPF

  1. Ist das Denken, das Wissen also schon grundsätzlich für unser Verhalten, für unser alltägliches Leben, für Politik und Wirtschaft wichtig, so ist es fundamental für eine mögliche Zukunft. In einer wissensfeindlichen Gesellschaft wird also nicht nur ein Alltag in der Gegenwart schwer, sondern die Keime einer möglichen für alle guten Zukunft werden schon im Ansatz erstickt. Die Zukunft stirbt dann schon im Kopf bevor eine mögliche Zukunft überhaupt stattfinden konnte. Real wird die Welt dann zwar trotzdem voranschreiten, es werden sich Dinge ereignen, ob die Menschen wollen oder nicht, aber diese Dinge können verheerend sein, zerstörerisch, viele Menschen mit Leid versorgen, Leid, das man möglicherweise hätte verhindern können. Die Demagogen der Gegenwart werden dann aber nicht mehr da sein oder, sollten sie es erleben, haben die Demagogen selbst selten die Schuld auf sich genommen. Es waren dann ihre dummen Anhänger, die ihre wunderbare (Schrott)Ideen nicht gut genug verstanden haben. Lieben die Menschen die Unwahrheit tatsächlich mehr als die Wahrheit? Falls Ja, was könnte ein Mensch dagegen tun, sich davor zu schützen?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

INDIVIDUUM – FREIHEIT – STRUKTUR. Ein ewiger Balanceakt

1. In der Tradition der Aufklärung, der französischen und nordamerikanischen Revolution, dann der UN-Menschenrechtsdeklaration – um nur einige wichtige Momente der Geschichte zu nennen – spielte u.a. der Gedanke des Individuums und der Freiheit eine prominente, wenn nicht zentrale, Rolle.

2. Vor dem Hintergrund der Erfahrung von absolutistisch-autokratischen Gesellschaftssystemen, in denen die ‚Spitze‘, die ‚oberen Klassen‘ alles waren und der Rest ein gesellschaftliches Nichts, war die Einsicht – die Rückbesinnung? – auf den Wert des einzelnen, auf die grundlegende Bedeutung jedes einzelnen im Ganzen, ein innovativer Gedanke mit revolutionärer Sprengkraft. Angesichts der Selbstherrlichkeit einer Aristokratie, in der sich die soziale Rollenbilder verselbständigt hatten gegenüber der Dynamik einer vielfältigen und komplexer werdenden Gesellschaft, war der Gedanke einer ‚Umwertung‘ von Rollen und Rechten zur Umformatierung des gesellschaftlichen Handelns kritisierend, umstürzend, Voraussetzung für ein ‚Change Management‘ ohne geordneten Prozess. Ein System mit Änderungsbedarf ohne geordneten Änderungsmechanismus erlaubt entweder nur ‚Weiter so‘ oder ‚abrupter Umsturz‘.

3. Das Großartige – und zugleich potentiell Selbstzerstörerische – der Formel ‚Freiheit, Gleichheit, Brüderlichkeit‘ lag in der Erkenntnis der grundlegenden Wertigkeit eines Individuums als Ursprung von gesellschaftlicher Wirklichkeit, als Potential gemeinsamen Lebens, als ‚Wunder in sich‘, das Wert war verteidigt und erhalten zu werden.

4. Dieser Impuls führte zum Zusammenbruch starrer absolutistischer-autokratischer Strukturen und zum Aufbruch in eine erhoffte und visionierte Alternative, die als solche natürlich noch nicht existierte. Zu wissen, was man nicht will ist ein unverzichtbares Veränderungsmoment; aber daraus ergibt sich nicht notwendigerweise automatisch der perfekte Plan für eine konstruktive Alternative.

5. Es verwundert daher nicht, dass dem Veränderungsimpuls der Bevölkerung zunächst viel Gewalt, viel Chaos, viele neues Unrecht folgte. Und es verwundert auch nicht, dass es mehrere kriegsreiche Generationen dauerte, bis es auf der Erde Gesellschaftssysteme gab, die man – plus minus – als ‚demokratische Gesellschaften‘ bezeichnen konnte.

6. Das eine war die Idee des grundlegenden Wertes des Individuums im Ganzen; das andere, neue, unbekannte, schwer zu Realisierende, war das komplexe Zusammenspiel einer ganzen Gesellschaft, um dem grundlegenden Recht auf individueller Freiheit ein gesellschaftliches Format zu geben, in dem sowohl elementare Bedürfnisse nach Freiheit, Gleichheit und Brüderlichkeit ein realer Raum gewährt wird, zugleich aber auch die sachlichen Notwendigkeiten eines gesamtgesellschaftlichen Funktionierens das nötige Gewicht und die notwendige alltägliche Realität gewinnt, damit der einzelne sich in einer funktionierenden Gesamtheit vorfindet, die tatsächlich grundlegende Freiheit zulässt, wo ‚Gleichheit‘ umgesetzt ist, wo ‚Brüderlichkeit‘ möglich ist. Das Zauberwort hier heißt ‚Struktur‘.

7. In der Naturgeschichte des Lebens auf der Erde kann man klar erkennen, dass die Komplexität des Lebens nur dort und nur dann ‚zunehmen‘ konnte, wenn es gelang, zuvor getrennte Elemente zu einem neuen funktionierenden Ganzen zu vereinen. Markant ist der Übergang von einer Zelle zu Vielzellern (wozu e 2.8Mrd Jahre gebraucht hat!); dann der Übergang von den kleinen Gruppen, Horden zu größeren Ansiedlungen, Ackerbau, Handel und Städten. Zeitgleich die Entwicklung von Regelsystemen (Gesetzen, Recht), symbolischen Sprachen, von komplexen Produktionsprozessen, usw.

8. Während man bei Pflanzen und einfacheren Tieren ‚Symbiosen‘, ‚Netzwerke‘, ‚Schwärme‘ und ‚Staatenbildungen‘ auf vergleichsweise einfache deterministische Strukturen zurückführen kann, beobachten wir beim Menschen neben seiner Fähigkeit des ‚einfachen Funktionierens‘ in einem ‚Prozess‘ die zusätzliche besondere Fähigkeit, des andauernden Lernens, des sich andauernden Veränderns, des potentiellen Verstehens und Erneuerns, eines flexiblen Kooperierens, eines potentiellen komplexen Verstehens, einer grundlegenden Fantasie zum Visionieren von impliziten Strukturen und völlig neuer Szenarien. Spielerisches, Wertschätzendes, und vieles mehr. Ja, man kann den Menschen zwangsweise auf elementare Verhaltensweisen und elementares Funktionieren reduzieren, aber damit verschleudert man ein unglaubliches Potential zu erheblich mehr. Kurzum, wenn man sieht, wie aus jedem Kind etwas Besonderes werden kann, wenn man ihm nur die Möglichkeit gibt, dann kann man erahnen, welches Potential in jeder Gesellschaft steckt.

9. Auf der anderen Seite können wir heute auch konkret anschaulich sehen, dass die Entwicklung des Potentials einzelner nur möglich ist, wenn der einzelne entsprechende ‚Kontexte‘ vorfindet, Ressourcen, Handlungsräume, Zeit, sie zu nutzen, Anleitungen, wie man sie nutzt, Wertschätzungen als Moment der Handlungsräume. D.h. die grundlegende Einsicht in das Potential eines Menschen, JEDES Menschen, muss ergänzt werden durch die Bereitstellung jener STRUKTUREN, die eine individuelle Entfaltung unter Berücksichtigung von Gleichheit und Brüderlichkeit ermöglichen.
10. Da ein ‚Anpassungsdruck‘ auf der Gesellschaft als ganzer lastet, müssen diese Strukturen so beschaffen sein, dass sie der freien Entfaltung maximalen Raum geben und zugleich dem ‚Überlebensdruck‘ einer Gesellschaft angemessen Rechnung trägt. In einer demokratischen Gesellschaft kann dies ausschließlich geschehen über öffentliche, geregelte, transparente Kommunikations- und Entscheidungsprozesse, in denen der gesellschaftliche Anpassungsdruck übersetzt wird in effektive Prozesse des gesellschaftlichen Überlebens, die aber dem individuellen Potential maximal Rechnung tragen. Je klarer der Überlebensdruck ist, je leistungsfähiger die transparenten Kommunikations-, Lern- und Entscheidungsprozesse, umso größer die Wahrscheinlichkeit, dass das Zusammenwirken von allen optimale Lösungen generiert.

11. Demokratische Gesellschaften verlangen von daher ein Maximum an Zusammenspiel im Medium von Kommunikation und transparenten Entscheidungen. Sie leben davon, dass eine hinreichende Mehrheit sowohl ‚motiviert‘ ist, sich ins Ganze einzubringen, als auch ‚fähig‘, die herausfordernden Aufgaben zu bewältigen.

12. Betrachtet man gegenwärtige demokratische Gesellschaftssysteme, so fallen einem viele Phänomene auf, die man als ‚Störsignale‘ deuten könnte, die einem Funktionieren des Ganzen widersprechen können bzw. tatsächlich widersprechen.

13. Das Phänomen der ‚Wahlmüdigkeit‘ aus Enttäuschung findet sich in den meisten demokratischen Gesellschaften und kann ein Indiz sein, dass aus Sicht des einzelnen nicht genügend Motivation vorhanden ist, sich mit dem Ganzen zu identifizieren.

14. Dazu gehört eine offensichtlich zunehmende neue Klassenbildung, dass Erfolgreiche in Politik und Wirtschaft sich abzusondern suchen von den ‚anderen‘. Dies wird noch verstärkt durch die Tendenz, Subgesellschaften zu bilden, in denen man mehr und mehr alle Lebensprozesse in ‚reiche Enklaven‘ verlagert, die zu einer Entfremdung von Teilmengen der ‚Erfolgreichen‘ mit dem Rest führt.

15. Man beobachtet die Tendenz, dass die Wirtschaft sich zunehmend verselbständigt: sie versteht sich nicht mehr sozial-politisch als konstruktives Element einer Gesellschaft, die als Ganzes funktionieren und Erfolg haben soll, sondern als ein isoliertes Subsystem, das sich global aufstellt und global Macht allokiert und dies nicht nur ohne Berücksichtigung lokaler Gesellschaftssysteme sondern mit dem immer offeneren Ziel, die lokalen Gesellschaften zu neutralisieren. Eine neue Form von absolutistischen-aristokratischen Zügen, einhergehend mit offener Menschenverachtung, nacktem Egoismus, ohne jede Verantwortung für das Ganze. Naturgeschichtlich erscheint dies wie eine bösartige Entartung, wie ein Krebsgeschwür, das sich aus dem größeren Zusammenhang des Lebens heraus zu lösen versucht.

16. Man beobachtet das enorme Anwachsen im Konsum von Drogen aller Art, die Zunahme von ethischer Zersplitterung, von einer Neutralisierung von Wissen durch ein Zuwenig an Wissensvermittlung, ein Zerbrechen klassischer sozialer Räume ohne erkennbarem gleichwertigen Ersatz, eine Zunahme an interkulturellem ‚Clash‘ von Verschiedenheit, die zum Bewältigen geeignete Prozesse benötigt, und manches mehr.

17. Neutral kann man alle diese Phänomene interpretieren als ‚Phänomene eines Veränderungsprozesses‘: das Anwachsen von ‚Neuem‘ erfordert neues Lernen, neues Verstehen, neues sich Verständigen, neues Regulieren, und dies alles braucht seine Zeit. Aber – und das lehrt uns die bekannte Geschichte – es gibt keine Garantie, dass sich komplexe Kulturen ‚halten‘ können. Viele großartige Gesellschaftssysteme der Vergangenheit, die ‚ewig‘ erschienen, sind dann irgendwann vollständig zusammen gebrochen, weil die konstruktiv-integrierenden Mechanismen sich als zu schwach erwiesen, um offensichtliche Herausforderungen konstruktiv unter Beteiligung von allen zu meistern. Missachtung der inneren Integration führt zwangsläufig zum Zerfall; da spielen ein paar Jahrzehnte keine Rolle.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

Einen Überblick über alle Blogeinträge nach Titeln findet sich HIER: Blog gesamt.

ENDSPIEL, ENDKAMPF, ODER NEUER EVOLUTIONSSCHUB?

(Letzte Änderungen: 23.Nov.2014, 14:46h)

1. Während der Begriff ‚Endspiel‘ durch seine sportliche Konnotationen noch keinen letzten Schrecken verbreiten muss, klingt ‚Endkampf‘ biblisch-apokalyptisch: Endzeitstimmung; das Böse kämpft gegen das Gute; alles steht auf dem Spiel. ‚Evolutionsschub‘ deutet die Perspektive der Naturwissenschaften an, eine methodische Objektivität eines ‚Strukturwandels‘, der sich ’natürlich‘ aus der ‚Vorgeschichte‘ ergibt. Obwohl ich grundsätzlich der naturwissenschaftlichen Sicht zuneige als Grundlage aller Argumentationen über unsere empirisch erfahrbare Welt und damit bei weitreichenden Veränderungen eher einen ’natürlichen Strukturwandel‘ unterstelle, haben wir es bei dem aktuellen Strukturwandel mit Phänomenen zu tun, in die ’subjektive Anteile‘ von beteiligten Menschen, Gruppierungen, Parteien, Firmen usw. mit eingehen. Die ‚Natur‘ hat zwar aufgrund der Gesamtheit aller beteiligten physikalischen Eigenschaften ‚von sich aus‘ eine — möglicherweise ’spezifische‘ — ‚Tendenz‘ sich zu verändern, aber der weltweite Einfluss biologischer Systeme auf den weiteren Gang mit der ‚biologischen Eigendynamik, die – wir wir wissen – gegen grundlegende physikalische Gesetze (z.B. 2.Hauptsatz der Thermodynamik) gerichtet zu sein scheint, erscheint mittlerweile so stark, dass der biologische Faktor neben den physikalischen Prinzipien ein Gewicht gewonnen hat, welches es verbietet, rein ‚technisch‘ von einem Evolutionsschub als ‚ausrechenbarem Strukturwandel‘ zu sprechen.

2. In diesem globalen Kontext erscheint ein Thema wie Informatik & Gesellschaft auf den ersten Blick eher speziell; auf den zweiten Blick zeigt sich aber gerade in diesem Thema eine der globalen Verwerfungslinien zwischen dem ‚Zustand bisher‘ und dem ‚Zustand, der neu beginnt‘. Das Thema ‚Informatik‘ bzw. ‚Computertechnologie‘ galt eher als Teil der Technologie, die nicht eigentlich der ‚Natur‘ zugeordnet wurde. Wie überhaupt seit Aufkommen der ‚Maschinen‘ die Maschinen als Leitmuster der Technologie immer als Gegensatz zur ‚chemischen und biologischen Evolution‘ gesehen wurden. Neben vielen kulturellen Denkmustern, die solch eine ‚Trennung‘ begünstigten, war es sicher auch die mindestens von der antiken Philosophie herrührenden Trennung von ‚unbelebt‘ (die ‚Stoffe‘, ‚Subtsanzen‘, die ‚Materie‘ als solche sind ‚unbelebt‘) und ‚belebt‘ (‚atmend‘ (pneo), Atem als universelles Lebensprinzip (pneuma)), das seinen Ausdruck im ‚Geist‘ (pneuma‘) findet. Da dieser Gegensatz von ‚unbelebt‘ und ‚belebt‘ mehr als 2000 Jahre nicht wirklich aufgelöst werden konnte, konnte sich eine Art ‚Dualismus‘ ausbilden und durchhalten, der wie eine unsichtbare Trennlinie durch die gesamte Wirklichkeit verlief: alles, was nicht ‚atmete‘ war unbelebt, materiell, un-geistig; alles was atmete, belebt war, befand sich in einer Nähe zum universellen Geistigen, ohne dass man eigentlich näher beschreiben konnte, was ‚Geist‘ denn nun genau war. Nicht verwunderlich, dass sich alle großen Religionen wie ‚Hinduismus‘, ‚Judentum‘, ‚Buddhismus‘, ‚Christentum‘, ‚Islam‘ (trotz z.T. erheblicher Differenzen in den Details), diesem Dualismus ’nachbarschaftlich verbunden fühlten‘. Der intellektuell-begriffliche ‚Ringkampf‘ der christlichen Theologie und Philosophie (und streckenweise des Islam, Avicenna und andere!) mit diesem dualistischen Erbe hat jedenfalls tiefe Spuren in allen theologischen Systemen hinterlassen, ohne allerdings dieses ‚Rätsel des Geistes‘ auch nur ansatzweise aufzulösen.

3. Diesen historischen Kontext muss man sich bewusst machen, um zu verstehen, warum für viele (die meisten? Alle?) die plötzliche ‚Nähe‘ der Technologie im alltäglichen Leben, eine sich immer mehr ‚anschmiegende‘ und zugleich ‚verdrängende‘ Technologie an diesem im Alltagsdenken ‚historisch eingebrannten‘ Dualismus‘ zu kratzen beginnt, zu wachsenden Irritationen führt (andere Technologien wie Nanotechnologie und Gentechnik gehören auch in diesen Kontext, wenn auch anders).

4. Im Ankündigungstext zur erwähnten Veranstaltung Informatik & Gesellschaft (siehe auch den Kurzbericht) wurde bewusst herausgestellt, dass seit den ersten Computern eines Konrad Zuse und dem Eniac-Computer von John Presper Eckert und John William Mauchly (1946) die Computertechnologie mittlerweile nahezu alle Bereiche der Gesellschaft in einer Weise durchdrungen hat, wie wohl bislang keine andere Technologie; dass diese Technologie realer Teil unseres Alltags geworden ist, sowohl im Arbeitsleben wie auch in der Freizeit. Man kann sogar sagen, dass diese Technologie die menschliche Lebensweise schon jetzt (nach ca. 60 Jahren) real und nachhaltig verändert hat. Neue Formen der Kommunikation wurden ermöglicht, Veränderungen der Mobilität, automatisierte flexible Produktion, Computermusik, computergenerierte Bildwelten…

5. Aber diese Durchdringung von nahezu allem – was heißt das? Die neue historische Qualität dieser Technologie besteht darin, dass diese Technologie – bislang immer noch klar erkennbar als ‚Maschinen‘, bislang nicht als ‚biologische‘ Strukturen – ‚Verhaltensweisen‘ zeigt, die denen der Menschen als Prototypen von ‚geistigen‘ Wesen ähneln. Aufgrund dieser ‚Ähnlichkeit‘ werden sie Teil von ‚typisch menschlichen‘ Handlungsabläufen (Kommunizieren, Wissen verwalten, Sport und Kunst machen, Spielen, komplexe Modelle und Prozesse entwerfen und simulieren, dann auch steuern, usw.). Seit den 80iger Jahren des 20.Jahrhunderts – also nach nicht mal ca. 30-40 Jahren — hat sich diese Technologie so mit dem menschlichen Alltag verwoben, dass eine moderne industrielle Gesellschaft komplett zusammenbrechen würde, würde man diese Technologie von jetzt auf gleich abschalten.

6. Befürworter eines noch intensiveren Einsatz dieser neuen Computertechnologien z.B. im Bereich der Industrie unter dem Schlagwort ‚Industrie 4.0‘ (so z.B. Prof. Schocke in seinem Beitrag auf der Veranstaltung Informatik & Gesellschaft – Kurzbericht oder die Autoren Thomas Klein und Daniel Schleidt in der gleichnamigen FAZ Beilage vom 18.Nov.2014 auf den Seiten V2 (Klein) und V6 (Schleidt)) sehen vor allem das Potential zu noch mehr Produktionssteigerungen bei gleichzeitiger Verbesserung der Qualität und besserer Ressourcennutzung. Gleichzeitig betonen die drei Autoren die Notwendigkeit von mehr Computertechnologie in der Industrie wegen des internationalen Wettbewerbs. Von den drei genannten Autoren spricht einzig Thomas Klein auch die Kehrseite des vermehrt ‚menschenähnlichen‘ Einsatzes dieser Maschinen im Kontext von Industrie 4.0 an: das damit möglicherweise auch viele Arbeitsplätze wegfallen werden, die bislang für Menschen Arbeitsmöglichkeiten geboten haben. Klein zitiert Untersuchungen, nach denen 47% der bisherigen Arbeitsplätze in den USA in den nächsten 10 Jahren Kandidaten für eine Substitution durch Computergestützte Technologien sind. Dies sind massive Zahlen. Dalia Marin, Professorin für Volkswirtschaft, versucht diese kommende Arbeitsmarktproblematik weiter zu differenzieren. Ausgehend von der Annahme, dass mehr Automatisierung kommen wird, sieht sie neben dem Rückzug von Hochtechnologieproduktionen in die angestammten Industrieländer dort aber die grundsätzliche Entwicklung zur Vergrößerung der Kapitalquote und zur Verringerung der Lohnquote. Diese Verringerung soll vor allem den Akademikersektor treffen; teure menschliche Arbeitskräfte werden bevorzugt von billigen computerbasierten Technologien ersetzt (FAZ 21.Nov.2014, S.16). Sowohl Klein wie auch Marin betonen aber auch, dass solche Zukunftseinschätzungen problematisch sind; der Prozess ist zu komplex, als dass man ihn einfach hochrechnen könnte.

7. Was bei allen vier genannten Autoren auffällt – auch bei den Autoren der Beilage ‚Innovation‘ (FAZ 20.Nov.2014) – ist, dass sie die ‚intelligente‘ und ’smarte‘ Technologie überwiegend aus einer ‚Außensicht‘ behandeln. Sie lassen die Wirkmechanismen dieser neuen Technologien, ihre maschinelle Logik, das, was sie so leistungsfähig macht, mehr oder weniger im Dunkeln. Smarte, intelligente Technologie erscheint dadurch – ich pointiere jetzt ein wenig — wie ein Naturereignis, das geradezu mystisch über uns hereinbricht, das einfach passiert, das so ist wie es ist, das man einfach hinnehmen muss. Auch fehlt eine historische Einordnung dieser Prozesse in das große Ganze einer Evolution des Lebens im Universum. Die sehr differenzierten Sichten von Daniel Schleidt enthalten zwar ein eigenes Schaubild zur industriellen Entwicklung, aber dieses greift – nach meiner Einschätzung – zu kurz. Es zementiert nur eher den opaken Blick auf das Phänomen, macht es begrifflich unzugänglich, schottet es für die Reflexion ab. Auch die volkswirtschaftliche Ausweitung des Blicks durch Marin geht – nach meiner Einschätzung – nicht weit genug. Sie betrachtet das Problem einer möglichen und wahrscheinlichen Substitution von menschlicher Arbeit durch computerbasierte Technologien in gegebenen historischen Kontexten und hier auch nur in einer kurzen Zeitspanne. Sie thematisiert aber nicht die gesellschaftlichen Rahmenbedingungen als solche. Sehr wohl kann man die Frage nach dem aktuellen Gesellschaftsmodell stellen. Sehr wohl kann man die Frage aufwerfen, ob es ein gutes Modell ist, wenn einige wenige GFinanz- und Machteliten mit dem Rest der Menschheit nach Belieben spielen. In der Frankfurter Rundschau wird seit vielen Wochen das Thema ‚Gerechtigkeit‘ diskutiert (siehe zuletzt z.B. Mohssen Massarat, Prof. für Wirtschaft und Politik mit seiner Übersicht verschiedener Gerechtigkeitsmodelle, FR 15./16.Nov.2014, S.9) und die Lektüre eines Buches wie ‚Die Abwicklung‘ von George Packer zeigt, dass eine reflexionsfreie oligopolistische Gesellschaft wie die US-Amerikanische mehr Fragen aufwirft als sie befriedigende Antworten liefert.

8. Sieht man nur die bisherigen Diskussionsbeiträge, dann kann einen schon die klamme Frage beschleichen, warum so viele Autoren in den Spiegeln der Gegenwart immer nur noch ‚das Andere‘ sehen, die ‚Maschine‘, während der ‚Mensch‘, die ‚Menschheit‘ als Hervorbringer dieser Technologien in diesem Sichtfeld gar nicht mehr vorkommt. Es ist wie ein intellektueller blinder Fleck, der die leisesten Zuckungen von Maschinen wie eine Neugeburt feiert während das ungeheuerliche Wunder der Entstehung komplexer Lebensstrukturen auf der Erde (das bis heute in keiner Weise wirklich verstanden ist!) nicht einmal eine Randnotiz wert ist. Fokussierung auf spezifische Fragestellung hat seinen Sinn und ist und war ein Erfolgsrezept, aber in einer Zeit, in der disziplinenübergreifend komplexe Phänomene alles mit allem verzahnen, in einer solchen Zeit erscheint diese selbstgenügsame Tugend nicht mehr nur nicht angebracht, sondern geradezu kontraproduktiv zu sein. Eine falsche Fokussierung führt bei komplexen Phänomenen notwendigerweise zu Verzerrungen, zu Verfälschungen, zu falschen Bildern von der Gegenwart und einer sich daraus ergebenden Zukunft (es sei auch an die lange Diskussion in der FAZ erinnert zu den Schwachstellen moderner Betriebs- und Volkswirtschaftstheorien, die nicht nur die letzten Finanzkatastrophen nicht vorhergesehen haben, sondern auch mit ihrem Paradigma des ‚homo oeconomicus‘ empirisch weitgehend gescheitert sind.)

9. Wenn nun also Menschen selbst das Andere ihrer selbst anpreisen und sich selbst dabei ‚wegschweigen‘, ist damit die Geschichte des biologischen Lebens im Universum automatisch zu Ende oder unterliegen wir als menschlich Denkende hier nicht wieder einmal einem grundlegenden Denkfehler über die Wirklichkeit, wie andere Generationen vor uns auch schon in anderen Fragen?

10. Die Verabschiedung der UN-Menschenrechtskonvention von 1948, damals als ein Lichtblick angesichts der systematischen Greueltaten gegen die Juden (aber aber nicht nur dieser!) und der Beginn vieler anderer daran anknüpfenden Erklärungen und Initiativen erscheint vor den aktuellen gesellschaftlichen Prozessen weltweit fast schon seltsam. Dass ein totalitäres Regime wie das chinesische die Menschenrechte grundsätzlich nicht anerkennt (wohl aber chinesische Bürger, siehe die Charta 2008) ist offiziell gewollt, dass aber selbst demokratische Länder – allen voran die USA – mit den Menschenrechten scheinbar ’nach Belieben‘ umgehen, sozusagen, wie es ihnen gerade passt, dass wirkt wenig ermutigend und gibt Nahrung für Spekulationen, ob die Menschenrechte und die Mitgliedschaft in der UN nur davon ablenken sollen, was die Finanz- und Machteliten tatsächlich wollen. Die Zerstörung ganzer Gesellschaftsbereiche, die Marginalisierung großer Teile der Bevölkerung, die unbeschränkte Aufhebung der Privatsphäre ohne alle Kontrollen, die globale Ausbeutung der Schwachen durch Handelsabkommen … nur wenige Beispiele die eine andere Sprache sprechen, als jene, die in den Menschenrechten vorgezeichnet ist.

11. Noch einmal, was auffällt, ist die ‚Oberflächlichkeit‘ all dieser Bilder im wahrsten Sinn des Wortes: die schier unfassbare Geschichte der Evolution des Lebens im Universum existiert eigentlich nicht; das Wunder des Geistes inmitten materiell erscheinender Strukturen ist weitgehend unsichtbar oder ist eingesperrt in eine gesellschaftliche Enklave genannt ‚Kultur‘, die nahezu kontaktlos ist mit dem Rest des Wirtschaftens, Produzierens und Denkens; eine ‚Kultur der Sonntagsreden‘ und der ‚Belustigungen‘, ein Medium für die Eitelkeit der Reichen und der Unterhaltungsindustrie.

12. Innovation entsteht nie nur aus der Wiederholung des Alten, sondern immer auch aus der Veränderung des Alten, entsteht aus dem gezielt herbeigeführten ‚Risiko‘ von etwas ‚tatsächlich Neuem‘, dessen Eigenschaften und Wirkungen per se nicht vollständig vorher bekannt sein können.

13. Die, die aktuell neue Technologien hervorbringen und einsetzen wollen, erscheinen ‚innovativ‘ darin, dass sie diese hervorbringen, aber in der Art und Weise, wie sie das biologische Leben – speziell die Menschen – damit ‚arrangieren‘, wirken die meisten sehr ‚alt‘, ‚rückwärtsgewandt‘, …. Innovationen für das Menschliche stehen ersichtlich auf keiner Tagesordnung. Das Menschliche wird offiziell ‚konserviert‘ oder schlicht wegrationalisiert, weggeworfen, ‚entsorgt‘; hier manifestiert sich ein seltsamer Zug dazu, sich selbst zu entsorgen, sich selbst zu vernichten. Die Quelle aller Innovationen, das biologische Leben, hat in Gestalt der Menschheit einen ‚blinden Fleck‘: sie selbst als Quelle.

14. Der Mangel an Wissen war zu allen Zeiten ein Riesenproblem und Quelle vieler Notlagen und Gräueltaten. Dennoch hat die Menschheit trotz massiver Beschränkungen im Wissen neues Wissen und neue Strukturen entwickelt, die mehr Teilhabe ermöglichen, mehr Einsichten vermitteln, mehr Technologie hervorgebracht haben, ohne dass ein ‚externer Lehrer‘ gesagt hat, was zu tun ist… wie ja auch alle Kinder nicht lernen, weil wir auf sie einreden, sondern weil sie durch den bisherigen Gang der Evolution für ein kontinuierliches Lernen ausgestattet sind. … Der Geist geht dem Denken voraus, die Logik der Entwicklung liegt ‚in‘ der Materie-Energie.

15. So großartig Innovationen sein können, das größte Mirakel bleibt die Quelle selbst. Wunderbar und unheimlich zugleich.

QUELLEN

George Packer (3.Aufl. 2014), Die Abwicklung. Eine innere Geschichte des neuen Amerika. Frankfurt am Main: S.Fischer Verlag GmbH (die engl. Originalausgabe erschien 2013 unter dem Titel ‚The Unwinding. An Inner History of the New America‘. New York: Farrar, Strauss and Giroux).

Einen Überblic über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 7

VORGESCHICHTE

1. In einem ersten Beitrag AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 1 hatte ich geschildert, wie ich zur Lektüre des Textes von Avicenna gekommen bin und wie der Text grob einzuordnen ist. In einem zweiten Beitrag AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 2 ging es um die Frage, warum überhaupt Logik? Avicenna führt erste Unterscheidungen zu verschiedenen Wissensformen ein, lässt aber alle Detailfragen noch weitgehend im Dunkeln. Im Teil AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 3 ging es um einfache und zusammengesetzte Begriffe, und bei den einfachen Begriffen um ‚individuelle‘ und ‚universelle‘. Schon hier zeigt sich der fundamentale Unterschied zwischen der antiken und der modernen-formalen Logik. In der antiken Logik wird die Ausdrucksebene E – und einer sich daran manifestierenden Folgerungslogik – immer in Verbindung mit einer zugehörigen Bedeutungsstruktur gesehen, die sich an einer Objektstruktur O festmacht. Die moderne formale Logik kennt zwar auch ‚Semantiken‘ und ‚Ontologien‘, diese sind aber ’sekundär‘, d.h. es werden nur solche ‚formalen Semantiken‘ betrachtet, die zum vorausgesetzten syntaktischen Folgerungsbegriff ‚passen‘. Dies sollte dann später an konkreten Beispielen diskutiert werden. Hier liegt der Fokus auf der antiken Logik im Sinne Avicennas. Im Abschnitt AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 4 knüpft Avicenna an den zuvor eingeführten Begriff des ‚universellen‘ Begriffs an und betrachtet jetzt solche als ‚universell‘ bezeichneten Ausdrücke in einem Ausdruckskontext von aufeinanderfolgenden Ausdrücken. Alle diese Ausdrücke könnte man im Sinne der antiken Logik auch als ‚Urteile‘ bezeichnen, durch die einem bestimmten Ausdruck durch andere Ausdrücke bestimmte Bedeutungen (Eigenschaften) zu- oder abgesprochen werden. Hier unterscheidet er die Fälle eines ‚wesentlichen‘ Zusammenhanges zwischen zwei Begriffen und eines ’nicht wesentlichen‘ – sprich ‚akzidentellen‘ – Zusammenhangs. Im Abschnitt AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 5 führt Avicenna eine Reihe von neuen technischen Begriffen ein, die sich nicht alle in ihrer Bedeutung widerspruchsfrei auflösen lassen. Es handelt sich um die Begriffe ‚Genus‘, ‚Spezies‘, Differenz, allgemeine und spezielle Akzidens, den Begriff ‚Kategorie(n)‘ mit den Kategorien ‚Substanz‘, ‚Qualität‘ und ‚Quantität‘. Die Rekonstruktion führt dennoch zu spannenden Themen, z.B. zu einem möglichen Einstieg in das weltverändernde Phänomen der kognitiven Evolution. Im Abschnitt AVICENNAS ABHANDLUNG ZUR LOGIK – Teil 6 geht es um die Begriffe ‚Definition‘ und ‚Beschreibung‘. Im Verhältnis zwischen beiden Begriffen geht die Beschreibung der Definition voraus. In der ‚Definition‘, die Avicenna vorstellt, wird ein neuer Ausdruck e mittels anderer Ausdrücke <e1, …, ek>, die sich auf schon bekannte Sachverhalte beziehen, ‚erklärt‘. Die von Avicenna dann vorgenommene Erklärung, was eine ‚Definition‘ sei, hängt u.a. stark ab von dem Begriff der ‚Bekanntheit‘ und dem Begriff des ‚wahren Wesens‘. Für die Tatsache, dass ein Mensch A bestimmte Ausdrücke <e1, …, ek> einer Sprache L ‚kennt‘ oder ’nicht kennt‘, dafür gibt es keine allgemeinen Regeln oder Kriterien. Von daher macht die Verwendung der Ausdrücke ‚bekannt’/ ’nicht bekannt‘ eigentlich nur Sinn in solch einem lokalen Kontexten W* (z.B. einem Artikel, ein Buch, ein Vortrag, …), in dem entscheidbar ist, ob ein bestimmter Ausdruck e einer Sprache L schon mal vorkam oder nicht. Schwierig wird es mit dem Begriff des ‚wahren Wesens‘. In meiner Interpretation mit der dynamischen Objekthierarchie gibt es ‚das wahre Wesen‘ in Form von Objekten auf einer Stufe j, die Instanzen auf Stufen kleiner als j haben. Dazu gab es weitere Überlegungen.

NAMEN, VERBEN/TERME, PRÄPOSITIONEN

2. Nach all den Vorüberlegungen nähert sich Avicenna nun dem eigentlichen Gegenstand der (antiken, auf das Alltagsdenken bezogenen) Logik, nämlich jenen ‚Ausdrücken‘, durch die entscheidende Bedeutungen kommuniziert werden.
3. Er beginnt mit ‚einfachen‘ Ausdrücken.

4. Er nimmt an, dass sich einfache Ausdrücke e aus drei Teilausdrücken zusammen setzen, die er als ‚Name‘, ‚Verb‘ und ‚Präposition‘ klassifiziert.

5. Terminologisch merkt er an, dass der grammatische Begriff ‚Verb‘ von Logikern ‚Term‘ genannt wird.

6. Sowohl der Name als auch das Verb sollen eine ‚vollständige Bedeutung‘ haben, Präpositionen dagegen nicht.

7. Namen unterscheiden sich von Termen dadurch, dass sie sich nicht auf eine ‚zeitliche Abfolge‘ (engl.: ‚temporal sequence‘) beziehen.

8. Verben hingegen – im Unterschied zu Namen – haben sowohl eine ‚Bedeutung‘ wie auch einen ‚zeitlichen Bezug‘ (engl.: ‚temporal significance‘).

9. Grenzfälle sind Namen wie ‚Heute‘ (engl.: ‚day‘) und ‚Gestern‘ (engl.: ‚yesterday). Obwohl sie einen ‚Teil der Zeit‘ (engl.: ‚part of time‘) bezeichnen (engl.: ’signify‘), sind sie doch keine Verben, da bei diesen Namen ihre ‚Bedeutung‘ mit dem ‚zeitlichen Bezug‘ zusammenfällt; bei einem Term wie ‚geschlagen‘ (engl.: ’struck‘) ist die Bedeutung (Vorgang des Schlagens) klar zu unterscheiden von dem Zeitbezug (der Vorgang war in der Vergangenheit).

10. Beispiele: e = <e1,e2,e3,e4,e5> = N:(Ich)Va:(habe)N:(den Zid)Vb:(gesehen); Der einfache Ausdruck e zerfällt in mehrere Ausdrucksteile <e1,e2,e3,e4,e5>, denen sich Bedeutungen zuordnen lassen. e1 = (Ich), bezieht sich auf den aktuellen Sprecher, und wird von daher als Name [N] für ein Objekt gewertet, das dem Namen eine Bedeutung verleiht. <e3, e4> = (den Zid) bezieht sich auf eine Person Zid, und wird auch als Name für ein Objekt gewertet, das dem Namen eine Bedeutung verleiht. e2 und e5 = (habe) … (gesehen) bezieht sich auf einen Vorgang des Sehens, bei der ein Beobachter etwas sieht (Bedeutungsanteil); zusätzlich wird ein zeitlicher Aspekt angedeutet, dass es sich um einen Vorgang in der Vergangenheit handelt. Ausdruck e1 füllt die ‚Rolle‘ des Beobachters und Ausdruck <e3, e4> spielt die Rolle des beobachteten Objekts.

11. Beispiel: e = <e1,e2,e3,e4> = N:(Zid) V:(ist) PRÄP:(im) N:(Haus). Der einfache Ausdruck e zerfällt in mehrere Ausdrucksteile <e1,e2,e3,e4>, denen sich Bedeutungen zuordnen lassen. e1 = N:(Zid) ist ein Ausdruck, der sich auf eine Person Zid bezieht, die dem Ausdruck als Objekt eine Bedeutung verleiht. e2 = V:(ist) ist ein Ausdruck, der sich auf einen Sachverhalt ‚etwas ist an einem Ort‘ bezieht, der dem Ausdruck sowohl eine Bedeutung verleiht wie auch eine davon unabhängige zeitliche Bestimmung, dass es in der Gegenwart ist. e3 = PRÄP:(im) ist ein Ausdruck, der sich auf einen räumlichen Sachverhalt bezieht ‚etwas ist in einem Raumgebiet‘, der dem Ausdruck eine Bedeutung verleiht, ohne expliziten Zeitbezug. e4 = N:(Haus) ist ein Ausdruck, der sich auf einen Ort Haus bezieht, der dem Ausdruck als Objekt eine Bedeutung verleiht. Die Kombination aus <e2, e3> ergibt einen Sachverhalt, der einerseits ein Objekt verlangt, von dem gesagt wird, dass es sich irgendwo befindet, und ein Objekt, das den Ort markiert. Beides ist mit e1 und e4 gegeben.

DISKUSSION

TERMINOLOGIE

12. Zur Terminologie: dass die (antiken) Logiker ‚Verben‘ als ‚Terme‘ bezeichnen sollen ist eine Sache. In diesem Kontext der Ausdrucksanalyse erscheint es mir eher verwirrend, zwei verschiedene Terminologien zu vermischen. Ich behalte im Folgenden die ‚grammatischen‘ Begriffe bei. Später kann man dann alle grammatischen Begriffe in einem mehr formalisierten logischen Kontext ‚übersetzen‘, falls notwendig.

13. Von ‚einfachen‘ Ausdrücken e zu sprechen, wenn die Ausdrücke sich alle aus mehreren Teilausdrücken e = <e1, e2, e3, …> zusammen setzen, kann verwirrend wirken, zumal er in vorausgehenden Abschnitten mit ‚einfachen‘ Ausdrücken tatsächlich solche meinte, die eben nicht zusammen gesetzt sind. Avicenna gibt keine direkte Erklärung für diese geänderte Verwendungsweise seines Begriffs eines ‚einfachen Ausdrucks‘, aber der Kontext legt folgende Interpretation nahe:

SYNTAX UND SEMANTIK

14. Es gibt eine ’syntaktische‘ Einfachheit (im Sinne von ’nicht zusammen gesetzt‘) und es gibt eine ’semantische‘ Einfachheit. Einfache Aussagen in diesem Abschnitt scheinen zu den ’semantisch einfachen‘ Ausdrücken zu gehören, denn syntaktisch sind sie eindeutig nicht einfach, sondern zusammengesetzt.

DER SEMANTISCHE RAUM

15. Damit stellt sich die Frage, wie man den ’semantischen Raum‘ ( den ‚Bedeutungsraum) eines Ausdrucks e (sowohl syntaktisch einfach als auch syntaktisch zusammengesetzt) so charakterisieren kann, dass man eine ‚einfache‘ Bedeutung von einer ’nicht einfachen = komplexen‘ Bedeutung unterscheiden kann.

16. Avicenna selbst hat ja in den vorausgehenden Abschnitten den ‚Bedeutungsraum‘ nicht ausdrücklich als eigenständigen Gegenstand thematisiert, immer nur indirekt, anhand von einzelnen Beispielen. Von diesen seinen indirekten, fragmentarischen Andeutungen aus lässt sich die Frage nach einer klaren Unterscheidung einer ‚einfachen‘ und einer ’nicht einfachen‘ Bedeutung im Kontext eines Ausdrucks e kaum einfach beantworten.

17. Als ‚Abfallprodukt‘ der bisherigen Rekonstruktion wurde das Konzept einer ‚dynamischen Objekthierarchie‘ O angedeutet, für die allgemeine Metaklassifikationen (entspricht in etwa dem klassischen Kategorienbegriff) wie z.B. ‚echtes Objekt‘ (etwa die Kategorie ‚Substanz‘), ‚unechte Objekte (etwa die Kategorie ‚Qualität‘), ‚Zeit‘, ‚Raum‘ und ‚Zahl‘ (etwa die Kategorie ‚Quantität‘) postuliert werden konnten.

18. Wenn man nun also von einem ‚Bedeutungsraum‘ (semantischen Raum) M sprechen will, dann müsste man entweder diese – bislang nur angedeuteten – Objektstrukturen mit den zusätzlichen Metaklassifikationen zugrunde legen oder eine Alternative formulieren. Ohne irgendwelche Annahmen dieser Art wäre der Begriff des semantischen Raumes vollständig leer und damit jegliche Art von Rekonstruktion von Ausdrücken e mit Bezug auf die zugehörigen ‚Bedeutungen‘ beliebig: alles wäre richtig und zugleich falsch.

19. Bis auf weiteres wird hier die bisherige Skizze zum dynamischen Objektraum mit den Metaklassifikationen als Arbeitshypothese für die weitere Interpretationen benutzt.

20. Von einem Ausdruck e mit Teilausdrücken <e1, e2, e3, …> zu sagen, dass bestimmte Ausdrucksteile $latex e_{i}$ bestimmte, voneinander abgrenzbare Bedeutungen haben, ihnen also unterschiedliche ’semantische Funktionen‘ zukommen, ist einerseits gewagt, da die Ausrücke als solche keinerlei syntaktische Hinweise haben müssen, aus denen man dies erkennen könnte, zugleich aber auch interessant, da damit die Denkaufgabe gestellt wird, wie es möglich sein soll, beliebige Ausdrucksteile $latex e_{i}$ in einem Ausdruck e durch Bezugnahme auf ‚etwas anderes‘, nämlich auf die ‚Bedeutung‘ indirekt charakterisieren zu können.

SIMULTANE DEFINITONEN

21. In gewissem Sinne könnte man hier auch von einem Definitionsvorgang sprechen: das Neue, das Unbekannte, das sind die Ausdruckselemente <e1, e2, e3, …> in einem Ausdruck e, das Bekannte das ist ein vorausgesetztes Bedeutungsgefüge, und die definitorische Erklärung ist die Verbindung von neuem Ausdruckselement und bekanntem Bedeutungsobjekt. Abweichend vom einfache Fall der expliziten syntaktischen Definition von einem Element e durch eine Folge von anderen Ausdrücken <e1, e2, e3, …> haben wir es hier im Falle der Definition von syntaktischen Ausdrücken durch Bezugnahme auf semantische Objekte mit zwei zusätzlichen Aspekten zu tun: (i) die Erklärung findet nicht in ein und demselben syntaktischen Raum statt sondern es werden zwei ansonsten getrennte Räume miteinander verknüpft: der syntaktische Raum mit dem semantischen Raum, und umgekehrt. Ferner (ii) wird nicht nur ein einziges syntaktisches Element ‚erklärt‘, sondern es werden mehrere syntaktische Elemente ‚parallel’/ ’simultan‘ erklärt.

22. Einen vergleichbaren Fall von ’simultaner‘ Erklärung haben wir im Falle von mathematischen Strukturtheorien, wie sie auch bei modernen empirischen Theorien auftreten. Ein typischer Fall wäre eine Struktur wie $latex < M, f1, …, fk >$. Hier werden mehrere Ausruckselemente eingeführt, deren Bedeutung sich erst im (syntaktischen) Gesamtkontext ergibt, der zusätzlich mit semantischen Elementen aufgeladen werden kann.

23. Ein anderes Beispiel sind formale Semantiktheorien, in denen zusammengesetzte Ausdrücke der Art e = <e1, e2, …> durch eine komplexe Abbildungsvorschrift so auf eine formale Struktur (auch ‚Domäne‘ oder ‚Modell‘ genannt) bezogen werden, dass für jeden syntaktisch zusammengesetzten Ausdruck e gesagt werden kann, wann das ‚Modell‘ M diese syntaktischen Ausdrücke ‚erfüllt‘, oft geschrieben $latex M \models e$ mit ‚e‘ als dem Ausdruck, der durch das Modell ‚erfüllt‘ wird.

24. Eine Besonderheit bei diesen Charakterisierungen von Ausdruckselementen e über den ‚Umweg‘ einer Bedeutungsstruktur M liegt darin, dass es nicht ausreicht, jedem einzelnen Teilausdruck $latex e_{i}$ eine – quasi isolierte – Bedeutung zuzuordnen, sondern die einzelnen bedeutungsfundierenden Objekte O der Bedeutungsstruktur M kommen in bedeutungsspezifischen Anordnungen (in Raum, Zeit, …) vor. Diese spezifischen Sachverhalte müssen in den Ausdruckselementen mitkodiert werden. Es reicht also nicht, nur zu sagen, dass das Ausdruckselement ‚e1‘ ein Objekt o1 bezeichnet, das für eine konkrete Person steht, sondern man muss zusätzlich auch – meistens – einen möglichen ‚Vorgang‘ benennen, in den das Objekt o1 eingebettet ist, und – meistens – zusätzlich mit einem zeitlichen Aspekt. Das wären dann schon mindestens drei verschiedene Kodierungsdimensionen, die im Bereich der Ausdruckselemente repräsentiert werden müssten.

25. Aufgrund der Beispiele von Avicenna gäbe es die zusätzlichen Arbeitshypothesen, dass (i) Vorgänge durch ‚Verben‘ [V] kodiert werden, (ii) zeitliche Aspekte sowohl durch Verben wie auch durch ‚Namen‘ [N], und (iii) räumliche Aspekte durch ‚Präpositionen‘ [PRÄP].

26. Die interessante Frage wäre natürlich, wie genau diese verschiedenen Objektstrukturen und -eigenschaften und -Relationen in der dynamischen Objekthierarchie O als dem Bedeutungsraum M repräsentiert sind. Sie müssten ja so vorliegen, dass man sie einfach ‚ablesen‘ könnte und dann durch einen entsprechenden ‚Übersetzungsprozeß‘ von M nach E zugeordnet werden könnten, also $latex \lambda: M \longrightarrow E$ (mit $latex \lambda $ als Übersetzungsvorschrift).

27. Nehmen wir das Beispiel e = <e1,e2,e3,e4> = N:(Zid) V:(ist) PRÄP:(im) N:(Haus). Es gibt hier (woher wissen wir dies überhaupt!) zwei Ausdruckselemente e1 und e4, die sich auf ‚echte Objekte‘ beziehen; e1 bezieht sich auf eine konkrete Personen, e4 auf ein Objekt, in dem Menschen sich aufhalten können. Der Ausdruck ist kein echtes Objekt, da es nur eine bestimmte Form von Beziehung zwischen zwei Objekten repräsentiert, nämlich dass ein Objekt A ‚räumlich in‘ einem anderen Objekt B vorkommt. Das Ausdruckselement e2 repräsentiert einen Zusammenhang zwischen zwei Objekten (echt oder unecht), der zudem aktuell ist, genauer: von einem Zielobjekt A wird gesagt, dass es in einer ist-Beziehung zu einem anderen Objekt steht. Da aber nach dem ‚Sprachgefühl‘ (was ist das?) die Kombination <e1, e2, e4> nicht geht, muss also <e3,e4> zusammen auftreten, damit e1 mittels e2 mit e4 kombiniert werden kann. Eine Arbeitshypothese könnte sein, dass echte Objekte, die mögliche ‚Orte des Vorkommens‘ bezeichnen, eine zusätzliche Präposition benötigen, um als Gegenpart in einer ist-Relation auf zu treten. Das ist natürlich hier alles sehr ad hoc und unsystematisch. Es kann aber verdeutlichen, dass die große Arbeitshypothese mit der bereichsübergreifenden Zuordnung $latex \lambda $ von Elementen einer Bedeutungsstruktur M (mit der dynamischen Objekthierarchie O als Teilstruktur) zu einer Menge E von möglichen Ausdrücken eine sehr detaillierte Beschreibung verlangt, die nicht ad hoc entscheidet, sondern systematisch.

Eine Fortsetzung zu diesem Beitrag findet sich HIER.

QUELLEN

  • Avicenna, ‚Avicennas Treatise on Logic‘. Part One of ‚Danesh-Name Alai‘ (A Concise Philosophical Encyclopedia) and Autobiography, edited and translated by Farang Zabeeh, The Hague (Netherlands): Martinus Nijhoff, 1971. Diese Übersetzung basiert auf dem Buch ‚Treatise of Logic‘, veröffentlicht von der Gesellschaft für Nationale Monumente, Serie12, Teheran, 1952, herausgegeben von M.Moien. Diese Ausgabe wiederum geht zurück auf eine frühere Ausgabe, herausgegeben von Khurasani.
  • Digital Averroes Research Environment
  • Stanford Encyclopedia of Philosophy, Aristotle’s Logic
  • Whitehead, Alfred North, and Bertrand Russell, Principia Mathematica, 3 vols, Cambridge University Press, 1910, 1912, and 1913; Second edition, 1925 (Vol. 1), 1927 (Vols 2, 3). Abridged as Principia Mathematica to *56, Cambridge University Press, 1962.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume One. Merchant Books. ISBN 978-1-60386-182-3.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Two. Merchant Books. ISBN 978-1-60386-183-0.
  • Alfred North Whitehead; Bertrand Russell (February 2009). Principia Mathematica. Volume Three. Merchant Books. ISBN 978-1-60386-184-7

Eine Übersicht über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIE TRIFFT DAS SNOWDON SYNDROM – Teil 3: Der US-amerikanische Patient

Diesem Beitrag ging voraus Teil 2.

1) Die Diskussionen im Umfeld der US-amerikanischen Abhöraktionen und die damit zusammenhängenden Whistleblower-Aktivitäten gewinnen eine Breite, Tiefe, auch Schärfe, die nicht ohne weiteres absehbar war. Obwohl mir selbst viele Jahre vorher bekannt war, dass täglich ungeheuerliche Abhöraktionen weltweit von allen möglichen Gruppierungen stattfinden, war mir das reale Ausmaß der Aktivitäten US-amerikanischer Geheimdienste in dieser Konkretheit nicht bewusst. Allerdings hätte man auch ohne die Auskünfte der Whistleblower (im Amerikanischen oft auch ‚information leakers‘, etwa ‚die, die Informationslöcher geschaffen haben‘) Manning und Snowdon gewarnt sein können, da die Washington Post im Jahr 2010 eine umfangreiche Recherche veröffentlicht hatte, in der nach zwei Jahren intensivster Recherche alles zusammengetragen worden war, was man öffentlich in Erfahrung bringen konnte (dazu gehörten auch Gespräche mit Mitarbeitern der verschiedenen geheimen Dienste wie auch solchen Personen, die diese Dienste überwachen sollen). Das Projekt trug den Titel „Top Secret America“ und versuchte den Aufbau der nationalen Sicherheitsstruktur seit den Anschlägen vom 11.Sept. 2011 zu beschreiben. Wer diesen Bericht mit den weiterführenden Webseiten liest, der konnte schon 2010 merken, dass es hier um eine sehr ungewöhnliche Aktivität geht, die man eigentlich nur mit dem Adjektiv ‚monsterhaft‘ beschreiben kann; nicht nur, dass dieses ‚Monsterwesen‘ aus unendlich vielen, vielfältigst miteinander vernetzten Diensten besteht, es wächst beständig unkontrolliert weiter, gefüttert vom Wohlwollen und dem Geld der Regierung.
2) Was an diesem Bericht erschreckend ist, ist die Tatsache, dass eigentlich alle Quellen, die mit der Qualität und der Kontrolle dieser Dienste beauftragt sind, erhebliche Kritiken äußern: die tatsächliche ‚Wirkung‘ dieser Dienste ist nicht evaluierbar (die nach außen behaupteten Fälle von Entdeckungen möglicher Attentate kann niemand unabhängig und objektiv nachprüfen (sie erfüllen aber den Zweck, Angst zu verbreiten, um noch mehr Gelder locker zu machen)); in vielen Fällen fand eine gigantische Geldverschwendung statt; vielfache Überschneidungen zwischen den Diensten (wer schreibt eigentlich von wem ab?); Abschottung der Dienste untereinander (Kampf um Gelder und Machtverteilung); verworrene Gesetzeslage (wer darf wen informieren oder kontrollieren); Taktik der ‚Unsichtbarmachung‘ von Aktionen durch ‚Geheimerklärungen‘, damit niemand Einsicht nehmen kann; die schiere Menge der Geheimberichte jeden Tag (im Jahr 2010 mehrere hundert Dokumente, gedruckt, viele hundert Seiten), die zur Kenntnis zu nehmen und auszuwerten faktisch unmöglich ist; durch die zunehmende Automatisierung Tendenz zu abstrakter schematischer Wahrnehmung, die mit realen konkreten Vorgängen oft gar nichts mehr zu tun haben (viele dokumentierte Fälle von Attentaten, die von der Maschinerie nicht erkannt wurden); schließlich eine Gesamtsituation, die von keiner einzigen Stelle mehr vollständig überschaut wird: die geheimen Dienste mit ihren Aktivitäten sind faktisch außer Kontrolle; von einer demokratischen Kontrolle kann in keiner Weise mehr gesprochen werden!

GANG DER ENTWICKLUNG: ZUSAMMENWACHSEN

3) Treffen die in diesem Blog entwickelten philosophisch-wissenschaftlichen Gedanken zu, dann geht der Trend der Strukturbildung im bekannten Universum unaufhaltsam in Richtung wachsender ‚Differenzierung‘ und zugleich wachsender ‚Integration‘. Nach der erst kürzlich (ab ca. -9000 Jahren) erfolgten Herausbildung von städtischen Lebensformen hat das Aufkommen von immer mehr Technik bis zur Erfindung von Computern und Computernetzwerken Ende des 20.Jahrhunderts die Komplexitätsbildung im Bereich Kommunikation von ‚Wissen‘, von ‚mentalen Modellen‘ erheblich beschleunigt und quantitativ explodieren lassen. Es liegt in der ‚Natur‘ dieses Prozesses, dass alle an diesem Prozess beteiligten Systeme zu einem einzigen großen ‚Superorganismus‘ zusammenwachsen. Die aus der Geschichte bekannten regionalen und nationalen Organisationsformen haben hier auf lange Sicht keine eigenständige Bedeutung mehr. Zwar wird die menschliche Gesellschaft, so ähnlich wie der menschliche Körper, die ungeheure Zahl ihrer Mitglieder durch allerlei ‚Substrukturen‘ teilorganisieren, aber die wahre ‚Einheit‘ wird über alle Teilstrukturen hinausgreifen.
4) Hier stellen sich sehr viele Fragen, auf die vermutlich aktuell noch niemand eine klare Antwort hat, weil diese Dinge für alle radikal neu sind. Klar ist aber, dass diese Entwicklung diverse ‚Übergangsprozesse‘ impliziert, ‚Transformationsprozesse‘, von denen alle betroffen sind.

FALLSTUDIE INTERNET: POSTGOLDGRÄBERZEIT

5) Ein Beispiel bietet das Internet: wie schon in einem vorausgehenden Blogeintrag angemerkt, stand am Anfang die ‚große Freiheit‘, die vornehmlich von den USA ausging. So ist es nicht verwunderlich, dass es US-amerikanische Firmen waren, die diesen neuen Aktionsraum als erste ausloteten und entdeckten, dass man im Tauschgeschäft von kostenlosen Dienstleistungen gegen personenbezogene (und auch andere) Informationen sehr schnell ein globales Geschäft aufbauen konnte (dass sich dann viele Geheimdienste hier einfach ‚draufsetzen‘ konnten, war nicht notwendigerweise Teil des Prozesses, aber nun mal zu verführerisch; wenn die Daten nun schon mal da waren, warum dann nicht einfach nutzen). Wie in den berühmten Wildwest-Goldgräberzeiten, wo der Kapitalismus sich rücksichtslos austoben konnte, haben auch jetzt einig wenige Firmen den Weltmarkt unter sich aufgeteilt, ohne Rücksicht auf ‚Werte‘ und grundlegende ‚Rechte‘. In dem Maße, wie den ‚Kunden‘ diese Vorgänge bewusst werden (es fängt erst gerade an), kann es sein, dass diese ursprünglichen Geschäftsmodelle in sich zusammen fallen. Allerdings haben die aktuellen Platzhirsche schon so viel Kapital angesammelt, dass sie es vielleicht überleben, oder auch nicht. Alternativen gibt es und irgendwer wird sie sicher nutzen. Klar ist nur eines: das gemeinschaftliche Interesse an der Nutzung dieser neuen Technologien ist elementar und überleben werden nur Strukturen, die mit diesem elementaren gemeinschaftlichen Interessen übereinstimmen. Die Anzeichen dafür sind überall da und selbst globale Unternehmen können sich dem auf Dauer (was sind schon 10-20 Jahre) nicht entziehen.

FALLSTUDIE NATIONALSTAAT: USA

6) Eine andere Dimension der Transformationsprozesse sind die gesellschaftlichen Gebilde, die Nationalstaaten. Neben vielen Aspekten ist es die Verteilung, Ausübung und Kontrolle von ‚Macht‘ in diesen Systemen, die entscheidend ist. Wer darf wie darüber entscheiden, welche Gesetze gelten sollen, welche Steuern erhoben werden, wie Gelder eingesetzt werden, usw. Einige Länder dieser Erde hatten es in den letzten ca. 200 – 300 Jahren geschafft, mit viel Blutvergießen, Kriegen und Kämpfen, das zu organisieren, was man ‚demokratische Gesellschaften‘ nennt; einige wenige Länder! Eines davon waren die Vereinigten Staaten von Amerika, die USA. Die Freiheit der Bürger und die Kontrolle der Macht durch die Bürger war eines der zentralen Güter dieser US-amerikanischen Gesellschaft. So wie jedes Land hatte auch die US-amerikanische Gesellschaft ihre ‚biographischen‘ Besonderheiten, z.B. besaß das Militär (wie in vielen anderen Länder dieser Erde auch) eine besonders geachtete Stellung, weil natürlich die Wirkkraft des Militärs auch ein Garant dafür war, die Freiheitsrechte zu verteidigen. Ein gewisser ‚Patriotismus‘ in Form einer grundlegenden Wertschätzung des Militärs als Einrichtung des Staates gehört immer dazu.
7) Was aber dann in den USA passiert zu sein scheint (und dies geschah und geschieht in fast allen anderen Ländern dieser Erde auch), ist, dass die konkreten Menschen, die solch eine Institution mit Leben füllen, nun mal nur ausnahmsweise ‚Heilige‘ sind; normalerweise unterliegen sie wie alle anderen Menschen auch, menschlichen Regungen wie ‚Eitelkeit‘, ‚Machtstreben‘, ‚Gewinnstreben‘ usw. Aus Sicht des Militärs sieht die Welt natürlicherweise anders aus als aus Sicht der Industrie oder des ’normalen‘ Bürgers. Jedes Militär der Welt will seinen Einfluss erweitern, die finanziellen Mitteln aufstocken, mehr Rechte haben, möglichst keine Kritik einheimsen, die Disziplin hochhalten, usw. Im Nachgang zum zweiten Weltkrieg hat sich der sogenannte ‚industriell-militärische Komplex‘ entwickelt, von dem viele behaupten, dass er die Hauptmotor war für fast alle nachfolgenden Kriege, die die USA geführt haben. Ein Krieg ist immer das beste Argument für mehr Geld, mehr Einfluss, weniger Kritik. Und wenn es gerade keinen Krieg gibt, dann ist es hilfreich, allerlei ‚Ängste‘ in der Öffentlichkeit hoch zu halten, um dem Militär alles zu geben, was es verlangt (und tatsächlich, so scheint es, viel viel mehr, als es eigentlich braucht). Und es ist genau der letzte Punkt, den viele Kritiker in den USA besonders thematisieren: es besteht der Eindruck, dass der monsterhafte, nicht mehr kontrollierbare Ausbau der geheimen Dienste in den USA vorwiegend dem einen Zwecke dient: beständig eine Kultur der Angst hoch zu halten, eine dauerhafte Bedrohung anklingen zu lassen, um als Gegenleistung nahezu beliebig viele Gelder bewilligt zu bekommen und gleichzeitig alle öffentliche Kritik an diesem Wahnsinnsgeschehen mit Verweis auf die Gefährdung der öffentlichen Sicherheit im Ansatz zu unterbinden.
8) In diesem Zusammenhang besitzt der aktuelle Prozess gegen Manning eine fundamentale Bedeutung. In dem Moment, wo diese Verurteilung durchgeht, hat der ‚Moloch‘ gewonnen; ab dann werden nicht nur die, die Missbrauch und Gesetzesbrüche der Regierung zur Kenntnis bringen (die ‚Whistleblower‘), generell schwer bestraft werden, sondern auch alle diejenigen (meistens Journalisten), die darüber berichten. Ab dann wird die USA von einem allseitigen ‚Schweigen‘ befallen werden, wie wir es bislang nur aus faschistisch Diktaturen kennen. Ab dann werden wir alle wissen, dass der in sich gesunde ‚Patriotismus‘ sich – wie schon so oft in der Geschichte – in einen krankhaften ‚Faschismus‘ verwandelt hat, der nur noch Machtmonopole kennt, Propaganda, Lügen, und Machtmissbrauch ohne Ende. Es wäre ein sehr trauriges Kapitel in der Geschichte der amerikanischen Demokratie, wen ausgerechnet der Präsident, der als ‚Retter‘ gegen phasenweise ‚reaktionär‘ wirkende Republikaner derjenige ist, der diesem Monstersystem aus Militär, Industrie und Geheimdienstmoloch samt kontinuierlicher Missachtung internationaler Rechte letztlich Tür und Tor geöffnet hat. Scheinbar ist sein Selbstbewusstsein so schwach, dass er das Falsche an einem fehlgeleiteten Patriotismus nicht erkennt. Vielleicht (Für die Interpretation der ‚Schwachheit‘ Obamas spricht auch die Tatsache, dass Obama, als er 2005 noch selbst Senator war, kritische Anmerkungen zur Umsetzung der Überwachungsaktivitäten hatte, die er dann, al Präsident, verwarf). Im Endeffekt ist entscheidend, ob diese Machtzentren Militär und Geheimdienste in Interaktion mit Teilen der Industrie sich völlig der demokratischen Kontrolle entziehen können oder nicht. Momentan gibt es in den USA nur vereinzelte Stimmen in einigen wenigen Zeitungen oder speziellen Webseiten, die diese gefahr thematisieren; die Justiz schaut bislang zu (bzw. hat Partei gegen die Bürger und für den Regierungsapparat ergriffen). Einige Abgeordneten haben einen Widerstand am 24.Juli 2013 versucht, sind aber erst mal, wenngleich knapp, gescheitert. Die beteiligten Gruppen sowohl bei den Republikanern wie auch den Demokraten versuchen es aber weiter.

KÖNNEN WIR ES NOCH LERNEN?

9) In jeder Situation, in der ‚Neues‘ auftritt, das herausfordert, ist es eine spannende Frage, ob und wie ‚man‘,’wir‘, ‚Du‘ und ‚Ich‘ zusammen ‚es lernen‘, wie wir mit der neuen Situation umgehen. Hier könnte man im Detail vieles sagen, was auf jeden Fall eine Rolle spielen wird. Es gibt aber auch so etwas wie ‚Grundhaltungen‘: die einen, die grundsätzlich Lösungen von Problemen in Frage stellen und die anderen, die grundsätzlich immer annehmen, dass es eine Lösung geben wird.
10) Wenn man sieht, wie die ungeheuerliche Komplexität von Universum, darin Erde, darauf biologisches Leben, sich entfaltet hat ohne das geringste Zutun von unserer Seite, und wie dieser ganze Prozess weiter abläuft, mit einer Richtung, ohne dass wir wichtige Teile des Prozesses kontrollieren (höchstens stören), dann tendiere ich dazu, zu sagen, die Wahrscheinlichkeit einer Lösung ist größer als ihr Nichteintreffen.

WAHRHEIT IST MEHR ALS IDEOLOGIE

11) Wir Menschen haben im Laufe der letzten ca. 10.000 – 15.000 Jahren eine Vielzahl von ‚Weltinterpretationen‘ hervorgebracht. Viele sind in weiten Teilen nicht verifizierbar, was nicht heißt, dass sie trotzdem eine gewisse kognitive und emotionale Wirkung auf Menschen ausüben können. Klar ist aber, dass nur diejenigen Systeme in der Zukunft sich ‚behaupten‘ können, die im vollen Sinne ‚wahr‘ sind. Der Begriff ‚Wahr(heit)‘ ist hier orientiert am Verhältnis zwischen biologischen Lebensformen und umgebender Erde: bis jetzt konnten sich immer nur solche Lebensformen ‚behaupten‘, die unter den jeweils aktuellen Bedingungen der Erde hinreichend viel Energie sammeln und verarbeiten konnten und die sich im Rahmen einer Population hinreichend viel ‚fortpflanzen‘ konnten. Daraus folgt nicht, dass das Leben sich in der Selbstorganisation von Energie und Nachkommen erschöpft, dass aber Populationen, die dieses Minimum nicht schaffen, ‚verschwinden‘. Interpretationen darüber, was und wie die Welt ist, werden sich also im Kern auch daran bewähren müssen, dass sie mindestens erklären können, warum das, was ist, so ist, wie es ist, wie es anders sein könnte und welche Rolle wir in diesem Prozess spielen können. Die meisten bisherigen Weltinterpretationen (einschließlich der bekannten Religionen), haben hierin weitgehend versagt und aktuell gibt es wenig Grund, anzunehmen, dass sie sich hinreichend ändern. Damit soll nichts gegen einen Gottesglauben gesagt sein, höchstens, dass das Reden über Gott in den bekannten Religionen möglicherweise unzureichend ist; sie sagen evtl. zu wenig oder zu viel Falsches.

Eine Fortsetzung findet sich in Teil 4.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

KULTURELLE AUTOIMMUNREAKTIONEN? oder: KONTROLLWAHN UND DIE ANGST UM SICH SELBST


(Unter twitter bei ‚cagentartist‘))

1) Treffen die Überlegungen im Blogeintrag ‚EMERGING MIND – Mögliche Konsequenzen‘ zu, dann befinden wir uns im Jahr 2013 an einem Punkt der Entwicklung des Geistes auf der Erde, der einen sich andeutenden umfassenden kulturellen Umbruch markiert.
2) In der Geschichte des Lebens auf der Erde gab es viele solcher Umbruchzonen, wobei der Begriff ‚Umbruchzone‘ nicht unproblematisch ist; schließlich ist jeder Abschnitt in der bisherigen Entwicklung letztlich eine Umbruchphase. Es scheint aber so zu sein, dass man Phasen unterscheiden kann, in denen aus Sicht der Beteiligten anscheinend ‚Weniger‘ oder gar ‚Nichts‘ geschieht gegenüber solchen, wo die Umbrüche durch real stattfindenden Veränderungen offensichtlicher zu sein scheinen.
3) Beispiele für global sichtbar werdende Strukturumbrüche waren die zuvor genannten ’neuen Strukturen S‘, die sich zum Vorausgehenden deutlich abhoben (Von der Anfangs-Energie zu den Quanten, von den Quanten zu den Atomen, …., von den einzelnen Zellen zu organisierten Zellverbänden, … die Sesshaftwerdung mit Ackerbau und Stadtbildung, ….. Motorisierung des Verkehrs, …. Gemeinsame Datenräume durch das Internet….).
4) Neben diesen Änderungen, die sich in realen Strukturänderungen widerspiegeln, gab es aber auch Änderungen, die sich in den semiotischen Räumen, in den deutenden ‚Weltbildern‘ abspielten, die nicht minder ‚real‘ und ‚wirksam‘ waren. So führte das Aufkommen experimenteller und formaler Methoden in der Renaissance nicht nur zu neuen Detailansichten, nein, es entstanden neue Zusammenhänge, neue Deutungsmuster, die sich zu einem kognitiven, wissensmäßigen Gegensatz zu den bisherigen Deutungsmustern aufbauten, weltanschauliche Konflikte hervorriefen, die die damals Mächtigen (die katholische Kirche) meinten, mit ‚Gewalt‘ kontrollieren und unterdrücken zu müssen. Galilei als ein Repräsentant dieser neuen Gedankenwelt sollte sich verleugnen, sollte abschwören, doch ca. 100 Jahre später waren diese neuen, gefährlich erscheinenden Gedanken in vielfältiger Weise in die Öffentlichkeit vorgedrungen. Die Erde bewegt sich um die Sonne und das Weltall ist erheblich größer, als sich jeder zuvor vorstellen konnte.
5) Weitere Umbrüche in der Deutung der Welt folgten (geologisch die Erde als Teil eines größeren Veränderungsprozesses, die biologische Evolution, das Gehirn als Organ des Fühlens und Denkens abhängig von physikalisch-chemischen Prozessen, die alltägliche Wirklichkeit als Artefakt unseres Denkens verglichen mit den zugrunde liegenden molekularen, atomaren, quantenhaften Strukturen, usw.). Allerdings scheint es so zu sein, dass die Ausbildungsprozesse mit der Explosion dieses Wissens über die Welt und uns selbst immer weniger Schritt halten können. In der Alltagswelt heute durchdringen zwar immer mehr technische Produkte als Konsequenz des erweiterten Denkens unseren Lebensraum, aber man hat nicht den Eindruck, dass im gemeinsamen öffentlichen Denken dieses Wissen tatsächlich ‚angekommen‘ ist.
6) Während digital gespeichertes Wissen sich – zumindest im Prinzip – beliebig schnell in beliebigen Mengen überall hin kopieren lässt, sich rasant schnell nahezu beliebigen formalen Operationen unterziehen lässt, haben die menschlichen biologischen Gehirne eine ihnen eingeborene eigene Langsamkeit, Trägheit, Begrenztheit, die dem Entstehen und dem Verwandeln von Wissen im einzelnen einen natürlichen Widerstand entgegen setzen. Was immer ein Individuum A in einer Generation G(t) schon alles erkannt und gedacht haben mag, ein Individuum B aus Generation G(t’>t) weiß dies alles nicht, es sei denn, er durchläuft ähnliche mühsame Lernprozesse. Solche Lernprozesse sind aber nicht notwendig, nicht zwingend, verlaufen nicht automatisch, und sind in ihren möglichen Inhalten nicht wirklich voraussagbar: keine Lernumgebung kann sicher stellen, dass die Inhalte, die die Lernorganisatoren intendieren, auch tatsächlich so in einem lernenden Individuum ‚entstehen‘.
7) Es ist von daher nicht erstaunlich, dass in einer Gesellschaft mit immer ‚mehr‘ und immer ‚komplexeren‘ Wissen immer weniger Menschen in der Lage sind, das bereits schon zuvor errungene Wissen für sich selbst erneut ‚wieder zu entdecken‘ und ‚für sich nutzbar‘ zu machen. Historisch bekannt ist der Untergang der griechischen Denkwelt samt ihren Schriften, der in Europa dann gut 1000 Jahre zu einer ‚Verdunklung‘ des Wissens geführt hatte. Erst über den Umweg vom Griechischen zum Arabischen (das damals das Wissen der Welt in sich aufsog) und dann wieder ins Lateinischen kam das ‚Licht der Erkenntnis‘ wieder nach Mitteleuropa. Ein langwieriger Übersetzungs- und Lernprozess, der nur durch den Aufbau eines neuen Ausbildungssystems (Schulen, erste Universitäten, Abschreiben, Kopieren und Übersetzen vieler Schriften…) über viele Jahrhunderte den Wissensstand von vorher ‚rekonstruierte‘ und durch diese aktive Rekonstruktion dann auch weiter entwickelte.
8) Wir leben heute in einer Welt von bizarren Wissensgegensätzen: während wir einerseits über einen Wissensschatz verfügen, der differenzierter und größer ist als jemals zuvor, erleben wir zugleich, dass viele Menschen, die meisten (?), sich in ihrem Wissen fragmentiert erleben, unvollständig oder, noch schlimmer, dass sie heute Weltbilder pflegen und für wahr halten, die 1000, 2000 Jahre alt sind, die mehrfach widerlegt wurden, aber die sie benutzen, als ob es die aktuellen Wahrheiten sind. Dies betrifft nicht nur solche Menschen, die aufgrund ihrer Lebensumstände keine oder fast keine Ausbildung genießen konnten, sondern sogar solche die Abitur haben, die studiert haben, ja sogar solche, die einen Doktortitel erworben haben. Unsere Wissenslandschaft ist mittlerweile so komplex und zerklüftet, dass Menschen mit Doktortiteln auftreten können und den letzten ‚Unsinn‘ erzählen, ohne dass ihnen bewusst ist, dass dem so ist.
9) In dieser Situation macht es keinen Sinn, die einzelnen dafür haftbar zu machen (obgleich natürlich schon jeder bis zu einem gewissen Grad Verantwortung für sein eigenes Denken trägt), sondern man muss den Kontext berücksichtigen, innerhalb dessen jemand heute Denken kann bzw. muss. Aus Sicht einer modernen Lerntheorie scheint es so zu sein, dass die Rahmenbedingungen für ein individuelles Lernen schwieriger denn je sind. Die Vielfalt der Methoden und die ungeheure Fülle an Fakten sind von einem einzelnen biologischen Gehirn nicht mehr bewältigbar. Eine Situation, die ich vor vielen Jahren schon mal als ’negative Komplexität‘ bezeichnet hatte: Komplexität, die da ist, die aber von uns nicht mehr hinreichend verarbeitet werden kann.
10) In einer solchen Situation wird es für alle Entscheidungsträger – insbesondere auch politisch Verantwortliche – immer schwieriger, das ‚Richtige‘ zu tun. Die Angst, dass alles aus dem Ruder läuft, außer Kontrolle gerät, ist real. Die Versuchung, durch immer mehr ‚Kontrollen‘ dieser ‚Unübersichtlichkeit‘ Herr zu werden ist real gegeben, wird immer stärker. Bedenkt man nun, dass diejenigen Menschen, die in höhere Verwaltungs- und Entscheidungspositionen drängen, tendenziell eher egozentriert sind, machthungrig, ’nicht zimperlich‘, es mit der Wahrheit eher nicht so genau nehmen, usw., dann erstaunt es nicht, zu sehen, wie heute weltweit in immer mehr Staaten die führenden Politiker autokratische Züge entwickeln, Meinungsfreiheit mehr und mehr unterdrücken, Technik dazu benutzen, immer mehr Datenströme und Lebenszuckungen der Menschen zu kontrollieren, einfache (in der Regel falsche) Weltbilder favorisieren, sich auch in sogenannten demokratischen Gesellschaften die Mächtigen von ‚den anderen‘ durch immer mehr Pseudoprivilegien abzusondern trachten, sich die alten absolutistischen Klassen von ‚früher‘ neu bilden.
11) Diese Phänomene stehen in seltsamem Kontrast zur tatsächlichen globalen Entwicklung des Lebens. Sie repräsentieren ‚Rückfälle‘, eine Art von ‚Verweigerung der Zukunft‘, sind ‚Reflexe‘ des ‚alten‘ Menschen vor der anrückenden Zukunft, die von jedem einzelnen Menschen und dann von den Gemeinschaften mehr verlangt als jeder einzelne bislang gewohnt ist, zu geben. Ob diese Reflexe stärker sind als das Neue, ob der Prozess des Lebens auf der Erde durch diese Anti-Reflexe zum Scheitern kommt, ist offen. Die ungeheure Wucht des bisherigen Lebens-Prozesses im Universum und auf der Erde kann den Verdacht nähren, dass die immanenten Faktoren dieses Prozesses stärker sind als die Abwehrreflexe eines Stadiums von Leben, das zu überschreiten ist. Wirklich wissen tut es vermutlich niemand, wie auch.
12) Vom individuellen biologischen Körper kennen wir nicht nur das Immunsystem, das auf geradezu fantastische Weise praktisch in jeder Sekunde gewaltige Abwehrschlachten gegen Millionen und Milliarden von Mikroorganismen führt. Wir haben gelernt, dass dieses Immunsystem sich auch irren kann; dann fängt es an, körpereigene Zellen zu bekämpfen, eine sogenannte Autoimmunreaktion. Wenn man sich den Lebensprozess auf der Erde anschaut, wie sich tatsächlich weltweit momentan in fast allen Ländern die politisch Verantwortlichen gegen den Trend stellen, dann drängt sich unwillkürlich das Bild einer globalen kulturellen Autoimmunreaktion auf: die Verantwortlichen, die für das Wohl ihrer jeweiligen Gesellschaften verantwortlich sind, wenden sich gegen ihre eigenen Gesellschaften, indem sie sich selbst zu ernst nehmen und das kreative Potential der jüngeren Generation mehr oder weniger mit Füssen treten (was nicht heißt, dass es auch viele Jüngere gibt, die sich totalitären Weltbildern zugewandt haben, die nicht besser sind; woher sollen sie es auch wissen?).
13) In diesem Kontext spielen die sogenannten ‚Offenbarungsreligionen‘ (die bekanntesten sind das Judentum, das Christentum, und der Islam) eine zwielichtige Rolle. Insofern sie alle einen ‚heißen Kern‘ haben der auf einen allumfassenden Schöpfergott ausgerichtet ist, haben sie prinzipiell einen ‚Anschluss‘ an den Lebensprozess im Universum; insofern sie aber diesen heißen Kern mit allzu viel historischen Zufälligkeiten, allzu zeitgebundenem Menschlichen aus ihren Entstehungszeiten um diesen Kern herum gesponnen haben, ist die immanente Sprengkraft eines universalen Gottesbildes weitgehend ‚abgedunkelt‘ worden durch Dinge, die irreführend oder falsch sind und die in der Vergangenheit allzu oft für persönliche Machtspielchen missbraucht wurden. Die Unwissenheit von Menschen für persönliche Machtinteressen zu instrumentalisieren ist eines der größten Verbrechen, das ein Mensch begehen kann (ein Gedanke, der sich u.a. im Neuen Testament der Christen findet; dort wird es Jesus von Nazareth als Aussage zugeschrieben (viele der heutigen Zeitungen, Radiostationen und Fernsehsender mit ihren Verantwortlichen haben in dieser Hinsicht möglicherweise schlechte Karten….)).

Eine Übersicht über alle bisherigen Blogbeiträge nach titeln findet sich HIER.

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500
Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

ERKENNTNISSCHICHTEN – Das volle Programm…

 

  1. Wir beginnen mit einem Erkenntnisbegriff, der im subjektiven Erleben ansetzt. Alles, was sich subjektiv als ‚Gegeben‘ ansehen kann, ist ein ‚primärer‘ ‚Erkenntnisinhalt‘ (oft auch ‚Phänomen‘ [PH] genannt).

  2. Gleichzeitig mit den primären Erkenntnisinhalten haben wir ein ‚Wissen‘ um ’sekundäre‘ Eigenschaften von Erkenntnisinhalten wie ‚wahrgenommen‘, ‚erinnert‘, ‚gleichzeitig‘, ‚vorher – nachher‘, ‚Instanz einer Klasse‘, ‚innen – außen‘, und mehr.

  3. Auf der Basis der primären und sekundären Erkenntnisse lassen sich schrittweise komplexe Strukturen aufbauen, die das subjektive Erkennen aus der ‚Innensicht‘ beschreiben (‚phänomenologisch‘, [TH_ph]), aber darin auch eine systematische Verortung von ‚empirischem Wissen‘ erlaubt.

  4. Mit der Bestimmung des ‚empirischen‘ Wissens lassen sich dann Strukturen der ‚intersubjektiven Körperwelt‘ beschreiben, die weit über das ’subjektive/ phänomenologische‘ Wissen hinausreichen [TH_emp], obgleich sie als ‚Erlebtes‘ nicht aus dem Bereich der Phänomene hinausführen.

  5. Unter Einbeziehung des empirischen Wissens lassen sich Hypothesen über Strukturen bilden, innerhalb deren das subjektive Wissen ‚eingebettet‘ erscheint.

  6. Der Ausgangspunkt bildet die Verortung des subjektiven Wissens im ‚Gehirn‘ [NN], das wiederum zu einem ‚Körper‘ [BD] gehört.

  7. Ein Körper stellt sich dar als ein hochkomplexes Gebilde aus einer Vielzahl von Organen oder organähnlichen Strukturen, die miteinander in vielfältigen Austauschbeziehungen (‚Kommunikation‘) stehen und wo jedes Organ spezifische Funktionen erfüllt, deren Zusammenwirken eine ‚Gesamtleistung‘ [f_bd] des Input-Output-Systems Körpers ergibt. Jedes Organ besteht aus einer Vielzahl von ‚Zellen‘ [CL], die nach bestimmten Zeitintervallen ‚absterben‘ und ‚erneuert‘ werden.

  8. Zellen, Organe und Körper entstehen nicht aus dem ‚Nichts‘ sondern beruhen auf ‚biologischen Bauplänen‘ (kodiert in speziellen ‚Molekülen‘) [GEN], die Informationen vorgeben, auf welche Weise Wachstumsprozesse (auch ‚Ontogenese‘ genannt) organisiert werden sollen, deren Ergebnis dann einzelne Zellen, Zellverbände, Organe und ganze Körper sind (auch ‚Phänotyp‘ genannt). Diese Wachstumsprozesse sind ’sensibel‘ für Umgebungsbedingungen (man kann dies auch ‚interaktiv‘ nennen). Insofern sind sie nicht vollständig ‚deterministisch‘. Das ‚Ergebnis‘ eines solchen Wachstumsprozesses kann bei gleicher Ausgangsinformation anders aussehen. Dazu gehört auch, dass die biologischen Baupläne selbst verändert werden können, sodass sich die Mitglieder einer Population [POP] im Laufe der Zeit schrittweise verändern können (man spricht hier auch von ‚Phylogenese‘).

  9. Nimmt man diese Hinweise auf Strukturen und deren ‚Schichtungen‘ auf, dann kann man u.a. zu dem Bild kommen, was ich zuvor schon mal unter dem Titel ‚Emergenz des Geistes?‘ beschrieben hatte. In dem damaligen Beitrag hatte ich speziell abgehoben auf mögliche funktionale Unterschiede der beobachtbaren Komplexitätsbildung.

  10. In der aktuellen Reflexion liegt das Augenmerk mehr auf dem Faktum der Komplexitätsebene allgemein. So spannen z.B. die Menge der bekannten ‚Atome‘ [ATOM] einen bestimmten Möglichkeitsraum für theoretisch denkbare ‚Kombinationen von Atomen‘ [MOL] auf. Die tatsächlich feststellbaren Moleküle [MOL‘] bilden gegenüber MOL nur eine Teilmenge MOL‘ MOL. Die Zusammenführung einzelner Atome {a_1, a_2, …, a_n} ATOM zu einem Atomverband in Form eines Moleküls [m in MOL‘] führt zu einem Zustand, in dem das einzelne Atom a_i mit seinen individuellen Eigenschaften nicht mehr erkennbar ist; die neue größere Einheit, das Molekül zeigt neue Eigenschaften, die dem ganzen Gebilde Molekül m_j zukommen, also {a_1, a_2, …, a_n} m_i (mit {a_1, a_2, …, a_n} als ‚Bestandteilen‘ des Moleküls m_i).

  11. Wie wir heute wissen, ist aber auch schon das Atom eine Größe, die in sich weiter zerlegt werden kann in ‚atomare Bestandteile‘ (‚Quanten‘, ‚Teilchen‘, ‚Partikel‘, …[QUANT]), denen individuelle Eigenschaften zugeordnet werden können, die auf der ‚Ebene‘ des Atoms verschwinden, also auch hier wenn {q_1, q_2, …, q_n} QUANT und {q_1, q_2, …, q_n} die Bestandteile eines Atoms a_i sind, dann gilt {q_1, q_2, …, q_n} a_i.

  12. Wie weit sich unterhalb der Quanten weitere Komplexitätsebenen befinden, ist momentan unklar. Sicher ist nur, dass alle diese unterscheidbaren Komplexitätsebenen im Bereich ‚materieller‘ Strukturen aufgrund von Einsteins Formel E=mc^2 letztlich ein Pendant haben als reine ‚Energie‘. Letztlich handelt es sich also bei all diesen Unterschieden um ‚Zustandsformen‘ von ‚Energie‘.

  13. Entsprechend kann man die Komplexitätsbetrachtungen ausgehend von den Atomen über Moleküle, Molekülverbände, Zellen usw. immer weiter ausdehnen.

  14. Generell haben wir eine ‚Grundmenge‘ [M], die minimale Eigenschaften [PROP] besitzt, die in einer gegebenen Umgebung [ENV] dazu führen können, dass sich eine Teilmenge [M‘] von M mit {m_1, m_2, …, m_n} M‘ zu einer neuen Einheit p={q_1, q_2, …, q_n} mit p M‘ bildet (hier wird oft die Bezeichnung ‚Emergenz‘ benutzt). Angenommen, die Anzahl der Menge M beträgt 3 Elemente |M|=3, dann könnte man daraus im einfachen Fall die Kombinationen {(1,2), (1,3), (2,3), (1,2,3)} bilden, wenn keine Doubletten zulässig wären. Mit Doubletten könnte man unendliche viele Kombinationen bilden {(1,1), (1,1,1), (1,1,….,1), (1,2), (1,1,2), (1,1,2,2,…),…}. Wie wir von empirischen Molekülen wissen, sind Doubletten sehr wohl erlaubt. Nennen wir M* die Menge aller Kombinationen aus M‘ (einschließlich von beliebigen Doubletten), dann wird rein mathematisch die Menge der möglichen Kombinationen M* gegenüber der Grundmenge M‘ vergrößert, wenngleich die Grundmenge M‘ als ‚endlich‘ angenommen werden muss und von daher die Menge M* eine ‚innere Begrenzung‘ erfährt (Falls M’={1,2}, dann könnte ich zwar M* theoretisch beliebig groß denken {(1,1), (1,1,1…), (1,2), (1,2,2), …}, doch ‚real‘ hätte ich nur M*={(1,2)}. Von daher sollte man vielleicht immer M*(M‘) schreiben, um die Erinnerung an diese implizite Beschränkung wach zu halten.

  15. Ein anderer Aspekt ist der Übergang [emer] von einer ’niedrigerem‘ Komplexitätsniveau CL_i-1 zu einem höheren Komplexitätsniveau CL_i, also emer: CL_i-1 —> CL_i. In den meisten Fällen sind die genauen ‚Gesetze‘, nach denen solch ein Übergang stattfindet, zu Beginn nicht bekannt. In diesem Fall kann man aber einfach ‚zählen‘ und nach ‚Wahrscheinlichkeiten‘ Ausschau halten. Allerdings gibt es zwischen einer ‚reinen‘ Wahrscheinlich (absolute Gleichverteilung) und einer ‚100%-Regel‘ (Immer dann wenn_X_dann geschieht_Y_) ein Kontinuum von Wahrscheinlichkeiten (‚Wahrscheinlichkeitsverteilungen‘ bzw. unterschiedlich ‚festen‘ Regeln, in denen man Z%-Regeln benutzt mit 0 < Z < 100 (bekannt sind z.B. sogenannte ‚Fuzzy-Regeln‘).

  16. Im Falle des Verhaltens von biologischen Systemen, insbesondere von Menschen, wissen wir, dass das System ‚endogene Pläne‘ entwickeln kann, wie es sich verhalten soll/ will. Betrachtet man allerdings ‚große Zahlen‘ solcher biologischer Systeme, dann fällt auf, dass diese sich entlang bestimmter Wahrscheinlichkeitsverteilungen trotzdem einheitlich verhalten. Im Falle von Sterbensraten [DEATH] einer Population mag man dies dadurch zu erklären suchen, dass das Sterben weitgehend durch die allgemeinen biologischen Parameter des Körpers abhängig ist und der persönliche ‚Wille‘ wenig Einfluß nimmt. Doch gibt es offensichtlich Umgebungsparameter [P_env_i], die Einfluss nehmen können (Klima, giftige Stoffe, Krankheitserreger,…) oder indirekt vermittelt über das individuelle ‚Verhalten‘ [SR_i], das das Sterben ‚begünstigt‘ oder ‚verzögert‘. Im Falle von Geburtenraten [BIRTH] kann man weitere Faktoren identifizieren, die die Geburtenraten zwischen verschiedenen Ländern deutlich differieren lässt, zu verschiedenen Zeiten, in verschiedenen sozialen Gruppen, usw. obgleich die Entscheidung für Geburten mehr als beim Sterben individuell vermittelt ist. Bei allem Verhalten kann man mehr oder weniger starke Einflüsse von Umgebungsparametern messen. Dies zeigt, dass die individuelle ‚Selbstbestimmung‘ des Verhaltens nicht unabhängig ist von Umgebungsparametern, die dazu führen, dass das tatsächliche Verhalten Millionen von Individuen sehr starke ‚Ähnlichkeiten‘ aufweist. Es sind diese ‚gleichförmigen Wechselwirkungen‘ die die Ausbildung von ‚Verteilungsmustern‘ ermöglichen. Die immer wieder anzutreffenden Stilisierungen von Wahrscheinlichkeitsverteilungen zu quasi ‚ontologischen Größen‘ erscheint vor diesem Hintergrund eher irreführend und verführt dazu, die Forschung dort einzustellen, wo sie eigentlich beginnen sollte.

  17. Wie schon die einfachen Beispiele zu Beginn gezeigt haben, eröffnet die nächst höhere Komplexitätstufe zunächst einmal den Möglichkeitsraum dramatisch, und zwar mit qualitativ neuen Zuständen. Betrachtet man diese ‚Komplexitätsschichtungen‘ nicht nur ‚eindimensional‘ (also z.B. in eine Richtung… CL_i-1, CL_i, CL_i+1 …) sondern ‚multidimensional‘ (d.h. eine Komplexitätsstufe CL_i kann eine Vielzahl von Elementen umfassen, die eine Komplexitätstufe j<i repräsentieren, und diese können wechselseitig interagieren (‚kommunizieren‘)), dann führt dies zu einer ‚Verdichtung‘ von Komplexität, die immer schwerer zu beschreiben ist. Eine einzige biologische Zelle funktioniert nach so einem multidimensionalen Komplexitätsmuster. Einzelne Organe können mehrere Milliarden solcher multidimensionaler Einheiten umfassen. Jeder Körper hat viele solcher Organe die miteinander wechselwirken. Die Koordinierung aller dieser Elemente zu einer prägnanten Gesamtleistung übersteigt unsere Vorstellungskraft bei weitem. Dennoch funktioniert dies in jeder Sekunde in jedem Körper Billionenfach, ohne dass das ‚Bewusstsein‘ eines biologischen Systems dies ‚mitbekommt‘.

  18. Was haben all diese Komplexitätstufen mit ‚Erkenntnis‘ zu tun? Nimmt man unser bewusstes Erleben mit den damit verknüpften ‚Erkenntnissen‘ zum Ausgangspunkt und erklärt diese Form von Erkenntnis zur ‚Norm‘ für das, was Erkenntnis ist, dann haben all diese Komplexitätsstufen zunächst nichts mit Erkenntnis zu tun. Allerdings ist es dieses unser ’subjektives‘ ‚phänomenologisches‘ ‚Denken‘, das all die erwähnten ‚Komplexitäten‘ im Denken ’sichtbar‘ macht. Ob es noch andere Formen von Komplexität gibt, das wissen wir nicht, da wir nicht wissen, welche Form von Erkenntnis unsere subjektive Erkenntnisform von vornherein ‚ausblendet‘ bzw. aufgrund ihrer Beschaffenheit in keiner Weise ‚erkennt‘. Dies klingt paradox, aber in der Tat hat unser subjektives Denken die Eigenschaft, dass es durch Verbindung mit einem Körper einen indirekt vermittelten Bezug zur ‚Körperwelt jenseits des Bewusstseins‘ herstellen kann, der so ist, dass wir die ‚Innewohnung‘ unseres subjektiven Erkennens in einem bestimmten Körper mit dem Organ ‚Gehirn‘ als Arbeitshypothese formulieren können. Darauf aufbauend können wir mit diesem Körper, seinem Gehirn und den möglichen ‚Umwelten‘ dann gezielt Experimente durchführen, um Aufklärung darüber zu bekommen, was denn so ein Gehirn im Körper und damit korrelierend eine bestimmte Subjektivität überhaupt erkennen kann. Auf diese Weise konnten wir eine Menge über Erkenntnisgrenzen lernen, die rein aufgrund der direkten subjektiven Erkenntnis nicht zugänglich sind.

  19. Diese neuen Erkenntnisse aufgrund der Kooperation von Biologie, Psychologie, Physiologie, Gehirnwissenschaft sowie Philosophie legen nahe, dass wir das subjektive Phänomen der Erkenntnis nicht isoliert betrachten, sondern als ein Phänomen innerhalb einer multidimensionalen Komplexitätskugel, in der die Komplexitätsstrukturen, die zeitlich vor einem bewussten Erkennen vorhanden waren, letztlich die ‚Voraussetzungen‘ für das Phänomen des subjektiven Erkennens bilden.

  20. Gilt im bekannten Universum generell, dass sich die Systeme gegenseitig beeinflussen können, so kommt bei den biologischen Systemen mit ‚Bewusstsein‘ eine qualitativ neue Komponente hinzu: diese Systeme können sich aktiv ein ‚Bild‘ (‚Modell‘) ihrer Umgebung, von sich selbst sowie von der stattfindenden ‚Dynamik‘ machen und sie können zusätzlich ihr Verhalten mit Hilfe des konstruierten Bildes ’steuern‘. In dem Masse, wie die so konstruierten Bilder (‚Erkenntnisse‘, ‚Theorien‘,…) die tatsächlichen Eigenschaften der umgebenden Welt ‚treffen‘ und die biologischen Systeme ‚technologische Wege‘ finden, die ‚herrschenden Gesetze‘ hinreichend zu ‚kontrollieren‘, in dem Masse können sie im Prinzip nach und nach das gesamte Universum (mit all seinen ungeheuren Energien) unter eine weitreichende Kontrolle bringen.

  21. Das einzig wirkliche Problem für dieses Unterfangen liegt in der unglaublichen Komplexität des vorfindlichen Universums auf der einen Seite und den extrem beschränkten geistigen Fähigkeiten des einzelnen Gehirns. Das Zusammenwirken vieler Gehirne ist absolut notwendig, sehr wahrscheinlich ergänzt um leistungsfähige künstliche Strukturen sowie evtl. ergänzt um gezielte genetische Weiterentwicklungen. Das Problem wird kodiert durch das Wort ‚gezielt‘: Hier wird ein Wissen vorausgesetzt das wir so eindeutig noch nicht haben Es besteht ferner der Eindruck, dass die bisherige Forschung und Forschungsförderung diese zentralen Bereiche weltweit kum fördert. Es fehlt an brauchbaren Konzepten.

Eine Übersicht über alle bisherigen Beiträge findet sich hier