KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

ZUR ENTDECKUNG DER VERGANGENHEIT UND ZUKUNFT IN DER GEGENWART. Zwischenbemerkung

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 10.Dez. 2017
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: cagent
Email: cagent@cognitiveagent.org

PDF

IDEE

Wenn man gedanklich in komplexen Strukturen unterwegs ist, kann es bisweilen helfen, sich zwischen drin bewusst zu machen, wo man gerade steht,
worum es eigentlich geht. Dies ist so ein Moment.

I. BILDERFLUT AUS MÖGLICHKEIT

Wir leben in einer Zeit, wo die Technik die
Möglichkeit eröffnet hat, Bilder zu erschaffen, die
mehr oder weniger alles zum Gegenstand haben, auch
Unsinniges, Idiotisches, reinste Fantasien, explizite
Lügen, Verleumdungen, … und für einen normalen homo
sapiens, der – bei intaktem Sehvermögen – primär ein
visuell orientiertes Lebewesen ist, führt diese Bilderflut
dazu, dass die wahre Realität sich immer mehr auflöst
in dieser Bildersuppe. Selbst wenn die Bilder noch als
Science Fiction, Fantasy, Crime, … gelabelt werden, im
Gehirn entsteht eine Bildersuppe, wo sich wahres Reales
mit Irrealem zu einem Gebräu mischt, das den Besitzer
dieses Gehirns in einen Dauerzustand der zunehmenden
Desorientierung versetzt. Der einzelne Bildproduzent
mag vielleicht sogar redliche Absichten haben, aber die
Masse der irrealen Bilder folgt ihren eigenen Gesetzen.
Das einzelne Gehirn verliert Orientierungsmarken.
Die Bereitschaft und Neigung von Menschen aller
Bildungsschichten selbst mit Doktortiteln (!), beliebig
wirre populistische, fundamentalistische oder esoterische
Anschauungen über die Welt als ’wahr’ zu übernehmen,
ist manifest und erschreckend. Wenn die grundlegenden
Wahrheitsfähigkeit von Menschen versagt, weil das
Gehirn über zu wenig verlässlich Ankerpunkte in der
Realität verfügt, dann ist alles möglich. Ein alter Lehrsatz
aus der Logik besagt: Aus Falschem folgt alles.

More than Noise – But What?

II. RÜCKERINNERUNG AN DIE WAHRHEIT

In einem vorausgehenden – eher grundlegenden –
Blogeintrag sind jene elementaren Grundstrukturen angesprochen worden, durch die jeder homo sapiens eine elementare Wahrheitsfähigkeit besitzt, auch in
Kommunikation und Kooperation mit anderen.
Aus diesem Text geht hervor, dass es grundsätzlich
möglich ist, dass dies aber kein Selbstgänger ist,
keinen Automatismus darstellt. Das Gelingen von
Wahrheit erfordert höchste Konzentration, erfordert
kontinuierliche Anstrengung, und vor allem auch das
Zusammenspiel vieler Faktoren. Moderne Demokratien
mit einer funktionierenden Öffentlichkeit, mit einem
ausgebauten Bildungs- und Forschungssystem kommen
diesen wissenschaftsphilosophischen Anforderungen
bislang am nächsten.

Wer die Bedeutung dieser Mechanismen zur
Voraussetzung von Wahrheit kennt und sich die
reale Welt anschaut, der kann weltweit eine
starke Rückentwicklung dieser Strukturen und
Prozesse beobachten, eine weltweite Regression
von Wahrheitsprozessen. Die Folgen sind schon jetzt
katastrophal und werden sich eher verstärken. Den Preis
werden letztlich alle zahlen. Wer glaubt, man könne sich
in einem Teilprozess isolieren, der täuscht sich.
Allerdings, im Fall der Wahrheit gelten andere Regel
als rein physikalische: Wahrheit selbst ist ein nicht-
physikalisch beschreibbares Phänomen. Es entstand
gegen alle Physik, es entstand auf eine Weise, die wir
bislang noch nicht richtig verstehen, und es macht im
Ansatz alle zu Verlierern, die sich außerhalb stellen.
Genauso irrational, wie sich weltweit eine Regression
von Wahrheit ereignen kann – und aktuell ereignet –,
genauso bizarr ist zugleich, warum so viele Mächtige
solch eine ungeheure Angst vor Wahrheit haben
(schon immer). Warum eigentlich? Warum gibt es
diesen ungeheuren Drang dazu, andere Menschen
zu kontrollieren, Ihnen Meinungen und Verhalten
vorzuschreiben, Algorithmen zu entwickeln, die die
Menschen in Richtungen leiten sollen, die schon falsch
sind, als sie ausgedacht wurden?

Solange es nur einen einzigen Menschen auf dem
Planet Erde gibt, so lange gibt es die Chance für
Wahrheit. Und so lange es die Chance für Wahrheit gibt,
muss jeder, der Wahrheit verrät, unterdrückt, verleugnet
sich als Verräter sehen, als Feind des Lebens.

More Beyond Noise – How Far away? Which kind of Distance?

III. UNIVERSUM – ERDE – LEBEN

Wenn man zu ahnen beginnt, wie kostbar Wahrheit
ist, wie schwierig sie zu gewinnen ist, und wenn man
weiß, wie viele Milliarden Jahre das Leben auf der
Erde gebraucht hat, um wahrheitsfähig zu werden, auch
noch in den späten Phase der Lebensform homo bzw.
dann des homo sapiens, dann kann man umgekehrt
zu einer geradezu andächtigen Haltung finden, wenn
man sich anschaut, was die modernen experimentellen
Wissenschaften im Laufe der letzten Jahrhundert, sogar
erst in den letzten Jahrzehnten (!!!) alles offenlegen
konnten.

Man bedenke, was wir primär wahrnehmen, das
ist Gegenwart, und die unfassbaren Blicke zurück in
die Vergangenheit der Evolution des Lebens und des
Universums (und möglicher weiterer Universen) liegen
nicht auf der Straße! Die Gegenwart ist Gegenwart und
ihr, der Gegenwart, Hinweise auf eine Zeit davor zu
entlocken, das war – und ist – eine der größten geistigen
Leistungen des homo sapiens.

Die Vergangenheit kann sich ja niemals direkt zeigen,
sondern immer nur dann, wenn eine bestimmte Zeit
mit ihren Strukturen und Prozessen Artefakte erzeugt
hat, die im Fluss der Zeit dann später als Spuren,
Hinweise, vorkommen, die ein Lebewesen dieser neuen
Gegenwart dann auch als Hinweise auf eine andere Zeit
erkennt.

So hat die Geologie irgendwann bemerkt, dass die
verschiedenen Gesteinsschichten möglicherweise
Ablagerungen aus vorausgehenden Zeiten sind.
Entsprechend haben die Biologen aus Versteinerungen
auf biologische Lebensformen schließen können,
die ’früher einmal’ gelebt hatten, heute aber nicht
mehr oder, heute auch, aber eventuell verändert. Die
Physik entdeckte, dass aufgrund der unterschiedlichen
Leuchtkraft gleicher Sternphänomene große Entfernungen im Universum anzunehmen sind, und mit der Fixierung der Geschwindigkeit des Lichts konnte
man auch auf Zeiten schließen, aus denen dieses Licht
gekommen sein muss: man war plötzlich bei vielen
Milliarden Jahren vor der Gegenwart.
Diese wenigen und vereinfachten Beispiele können
andeuten, dass und wie in der Gegenwart Zeichen einer
Vergangenheit aufleuchten können, die unsere inneren
Augen des Verstehens in die Lage versetzen, die scheinbare Absolutheit der Gegenwart zu überwinden und langsam zu begreifen, dass die Gegenwart nur
ein Moment in einer langen, sehr langen Kette von
Momenten ist, und dass es Muster zu geben scheint,
Regeln, Gesetze, Dynamiken, die man beschreiben
kann, die ansatzweise verstehbar machen, warum dies
alles heute ist, wie es ist.

Es versteht sich von selbst, dass diese unfassbaren
Erkenntnisleistungen der letzten Jahrzehnte nicht nur
möglich wurden, weil der Mensch qua Mensch über
eine grundlegende Wahrheitsfähigkeit verfügt, sondern
weil der Mensch im Laufe der letzten Jahrtausende
vielerlei Techniken, Abläufe ausgebildet hat, die ihm
bei diesen Erkenntnisprozessen unterstützen. Man
findet sie im technischen Bereich (Messgeräte, Computer,
Datenbanken, Produktionsprozesse, Materialtechniken, …..), im institutionellen Training
(langwierige Bildungsprozesse mit immer feineren
Spezialisierungen), in staatlichen Förderbereichen, aber
auch – und vielleicht vor allem! – in einer Verbesserung
der Denktechniken, und hier am wichtigsten die
Ausbildung leistungsfähiger formaler Sprachen in vielen
Bereichen, zentral die Entwicklung der modernen
Mathematik. Ohne die moderne Mathematik und formale
Logik wäre fast nichts von all dem möglich geworden,
was moderne Wissenschaft ausmacht.

Wenn man um die zentrale Rolle der modernen
Mathematik weiß und dann sieht, welche geringe Wertschätzung Mathematik sowohl im
Ausbildungssystem wie in der gesamten Kultur einer
Gesellschaft (auch in Deutschland) genießt, dann kann
man auch hier sehr wohl von einem Teilaspekt der
allgemeinen Regression von Wahrheit sprechen.(Anmerkung: Es wäre mal eine interessante empirische Untersuchung, wie viel
Prozent einer Bevölkerung überhaupt weiß, was Mathematik ist. Leider
muss man feststellen, dass das, was in den Schulen als Mathematik
verkauft wird, oft nicht viel mit Mathematik zu tun hat, sondern mit
irgendwelchen Rechenvorschriften, wie man Zeichen manipuliert, die
man Zahlen nennt. Immerhin, mehr als Nichts.)

Im Zusammenspiel von grundlegender Wahrheitsfähigkeit, eingebettet in komplexe institutionelle Lernprozesse, angereichert mit wissensdienlichen
Technologien, haben die modernen experimentellen
Wissenschaften es also geschafft, durch immer
komplexere Beschreibungen der Phänomene und ihrer
Dynamiken in Form von Modellen bzw. Theorien, den
Gang der Vergangenheit bis zum Heute ansatzweise
plausibel zu machen, sondern auf der Basis dieser
Modelle/ Theorien wurde es auch möglich, ansatzweise
wissenschaftlich begründete Vermutungen über die
Zukunft anzustellen.

In einfachen Fällen, bei wenigen beteiligten Faktoren
mit wenigen internen Freiheitsgraden und für einen
begrenzten Zeithorizont kann man solche Vermutungen ü̈ber die Zukunft (kühn auch Prognosen genannt), einigermaßen überprüfen. Je größer die Zahl der
beteiligten Faktoren, je mehr innere Freiheitsgrade, je
weitreichender der Zeitrahmen, um so schwieriger wir
solch eine Prognose. So erscheint die Berechnung des
Zeitpunktes, ab wann die Aufblähung unserer Sonne
aufgrund von Fusionsprozessen ein biologisches Leben
auf der Erde unmöglich machen wird, relativ sicher
voraussagbar, das Verhalten eines einfachen Tieres in
einer Umgebung über mehr als 24 Stunden dagegen ist
schon fast unmöglich.

Dies kann uns daran erinnern, dass wir es in der
Gegenwart mit sehr unterschiedlichen Systemen zu
tun haben. Das Universum (oder vielleicht sogar die
Universen) mag komplex sein, aber es erweist sich
bislang als grundsätzlich verstehbar, ebenfalls z.B. die
geologischen Prozesse auf unserem Heimatplaneten
Erde; das, was die Biologen Leben nennen, also
biologisches Leben, entzieht sich aber den bekannten
physikalischen Kategorien. Wir haben es hier mit
Dynamiken zu tun, die irgendwie anders sind, ohne dass
es bislang gelingt, diese spezifische Andersheit adäquat
zu erklären.

Life is Energy…

IV. KOGNITIVER BLINDER FLECK

Eine Besonderheit des Gegenstandsbereiches
biologisches Leben ist, dass diejenigen, die es
untersuchen, selbst Teil des Gegenstandes sind.
Die biologischen Forscher, die Biologen – wie überhaupt
alle Forscher dieser Welt – sind selbst ja auch Teil
des Biologischen. Als Exemplare der Lebensform
homo sapiens sind sie ganz klar einer Lebensform
zugeordnet, die ihre eigene typische Geschichte hat,
die sich als homo sapiens ca. 200.000 Jahre entwickelt
hat mit einer Inkubationszeit von ca. 100.000 Jahren, in
denen sich verschiedene ältere Menschenformen verteilt
über ganz Afrika partiell miteinander vermischt haben.
Nach neuesten Erkenntnissen hat dann jener Teil, der
dann vor ca. 60.000/ 70.000 Jahren aus Ostafrika
ausgewandert ist, einige tausend Jahre mit den damals
schon aussterbenden Neandertalern im Gebiet des
heutigen Israel friedlich zusammen gelebt, was durch
Vermischungen dann einige Prozent Neandertaler-Gene
im Genom des homo sapiens hinterließ, und zwar bei
allen Menschen auf der heutigen Welt, die gemessen
wurden.

Die Tatsache, dass die erforschenden Biologen selbst
Teil dessen sind, was sie erforschen, muss nicht per
se ein Problem sein. Es kann aber zu einem Problem
werden, wenn die Biologen Methoden zur Untersuchung
des Phänomens biologisches Leben anwenden, die
für Gegenstandsbereiche entwickelt wurden, die keine
biologischen Gegenstände sind.

In der modernen Biologie wurden bislang sehr
viele grundlegende Methoden angewendet, die
unterschiedlichste Teilbereiche zu erklären scheinen: In
Kooperation mit der Geologie konnte man verschiedenen
Phasen der Erde identifizieren, Bodenbeschaffenheiten,
Klima, Magnetfeld, und vieles mehr. In Kooperation
mit Physik, Chemie und Genetik konnten die
Feinstrukturen von Zellen erfasst werden, ihre
Dynamiken, ihre Wechselwirkungen mit den jeweiligen
Umgebungen, Vererbungsprozesse, Generierung neuer
genetischer Strukturen und vieles mehr. Der immer
komplexere Körperbau konnte von seinen physikalisch-
mechanischen wie auch chemischen Besonderheiten her
immer mehr entschlüsselt werden. Die Physiologie half,
die sich entwickelnden Nervensysteme zu analysieren,
sie in ihrer Wechselwirkung mit dem Organismus
ansatzweise zu verstehen. und vieles mehr.

Die sehr entwickelten Lebensformen, speziell dann
der homo sapiens, zeigen aber dann Dynamiken, die
sich den bisher bekannten und genutzten Methoden
entziehen. Die grundlegende Wahrheitsfähigkeit des
homo sapiens, eingebunden in grundlegende Fähigkeit
zur symbolischen Sprache, zu komplexen Kooperation,
zu komplexen Weltbildern, dies konstituiert Phänomene
einer neuen Qualität. Der biologische Gegenstand homo
sapiens ist ein Gegenstand, der sich selbst erklären
kann, und in dem Maße, wie er sich selbst erklärt,
fängt er an, sich auf eine neue, bis dahin biologisch
unbekannte Weise, zu verändern.

Traditioneller Weise gab es in den letzten
Jahrtausenden spezielle Erklärungsmodelle zum
Phänomen der Geistigkeit des homo sapiens, die
man – vereinfachend – unter dem Begriff klassisch-
philosophische Erklärung zusammen fassen kann.
Dieses Erklärungsmodell beginnt im Subjektiven und
hat immer versucht, die gesamte Wirklichkeit aus der
Perspektive des Subjektiven zu erklären.

Die Werke der großen Philosophen – beginnend
mit den Griechen – sind denkerische Großtaten,
die bis heute beeindrucken können. Sie leiden
allerdings alle an der Tatsache, dass man aus der
Perspektive des Subjektiven heraus von vornherein
auf wichtige grundlegende Erkenntnisse verzichtet
hatte (in einer Art methodischen Selbstbeschränkung,
analog der methodischen Selbstbeschränkung der
modernen experimentellen Wissenschaften). Das,
was diese subjekt-basierte und subjekt-orientierte
Philosophie im Laufe der Jahrtausende bislang erkannt
hat, wird dadurch nicht falsch, aber es leidet daran,
dass es nur einen Ausschnitt beschreibt ohne seine
Fundierungsprozesse.

Eigentlich ist das Subjektive (oder das ’Geistige’,
wie die philosophische Tradition gerne sagt) das
schwierigste Phänomen für die moderne Wissenschaft, das provozierendste, aber durch die frühzeitige Selbstbeschränkung der Biologie auf die bisherigen
Methoden und zugleich durch die Selbstbeschränkung
der klassischen Philosophie auf das Subjektive wird
das Phänomen des Lebens seiner Radikalität beraubt.
Es wird sozusagen schon in einer Vor-Verabredung der
Wissenschaften entmündigt.

In einem Folgeartikel sollte dieser blinde Fleck der
Wissenschaften in Verabredung mit der Philosophie
nochmals direkt adressiert werden, etwa: Das Subjektive
im Universum: Maximaler Störfall oder Sichtbarwerdung
von etwas radikal Neuem?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER