Archiv der Kategorie: Wertvorstellungen

Brexit – Computerinterface – Zukunft. Wie hängt dies zusammen?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
19.-20.Oktober 2019

Aktualisierung: 3.Nov.2019 auf dieser Seite

LEITGEDANKE

Wenn das, was wir nicht sehen, darüber entscheidet, was wir sehen,
dann lohnt es sich, für einen Moment inne zu halten, und sich darüber klar
zu werden, was wir tun, wenn wir versuchen, die Welt zu verstehen.

INHALT

1 Der Brexit als Lehrstück … 1
2 Das Unsichtbare in Allem 3
3 Computer-Interface als ein Stück Alltag 4
4 Wir als Teil von BIOM I und II 6
5 Homo Sapiens im Blindflug? 9
6 Epilog 11

DOKUMENT (PDF)

KURZKOMMENTAR

Der Text des Dokuments ist das Ergebnis von all den vorausgegangenen Blogeinträgen bis jetzt! Es ist die erste Zusammenschließung von verschiedenen großen Themen, die bislang im Blog getrennt diskutiert wurden. Es ist die große ‚Vereinheitlichung‘ von nahezu allem, was der Autor bislang kennt. Vielleicht gelingt es, dieser Grundintention folgend, diesen Ansatz weiter auszuarbeiten.

KURZKOMMENTAR II

Der Text ist aus philosophischer Perspektive geschrieben, scheut nicht die Politik, nimmt den Alltag ernst, nimmt sich die Digitalisierung vor, bringt die Evolutionbiologie zentral ins Spiel, und diagnostiziert, dass die aktuellen smarten Technologien, insbesondere die neuen Smart City Ansätze, schlicht zu wenig sind. Die ganzen nicht-rationalen Faktoren am Menchen werden nicht als lästiges Beiwerk abgeschüttelt, sondern sie werden als ein zentraler Faktor anerkannt, den wir bislang zu wenig im Griff haben.

ERGÄNZUNG 3.Nov.2019

In dem PDF-Dokument wird erwähnt, dass die Brexit-Entscheidung in England im Vorfeld massiv aus dubiosen Quellen beeinflusst worden ist. Im PDF-Dokument selbst habe ich keine weiteren Quellenangaben gemacht. Dies möcte ich hier nachholen, da es sich um einen explosiven Sachverhalt handelt, der alle noch bestehenden demokratischen Gesellschaft bedroht. Da ds ZDF und Phoenix die Angaben zu immer wieder neuen Terminen machen, sind die zugehörigen Links möglicherweise immer nur zeitlich begrenzt verfügbar.

Der Film „Angriff auf die Demokratie. Wurde der Brexit gekauft?“ von Dirk Laabs wird einmal in einem Text kurz beschrieben, und es wird ein Link auf youtube angegeben, wo man den Film als Video abrufen kann.

Hier aus dem Worlaut der Ankündigung:

„Die britische Wahlkommission ist überzeugt: Es gibt Anhaltspunkte dafür, dass große Teile der Gelder für eine Kampagne vor dem Brexit-Referendum aus dubiosen Quellen stammen.

„Im Fokus steht der britische Geschäftsmann Arron Banks, Strippenzieher und enger Freund des ehemaligen Ukip-Anführers Nigel Farage. Über seine Offshore-Konten sollen fast neun Millionen Pfund Spenden geflossen sein.“

Die Recherchen des ZDF legen nahe, „dass Wähler verdeckt und so effektiv wie möglich beeinflusst werden sollten.“ Es werden nicht nur die Geldströme vefolgt, sondern der ZDFzoom-Autor Dirk Laabs „redet mit Insidern aus der Kampagne und konfrontiert ihren Kopf, den ehemaligen Chef der Ukip, Nigel Farage. Farage redet im Interview mit dem ZDF auch darüber, welchen Einfluss US-amerikanische Berater für die Kampagne hatten. Steve Bannon, früherer Berater von US-Präsident Trump, war einer der wichtigen Berater in diesem Spiel.“

„Konkret geht es um millionenschwere Kredite, die die Pro-Brexit-Kampagne von Banks erhalten haben soll. Demnach stammte das Geld möglicherweise nicht von ihm selbst, sondern von Firmen mit Sitz auf der Isle of Man und in Gibraltar, die sich damit in den Wahlkampf eingemischt hätten. Mittlerweile ermittelt die National Crime Agency. Sie soll die bislang verschleierte Kampagnen-Finanzierung offenlegen.“

„Nigel Farage spricht im Interview mit dem „ZDFzoom“-Autor Dirk Laabs ganz offen darüber, wie eng die Lager zusammengearbeitet haben und wie wichtig auch der ehemalige Trump-Berater Steve Bannon für die Kampagne in Großbritannien war“ … Ein Whistleblower, der für die Leave-Kampagne gearbeitet hat, ist überzeugt: „Die verschiedenen Brexit-Kampagnen brachen die Gesetze, griffen dabei auf ein ganzes Netzwerk von Firmen zurück, um mehr Geld ausgeben zu können. Ohne diese Betrügereien wäre das EU-Referendum anders ausgegangen.“

„ZDFzoom“-Autor Dirk Laabs geht in der Dokumentation den Fragen nach: „Mit welchen fragwürdigen Methoden wurde die Mehrheit der Briten vom Brexit überzeugt? Welche Interessen und Profiteure stecken dahinter? Und Laabs fragt bei Akteuren in Brüssel nach, welche Maßnahmen mit Blick auf die Europawahl ergriffen werden sollten und überhaupt könnten, um den Digital-Wahlkampf der Zukunft zu regulieren oder kontrollierbarer zu machen.“

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 11 – Sprache und Höheres Bewusstsein

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 4.Dez. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURZFASSUNG

In direkter Fortsetzung zum vorausgehenden Kapitel über das ‚primäre Bewusstsein‘ führt Edelman in diesem Kapitel jene Bewusstseinsformen ein, die ‚höher‘ sind, da ‚komplexer‘, und die auf dem primären Bewusstsein aufbauen. Zugleich deutet er an, wie sich die Entstehung dieser komplexen Bewusstseinsformen im Rahmen seiner Gehirntheorie erklären lässt (Rückverweis auf Kap.6).

KAP.12 Sprache und Höheres Bewusstsein

  1. Im vorausgehenden Kapitel wurde das ‚primäre Bewusstsein‘ beschrieben, das in der ‚unmittelbaren (sinnlichen) Wahrnehmung‘ fundiert ist, angereichert mit ‚Kommentaren‘ aus dem ‚Inneren‘ des Systems bestehend aus ‚Bedürfnissen‘ einerseits und ‚Erinnerungen‘ andererseits. (vgl. S.124)

  2. Obgleich wir Menschen über ein solches primäres Bewusstsein verfügen, ist festzustellen, dass wir Menschen gleichzeitig über ‚mehr‘ verfügen: wir sind nicht nur fundiert in einer primären kommentierten Wahrnehmung des ‚Jetzt‘, der ‚Gegenwart‘, wir verfügen zugleich auch über die Möglichkeit, die ‚Gegenwart‘ explizit in Beziehung zu setzen zur ‚Erinnerung vorausgehender Gegenwarten‘. Diese Erinnerungen sind aber nicht nur strukturiert durch ‚perzeptuelle Kategorien (angereichert mit ‚Werten‘)‘, sondern auch durch ‚konzeptuelle Kategorien‘, die das ‚höhere Bewusstsein‘ mit Blick ‚auf das primäre Bewusstsein und seinen Kontext‘ ausbilden kann. Neben den schon erwähnten Vergleichen von aktueller Gegenwart und erinnerter (kommentierter) Gegenwart können die Qualia als solche adressiert werden, ihre Eigenschaften, ihre zeitlichen-räumlichen Beziehungen, wie auch eine Kodierung von Qualia mit sprachlichen Elementen (auch Qualia) in Form eines ’symbolischen Gedächtnisses‘: sprachliche Zeichen werden assoziiert mit ihrer ‚Bedeutung‘ in Gestalt von Strukturen von Qualia. Ferner sind diese ‚höheren‘ mentalen Leistungen neuronal über Schleifen mit den primären Schaltkreisen so verknüpft, dass damit die primären Prozesse durch die höheren Prozesse ‚kommentiert‘ werden können. Das primäre Bewusstsein ist dadurch ‚eingebettet‘ in das höhere Bewusstsein, ist damit genuiner Teil von ihm. (vgl. S.124f)

  3. Edelman merkt fragend an, ob es der Versuch der Befreiung von all diesen ‚Kommentierungen‘ vielleicht   ist, was manche ‚Mystiker‘ gemeint haben, wenn sie – auf unterschiedliche Weise – von einem ‚reinen Bewusstsein‘ sprechen. (vgl. S.124)

  4. Während also das ‚primäre‘ Bewusstsein in seiner Prozesshaftigkeit leicht ‚diktatorisch‘ wirken kann, eine einfach stattfindende Maschinerie des primären Klassifizierens von dem, was ’stattfindet‘, ist es aber gerade die Einbettung in das ‚höhere‘ Bewusstsein mit der Möglichkeit der sprachlichen Kodierung, einem Prozess-Determinismus ansatzweise zu entkommen, indem aus dem Strom der Ereignisse unterschiedliche Aspekte (Qualia und deren Beziehungen) ’selektiert‘ und ’sprachlich kodiert‘ werden können. Damit entstehen sekundäre (semantische) Strukturen, die ansatzweise eine ‚eigene‘ Sicht des Systems ermöglichen. Die Unterscheidung zwischen ’sich‘ (’self‘) und ’nicht-sich‘ (’non-self‘) wird möglich. Im Unterschied zu ‚dem Anderen‘ (dem ‚Nicht-Selbst‘) wird ‚das Eigene‘, ein ‚Selbst‘ möglich, das sich über die vielen unterscheidenden Eigenschaften ‚definiert“. (vgl. S.125)

  5. Edelman merkt an, dass die Schimpansen im Vergleich zum homo sapiens zwar offensichtlich auch über das Phänomen eines ‚Selbstbewusstseins‘ verfügen, nicht aber über die flexible Sprachfähigkeit. Damit bleiben sie ‚mental eingesperrt‘ in die vordefinierte Phänomenwelt ihres primären und leicht sekundären Bewusstseins. Sie sind aber nicht in der Lage, die stattfindenden Erlebnisstrukturen zu überwinden. (vgl. S.125)

GESPROCHENE SPRACHE: EPIGENETISCH

  1. Im Folgenden konzentriert sich Edelman auf zwei Aspekte: (i) die Entwicklung jener physiologischen Strukturen, die ein ‚Sprechen‘ wie beim homo sapiens erlauben samt den dazu gehörigen Gehirnstrukturen, (ii) die davon unabhängige Entwicklung von ‚konzeptuellen Strukturen (Kategorien)‘, in denen sich Aspekte des Wahrnehmens, Erinnerns und Bewertens zu Strukturen verdichten können, die dann als ‚Bausteine einer mentalen Welt‘ genutzt werden können. (vgl. S.125f)

  2. Mit Blick auf die  Diskussionen im Umfeld von Chomskys Überlegungen zum Spracherwerb deutet Edelman an, dass es nicht ein einzelner Mechanismus gewesen sein kann, der aus sich heraus die ganze Sprachfähigkeit ermöglicht hat, sondern das ‚Ausdrucksmittel‘ Sprache musste mit seinem ganzen symbolischen Apparat im Körper und im Gehirn ‚eingebettet‘ werden, um in direkter ‚Nachbarschaft‘ zu den informationellen Prozessen des primären und des sekundären Bewusstseins an jene ‚Bedeutungsstrukturen‘ andocken zu können, die dann im symbolischen Gedächtnis so kodiert werden, dass ein Gehirn mit seinen sprachlichen Ausdrücken auf solche Bedeutungsstrukturen Bezug nehmen kann. Im Englischen wird diese ‚Einbettung der Sprache in den Körper‘ ‚embodiment‘ genannt. Im Deutschen gibt es kein direktes begriffliches Äquivalent. ‚Einkörperung‘ der Sprache klingt etwas schräg. (vgl. S.126)

  3. Edelman geht davon aus, dass die grundlegende Fähigkeit zu konzeptueller Kategorienbildung der Ausbildung der Sprachfähigkeit voraus ging, da die Sprachfähigkeit selbst genau diese neuronalen Mechanismen benutzt, um Phoneme (Qualia!) bilden zu können, deren Assoziierung zu komplexen Ausdrücken, und dann deren weitere In-Beziehung-Setzung (oder ‚Assoziierung‘) zu nicht-sprachlichen Einheiten.(vgl. S.126)

  4. [Anmerkung: aufgrund dieses Sachverhalts läge es nahe, die Begriffe ‚primäres‚ und ‚höheres‚ Bewusstsein um einen dritten Begriff zu ergänzen: ‚sekundäres‚ Bewusstsein. Das ‚sekundäre‚ Bewusstsein geht über das primäre Bewusstsein durch seine Fähigkeit zur Bildung von komplexen konzeptuellen Kategorien hinaus. Insofern sich auf der Basis des sekundären Bewusstseins dann z.B. die Fähigkeit zur freien symbolischen Kodierung (vergleichbar der Bildung von DNA-Strukturen in Zellen) im Gehirn herausgebildet hat, erweitert sich das sekundäre Bewusstsein zum ‚höheren (= sprachlichen)‘ Bewusstsein.]

  5. ‚Sprache‘ war und ist primär ‚gesprochene Sprache‘ (’speech‘). Damit dies möglich wurde, mussten erhebliche anatomische Änderungen am Körperbau stattfinden, die zudem im Vollzug im Millisekundenbereich (!) aufeinander abgestimmt sein müssen: die Lungen zur Erzeugung eines hinreichenden Luftstroms in Abstimmung mit der Speiseröhre, die Stimmbänder, der Mund- und Rachenraum als Resonatoren und Filter, dazu die Zunge, die Zähne und die Lippen als Modifikatoren des Klangs; dies alles muss zusammenwirken, um das hervor bringen zu können, was wir die Ausdrucksseite der (gesprochenen) Sprache nennen. Entsprechend muss es Zentren im Gehirn geben, die das ‚Hören von Sprache, das ‚Artikulieren‘ von Sprache sowie ihre ’semantische Kodierung‘ ermöglichen, wobei die semantische Kodierung in den Kontext eines umfassenden komplexen kognitiven Prozesses eingebettet sein muss. (vgl. S.126f)

  6. Bei der Ausbildung der ‚Synchronisierung‘ von sprachlichen Ausdrücken mit den diversen Bedeutungsanteilen vermutet Edelman, dass am Anfang die Parallelisierung von ‚Objekten‘ und ‚Gegenstandswörtern‘ (’nouns‘) stand. Danach die Parallelisierung von ‚Veränderungen, Handlungen‘ mit ‚Verben‘. Dann folgten weitere Verfeinerungen der ‚Syntax‘ parallel zu entsprechenden Situationen. (vgl. S.127)

  7. Generell nimmt Edelman also an, dass die primären Mechanismen der Konzeptualisierungen und der zugehörigen anatomischen Ausprägungen ‚genetisch‘ induziert sind, dass aber die Ausbildung von bestimmten symbolischen Strukturen und deren Zuordnung zu möglichen Bedeutungsmustern ‚epigenetisch“ zustande kommt.(vgl. SS.127-131)

  8. Aufgrund der durchgängig rekursiven Struktur der neuronalen Strukturen können alle phonologischen und semantischen Konzepte und deren mögliche Assoziationen wiederum zum Gegenstand von Kategorisierungen einer höheren Ebene werden, so dass es eben Phoneme, Phonemsequenzen, Wörter, Satzstrukturen und beliebig weitere komplexe Ausdrucksstrukturen geben kann, denen entsprechend semantische Strukturen unterschiedlicher Komplexität zugeordnet werden können. Aufgrund einer sich beständig ändernden Welt würde es keinen Sinn machen, diese Kodierungen genetisch zu fixieren. Ihr praktischer Nutzen liegt gerade in ihrer Anpassungsfähigkeit an beliebige Ereignisräume. Ferner ist zu beobachten, dass solche Sequenzen und Kodierungen, die sich mal herausgebildet haben und die häufiger Verwendung finden, ‚automatisiert‘ werden können. (vgl. S.130)

  9. Nochmals weist Edelman auf die Schimpansen hin, die zwar ein primäres und sekundäres Bewusstsein zu haben scheinen (inklusive einem ‚Selbst‘-Konzept), aber eben kein Sprachsystem, das flexible komplexe Kategorisierungen mit einer entsprechenden Syntax erlaubt.(vgl. S.130)

  10. Auch ist es offensichtlich, dass das Erlernen von Sprache bei Kindern aufgrund der parallelen Gehirnentwicklung anders, einfacher, nachhaltiger verläuft als bei Erwachsenen, deren Gehirne weitgehend ‚gefestigt‘ sind. (vgl. S.130f)

  11. Während die gesprochene Sprache evolutionär (und heute noch ontogenetisch) die primäre Form der Sprachlichkeit war, können bei Vorliegen einer grundlegenden Sprachfähigkeit die auch andere Ausdrucksmittel (Gesten, Schrift, Bilder, …) benutzt werden. (vgl. S.130)

HÖHERES BEWUSSTSEIN

  1. Nach all diesen Vorüberlegungen soll die Frage beantwortet werden, wie es möglich ist, dass uns  ‚bewusst‘ ist, dass wir ‚Bewusstsein haben‘?(vgl. S.131)

  2. Generell sieht Edelman die Antwort gegeben in dem Fakt, dass wir die erlebbare ‚Gegenwart‘ (the ‚immediate present‘) in Beziehung setzen können zu ‚Erinnerungen (von vorausgehenden Gegenwarten)‘, eingebettet in eine Vielzahl von komplexen Wahrnehmungen als Konzeptualisierungen auf unterschiedlichen ‚Reflexionsstufen‘, vielfach assoziiert mit sprachlichen Ausdrücken. Das ‚Selbst‘ erscheint in diesem Kontext als ein identifizierbares Konstrukt in Relation zu Anderem, dadurch ein ’soziales Selbst‘. (vgl. S.131)

  3. Ein Teil dieser Konzeptualisierungen hat auch zu tun mit der Assoziierung mit sowohl ‚innersystemischen‘ ‚Kommentaren‘ in Form von Emotionen, Stimmungen, Bedürfnisbefriedigungen usw. generalisiert unter dem Begriff ‚innere Werte‚, ein Teil hat zu tun mit der Assoziierung von Interaktionen mit seiner Umgebung, speziell Personen, von denen auch ‚externe Werte‚ resultieren können.(vgl. S.131f)

  4. Alle diese Konzeptualisierungen inklusive deren ‚Konnotation mit Werten‘ benötigen eine ‚Langzeit-Speicherung‘ (‚long-term storage‘), um ihre nachhaltige Wirkung entfalten zu können. (vgl. S.132)

  5. Ein zentrales Element in diesem höheren Bewusstsein ist die Fähigkeit zur Unterscheidung zwischen der aktuell stattfindenden perzeptuellen Wahrnehmung (‚Gegenwart‘) und der konzeptuell vermittelten ‚Erinnerung‘, die es erlaubt, über die ‚Gegenwart‘, die ‚Vergangenheit‘ und eine ‚mögliche Zukunft‘ ’nachzudenken‘. (vgl. S.133)

  6. Die Konkretheit der aktuellen perzeptuellen Wahrnehmung wird durch die konzeptuell aufbereitete erinnerbare Vergangenheit quasi ‚kommentiert‚, in mögliche Beziehungen eingebettet, die als solche dadurch weitgehend ‚bewertet‚ sind.(vgl. S.133)

  7. Aufgrund der stattfindenden komplexen Prozesse, die dem Gehirn ‚bewusst‘ sind, gibt es so etwas wie ein ‚inneres Leben‚, das aufgrund der unterschiedlichen Erfahrungskontexte, der unterschiedlichen Lerngeschichten hochgradig ‚individuell‚ ist.(vgl. S.133)

  8. Paläontologische Untersuchungen legen den Schluss nahe, dass die Entwicklung zu solch einem höheren Bewusstsein, wie es sich beim homo sapiens findet, in extrem kurzer Zeit stattgefunden haben müssen. Man geht davon aus, dass die Entstehung eines höheren Bewusstseins zusammenfällt mit der Entstehung des homo sapiens. (vgl. S.133)

  9. Edelman verweist auf sein Kap.6 um zu sagen, dass die bislang verstandenen Mechanismen des Gehirnwachstums es plausibel erscheinen lassen, dass sich diese Strukturen ausbilden konnten. (vgl. S.133)

  10. Edelman stellt dann wieder die Frage nach dem evolutionären ‚Nutzen/ Vorteil‘ der Ausbildung von solchen Bewusstseinsphänomenen.(vgl. S.133)

  11. Für den Fall des primären Bewusstseins sieht er den Vorteil darin, dass schon auf dieser Stufe die Möglichkeit besteht, aus der Vielfalt der Phänomene (realisiert als Qualia) durch die parallel stattfindende ‚Kommentierung‘ der Erlebnisse durch das ‚innere System‘ (sowohl durch die automatisch stattfindende ‚Speicherung‘ wie auch die automatisch stattfindende ‚Erinnerung‘) es möglich ist, jene Aspekte zu ’selektieren/ präferieren‘, die für das System ‚günstiger erscheinen‘. Dies verschafft eine mögliche Verbesserung im Überleben. (vgl. S.133)

  12. Für den Fall des höheren Bewusstseins erweitern sich die Möglichkeiten der ‚In-Beziehung-Setzung‘ zu einer sehr großen Anzahl von unterschiedlichen Aspekten, einschließlich komplexer Modellbildungen, Prognosen, Tests, und die Einbeziehung sozialer Beziehungen und deren ‚Wertsetzungen‘ in die Bewertung und Entscheidung. Ein kurzer Blick in den Gang der Evolution, insbesondere in die Geschichte der Menschheit, zeigt, wie die Komplexität dieser Geschichte in den letzten Jahrzehntausenden gleichsam explodiert ist, [Anmerkung: mit einer exponentiellen Beschleunigung!]. (vgl. S.133-135)

  13. Speziell weist Edelman auch nochmals hin auf das Zusammenspiel von Qualia und Sprache. Während Qualia als solche schon Abstraktionen von perzeptuellen Konkretheiten darstellen sollen, kann ein System im Wechselspiel von Qualia und Sprache ‚Verfeinerungen‘ sowohl in der Wahrnehmung‘ als auch in er ‚Verwendung‘ von Qualia ermöglichen. Gewissermaßen zeigt sich hier die Sprache als eine Art ‚Echoprinzip‘, das Qualia ‚fixiert‘, sie dadurch speziell erinnerbar macht, und einer Verfeinerung ermöglicht, die ohne die sprachliche Kodierung entweder gar nicht erst stattfindet oder aber als ‚flüchtiges Phänomen‘ wieder untergeht. (vgl. S.136)

  14. In den inneren Prozessen des höheren Bewusstseins zeigt sich eine Fähigkeit zum Vorstellen, zum Denken, die durch die impliziten Kategorisierungen und Verallgemeinerungen weit über das ‚Konkrete‘ des primären Bewusstseins hinaus reichen kann. Hierin liegt eine verändernde, kreative Kraft, Fantasie und Mystik. Ob diese zur ‚Verbesserung‘ des Lebens führt oder ‚in die Irre‘, dies lässt sich nicht ‚im Moment‘ erkennen, nur im Nacheinander und in der praktischen ‚Bewährung‘. (vgl. S.136)

DISKUSSION

Zusammenfassend für Kap. 11+12 im nachfolgenden Blogeintrag.

QUELLEN

  • Keine Besonderen

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

KI UND BIOLOGIE. Blitzbericht zu einem Vortrag am 28.Nov.2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
29.Nov. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

LETZTE AKTUALISIERUNG: 1.Dez.2018, Anmerkung 1

KONTEXT

Im Rahmen einer öffentlichen Veranstaltung des Fachbereichs 2 ‚Informatik & Ingenieurwissenschaften‘ der Frankfurt University of Applied Sciences am 28.November 2018 mit dem Rahmenthema „Künstliche Intelligenz – Arbeit für Alle?“ hielt Gerd Doeben-Henisch einen kurzen Vortrag zum Thema „Verändert KI die Welt?“ Voraus ging ein Vortrag von Herrn Helmut Geyer „Arbeitsmarkt der Zukunft. (Flyer zur Veranstaltung: FRA-UAS_Fb2_Karte_KI-Arbeit fuer alle_Webversion )

EINSTIEG INS KI-THEMA

Im Kontext der Überlegungen zur Arbeitswelt angesichts des technologischen Wandels gerät die Frage nach der Rolle der Technologie, speziell der digitalen Technologie — und hier noch spezieller der digitalen Technologie mit KI-Anteilen – sehr schnell zwischen die beiden Pole ‚Vernichter von Arbeit‘, ‚Gefährdung der Zukunft‘ einerseits und ‚Neue Potentiale‘, ‚Neue Arbeit‘, ‚Bessere Zukunft‘, wobei es dann auch einen dritten Pol gibt, den von den ‚übermächtigen Maschinen‘, die die Menschen sehr bald überrunden und beherrschen werden.

Solche Positionen, eine Mischungen aus quasi-Fakten, viel Emotionen und vielen unabgeklärten Klischees, im Gespräch sachlich zu begegnen ist schwer bis unmöglich, erst Recht, wenn wenig Zeit zur Verfügung steht.

Doeben-Henisch entschloss sich daher, das Augenmerk zentral auf den Begriff ‚Künstliche Intelligenz‘ zu lenken und die bislang uneinheitliche und technikintrovertierte Begrifflichkeit in einen größeren Kontext zu stellen, der das begrifflich ungeklärte Nebeneinander von Menschen und Maschinen schon im Ansatz zu überwinden sucht.

ANDERE DISZIPLINEN

Viele Probleme im Kontext der Terminologie der KI im technischen Bereich erscheinen hausgemacht, wenn man den Blick auf andere Disziplinen ausweitet. Solche andere Disziplinen sind die Biologe, die Mikrobiologie sowie die Psychologie. In diesen Disziplinen beschäftigt man sich seit z.T. deutlich mehr als 100 Jahren mit komplexen Systemen und deren Verhalten, und natürlich ist die Frage nach der ‚Leistungsfähigkeit‘ solcher Systeme im Bereich Lernen und Intelligenz dort seit langem auf der Tagesordnung.

Die zunehmenden Einsichten in die unfassbare Komplexität biologischer Systeme (siehe dazu Beiträge in diesem Blog, dort auch weitere Links), lassen umso eindrücklicher die Frage laut werden, wie sich solche unfassbar komplexen Systeme überhaupt entwickeln konnten. Für die Beantwortung dieser Frage wies Doeben-Henisch auf zwei spannende Szenarien hin.

KOMMUNIKATIONSFREIE EVOLUTION

Entwicklungslogik vor der Verfügbarkeit von Gehirnen
Entwicklungslogik vor der Verfügbarkeit von Gehirnen

In der Zeit von der ersten Zelle (ca. -3.8 Mrd Jahren) bis zur Verfügbarkeit hinreichend leistungsfähiger Nervensysteme mit Gehirnen (ab ca. -300.000, vielleicht noch etwas früher) wurde die Entwicklung der Lebensformen auf der Erde durch zwei Faktoren gesteuert: (a) die Erde als ‚Filter‘, was letztlich zu einer bestimmten Zeit geht; (b) die Biomasse mit ihrer Reproduktionsfähigkeit, die neben der angenäherten Reproduktion der bislang erfolgreichen Baupläne (DNA-Informationen) in großem Umfang mehr oder weniger starke ‚Varianten‘ erzeugte, die ‚zufallsbedingt‘ waren. Bezogen auf die Erfolge der Vergangenheit konnten die zufälligen Varianten als ’sinnlos‘ erscheinen, als ’nicht zielführend‘, tatsächlich aber waren es sehr oft diese zunächst ’sinnlos erscheinenden‘ Varianten, die bei einsetzenden Änderungen der Lebensverhältnisse ein Überleben ermöglichten. Vereinfachend könnte man also für die Phase die Formel prägen ‚(Auf der dynamischen Erde:) Frühere Erfolge + Zufällige Veränderungen = Leben‘. Da zum Zeitpunkt der Entscheidung die Zukunft niemals hinreichend bekannt ist, ist die Variantenbildung die einzig mögliche Strategie. Die Geschwindigkeit der ‚Veränderung von Lebensformen‘ war in dieser Zeit auf die Generationsfolgen beschränkt.

MIT KOMMUNIKATION ANGEREICHERTE EVOLUTION

Nach einer gewissen ‚Übergangszeit‘ von einer Kommunikationsfreien zu einer mit Kommunikation angereicherte Evolution gab es in der nachfolgenden Zeit die Verfügbarkeit von hinreichend leistungsfähigen Gehirnen (spätestens mit dem Aufkommen des homo sapiens ab ca. -300.000)[1], mittels deren die Lebensformen die Umgebung und sich selbst ‚modellieren‘ und ‚abändern‘ konnten. Es war möglich, gedanklich Alternativen auszuprobieren, sich durch symbolische Kommunikation zu ‚koordinieren‘ und im Laufe der letzten ca. 10.000 Jahren konnten auf diese Weise komplexe kulturelle und technologische Strukturen hervorgebracht werden, die zuvor undenkbar waren. Zu diesen Technologien gehörten dann auch ab ca. 1940 programmierbare Maschinen, bekannt als Computer. Der Vorteil der Beschleunigung in der Veränderung der Umwelt – und zunehmend auch der Veränderung des eigenen Körpers — lies ein neues Problem sichtbar werden, das Problem der Präferenzen (Ziele, Bewertungskriterien…). Während bislang einzig die aktuelle Erde über ‚Lebensfähig‘ ‚oder nicht Lebensfähig‘ entschied, und dies das einzige Kriterium war, konnten die  Lebewesen mit den neuen Gehirnen  jetzt eine Vielzahl von Aspekten ausbilden, ‚partielle Ziele‘, nach denen sie sich verhielten, von denen oft erst in vielen Jahren oder gar Jahrzehnten oder gar noch länger sichtbar wurde, welche nachhaltigen Effekte sie haben.

Anmerkung 1: Nach Edelman (1992) gab es einfache Formen von Bewusstsein mit den zugehörigen neuronalen Strukturen ab ca. -300 Mio Jahren.(S.123) Danach hätte es  also ca. 300 Mio Jahre gedauert, bis   Gehirne, ausgehend von einem ersten einfachen Bewusstsein, zu komplexen Denkleistungen und sprachlicher Kommunikation in der Lage waren.

LERNEN und PRÄFERENZEN

Am Beispiel von biologischen Systemen kann man fundamentale Eigenschaften wie z.B. das ‚Lernen‘ und die ‚Intelligenz‘ sehr allgemein definieren.

Systematisierung von Verhalten nach Lernen und Nicht-Lernen
Systematisierung von Verhalten nach Lernen und Nicht-Lernen

In biologischer Sicht haben wir generell Input-Output-Systeme in einer unfassbar großen Zahl an Varianten bezüglich des Körperbaus und der internen Strukturen und Abläufe. Wie solch ein Input-Output-System intern im Details funktioniert spielt für das konkrete Leben nur insoweit eine Rolle, als die inneren Zustände ein äußerlich beobachtbares Verhalten ermöglichen, das wiederum das Überleben in der verfügbaren Umgebung ermöglicht und bezüglich spezieller ‚Ziele‘ ‚erfolgreich‘ ist. Für das Überleben reicht es also zunächst, einfach dieses beobachtbare Verhalten zu beschreiben.

In idealisierter Form kann man das Verhalten betrachten als Reiz-Reaktions-Paare (S = Stimulus, R = Response, (S,R)) und die Gesamtheit des beobachtbaren Verhaltens damit als eine Sequenz von solchen (S,R)-Paaren, die mathematisch eine endliche Menge bilden.

Ein so beschriebenes Verhalten kann man dann als ‚deterministisch‘ bezeichnen, wenn die beobachtbaren (S,R)-Paare ’stabil‘ bleiben, also auf einen bestimmten Reiz S immer die gleiche Antwort R erfolgt.

Ein dazu komplementäres Verhalten, also ein ’nicht-deterministisches‘ Verhalten, wäre dadurch charakterisiert, dass entweder (i) der Umfang der Menge gleich bleibt, aber manche (S,R)-Paare sich verändern oder (ii) der Umfang der Menge kann sich ändern. Dann gibt es die beiden interessanten Unterfälle (ii.1) es kommen nach und nach neue (S,R)-Paare dazu, die ‚hinreichend lang‘ ’stabil‘ bleiben, aber ab einem bestimmten Zeitpunkt ‚t‘ sich nicht mehr vermehren (die Menge der stabilen Elemente wird ‚eingefroren‘, ‚fixiert‘, ‚gezähmt‘, …), oder (ii.2) die Menge der stabilen (S,R)-Paare expandiert ohne Endpunkt.

Bezeichnet man diese Expansion (zeitlich ‚befristet‘ oder ‚unbefristet‘) als ‚Lernen‘, dann wird sichtbar, dass die ‚Inhalte des Lernens‘ (die korrespondierenden Repräsentationen der (S,R)-Paare in den internen Zuständen des Systems) einmal davon abhängen, was die Umgebung der Systeme ‚erlaubt‘, zum anderen, was die ‚inneren Zustände‘ des Systems an ‚Verarbeitung ermöglichen‘, sowie – sehr indirekt – über welche welche ‚internen Selektionskriterien‘ ein System verfügt.

Die ‚internen Selektionskriterien‘ werden hier kurz ‚Präferenzen‘ genannt, also Strategien, ob eher ein A oder ein B ’selektiert‘ werden soll. Wonach sich solche Kriterien richten, bleibt dabei zunächst offen. Generell kann man sagen, dass solche Kriterien primär ‚endogen‘ begründet sein müssen, dass sie aber nachgeordnet auch von außen (‚exogen‘) übernommen werden können, wenn die inneren Kriterien eine solche Favorisierung des exogenen Inputs ‚befürworten‘ (Beispiel sind die vielen Imitationen im Lernen bzw. die Vielzahl der offiziellen Bildungsprozesse, durch die Menschen auf bestimmte Verhaltens- und Wissensmuster trainiert (programmiert) werden). Offen ist auch, ob die endogenen Präferenzen stabil sind oder sich im Laufe der Zeit ändern können; desgleichen bei den exogenen Präferenzen.

Am Beispiel der menschlichen Kulturen kann man den Eindruck gewinnen, dass das Finden und gemeinsame Befolgen von Präferenzen ein bislang offenes Problem ist. Und auch die neuere Forschung zu Robotern, die ohne Terminierung lernen sollen (‚developmental robotics‘), hat zur Zeit das Problem, dass nicht ersichtlich ist, mit welchen Werten man ein nicht-terminiertes Lernen realisieren soll. (Siehe: Merrick, 2017)) Das Problem mit der Präferenz-Findung ist bislang wenig bekannt, da die sogenannten intelligenten Programme in der Industrie immer nur für klar definierte Verhaltensprofile trainiert werden, die sie dann später beim realen Einsatz unbedingt einhalten müssen.  Im technischen Bereich spricht man hier oft von einer ’schwachen KI‘. (Siehe: VDI, 2018) Mit der hier eingeführten Terminologie  wären dies nicht-deterministische Systeme, die in ihrem Lernen ‚terminieren‘.

INTELLIGENZ

Bei der Analyse des Begriffs ‚Lernen‘ wird sichtbar, dass das, was gelernt wird, bei der Beobachtung des Verhaltens nicht direkt ’sichtbar‘ ist. Vielmehr gibt es eine allgemeine ‚Hypothese‘, dass dem äußerlich beobachtbaren Verhalten ‚interne Zustände‘ korrespondieren, die dafür verantwortlich sind, ob ein ’nicht-lernendes‘ oder ein ‚lernendes‘ Verhalten zu beobachten ist. Im Fall eines ‚lernenden‘ Verhaltens mit dem Auftreten von inkrementell sich mehrenden stabilen (S,R)-Paaren wird angenommen, das den (S,R)-Verhaltensformen ‚intern‘ entsprechende ‚interne Repräsentationen‘ existieren, anhand deren das System ‚entscheiden‘ kann, wann es wie antworten soll. Ob man diese abstrakten Repräsentationen ‚Wissen‘ nennt oder ‚Fähigkeiten‘ oder ‚Erfahrung‘ oder ‚Intelligenz‘ ist für die theoretische Betrachtung unwesentlich.

Die Psychologie hat um die Wende zum 20.Jahrhundert mit der Erfindung des Intelligenztests durch Binet und Simon (1905) sowie in Weiterführung durch W.Stern (1912) einen Ansatz gefunden, die direkt nicht messbaren internen Repräsentanten eines beobachtbaren Lernprozesses indirekt dadurch zu messen, dass sie das beobachtbare Verhalten mit einem zuvor vereinbarten Standard verglichen haben. Der vereinbarte Standard waren solche Verhaltensleistungen, die man Kindern in bestimmten Altersstufen als typisch zuordnete. Ein Standard war als ein Test formuliert, den ein Kind nach möglichst objektiven Kriterien zu durchlaufen hatte. In der Regel gab es eine ganze Liste (Katalog, Batterie) von solchen Tests. Dieses Vorgehensweisen waren sehr flexibel, universell anwendbar, zeigten allerdings schon im Ansatz, dass die Testlisten kulturabhängig stark variieren konnten. Immerhin konnte man ein beobachtbares Verhalten von einem System auf diese Weise relativ zu vorgegebenen Testlisten vergleichen und damit messen. Auf diese Weise konnte man die nicht messbaren hypothetisch unterstellten internen Repräsentationen indirekt qualitativ (Art des Tests) und quantitativ (Anteil an einer Erfüllung des Tests) indizieren.

Im vorliegenden Kontext wird ‚Intelligenz‘ daher als ein Sammelbegriff für die hypothetisch unterstellte Menge der korrespondierenden internen Repräsentanten zu den beobachtbaren (S,R)-Paaren angesehen, und mittels Tests kann man diese unterstellte Intelligenz qualitativ und quantitativ indirekt charakterisieren. Wie unterschiedlich solche Charakterisierung innerhalb der Psychologie modelliert werden können, kann man in der Übersicht von Rost (2013) nachlesen.

Wichtig ist hier zudem, dass in diesem Text die Intelligenz eine Funktion des Lernens ist, das wiederum von der Systemstruktur abhängig ist, von der Beschaffenheit der Umwelt sowie der Verfügbarkeit von Präferenzen.

Mehrdimensionaler Raum der Intelligenzrpräsentanen
Mehrdimensionaler Raum der Intelligenzrpräsentanen

Aus Sicht einer solchen allgemeinen Lerntheorie kann man statt biologischen Systemen auch programmierbare Maschinen betrachten. Verglichen mit biologischen Systemen kann man den programmierbaren Maschinen ein Äquivalent zum Körper und zur Umwelt spendieren. Grundlagentheoretisch wissen wir ferner schon seit Turing (1936/7), dass programmierbare Maschinen ihr eigenes Programm abändern können und sie prinzipiell lernfähig sind. Was allerdings (siehe zuvor das Thema Präferenz) bislang unklar ist, wo sie jeweils die Präferenzen herbekommen sollen, die sie für eine ’nachhaltige Entwicklung‘ benötigen.

ZUKUNFT VON MENSCH UND MASCHINE

Im Licht der Evolution erscheint die  sich beschleunigende Zunahme von Komplexität im Bereich der biologischen Systeme und deren Populationen darauf hinzudeuten, dass mit der Verfügbarkeit von programmierbaren Maschinen diese sicher nicht als ‚Gegensatz‘ zum Projekt des biologischen Lebens zu sehen sind, sondern als eine willkommene Unterstützung in einer Phase, wo die Verfügbarkeit der Gehirne eine rapide Beschleunigung bewirkt hat. Noch bauen die biologischen Systeme ihre eigenen Baupläne  nicht selbst um, aber der Umbau in Richtung von Cyborgs hat begonnen und schon heute ist der Einsatz von programmierbaren Maschinen existentiell: die real existierenden biologischen Kapazitätsgrenzen erzwingen den Einsatz von Computern zum Erhalt und für die weitere Entwicklung. Offen ist die Frage, ob die Computer den Menschen ersetzen sollen. Der Autor dieser Zeilen sieht die schwer deutbare Zukunft eher so, dass der Mensch den Weg der Symbiose intensivieren wird und versuchen sollte, den Computer dort zu nutzen, wo er Stärken hat und zugleich sich bewusst sein, dass das Präferenzproblem nicht von der Maschine, sondern von ihm selbst gelöst werden muss. Alles ‚Böse‘ kam in der Vergangenheit und kommt in der Gegenwart vom Menschen selbst, nicht von der Technik. Letztlich ist es der Mensch, der darüber entscheidet, wie er die Technik nutzt. Ingenieure machen sie möglich, die Gesellschaft muss entscheiden, was sie damit machen will.

BEISPIEL EINER NEUEN SYMBIOSE

Der Autor dieser Zeilen hat zusammen mit anderen KollegenInnen in diesem Sommer ein Projekt gestartet, das darauf abzielt, dass alle 11.000 Kommunen in Deutschland ihre Chancen haben sollten, ihre Kommunikation und Planungsfähigkeit untereinander dramatisch zu verbessern, indem sie die modernen programmierbaren Maschinen in neuer ‚intelligenter‘ Weise für ihre Zwecke nutzen.

QUELLEN

  • Kathryn Merrick, Value systems for developmental cognitive robotics: A survey, Cognitive Systems Research, 41:38 – 55, 2017
  • VDI, Statusreport Künstliche Intelligenz, Oktober 2018, URL: https://www.vdi.de/vdi-statusbericht-kuenstliche-intelligenz/ (zuletzt: 28.November 2018)
  • Detlef H.Rost, Handbuch der Intelligenz, 2013: Weinheim – Basel, Beltz Verlag
  • Joachim Funke (2006), Kap.2: Alfred Binet (1857 – 1911) und der erste Intelligenztest der Welt, in: Georg Lamberti (Hg.), Intelligenz auf dem Prüfstand. 100 Jahre Psychometrie, Vandenhoek & Ruprecht
  • Alfred Binet, Théodore Simon: Methodes nouvelles pour le diagnostiqc du niveau intellectuel des anormaux. In: L’Année Psychologique. Vol. 11, 1904, S. 191–244 (URL: https://www.persee.fr/doc/psy_0003-5033_1904_num_11_1_3675 )
  • William Stern, Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkinder, 19121: Leipzig, J.A.Barth
  • Alan M. Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 42(2):230–265, 1936-7
  • Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

ÜBER DIE MATERIE DES GEISTES. Relektüre von Edelman 1992. Teil 8

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 27.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Gerald M.Edelman, Bright Air, Brilliant Fire. On the Matter of the Mind, New York: 1992, Basic Books

BISHER

Für die bisherige Diskussion siehe die kumulierte Zusammenfassung HIER.

KURZFASSUNG

Mit der Skizzierung seines Modells einer neuronalen Maschinerie liefert Edelman interessante Ansatzpunkte, um in einer möglichen, noch nicht existierenden, ‚Brückentheorie‘ zwischen Psychologie und Physiologie verschiedene psychologisch definierte Eigenschaften ‚von der Maschinerie her‘ plausibel zu machen. Eher unplausibel wirkt sein Versuch, die Wertefrage in Details des Genotyps und dann in Details des Phänotyps zu verlagern. Eine alternative Sicht wird vom Autor dieses Textes angedeutet.

KAP.9 NEURONALER DARWINISMUS

  1. In diesem Kapitel will Edelman Argumente vorbringen, warum die ‚Gehirnwissenschaft‘ eine ‚Wissenschaft des Erkennens‘ bzw. ‚… der Erkennung‘ (‚recognition‘) ist.

  2. Für seine Argumentation setzt Edelman voraus, dass wir Tiere (‚animals‘) haben, die sich in einer Umgebung befinden und sich in Interaktion mit dieser langfristig ‚anpassen‘, d.h. in der Lage sind, hinreichend viele Nachkommen überlebensfähig zu erzeugen. Diese Anpassungsfähigkeit beruht NICHT auf irgendwelche Instruktionen, sondern wird von den Tieren aufgrund der ihnen innewohnenden Eigenschaften ermöglicht. Diese innewohnende Eigenschaft, sich kurzfristig im Verhalten und langfristig in der Struktur des Körpers ‚anpassen zu können‘, verbindet Edelman mit dem Begriff ‚Erkennung‘ (‚recognition‘), der gebunden ist an die Struktur eines ‚Gehirns‘. Die von Edelman gemeinte Form der Erkennung basiert nicht auf expliziten Instruktionen sondern auf ‚Selektion/ Auswahl‘, die sich im Rahmen des Verhaltens ergibt. Dieses Verhalten muss in Verbindung mit dem Gehirn von der Gehirnwissenschaft untersucht werden. (vgl. 81f)

  3. In der Umgebung, die Edelman für seine Tiere voraussetzt, gibt es Ereignisse, die ’neu‘ sind, ‚unvorhergesehen‘! Solche Ereignisse kann man nicht mit schon bekanntem Wissen oder bekannten Regeln bearbeiten. Edelman postuliert daher, dass ein System, das auf ‚Auswahl/ Selektion‘ basieren soll, in der Lage ist, vor neuen Ereignissen in der Umgebung intern, im System, ‚Varianten‘ bilden kann. Die bisherigen Forschungen zur embryonalen und anschließenden Entwicklung des Gehirns legen nahe, dass dieser Prozess der ‚Gehirnentstehung/ Gehirnwerdung‘ keine 1-zu-1 Kopie eines vorgegebenen Plans ist, sondern ein Realisierungsgeschehen umfasst, bei dem sich in einer Mischung aus Umgebungsreizen und Zufällen neue individuelle Strukturen ausbilden, so dass selbst eineiige Zwillinge über unterschiedliche Feinstrukturen verfügen. Damit liegen unterschiedliche Gehirne vor, die aufgrund ihres im Körper umgesetzten Verhaltens selektiert werden können. Solch eine Variabilität wird darüber hinaus nicht nur einmal, zu Beginn des Lebens eines Tieres benötigt, sondern während des ganzen Lebens. Wie kann ein Gehirn dies leisten? (vgl. S.82)
  4. Innerhalb der Verhaltensanforderungen benennt Edelman einige Verhaltenseigenschaften explizit, die das Gehirn zu leisten in der Lage sein muss: (i) ‚Kategorisierung‘ von Ereignissen in der Wahrnehmung — auch schon vor-sprachlich –, (ii) Kategorisierungen im Kontext des Gedächtnisses, (iii) Aufbau eines ‚Bewusstseins‘, (iv) Entwicklung von ‚Sprache‘. (vgl. S.82)
  5. Edelman formuliert dann – quasi zwischen drin – ein wissenschaftsphilosophisches Postulat, dass eine Theorie, die wissenschaftlich sein will, ausschließlich auf Prozessen und Ordnungen basieren muss, die in der physikalischen Welt (‚physical world‘) vorkommen. Und aus diesem wissenschaftsphilosophischen Postulat leitet er dann ein anderes wissenschaftsphilosophisches Postulat ab, dass nämlich eine wissenschaftliche Erklärung von ‚psychologischen‘ Prozessen aufzeigen muss, wie diese mit ‚physiologischen‘ Prozessen in Zusammenhang stehen.(vgl. S.82)

  6. Eine solche wissenschaftliche Theorie zur Erklärung des Zusammenhangs zwischen psychologischen und physiologischen Prozessen hat Edelman in der ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ formuliert. Diese Theorie wurde zudem speziell entwickelt, um das Problem des ‚Bewusstsein‘ (‚consciousness‘) in den Griff zu bekommen. (vgl. S.82f)

  7. Die beiden zentralen theoretischen Konzepte in der TNGS sind ‚TNGS Wiedereintritt‘ (‚TNGS reentry‘) und ‚Globales Abbilden‘ (‚global mapping‘). (vgl. S.83)

  8. Im Zusammenhang damit muss man die Evolution neuer Formen (‚morphologies‘) sowohl vom Körper als auch vom Gehirn berücksichtigen. (vgl. S.83)

  9. Solche neuen Formbildungen finden im wesentlichen in drei Phasen statt: (i) die Entstehung von Netzwerken von Neuronen während der Entwicklung; (ii) unterschiedliche Gewichtungen der Verbindungen unter dem Einfluss von Einwirkungen von außen (und innen); (iii) Bildung von neuronalen Karten, die untereinander durch Wiedereintrittsverbindungen verbunden sind. (vgl. S.83)
  10. Bezüglich der frühen Entstehung von Netzwerken von Neuronen während der Entwicklung (Pase 1) wiederholt er die Feststellungen von vorausgehenden Kapiteln. Die Kernbotschaft ist, dass die sich herausbildenden Netzwerke genetisch nur sehr grob vor-bestimmt sind. Jedes einzelne Gehirn ist in dieser Phase sehr individuell. Die in dieser Phase verfügbaren Funktionen des Gehirns bilden ein ‚erstes Repertoire‚. (vgl. S.83)
  11. Mit der beginnenden Interaktion der Neuronen untereinander und durch Ereignisse an den Rändern (sensorische Wahrnehmung, propriozeptive Ereignisse im Körper,…) (Phase 2) werden einige Verbindungen ‚gestärkt‘, andere bleiben schwach, und mit diesen ‚Stärkungen von Verbindungen‘ bilden sich ’neue Funktionen‘ heraus, die dann insgesamt das ‚zweite Repertoire‚ bilden. (Vgl. S.83-85)
  12. Dadurch dass neuronale Karten reziprok miteinander verknüpft sind (Phase 3) können die gleichen Ausgangsreize nicht nur parallel auf unterschiedliche Weise bearbeitet werden, sondern es ist auch möglich, dass sie sich im gleichen Zeitfenster wechselseitig beeinflussen und diese Signale in übergeordneten Karten zusammen geführt werden.(vgl. S.85)

  13. In Verbindung mit Gedächtnis (‚memory‘) sieht Edelman in diesen reziproken Karten nicht nur die Grundlage für Verhalten überhaupt sondern speziell auch für eine ‚Brücke‘ zwischen Physiologie und Psychologie. (vgl. S.85)
  14. An dieser Stelle führt Edelman nun – etwas überraschend – ‚neuronale Gruppen‚ (neuronal groups‘) ein als die eigentlichen Einheiten, die der ’neuronalen Selektion‘ unterliegen. Einzelne Neuronen eignen sich dafür schlecht, weil sie entweder nur ‚anregend‘ (‚excitatory‘) sind oder nur ‚hemmend‘ (‚inhibitory‘). Außerdem sendet ein einzelnes Neuron seine Synapsen zu vielen anderen Neuronen. Will man hier eine hinreichende Schärfe in der Adressierung realisieren, dann muss man viele Neuronen kombinieren, die sich in bestimmten Bereichen dann überlappen. Von daher können eigentlich nur ‚Gruppen von Neuronen‘ solche Anforderungen erfüllen und bieten sich von daher als natürliche Einheiten der Selektion an. (vgl. S.85-87)
  15. Edelman will diese Themen dann am Beispiel der ‚Kategorisierung in der Wahrnehmung‘ (‚perceptual categorization) weiter ausführen. Er verweist dabei auch auf das Postskript mit einem Abschnitt zur Kategorisierung (S.233f). In diesem Postskript-Abschnitt kritisiert er vor allem jene Positionen, die bei der Frage der Kategorien von festen Strukturen ausgehen, die auch als solche ‚repräsentiert werden. Mit Verweis auf Wittgenstein und einigen Psychologen argumentiert er für eine Sicht der Kategorisierung, die sich aus der direkten Interaktion mit der physischen Umgebung ergibt. Ausgehend von konkreten Beispielen bilden alle Individuen konkrete Kerne, die sich im Laufe der Zeit erweitern, überlagern, ergänzen können. Einige der Elemente in solchen induktiven-dynamischen Netzen sind dann ‚typischer‘ als andere. Zwischen den Elementen können einige ‚ähnlicher‘ sein als andere, ’näher dran‘, usw. Aufgrund des induktiv-beispielhaften Charakters dieser Bildungsprozesse sind diese Strukturen bei allen Individuen grundsätzlich verschieden.

  16. Das Phänomen der ‚Kategorisierung‘, das sich im Verhalten manifestiert (= Psychologie), gründet also in neuronalen Verschaltungen (= Physiologie), die im wesentlichen auf neuronale Karten (bestehend aus neuronalen Kernen) verweisen, die jeweils unabhängige Reize (Stimuli) empfangen, die aber aufgrund der reziproken Verbindungen sich innerhalb eines Zeitfensters wechselseitig bestärken. Mit anderen Worten, Eigenschaften A in der einen Karte werden zeitgleich mit Eigenschaften B in einer anderen Karte durch wechselseitige ‚Verstärkung‘ ’synchronisiert‘. Damit können verschiedene Eigenschaften zu einem Eigenschaftsbündel koordiniert werden. Je häufiger dies passiert, umso stärker wird diese Verbindung. Diese Synchronisierungsprozess können jederzeit mit beliebig vielen verschiedenen Karten passieren. Und, wie man erkennen kann, vollziehen sich diese Synchronisierungsprozesse nicht aufgrund eines ‚Supervisors höherer Ordnung‘, nicht aufgrund irgendwelcher ‚Instruktionen‘ von ‚außen‘, sondern aufgrund von physikalischen Außenweltereignissen (oder auch körperintern (propriozeptiv) erzeugte Ereignisse), die über Sensoren und neuronale Signalverarbeitung zu den Karten geleitet werden. Der Mechanismus der reziprok verschalteten Karten extrahiert aus diesen vor-verarbeiteten sensorischen (auch propriozeptiven) Signalen dann unterschiedliche Eigenschaften, die dann die ‚Bausteine für Kategorien‘ bilden. (vgl. S.87)

  17. Da es ja sehr viele neuronale Karten mit sehr vielen reziproken Verbindungen untereinander gibt, können die Ausgänge von bestimmten Karten auch auf die Eingänge von vorausgehenden ‚Verarbeitungsstufen‘ zurück geleitet werden, um die Verarbeitung auf diese Weise zu modifizieren, oder diese reziproke Verbindungen werden für höhere Verarbeitungen benutzt, oder, oder , … Die Vielfalt der hier möglichen wechselseitigen Beeinflussungen ist groß. Edelman verweist auf ein Computermodell, das RCI (‚reentrant cortical integration‘) Modell (das reziproke kortikale Integrationsmodell), in dem er diese Theorie modellhaft umgesetzt und getestet hatte. Details dazu hat er in seinem Buch ‚The Remembert Past‘ beschrieben).(vgl. S.87-89)

  18. Für die Kopplung des wahrgenommenen (perzeptuellen) Inputs eines Systems zu seinem Output (meist über Motorkomplexe), führt Edelman ferner noch ‚globale neuronale Karten‘ ein. Diese können den Output vieler lokaler neuronaler Karten zusammenfassen, integrieren, und damit komplexe Muster zur Steuerung von Motorkomplexen und damit dem beobachtbaren Verhalten nutzen. Zugleich können diese Outputs aber auch wieder rückgekoppelt werden auf den grundlegenden Input zum ‚(neuronalen) Vergleich‘, ob tatsächlich die ‚Wirkung‘ entsteht‘, die aufgrund des Outputs ‚(neuronal) erwartet‘ wird. Auf diese Weise kann die Gehirnwissenschaft (= Physiologie) eine neuronale Maschinerie anbieten, mit denen die Psychologie das äußerlich beobachtbare Verhalten ‚erklären‘ können.(vgl. S.87-89)

  19. An dieser Stelle führt Edelman den Aspekt des ‚angemessenen‘ Verhaltens ein, das aus Sicht der Evolution und ‚Fitness‘ ‚besser geeignet ist‘ als ein anderes. Da er den Aspekt des ‚Supervisors‘ zuvor schon ausgeschlossen hat und auch keine ‚vorgegebenen Instruktionen‘ zulassen will, ist hier nicht ganz klar, wie in diesen hochdynamische induktive Struktur genetische ‚Präferenzen für Verhalten‘ eingeführt werden können. Er postuliert hier ‚interne Kriterien (‚internal criteria of value‘) dafür, dass Verhaltensweisen ‚werthaft‘ sind. Diese internen, genetisch bedingten, Kriterien bestimmen nicht konkrete Werte, sondern sie ‚beschränken die Bereiche‘ (‚constrain the domains‘), in denen Kategorisierungen stattfinden. Und er sieht diese genetisch bedingten Beschränkungen besonders in jenen Bereichen des Gehirns verortet, wo lebenswichtige Funktionen reguliert werden. Explizit nennt er: Herzschlag, Atmung, sexuelle Reaktion, Ernährungsreaktion, Drüsenfunktionen (= Ausschüttung chemischer Signalstoffe zur Steuerung von Funktionen), autonome (‚autonomic‘) Reaktionen. Diese stark vor-geprägten Kategorisierungen soll sich in einem entsprechend lebensförderndem Verhalten manifestieren.(vgl. S.90f)

  20. Um diesen noch recht abstrakten Gedanken von ‚genetisch motivierter Präferenz‘ zu präzisieren berichtet Edelman von einem Computerexperiment ‚Darwin III‘, in dem im Rahmen des visuellen Systems solche neuronale Gruppen/ Karten ‚bevorzugt‘ wurden, die Licht verarbeiteten, das auf zentrale Bereiche des Auges traf. (vgl. S.91-93)

  21. Unklar bleibt hier, wie diese ‚Bevorzugung‘ (‚Präferenz‘) überhaupt in das System kommt, so, wie es bislang von Edelman geschildert wurde. In der weiteren Erklärung zeigt Edelman einen größeren Systemzusammenhang von einem Auge, einem Arm, und das ‚Erlernen‘, einem visuellen Reiz einer bestimmten Art zu folgen und es zu greifen. Hier wird deutlich, dass sehr viele Subsysteme sich miteinander koordinieren müssen, damit Kategorisierungsleistung und Bewegung ‚zusammen passen‘. Es gibt auch eine erste Idee, wie sich diese Subsysteme über reziproke Verbindungen wechselseitig induktiv beeinflussen können. Wie ein zusätzlicher genetisch motivierter Mechanismus der ‚Bevorzugung‘ in dieses System Eingang findet, bleibt aber weiter unklar.(vgl. S.93)

  22. Das ‚Präferenz (= Wert) System‘ (‚value system‘) ist klar zu unterscheiden von dem ‚Kategorisierung-System‘. Während das Kategorisierung-System induktiv über reziproke Karten arbeitet und darin ‚epigenetisch‘ wirksam ist, liegt das genetisch motivierte Präferenz-System dem epigenetischen Kategorisierung-System voraus. Edelman berichtet, dass im Computerexperiment, wenn man das Präferenz-System ‚heraus nimmt‘, dass dann das System nicht zum Ziel kommt. Damit postuliert er ein Axiom von der Notwendigkeit von Präferenz-Systemen für Kategorisierung-Systemen, ohne dass ganz klar wird, wie diese genetische motivierten Präferenzen in das System hineinkommen.(vgl. S.94)

  23. In den folgenden Abschnitten diskutiert Edelman diverse Kritiken an seiner TNSG Theorie und kommt auf den Seiten 96f nochmals explizit auf das genetisch motivierte Präferenz-System zurück, während er sich gegen Kritik von Crick verteidigt. Grundsätzlich sieht Edelman im Rahmen der Evolution zwei selektive Systeme: (i) das ‚Evolutive‘, das aufgrund der Selektion von Individuen durch Passung/ Nicht-Passung zur Umgebung stattfindet, und (ii) das ’somatische‘, das sich primär durch Passung/ Nicht-Passung der neuronalen Gruppen zu den Reizanforderungen. Das somatische System ist aber nicht isoliert/ neutral gegenüber den genetischen Vorgaben, die als Präferenzen (‚values‘) die Selektion von geeigneten neuronalen Gruppen und Verschaltungen mit steuern. Der Ansatzpunkt für eine Einwirkung der genetischen Präferenzen auf das somatische System ohne Direktiven im Details sieht er über die wechselseitigen Wirkungen von ‚Strukturen‘, die als solche ‚genetisch motiviert‘ sein können. Wie diese ‚Motivierung bestimmter Strukturen‘ stattfinden kann, ohne den induktiven Prozesse zu stören, ist nicht ganz klar geworden.(vgl. SS.94-97)

DISKUSSION FORTSETZUNG: HIER KAP.9

  1. Die Verwendung des Ausdrucks ‚Erkennung/ Erkennen‘ (‚recogniton‘) in Nr. 2 erscheint mir sehr gewagt, da die übliche Verwendungsweise des Ausdrucks ‚Erkennung‘ ein menschliches Subjekt voraussetzt, das im Rahmen seines Bewusstseins und dem zugehörigen – weitgehend unbewussten – ‚Kognitiven System‘ die wahrgenommenen – äußerliche (Sinnesorgane) wie innerliche (Körpersensoren) – Ereignisse ‚interpretiert‘ auf der Basis der ‚bisherigen Erfahrungen‘ und im Rahmen der spezifischen Prozeduren des ‚kognitiven Systems‘. Das von Edelman unterstellte ’selektive System‘ bezieht sich primär auf Strukturen, die sich ‚evolutiv‘ ausbilden oder aber ’somatisch‘ auf die Arbeitsweise des Gehirns, wie es sich im ‚laufenden Betrieb‘ organisiert. Das somatische System ist aber Teil des weitgehend ‚unbewussten kognitiven Systems‘, das in der alltäglichen Verwendung des Begriffs ‚Erkennung‘ ohne jegliche Bezugnahme auf die Details der Maschinerie einfach voraussetzt wird. Im Alltag liegt hier die Aufspaltung der Wirklichkeit in den bewussten Teil und den unbewussten vor, dessen wir uns – normalerweise – im alltäglichen ‚Vollzug‘ nicht bewusst sind (daher ja ‚unbewusst‘). Wenn Edelman also hier einen Ausdruck wie ‚Erkennung‘ aus dem ‚bewussten Verwendungszusammenhang‘ einfach so, ohne Kommentar, für einen ‚unbewussten Verwendungszusammenhang‘ benutzt, dann kann dies nachfolgend zu nachhaltigen Verwirrungen führen.

  2. Der Punkt (3) von Edelman ist absolut fundamental. An ihm hängt alles andere.

  3. Der Punkt (4) spiegelt ein anderes fundamentales Verhältnis wieder, das Edelman immer und immer wieder thematisiert: das Verhältnis von Psychologie (die Wissenschaft vom Verhalten) und Physiologie (die Wissenschaft vom Körper, speziell vom Gehirn). Alle Eigenschaftszuschreibungen, die die Psychologie vornimmt (wie z.B. mit dem Ausdruck ‚Intelligenz‘, ‚Intelligenzquotient‘, ‚Reflex‘, usw.), basieren auf empirischen Beobachtungen von realem Verhalten von realen Menschen, die dann im Rahmen expliziter (formaler = mathematischer) Modelle/ Theorien in Beziehungen eingebracht werden. Die Psychologie schaut nicht (!) in das ‚Innere‘ des Systems. Das tut die Physiologie. Die Physiologie untersucht die Struktur und die Dynamik des Körpers; dazu gehört auch das Gehirn. Und auch die Physiologie sammelt empirische Daten von den Körperprozessen (z.B. wie ein Neuron zusammengesetzt ist, wie es physikalisch, chemisch, mikrobiologisch usw. funktioniert) und versucht diese empirische Daten in explizite Modelle/ Theorien einzubauen. Im Idealfall haben wir dann eine psychologische Theorie T_psych über beobachtbares Verhalten mit theoretisch unterstellten möglichen Faktoren ‚hinter‘ dem Verhalten, und parallel eine physiologische Theorie T_phys über körperinterne Prozesse, die die verschiedenen Einzelbeobachtungen in einen ‚Zusammenhang‘ bringen. Was wir aber NICHT haben, das ist eine Erklärung des Zusammenhangs ZWISCHEN beiden Theorien! Die Gegenstandsbereiche ‚beobachtbares Verhalten‘ und ‚beobachtbare Körperprozesse‘ sind zunächst voneinander völlig abgeschottet. Spontan vermutet man natürlich, dass es zwischen Gehirnprozessen, hormonellen Prozessen, Atmung usw. und dem beobachtbaren Verhalten einen Zusammenhang gibt, aber diesen Zusammenhang EXPLIZIT zu machen, das ist eine eigenständige Leistung mit einer ‚Brückentheorie‘ T_physpsych(T_phys, T_psych), in der dieser Zusammenhang ausdrücklich gemacht wird. Es gibt dazu sogar Ausdrücke wie ‚Psychosomatik‘, ‚Neuropsychologie‘, aber die dazu gehörigen Texte kommen bislang nicht als explizite ‚Brückentheorie‘ daher. Und wenn Edelman hier ausdrücklich die Ausdrücke ‚Wahrnehmung, ‚Gedächtnis‘, ‚Bewusstseins‘, ‚Sprache‘ nennt, dann handelt es sich ausnahmslos um hochkomplexe Sachverhalte, zu denen es bislang keine hinreichende psychologische Theorien gibt, wenngleich beeindruckende Forschungen und Forschungsansätze. Festzustellen, dass eine physiologische Theorie des Gehirns Erklärungsansätze liefern müsse, wie diese psychologischen Phänomene zu ‚erklären‘ sein ist folgerichtig, aber aktuell schwierig, da die Psychologie diese Phänomene noch keineswegs zweifelsfrei abklären konnte. Am weitesten fortgeschritten sich möglicherweise die psychologischen Forschungen zur ‚Wahrnehmung‘, zum ‚Gedächtnis‘, und irgendwie zu ‚Sprache‘, kaum zu ‚Bewusstsein‘ und dem Verhältnis zum ‚Unbewussten‘.

  4. Die beiden in (5) aufgeführten metatheoretischen (= wissenschaftsphilosophischen) Postulate sind so, wie sie Edelman formuliert, mindestens missverständlich und darum Quelle möglicher gravierender Fehler. Die Verortung von wissenschaftlichen Aussagen in der ‚physikalischen‘ Welt und von speziell psychologischen Aussagen in den ‚physiologischen Prozessen des Körpers‘ sind als solche sicher kompatibel mit dem bisherigen Verständnis von empirischer Wissenschaft generell. Allerdings, wie gerade im vorausgehenden Punkt (C) dargelegt, gibt es empirische Datenbereiche (hier: Verhaltensdaten, Körperprozesse), die direkt zunächst nichts miteinander zu tun haben. Die auf diesen unterschiedlichen Datenbereichen beruhenden Modell-/ Theoriebildungen sind von daher zunächst UNABHÄNGIG voneinander und haben ihre wissenschaftliche Daseinsberechtigung. Zu wünschen und zu fordern, dass zwei zunächst methodisch unabhängige Modelle/ Theorien T_psych und T_phys miteinander in Beziehung gesetzt werden, das liegt ‚in der Natur des wissenschaftlichen Verstehenwollens‘, aber dies wäre eine zusätzliche Theoriedimension, die die beiden anderen Teiltheorien VORAUSSETZT. Dieser methodisch-logische Zusammenhang wird in der Formulierung von Edelmann nicht sichtbar und kann dazu führen, dass man eine wichtige Voraussetzung der gewünschten Erklärungsleistung übersieht, übergeht, und damit das Ziel schon im Ansatz verfehlt.

  5. Dass – wie in (6) behauptet – die ‚Theorie der neuronalen Gruppen Selektion (TNGS)‘ jene Erklärung liefere, die die psychologischen Theorien ‚erklärt‘ ist von daher methodisch auf jeden Fall falsch. Allerdings kann man die Position von Edelman dahingehend verstehen, dass die TNGS ein physiologisches Modell liefere (was die große Schwäche besitzt, dass weder der übrige Körper, von dem das Gehirn nur ein verschwindend kleiner Teil ist, noch die jeweilige Umgebung einbezogen sind), das im Rahmen einer T_physpsych-Brückentheorie entscheidende Beiträge für solche einen Zusammenhang liefern könnte. Letzteres scheint mir in der Tat nicht ganz ausgeschlossen.

  6. In den Punkten (7) – (12) beschreibt Edelman drei Phasen der Strukturbildung, wie es zu jenen physiologischen Strukturen kommen kann, die dann – unterstellt – dem beobachtbaren Verhalten ‚zugrunde‘ liegen. Allerdings, für das aktuell beobachtbare Verhalten spielen die verschiedenen Entstehungsphasen keine Rolle, sondern nur der ‚Endzustand‘ der Struktur, die dann das aktuelle Verhalten – unterstellt – ‚ermöglicht. Der Endzustand ist das Gehirn mit seinen neuronalen Verschaltungen, seinen Versorgungsstrukturen und seiner anhaltenden ‚Plastizität‘, die auf Ereignismengen reagiert. Aus den Punkten (7) – (12) geht nicht hervor, wo und wie diese Strukturen das ‚Bewusstsein erklären‘ können.

  7. Wenn Edelman in (13) meint, dass seine neuronalen Karten mit den reziproken Verbindungen eine Grundlage für das psychologische Konzept des Gedächtnisses liefern können, dann ist dies sicher eine interessante Arbeitshypothese für eine mögliche Brückentheorie, aber die müsste man erst einmal formulieren, was wiederum eine psychologische Theorie des Gedächtnisses voraussetzt; eine solche gibt es bislang aber nicht.

  8. Der Punkt (14) adressiert mögliche Details seiner Modellvorstellung von neuronalen Karten mit reziproken Verbindungen.

  9. Der Punkt (15) greift das Thema von Punkt (13) nochmals auf. Die ‚Kategorisierung von Wahrnehmungsereignissen‘ ist letztlich nicht von dem Thema ‚Gedächtnis isolierbar. Er zitiert im Postskript auch viele namhafte PsychologenInnen, die dazu geforscht haben. Die Kerneinsicht dieser empirischen Forschungen geht dahin, dass sich solche Strukturen, die wir ‚Kategorien‘ nennen, ‚dynamisch‘ herausbilden, getriggert von konkreten Wahrnehmungsereignissen, die bei jedem individuell verschieden sind. Natürlich liegt hier die Vermutung nahe, dass entsprechend dynamische Strukturen im Körper, im Gehirn, vorhanden sein müssen, die dies ermöglichen. Dass hier Psychologie und Physiologie Hand-in-Hand arbeiten können, liegt auch auf der Hand. Aber dies stellt erhebliche methodische Herausforderungen, die Edelman kaum bis gar nicht adressiert.

  10. In Punkt (16 – 18) beschreibt Edelman auf informelle Weise, wie er sich das Zusammenspiel von psychologischen Eigenschaften (die eine explizite psychologische Theorie T_psych voraussetzen) und seinem neuronalen Modell (für das er eine physiologische Theorie T_phys beansprucht) vorstellt. Auf dieser informellen Ebene wirkt seine Argumentation zunächst mal ‚plausibel‘.

  11. Ab Punkt (19) berührt Edelman jetzt einen weiteren Fundamentalpunkt, der bis heute generell ungeklärt erscheint. Es geht um die Frage der ‚Werte‘, die ein Verhalten in einem gegeben Möglichkeitsraum in eine bestimmte ‚Richtung‘ anregen/ drängen …. (es gibt dafür eigentlich kein richtiges Wort!), so dass das System einem neuen Zustandsraum erreicht, der für es ‚günstiger‘ ist als ein anderer, auf jeden Fall ‚das Leben ermöglicht‘. Die Evolutionstheorie hat über das Phänomen der hinreichenden ‚Nachkommen‘ ein ‚operationales Kriterium‘ gefunden, mit dem sich der Ausdruck ‚Fitness‘ mit Bedeutung aufladen lässt. Über das ‚Überleben‘ bzw. ‚Nicht-Überleben‘ wirkt sich dies indirekt auf den Genotyp aus: die ‚günstigen‘ Genotypen überleben und die ’nicht günstigen‘ sterben aus. Ein ‚überlebender‘ Genotyp – einen, den man ‚fit‘ nennt – triggert dann den embryonalen Prozess und den darin gründenden ‚Entwicklungsprozess‘, der in einer ’nicht-deterministischen‘ Weise Körper- und damit Gehirnstrukturen entstehen lässt, die auf individueller Ebene immer verschieden sind. Jene Gehirnstrukturen, die für lebenserhaltende Systeme wichtig sind (letztlich die gesamte Körperarchitektur und das Zusammenspiel aller Komponenten untereinander) werden aber – trotz des nicht-deterministischen Charakters – offensichtlich dennoch herausgebildet. In all diesem lässt sich kein ‚geheimnisvoller Faktor‘ erkennen und er erscheint auch nicht notwendig. Das System ‚als Ganzes‘ repräsentiert ein ‚Erfolgsmodell‘. Hier jetzt – wie Edelman es versucht – im konkreten Details nach ‚Orten von Präferenzen‘ zu suchen erscheint unplausibel und seine Argumentation ist auch nicht schlüssig. Wenn Edelman ‚interne Kriterien für werthaftes Verhalten‘ postuliert, die genetisch bedingt sein sollen, dann postuliert er hier Eigenschaften, die sich nicht aus der Biochemie der Prozesse herauslesen lassen. Was er hier postuliert ist so eine Art von ‚genetischem Homunculus‘. Damit widerspricht er letztlich seinen eigenen wissenschaftlichen Überzeugungen. Letztlich ist es nur ein ‚Genotyp als ganzer‘, der ein ‚bislang erfolgreichen Phänotyp‘ repräsentiert. Scheiter er irgendwann – was auf lange Sicht der Normalfall ist, da die Erde sich ändert –, dann verschwindet der Genotyp einfach; jener, der ‚überlebt‘, verkörpert als ‚Ganzer‘ ein Erfolgsmodell, nicht ein einzelner, isolierter Aspekt. Mit dieser empirisch-wissenschaftlichen Sicht verschwinden die ‚Werte‘ zwar ‚aus dem System‘, aber das übergeordnete ’system-transzendente‘ Verhältnis zwischen System und Umwelt bleibt weiter erhalten und es ist dieses Verhältnis, das alleine darüber entscheidet, ob etwas ‚Leben-Ermöglichendes‘ ist oder nicht. Damit erweitert sich die Fragestellung nach der ‚Verortung möglicher Präferenzen‘ deutlich, wenn man das empirisch neue Phänomen des Bewusstseins einbezieht (das nur in Kombination mit einem Unbewussten auftritt!). Während die Umwelt-System-Beziehung primär über das Überleben entscheidet, ermöglicht das Bewusstsein in Kombination mit dem Unbewussten (z.B. dem Gedächtnis) eine ‚Extraktion‘ von Eigenschaften, Beziehungen, Dynamiken und mit kombinatorischen Varianten von dieser Umwelt-System-Beziehung, so dass eine kommunizierende Gruppe von Homo sapiens Exemplaren von nun an mögliche Zukünfte schon in der Gegenwart bis zu einem gewissen Graf ‚voraus anschauen‘ und auf ‚Lebensfähigkeit‘ ‚testen‘ kann. Insofern stellt das Bewusstsein und die Kommunikation eine radikale Erweiterung der Überlebensfähigkeit dar, nicht nur für den Homo sapiens selbst, sondern auch für die Gesamtheit des biologischen Lebens auf der Erde! Mit dem Ereignis Homo sapiens tritt das biologische Leben auf der Erde (und damit im ganzen Universum!?) in eine radikal neue Phase. Edelmans Versuch, ‚Werte‘ in einzelnen genetischen Strukturen und dann in einzelnen Strukturen des Gehirns zu finden wirken von daher unlogisch und abwegig. Edelmans Beispiele in den Punkten (20) – (23) können nicht klarmachen, wie diese interne Präferenzsystem funktionieren soll (ich werde diesen Punkt an konkreten Systemen nochmals selbst durchspielen).

  12. Zusammenfassend würde ich für mich den Text von Edelman so interpretieren, dass (i) seine Skizze der neuronalen Maschinerie mit den reziproken Verbindungen und den unterschiedlichen Verschaltungen ganzer Karten ein interessanter Ansatzpunkt ist, für ein neuronales Modell, das in einer psychologisch-physiologischen Brückentheorie getestet werden könnte und sollte, sein Versuch aber (ii), die Wertefrage in biochemische Prozesse verorten zu wollen, ist in mehrfachem Sinne unplausibel, methodisch unklar und führt vom Problem eher weg.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’, Teil 3: Kap.4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
17.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

ÜBERSICHT

In Fortsetzung der vorausgehenden Teile 1 und 2 wird hier das Kap.4 besprochen. In ihm beschreibt Stace die Entstehung des modernen wissenschaftlichen Weltbildes am Beispiel der Astronomie. Bei genauerem Hinsehen kann man schon hier die ’Bruchstelle’ erkennen, wo heute (mehr als 60 Jahre nach Staces Buch) eine ’Wiedervereinigung’ von Wissenschaft und ’Moral’ (oder gar ’Religion’) nicht nur möglich, sondern geradezu ’notwendig’ erscheint.

I. KAPITEL 4

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes
Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Entstehung der neuzeitlichen Wissenschaft

Die Entstehung der neuzeitlichen Wissenschaft ist eine langwierige und – wenn man sie voll aufschreiben wollte – eine komplexe Geschichte, die sich, je mehr man sich der Gegenwart nähert, in immer mehr Verfeinerungen aufspaltet und heute den Charakter einer ’großen Unübersichtlichkeit’ hat. Stace konzentriert sich auf ein Thema, lange Zeit das Hauptthema schlechthin, die ’Astronomie’, die Himmelskunde, und entwirft anhand der führenden Wissenschaftler dieser Zeit (15.Jh bis 20.Jh, kleine Rückblicke bis in die klassische Griechische Periode) holzschnittartig ein Bild der Entstehung des Neuen.

Ein Hauptcharakteristikum des neuen wissenschaftlichen Weltbildes ist der Übergang vom dominierenden ’geozentrischen Weltbild’ (die Erde als Mittelpunkt von allem) zum ’heliozentrischen Weltbild’ (die Erde dreht sich um die Sonne; die Sonne ist nicht mehr der einzige Bezugspunkt).

Vorgeschichten sind üblich

Für den Charakter von Weltbildern, die eine Kultur, eine ganze Epoche beherrschen, ist es bezeichnend, dass viele der wichtigen Grundüberzeugungen nicht einfach so ’vom Himmel gefallen sind’, sondern einen meist viele hundert Jahre andauernden ’Vorlauf’ haben, bisweilen tausende von Jahren. So auch im Fall der Diskussion ob ’geozentrisch’ oder ’heliozentrisch’. Schon lange vor dem Beginn der modernen Diskussion um ’geozentrisch’ oder ’heliozentrisch’, nämlich ca. 1800 Jahre (!) vor Kopernikus, gab es zwei griechische Mathematiker und Astronomen (Aristarch von Samos (um -310 bis um -230) und Seleukos von Seleukia (um -190 bis vor -135) ) die aufgrund ihrer Beobachtungen und Berechnungen ein klares heliozentrisches Weltbild vertraten. Für den damaligen ’Main Stream’ war das aber so ’unglaubwürdig’, dass Aristarch in die Rolle eines ’Ketzers’ gerückt worden sein soll, den man wegen ’Gottlosigkeit’ anklagen müsse.

Die Wiederkehr dieses Musters im Fall von Galileo Galilei und noch lange nach ihm (in manchen Teilen von religiösen Strömungen bis in die Gegenwart) mag als Indiz dafür gesehen werden, dass ’herrschende Weltanschauungen’ in ihrem eigenen Selbstverständnis, in ihrer Selbstbegründung, die Tendenz haben, sich ohne wirkliche Begründung ’absolut zu setzen’. Auf den ersten Blick erscheint solch ein Verhalten als ’Schutz der bestehenden Ordnung’, aber bei längerer Betrachtung ist dies ein gefährliches Spiel mit der Wahrheit, das eine ganze Kultur in die Irre und dann in den Abgrund führen kann. ’Sicherheit’ ist kein Ersatz für ’Freiheit’ und ’Wahrheit’.

Die Theoretiker

Bezeichnend für die Entwicklung von etwas Neuem ist auch, dass es letztlich nicht die ’Praktiker’ waren, nicht die ’Datensammler’, durch die das ’Neue’ sichtbar wurde, sondern eher die ’Theoretiker’, also jene Menschen, die über all die vielen ’Phänomene’ ’nachgedacht’ haben, nach irgendwelchen ’Regelhaftigkeiten’, ’Muster’ Ausschau gehalten haben, und die dies letztlich auch nur geschafft haben, weil sie in der Lage waren, die wichtigste Sprache der Menschheit zu benutzen, die es gibt, die Sprache der Mathematik. Kopernikus, Kepler, Galileo, Descartes, Huygens, Newton, Laplace – dies waren Menschen mit einer starken, primären Bildung in Mathematik. Ohne die mathematischen Kenntnisse hätten sie niemals die neue Sicht der Welt entwickeln können.

Andererseits, das gilt auch, ohne die Daten eines Tycho Brahe oder ohne bessere Messgeräte (z.B.Fernrohr), die Handwerker (und heute Ingenieure) bauen und gebaut haben, gäbe es auch nicht die Daten, die Fakten, anhand deren die Theoretiker jene Muster herauslesen konnten, die sie dann in der Sprache der Mathematik soweit ’idealisieren’, ’veredeln’ konnten, dass daraus die neuen unfassbaren Sichten entstanden, mit denen wir auch heute noch die Wirklichkeit um uns herum, das ’Rauschender Phänomene’ gedanklich sortieren, filtern, so neu anordnen können, dass wir darin und dadurch weitreichende Strukturen und Dynamiken erkennen können, die Jahrtausende unsichtbar waren, obwohl sie schon Milliarden Jahre da waren und wirkten.

Politisch Inkorrekt …

Während Kopernikus Zeit seines Lebens nur Ausschnitte aus seinem Hauptwerk ’De revolutionibus orbium coelestium’ veröffentlichte, da er damit rechnen konnte, von der Kirche als Ketzer angeklagt zu werden (der volle Text also erst 1543 erschien), legte sich Galileo Galilei (1564 – 1642) schon zu Lebzeiten mit den Vertretern der Kirche an und bewegte sich immer nah vor einer vollen Verurteilung als Ketzer mit dem dazugehörigen Tod durch Verbrennen.

Theoriebildung – Ein Muster

An der Theoriebildung von Galileo wird eine Eigenschaft sichtbar, die sich auch bei allen späteren wissenschaftlichen Theorien finden wird. Es ist das Moment der ’kreativen Irrationalität’, wie ich es mal nennen möchte. Dieses Moment findet sich in jeder wissenschaftlichen Theorie, und zwar notwendigerweise (Was heute gerne übersehen oder verschwiegen wird.). Seine Experimente zur Bewegung mit Körpern führten ihn zur Formulierung seines ersten Bewegungsgesetzes (das sich später auch in Newtons Hauptwerk ”Philosophiae Naturalis Principia Mathematica” als Teil seiner Mechanik findet) . Es besagt letztlich, dass kräftefreie Körper entweder in Ruhe bleiben oder sich geradlinig mit konstanter Bewegung bewegen (vgl. Stace (1952) [1]:64ff). Als ’Gesetz’ kann man diese Aussage nicht beweisen, man kann nur aufgrund von ’endlichen Daten’ eine ’Vermutung’ äußern, eine ’Hypothese’ formulieren, dass die bekannten Beispiele einen ’Wirkzusammenhang’ nahelegen, der sich eben auf die zuvor formulierte Weise beschreiben lässt. Solange dieser ’hypothetische Wirkzusammenhang’ sich im Experiment ’bestätigt’, so lange ist dieses Gesetz ’gültig’. Es kann im Laufe der Zeit aber auch durch neue, bisweilen ’feinere’ Beobachtungen, in ’Frage gestellt’ werden und dann –was oft geschehen ist – durch neue Formulierungen abgelöst werden.

Wichtig ist die grundlegende Figur, die sich hier zeigt: (i) Es gibt aktuell Phänomene (meistens aus der Vergangenheit), die man ’erklären möchte. Noch fehlen passende ’Regeln’. (ii) Aufgrund eines kreativen, irrationalen Denkprozesses entstehen ’Bilder von möglichen Mustern/ Regeln’, die mit den bekannten Phänomenen so ’passen’, dass man mit diesen Regeln das Auftreten der Phänomene so ’erklären’ kann, dass man ’zukünftige Phänomene’ voraussagen kann. (iii) Man erhebt diese kreativ gewonnenen Regeln in den Status von offiziellen ’Arbeitshypothesen’. (iv) Man macht Experimente mit diesen Arbeitshypothesen und ’überprüft’, ob die Arbeitshypothesen auch bei neuen, zukünftigen Phänomenen ’gültig’ bleiben. (v) Solange sich keine’ widersprüchlichen Befunde’ ergeben, gelten die Arbeitshypothesen als akzeptierte Regel.

Kreativität ist Fundamental – Logik Sekundär

Anders formuliert, mittels eines ’kreativen irrationalen’ Denkprozesses gewinnt man aus gegebenen Phänomenen ’induktiv’/ ’bottom-up’ mögliche ’erklärende Hypothesen’. Sofern man diese hat, kann man ’deduktiv’/ ’top-down’ gezielt Experimente durchführen, um die ’Gültigkeit’ dieser Arbeitshypothese zu überprüfen. Arbeitshypothesen kann man aber ’nicht logisch beweisen’, da dies voraussetzen würde, dass man  über eine noch ’allgemeinere’ Hypothese verfügt, aus der man eine ’speziellere’ Hypothese ableiten kann (So hat sich gezeigt, dass man z.B. die drei Planetengesetze von Kepler durch das spätere Gravitationsgesetz von Newton
als ’Spezialfall’ ’ableiten’ kann). Das menschliche Gehirn verfügt aber als solches nicht ’von vornherein’ (nicht ’a priori’) über irgendwelche allgemeinen Gesetze. Das Gehirn scheint aber sehr wohl in der Lage zu sein, anscheinend beliebig viele (genauer Umfang ist unbekannt) ’Regelmäßigkeiten’, sofern sie sich anhand von Phänomenen zeigen, zu erkennen und weiter zu ’verallgemeinern’. Die Geschichte zeigt, dass das ’Zusammenwirken’ von vielen Gehirnen einerseits den einzelnen bei weitem übertreffen kann, ohne allerdings — andererseits — die kreativ-irrationale Kraft des einzelnen dadurch zu ersetzen. Es bleibt immer ein spannungsvolles Wechselspiel von individueller Kreativität und kulturellem Main-Stream. Individuelle Abweichungen werden eher nicht toleriert, werden eher an die Seite gedrückt. Der ’aktuelle’ Erfolg wirkt stärker als der ’vermeintliche’. Insofern sind Kulturen große ’Echokammern’, die beständig in Gefahr sind, sich selbst zu lähmen.

Entzauberung – Entmystifizierung

Kopernikus, Galileos Fernrohr und Bewegungsgesetze, Keplers Planetengesetze, Newtons Mechanik samt dem Gravitationsgesetz, dies alles verhalf dem Denken durch neue Erklärungsmuster und unter Einsatz der mathematischen Sprache, zu einer Sicht der Dinge, die ein direktes Eingreifen ’anderer Mächte’ oder ’Gottes’ überflüssig erscheinen liesen. Im Fall von Newton ist aber zu beobachten, dass er trotz so großartiger Erklärungserfolge ’in seinem Innern’ noch eine Vorstellung von ’Gott’ hatte, die ihn dazu verleitete, einige Unregelmäßigkeiten bei den Planetenbahnen, die er nicht mit seinen Formeln erklären konnte, dann doch einem ’direkten Wirken Gottes’ zuzuschreiben. (vgl. Stace (1952) [1]:69ff) Es war dann Laplace, der die Unregelmäßigkeiten mathematisch einordnen konnte und der mit einer eigenen Theorie zur Entstehung der Sterne (bekannt als ’Nebularhypothese’) sogar meinte, er habe damit die Annahme Gottes als notwendiger erster Ursache ’erledigt’.

QUELLEN
[1] W. Stace, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980
from Lippincott and Crowell, Publishers.

Eine Fortsetzung findet sich HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

 

 

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’ Teil 2: Kap.3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
10.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

ÜBERBLICK

Der Philosoph W.T.Stace ist in diesem Blog bekannt durch die Besprechung seines Buches ’Mysticism and Philosophy’ [1]. Er hatte aber schon 1952 [2] ein interessantes Buch veröffentlicht, in dem er den Übergang vom mittelalterlich-religiösen Weltbild zum modernen, von der Wissenschaft geprägten Weltbild, skizziert hatte. Dies ist im Jahr 2018 von besonderem Interesse, da wir zur Zeit erleben, wie das wissenschaftliche Weltbild sich selbst in eine tiefe Krise stürzt und die ’unverdauten Reste’ vor- wissenschaftlicher Weltbilder wieder erstarken. Krisen können bedrohlich wirken, sie können zerstörerisch sein, sie können aber auch als Chance begriffen werden, die Mängel des bisherigen wissenschaftlichen Weltbildes besser zu verstehen. Letzteres kann möglicherweise der Ausgangspunkt für eine ’Erneuerung’ des wissenschaftlichen Denkens bilden, das seine Schwächen durch ein verbessertes Selbstverständnis überwinden kann. Im Teil 2 wird Kap.3 besprochen (In Teil 1 wird fehlerhaft von Kap.1-3 gesprochen; tatsächlich waren es Kap.1-2)

I. KAPITEL 3

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch]{Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch
Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

In diesem Kapitel 3 kontrastiert Stace das mittelalterliche (christliche) mit dem neuzeitlich- wissenschaftlichen Denken zu den Themen ’Gott als letzte Ursache’, ’Teleologisches Ziel der Welt’ und ’Moralische Ordnung (Werte)’ (vgl. das Schaubild 1).

Während das mittelalterlich-christliche Denken von einer bestehenden moralischen Ordnung ausgeht, die in einer alles umfassenden Absicht eingebettet ist, die letztlich auf einen alles ermöglichenden ’Gott’ zurückgeht, beginnt spätestens im 16.Jahrhundert eine neuzeitlich-wissenschaftliche Sicht der Welt Raum zu greifen. In dieser auf nachweisbaren kausalen Beziehungen gründenden Sicht relativieren sich alle Dinge zu überschaubaren kausalen Netzwerken; Aussagen über Eigenschaften und Beziehungen, die über das direkt Kausal-Nachweisbare hinausgehen verlieren ihre Akzeptanz. ’Werte’ werden zurück gebunden an konkrete Menschen und deren individuellen Befindlichkeiten, die man als ’relativ’ betrachtet, nicht mehr ’absolut’. Die Ausdehnung auf größere ’Gruppen’ (Stämme, Völker, …) hebt die grundlegende Relativität nicht auf.

Eine schwer kontrollierbare Wendung bringen Vorstellungen von einer ’kosmischen Absicht’, einem ’universellen Geist’, sofern diese sich nur ’indirekt (immanent)’ manifestieren, womöglich noch verschattet von unserem Un-Bewussten, das einen viel größeren Bereich unseres Körpers abdeckt als der bewusste.

II. DISKURS

Die klare Konturierung von mittelalterlich-christlichem und neuzeitlich-wissenschaftlichem Denken zu den genannten Themen geht – wie Stace selbst bemerkt – auf Kosten von Genauigkeit und vielen Details. Ohne die vielen Fragen, die sich hier stellen, schon zu diskutieren (siehe nachfolgende Teile), sei nur auf folgende Punkte hingewiesen.

A. Gefühle

Gefühle sind streng genommen nicht einfach ’subjektiv’, sondern haben in der Regel ’objektive Ursachen’, die auf objektive Prozesse verweisen. Manche dieser Prozesse sind komplexer Natur und erschließen sich erst bei der Analyse von ’Zeitreihen’.

In neueren Spielarten der christlichen Spiritualität und Mystik quasi parallel zum Entstehen des neuzeitlichen Denkens war eine solche Sicht üblich (z.B. in der Spiritualität des Jesuitenordens). Die Hintergrundannahme, dass es einen ’Gott’ gibt, war das mittelalterliche Erbe. Durch die Verknüpfung mit einem empirischen Erfahrungsansatz des eigenen Fühlens, wodurch Gott mit Menschen direkt interagieren kann, nicht ’kausal-deterministisch’, sondern ’kausal-nicht deterministisch’ (’sine cause’), in Abstimmung mit anderen Menschen und dem übrigen Weltwissen, veränderte sich aber der zuvor unnahbar transzendente Begriff Gottes zu einem nahbaren, partiell empirisch kontrollierbaren Begriff. Diese eigentlich revolutionäre Veränderung der christlichen Spiritualität wurde aber bis heute dadurch verdeckt, dass die kirchliche hierarchische Autorität mit ihrer papalen Verfassung die Anerkennung von individuellen Erfahrungen als ’heilsrelevant’ grundsätzlich verweigert. Dies ergibt sich nicht nur aus dem kirchenrechtlich fixierten Sachverhalt, dass alle offiziellen spirituellen Gemeinschaften dem jeweiligen Papst einen absoluten Gehorsam schulden, sondern grundlegend aus der kirchlichen Lehre, dass es nach dem Tod Jesu keine neuen öffentlichen Offenbarungen Gottes mehr geben wird.

(Anmerkung 2: Im offiziellen Text des II.Vatikanischen Konzils von 1965 lautet die Formel dazu ”… et nulla iam nova revelation publica expectanda est ante gloriosam manifestationem Domini nostri Iesu Christi”.(Siehe: [3], Kap.1, Nr.4) )

 

B. Kausale Erklärungen

Sosehr das neuzeitliche wissenschaftliche Denken mit der Vorstellung verknüpft wird, dass seit Galileo und Newton (um nur die prominentesten Namen zu nennen), das wissenschaftliche Denken ein ’kausales Denken’ sei, das sich in jedem Einzelfall empirisch bestätigen lassen können soll, so falsch, oder zumindest ’grob vereinfachend’ ist diese Ansicht.

Was die moderne empirischen Wissenschaften haben, das ist eine klare Trennung zwischen ’Messwerten’ und ’interpretierenden Modellen’. Damit einher geht aber auch die wachsende Einsicht, dass es keinen irgendwie gearteten Automatismus gibt, um von Messwerten zu einem geeigneten interpretierenden Modell zu kommen. Rein formal ist die Menge der möglichen Modelle quasi unendlich. Nur durch die Rückkopplung des unendlich formalen Raumes an ein konkretes, endliches Gehirn mit meist endlich vielen, sehr überschaubaren Vorstellungsmustern zum Zeitpunkt der Theoriebildung, verringert den Raum des ’Denkbaren’ dramatisch; doch ist dieser reduzierte Denkraum immer noch ’groß’.

Welches nun tatsächlich ein ’angemessenes Modell’ ist, das sich experimentell ’bestätigen’ lässt, dafür gibt es keine absolute Kriterien, sondern muss ’ausprobiert’ werden (’trial and error’). Dass es hier zu schweren Fehlern kommen kann, hat die Geschichte mehrfach eindrucksvoll gezeigt, und liegt auch in der Natur der Sache. Der einzige ’harte’ Referenzpunkt ist die ’erfahrbare Realität’, und diese ist, so wie wir sie vorfinden, inhärent ’unbekannt’, ’komplex’, ’mindestens endlich unendlich groß’. Kein menschlicher Forscher hat ’vorweg’ (’a priori’) ein irgendwie geartetes Wissen von dem großen Ganzen. Der Kampf um das ’Unbekannte’ erfordert höchsten Einsatz und ist ohne massiven und kreativen Einsatz von ’Fehlern’ (!) nicht zu gewinnen.

Wenn man also ein ’absolutes’ Wissen ablegt und sich auf das ’Objektive’ verlegen will, dann gerät man zunächst unweigerlich in das Fahrwasser von ’Relativität’. Andererseits, diese wissenschaftliche Relativität ist deutlich zu unterscheiden von ’Beliebigkeit’! Die Objektivität als primäre Form der Wirklichkeit für wissenschaftliche Erkenntnis wird letztlich als eine ’absolute Größe’ angenommen, die wir mit unseren beschränkten Mitteln aber nur häppchenweise erkenn können. Doch sind diese ’Häppchen’, sofern sie die unterstellte ’absolute Objektivität’ treffen, in diesem angenommenen Sinn auch ’absolut objektiv’, allerdings im Modus einer ’relativen Absolutheit’. Während man in einer allgemeinen Beliebigkeit nichts voraussagen kann, erlaubt eine ’relative Absolutheit’ (die wissenschaftliche Objektivität) weitreichende Voraussagen im Rahmen der Übereinstimmung mit der relativen Absolutheit und im Rahmen der Eigenart der erkannten Sachverhalte. Diese Bewegung von der relativen Absolutheit der aktuellen Erkenntnis zu einer immer ’absoluteren Absolutheit’ stellt keinen vollen Gegensatz dar zu  einem alles bestimmenden ’kosmischen Prinzip’.

Allerdings verwandelt die relative Absolutheit alle Menschen in gleicherweise Suchende. Grundsätzlich erlaubt diese Art der Erkenntnissituation keine ’absoluten Führer’, auch irgendwelche ’Klassen’ oder ’Kastenbildungen’ sind in diesem Kontext ’irrational’.

QUELLEN

[1] W. Stace, Mysticism and Philosophy, 1st ed. 2 Los Angeles (CA): Jeremy P.Tarcher, Inc., 1960.
——, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980 from Lippincott and Crowell, Publishers.
[3] H. S. Brechter and et.al, Eds., II. Vatikanisches Konzil. Dogmatische Konstitution über die Göttliche Offenbarung, 2nd ed. Freiburg – Basel – Wien: Herder Verlag, 1967.

Zur Fortsetzung geht es HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS KOPFTUCH – DIE EMOTIONEN – GLAUBEN, POLITIK UND DIE GEWOHNHEITEN. Ein Reflex zu einem Gespräch unter FreundenInnen

EIN ARTIKEL

  1. Vor fast drei Wochen gab es im Freundeskreis ein Gespräch, zu dem ein Artikel von Simon Jacob im Heft 8 (2016) der Zeitschrift CICERO Anlass gab.
  2. Aus meiner Sicht würde ich die Gedanken des Artikels zu folgenden Arbeitshypothesen umformulieren: (i) Angesichts der historischen Entwicklung und der heutigen Vielfalt gibt es nicht DEN Islam, sondern eine VIELFALT von Interpretationen des Islam. (ii) Für viele Menschen, die sich Muslime nennen, ist die Hauptquelle für ihr VERHALTEN nicht der Koran selbst, sondern es sind bestimmte KULTURELLE MUSTER, in denen sie leben. Sie glauben, dass die konkrete Art und Weise, wie sie leben, der Lehre des Korans entspricht. Dazu zählt nach Jacob das PATRIARCHAT. Ferner (iii) gibt es nach Jacob neben den kulturellen Muster MACHTINTERESSEN, die sich der Religion und der kulturellen Muster bemächtigen, sie instrumentalisieren, um sie für die eigenen politischen Ziele nutzbar zu machen. Und (iv) in Europa haben die Gesellschaften die direkte Bindung an die Lehren der Religionen aufgehoben, um dadurch quer zu ALLEN Religionen und für ALLE Menschen (auch die nichtreligiösen) einen gemeinsamen WERTERAUM zu ermöglichen, in dem ALLE ohne Gewalt friedlich und respektvoll miteinander leben können.
  3. Daraus folgert Jacob, dass eine Diskussion um die Rolle der Frauen in Deutschland NICHT so sehr mit Argumenten der islamischen Religion geführt werden sollte (was auch die freiheitlich-demokratische Grundordnung mit ihrem Grundgesetz in Frage stellen würde), sondern mit Bezug auf das kulkturell-soziologische Muster eines Patriarchats, das dem Deutschen Werteraum widerspricht.
  4. In dem lebhaften, streckenweise sehr emotional-intensivem Gespräch, flammte all dies und noch viel mehr auf.

ZUSAMMENSTOSS UNTERSCHIEDLICHER KULTURELLER MUSTER

  1. Auf der einen Seite zeigte sich immer wieder, dass das allgemeine Wissen um den Islam (aber auch der christlichen und jüdischen Traditionen) kaum vorhanden ist (was bei Muslimen nicht unbedingt viel anders ist), auf der anderen Seite standen sich unterschiedliche deutsche (und westliche) Verhaltensmodelle und eben sehr patriarchalisch oder salafistisch anmutende Verhaltensweisen gegenüber. Ganz klar, für eine Frau, die in Deutschland aufgewachsen ist, wo der Einfluss eines (tendenziell) fundamentalistischen Christentums aus der Vergangenheit stark rückläufig ist, wo die Rechte der Frauen sowohl per Gesetz als auch im Alltag enorm zugenommen haben, wirken patriarchalische Verhaltensmuster und Werteüberzeugungen, wie sie von außen nach Deutschland hineingetragen werden, mindestens befremdlich, wenn nicht angsteinflößend, provozierend und rückwärtsgewandt.
  2. Wenn nun im deutschen Alltag Verhaltensmuster und Symbole aus eher muslimischen Kontexten auftreten (die christlichen sind seit Jahrzehnten verblasst und verschlissen; das Christentum der letzten 150 Jahre hatte viele Ähnlichkeiten mit dem heutigen Islam im gesellschaftlichen Auftreten, was gerne vergessen wird), so wird dies zusätzlich dadurch verkompliziert, weil diejenigen Menschen, die solche Verhaltensmuster haben, sehr oft keine klare Zuordnung zulassen.

VIELFALT IM ALLTAG

  1. Ich arbeite an einer Universität, an der junge Menschen aus über 100 Nationen studieren. Junge Frauen mit Hintergründen im Hinduismus, Buddhismus, Islam, Judentum, Christentum, dazu mit sehr vielen Spielarten in jeder Richtung, aus unterschiedlichen Ländern, in unterschiedlichen familiären Zusammenhängen, meist noch berufstätig, um das Geld für ihr Studium zu verdienen, in ganz verschiedenen Berufen, in allen Varianten von Kleidung, auch viele mit Kopftüchern; z.T. als Gaststudierende, meistens aber als Deutsche mit Eltern aus verschiedenen Ländern. Warum trägt die eine ein Kopftuch, die andere nicht? Warum bilden Deutsche im Ausland ‚Deutsche Kolonien‘ in denen man deutsches Brauchtum pflegt und primär Deutsch spricht? Aus religiöser Überzeugung oder vielleicht eher, weil man etwas soziale Nähe in einer fremden Kultur sucht? Warum laufen Fußballfans mit ihren Schals herum? Warum müssen Mitglieder christlicher Orden (heute weniger, bis vor wenigen Jahrzehnten immer und überall) eine Ordenskleidung tragen? Warum tragen Frauen fast zwanghaft das, was die jeweilige Mode gerade diktiert? Was ist, wenn man dem Trend nicht folgt? Warum kreieren mittlerweile immer mehr muslimische Frauen (aus vielen verschiedenen Ländern) eine eigene Mode? Mit Religion und Politik hat dies in der Regel nichts zu tun. Wäre das nicht auch eine eigene Form von Revolution und Emanzipation, dass junge muslimische Frauen die Insignien des Patriarchats und des fundamentalistischen-politischen Islams durch eigene Modepraktiken schlicht unterlaufen, umwerten, verändern, dieser Tradition ihren eigenen Stempel aufdrücken? Vielleicht sollten sich eingefleischte Feministen mal direkt mit den jungen muslimischen Frauen auseinandersetzen; möglicherweise könnten alle etwas lernen.

VERSCHIEDENE GENERATIONEN

  1. Interessant waren in unserem Gespräch auch die Unterschiede zwischen jüngeren Frauen (23-28) und älteren (über 50). Während die älteren Frauen zuerst die Abweichungen und möglichen Bedrohungen sahen, erlebten die jüngeren Frauen die muslimischen Frauen in ihrem Alltag als jene, die sich bemühen, in ihrem Alltag mit Kindern, Familie und Arbeit klar zu kommen, und die Schwierigkeiten weniger im Umgang mit der Deutschen Gesellschaft erleben, sondern mit den vielen Unterschieden innerhalb der anderen Kulturen und ihren z.T. rigorosen Wertesystemen.

VERÄNDERUNGSPROZESSE BRAUCHEN ZEIT

  1. Mit Blick auf die Veränderungsprozesse in Deutschland und Europa in den letzten Jahrhunderten wurde auch darauf aufmerksam gemacht, dass man möglicherweise die aktuellen Anpassungsprozesse als langatmige Prozesse sehen muss, als eine Angelegenheit von Generationen. Die Gastarbeiter von vor ca. 50 Jahren sind heute normaler Teil der Deutschen Gesellschaft; in weiteren 50 Jahren wird es vermutlich eine weitere Normalisierung geben.

MEHRHEITSGESELLSCHAFT IM WANDEL

  1. Allerdings, dies wurde auch bemerkt, erfordern solche Anpassungsprozesse Engagement auf allen Seiten. Auch die, die zur Zeit die Mehrheiten in Deutschland bilden, müssen sich immer wieder neu selbst die Frage stellen, was sind da genau die Werte, die im Gesetz, in der Verfassung stehen? Was heißt Menschenwürde und Religionsfreiheit heute? Dies ist eine Chance, die Verfassung in den Köpfen und Herzen lebendig zu halten. Der leichthändige Rückzug einer CSU auf die sogenannte Leitkultur mit christlichen Werten ist so, wie er bislang propagiert wird, historisch und inhaltlich schlicht falsch. Statt einfach Parolen in die Welt zu setzen sollte die CSU die historische Gelegenheit ergreifen, und einen entsprechenden gesellschaftlichen Diskurs beflügeln, in dem die Werte des Grundgesetzes neu erlebt und verstanden werden, statt eine kaum verstandene Leitkultur mit christlichem Standards einfach roboterhaft zu deklamieren. Das hilft niemandem.
  2. Auch unabhängig von religiösen Einflüssen befindet sich die industrialisierten Länder in einem dramatischen Struktur- und Wertewandel, der NICHT von den Religionen kommt, sondern von den empirischen Wissenschaften und den aktuellen Technologietrends. Während die Religionen sich oft bizarre Wortwechsel über Nebensächlichkeiten leisten, gibt es in der modernen Wissenschaft momentan weit und breit überhaupt keine Werte mehr, weil die Rolle des Menschen als möglichem Träger von Werten sich völlig aufgelöst hat. Der Mensch kommt wissenschaftlich so gut wie nicht mehr vor (und Religionen damit automatisch auch nicht). Zugleich lösen sich die demokratischen Strukturen von innen her auf, da technologische Entwicklungen viele klassische Grundwerte (z.B. Privatheit, individuelle Freiheit)  weitgehendschon  aufgelöst haben, und die Politik unter dem Motto ‚Sicherheit‘ dabei ist, mehr und mehr Freiheiten zu opfern. Zugleich grassiert ein Lobbyismus, der die normalen demokratischen Prozesse ab absurdum führt. Das ist ein Wertewandel, der an die Substanz geht; ob Religion hier eine Rolle spielen  könnte, ist fraglich; sicher nicht in jener Form der Vergangenheit, die sich durch Machtintrigen und fundamentalistisches Denken unglaubwürdig gemacht hat…. (ein gewisser Jesus von Nazareth starb damals (so heißt es) freiwillig am Kreuz, ohne Rekurs auf Machtmittel …)

DEN BLICK ETWAS AUSWEITEN

Vereinfachter Überblick zur Entstehungszeit der großen Religionen der Welt mit wichtigsten Aufspaltungen
Vereinfachter Überblick zur Entstehungszeit der großen Religionen der Welt mit wichtigsten Aufspaltungen

  1. Vielleicht könnte es in solch einer Situation auch hilfreich sein, nicht immer nur über Details einer Religion zu sprechen, ohne historische Kontexte. Stattdessen könnte man mal die Gesamtheit der Religionen in den Blick nehmen (siehe vereinfachendes Schaubild), ihre Entstehungen, die Vielzahl an Motiven, die bei der Gründung und den vielen Aufspaltungen eine Rolle gespielt haben. Auffällig ist auf jeden Fall, dass alle diese vielen Formen und Regeln kaum etwas mit Gott zu tun haben scheinen, dafür aber sehr viel mit menschlichen Ängsten, Wünschen, Fantasien, Bedürfnissen, vor allem mit blanker Macht.
  2. Falls Religion irgendwie für die Menschen (und das Leben überhaupt wichtig sein sollte), dann wäre heute ein guter Zeitpunkt, sich dieser Frage unvoreingenommen zu widmen, quer zu ALLEN Religionen, unter Einbeziehung ALLER wissenschaftlicher und kultureller Erkenntnisse. Dass die aktuellen Religionen möglicherweise NICHT authentisch sind, kann man daran ablesen, wie wenig sie bereit und fähig sind, eine friedliche Zukunft für ALLE Menschen zu denken und zu praktizieren, in der der Respekt vor JEDEM Menschen grundlegend ist. Es gibt keinen Automatismus für eine gelungene Zukunft. Aber ohne eine gemeinsame Lösung jenseits von Diktaturen, Gewalt und dogmatischem Wissen wird die Zukunft nicht gelingen.
  3. Was ist mit jenen gesellschaftlichen Systemen mit selbsternannten großen Anführern, wenn diese (in absehbarer Zeit) sterben? Eine Gesellschaft, die auf der Vergöttlichung einzelner sterblicher Individuen setzt hat keine wirklich nachhaltige Lebenskraft, und Sicherheit ohne Freiheit gleicht einer Todeszelle; das Ende ist sehr absehbar.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

MEMO: AUGE IN AUGE MIT DER KÜNSTLICHEN INTELLIGENZ. PHILOSOPHIESOMMER 2016 IN DER DENKBAR – Sitzung vom 12.Juni 2016

Entsprechend den vielfachen Wünschen der Teilnehmer war für die Sitzung am 12.Juni 2016 ein Experte für intelligente Maschinen eingeladen worden, eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen.

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016
Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Das Diagramm gibt einen ersten Überblick über die Struktur der Sitzung. Im Einstieg wurden in lockerer Form verschiedene Videos vorgestellt, immer wieder unterbrochen durch ad hoc Erläuterungen, die sehr konkrete Eindrücke von den agierenden Forschern und ihren Algorithmen vermittelten. Danach gab es ein sehr lebhaftes Gespräch, in dem weniger die Details der Algorithmen diskutiert wurden, sondern mehr die Gefühle, Befürchtungen und Fragen, die das Ganze bei allen auslöste.

KI DIREKT

Das Gebiet der KI ist ziemlich groß. An diesem Tag wurde von einem kleinen Ausschnitt berichtet, er sich aber zur Zeit im Zentrum größten Interesses befindet. Es ging vornehmlich um Bilderkennung und ein bisschen um Methoden des anfangshaften Verstehens von Sprache.

Bei der Bilderkennung wurden Beispiel gezeigt, wie Rechner heute Szenen analysieren und darin dann einzelne Objekte erkennen könne; wie dann in einer Folge von Szenen die erkannten Objekte räumliche Strukturen bilden können (Räume, Straßen, …), in denen man dann nach Pfaden/ Wegen suchen kann. Unter den Videos war auch eine künstlerische Anwendung, die zeigte, dass man diese Technologien auch ganz anders einsetzen kann. (Ergänzend kann man z.B. auch hinweisen auf Bereiche wie die Musik, in der KI mittlerweile komplexe Musikstücke analysieren und neu arrangieren kann, und sogar als eigenständiger Musiker in einer Band mitspielen kann, z.B. „Wunder der Technik Musikalische Drohnen ersetzen das Orchester „, oder „Neue Jobs für Roboter„).

Bei dem anfangshaften Verstehen von Sprache wurden Methoden vorgestellt, die aus den Verteilungen von Worten und Wortverbindungen zu Bedeutungsschätzungen kommen können, und auch hier wieder alltagspraktische Anwendungen wie jene, bei der Texte eines Politikers künstlerisch so abgewandelt werden konnten, dass sie wie die Texte dieses Politikers aussahen, aber vom Algorithmus produziert worden waren. Aber auch hier gilt, dass dies nur ein kleiner Ausschnitt von dem war, was heute schon im Einsatz ist (man denke an den sogenannten Roboter-Journalismus, wo die Nachrichten und Artikel ganzer Webseiten mittlerweile komplett durch Algorithmen erstellt werden, z.B. „Roboterjournalismus: Maschinen ohne Moral“ oder „Automatisierter Journalismus: Nehmen Roboter Journalisten den Job weg?)

GESPRÄCH : WIDERHALL IN UNS

Bei den Teilnehmern überwog die Skepsis die Faszination.

KI AKTEURE

Auffällig war den meisten, wie jung die Akteure in der Szene waren, selbst die Chefs und CEOs von milliardenschweren Unternehmen. Wie diese (scheinbar) unbekümmert die Vorzüge ihrer Technik priesen, begeistert, enthusiastisch; Nachdenklichkeiten, kritische Überlegungen sah man nicht (im Kontrast dazu vielleicht die Eindrücke, die man von deutschen Konzernen hat mit ihren schwerfälligen autoritären Strukturen, mit ihren zementierten Abläufen, der großen Risikoaversion…). Der Geist der KI-Akteure hingegen erzeugt Neues, Innovatives, bewegt die Welt. In Erinnerungen an den Bau der Atombombe mit den begeisterten Forschern für das technische faszinierend Machbare stellte sich mancher aber auch die Frage, ob diese Unbekümmertheit, diese emotionslose Technik, nicht auch gefährlich ist (je mehr Bilderkennung z.B. im öffentlichen Bereich, dann auch mehr umfassende Kontrolle, Überwachung. Das ‚System‘ weiß dann immer, wo man gerade ist und mit wem er zusammen ist (immerhin hat sich das US-Verteidigungsministerium den Chef von Alphabet (dazu gehört google) mittlerweile offiziell als Berater geholt)). Andere fragten sich, ob es in Zukunft eigentlich nur noch Informatiker gibt (quasi als allfällige Diener der KI), während alle anderen überflüssig werden.

OFFENE ZIELE

Sieht man die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften, dann kann (und muss?) man die Frage, nach dem darin wirkenden Fortschrittsbegriff stellen, nach den wirkenden Kriterien.

WAS IST INTELLIGENZ?

Ein Teilaspekt ist der Begriff der Künstlichen Intelligenz mit dem Teilbegriff Intelligenz. Was ist damit eigentlich gemeint? Auf welche Intelligenz bezieht man sich? In der Psychologie benutzt man seit ca. 100 Jahren einen operationalisierten Intelligenzbegriff zur Messung der Intelligenz (Binet). Doch diese Betrachtungsweise ist sehr quantifizierend und wird vielfach kritisiert, auch mit Verweis auf kulturelle Unterschiede. Im Unterschied zur Pschologie findet man im Bereich der KI selbst bzw. in der Informatik keine einheitliche Definition von Intelligenz (siehe z.B. KI ). Während die KI im klassischen Sinne sich an der Intelligenz von biologischen Systemen orientiert, die nachempfunden werden soll, findet sich heute vielfach ein engeres, ingenieurmäßiges Verstehen von KI als Maschinelles Lernen. Hier wird die Frage nach Intelligenz im allgemeinen gar nicht mehr gestellt. Stattdessen gibt es immer konkrete, spezielle Aufgabenstellungen, die technisch gelöst werden sollen, und die Lösung konzentriert sich dann ausschließlich auf diese eingeschränkten Aspekte.

SELBSTBESCHREIBUNG DES MENSCHEN ALS MASCHINE

Die Diskussion um den Intelligenzbegriff streift auch das Phänomen, dass die Menschen in nahezu allen Epochen dahin tendieren, sich selbst immer im Licht der neuesten Erkenntnisse und Techniken zu beschreiben, sozusagen auf der Suche nach sich selbst. Eigentlich weiß kein Mensch so richtig, wer er ist und ist dankbar für jedes Bild, was man ihm anbietet. So vergleichen sich Kinder heute häufig mit einem PC: ‚mein Kopf ist wie ein Computer‘; ‚ich habe das nicht abgespeichert‘; ‚meine Festplatte ist leer’…. Zu Zeiten eines La Mettrie (1709 – 1751)  wurde der Geist der Dualisten (vor allem repräseniert duch Descartes) aus dem Körper des Menschen verbannt; der Körper war nur noch eine Maschine (im damaligen Verständnis) ohne Geist.

VIRTUALITÄT ALS GEFAHR?

Mit Blick auf die KI und die enorme Zunahme an digitalen Räumen als virtuelle Welten wurde auch die Frage aufgeworfen, wieweit dies eine Gefahr darstellt? Verzetteln wir uns nicht? Wissen wir noch Virtuelles und Reales auseinander zu halten? Dazu sei angemerkt, dass sich das Erleben und Denken des Menschen ja primär in seinem Gehirn abspielt, das als Gehirn im Körper sitzt ohne direkten Weltbezug. D.h. schon das normale Denken des Menschen hat das Problem, dass es dem einzelnen zwar real erscheint, inhaltlich aber – bezogen auf eine unterstellte Außenwelt – mit der Außenwelt nicht automatisch übereinstimmen muss. Es gehört ja gerade zur Kulturgeschichte des Menschen, dass er mühsam lernen musste, dass die meisten Gedanken der Vergangenheit eben nur Gedanken waren und nicht die Welt beschrieben haben, wie sie wirklich (=empirisch überprüfbar) ist. Insofern stellen die neuen virtuellen Welten nichts wirklich Neues dar, wohl aber eine Modifikation der Situation, die neu verstanden und gelernt werden muss.

BRAUCHEN WIR NOCH MEHR EVOLUTION?

Greift man nochmals den Gedanken auf, dass die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften Teil der Evolution ist, wurde gefragt, ob wir noch mehr Evolution brauchen? Außerdem, welches Ziel hat diese Evolution?

Mit Blick auf den Blogeintrag vom 11.Juni 2016 wurde eingeblendet, dass sich die Frage nach der Evolution möglicherweise anders stellt. Schliesslich sind wir selbst, alle Menschen, alle Lebewesen, Produkt der Evolution, wir sind Teilnehmer, aber bislang nicht als Herren des Geschehens. Und vieles spricht dafür, dass alle Phänomene im Umfeld des Menschen auch nicht los lösbar sind von der Evolution. Sie gehören quasi dazu, wenn auch vielleicht in einem neuen qualitativen Sinn. Soweit wir heute erkennen können, ist es seit dem Auftreten des homo sapiens sapiens (hss) zum ersten Mal seit dem Auftreten des Lebens auf der Erde möglich, dass das Leben als Ganzes sich in Gestalt des hss sich quasi selbst anschauen kann, es kann sich mehr und mehr verstehen, es kann seine eigenen Baupläne lesen und mehr und mehr abändern. Dies eröffnet für das Leben auf der Erde (und damit im ganzen bekannten Universum) eine völlig neue und radikale Autonomie. Die allgemeine physikalische Entropie wird bislang dadurch zwar nur lokal aufgehoben, aber immerhin, dass es überhaupt möglich ist, über die bekannten Naturgesetze hinaus durch bestimmte Prozesse Strukturen zu erzeugen, die der Entropie zuwider laufen, ist ein bemerkenswertes Faktum, das bislang von der Physik so gut wie gar nicht zur Kenntnis genommen wird (und auch nicht von den Akteuren selbst, dem hss).

RADIKALE AUTONOMIE

Möglicherweise ist die fundamentale Tragweite der neuen radikalen Autonomie des Lebens auch deshalb noch nicht so recht ins Bewusstsein getreten, weil im Alltag, im konkreten Dasein, die körperlichen Grenzen sehr deutlich sind, die ganze Trieb-, Bedürfnis-, und Emotionsstruktur des Menschen in ihrer Konkretheit und Intensität vielfach als so stark empfunden wird, dass man die großen Linien, die geradezu kosmologische Dimension dieser radikalen Autonomie noch kaum wahrnimmt.

Dazu kommt, dass die Tatsache, dass sich fast alle interessanten Prozesse im Innern des Menschen abspielen, es notwendig macht, dass diese inneren Prozesse über Kommunikation miteinander koordiniert werden müssten. Dies ist aufwendig und schwierig. Viele (die meisten) Menschen scheitern hier, kapitulieren. So verharren sie – und damit ganze Generationen – in bestimmten Empfindungs-, Denk- und Handlungsmustern, die nicht weiter führen, die eher Rückschritt bedeuten.

Aktuell erscheint es offen, in welche der vielen möglichen Zukünfte wir uns bewegen werden. Werden demnächst die intelligenten Maschinen alles übernehmen, weil der hss ausgedient hat? Oder wird es doch bei einer Symbiose auf hohem Niveau bleiben, in der der hss die intelligenten Maschinen für sich nutzt und die intelligenten Maschinen durch den Menschen Räume erobern können, die ihnen sonst verschlossen wären? Oder – und diese dritte Möglichkeit sieht aktuell – soweit ich sehe – eigentlich noch niemand – wird er Mensch in den nächsten Jahren neu erwachen und begreifen, dass diese radikale Autonomie etwas radikal Neues darstellt, etwas, das es so noch nie zuvor in den 13.8 Mrd Jahren gegeben hatte?

Um die radikale Autonomie nutzen zu können, muss der Mensch erstmalig in der Geschichte des Lebens die Frage nach den Werten, nach den Zielen, wohin die Reise eigentlich gehen soll, selber stellen … und beantworten. Bis zum hss gab es keine Wertediskussion. Die Evolution stellte einen Prozess dar, in dem bestimmte Lebensformen im Kontext der Erde überlebt hatten; das waren die einzigen Werte im Nachhinein. Vor der Neuwerdung im Reproduktionsprozess gab es keine expliziten Werte. Es gab bisherige Erfolge und viel Zufall.

Einen Überblick über alle Beiträge zum Philosophiesommer/ zur Philosophiewerkstatt nach Titeln findet sich HIER.

DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ zu einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde — letztlich aber das gesamte bekannte Universum — die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftreten in der Zeit selbst empirisch ist. Nicht empirisch ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmen würde, dann würde sie zur nächsten positiven komplexen Koordinate KK+ führen, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Keine direkte, aber eine indirekte, Fortsetzung könnte man in diesem Beitrag sehen.

Einen Überblick von allen Beiträgen des Autors cagent in diese Blog nach Titeln findet sich HIER.