KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’, Teil 3: Kap.4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
17.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

ÜBERSICHT

In Fortsetzung der vorausgehenden Teile 1 und 2 wird hier das Kap.4 besprochen. In ihm beschreibt Stace die Entstehung des modernen wissenschaftlichen Weltbildes am Beispiel der Astronomie. Bei genauerem Hinsehen kann man schon hier die ’Bruchstelle’ erkennen, wo heute (mehr als 60 Jahre nach Staces Buch) eine ’Wiedervereinigung’ von Wissenschaft und ’Moral’ (oder gar ’Religion’) nicht nur möglich, sondern geradezu ’notwendig’ erscheint.

I. KAPITEL 4

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Entstehung der neuzeitlichen Wissenschaft

Die Entstehung der neuzeitlichen Wissenschaft ist eine langwierige und – wenn man sie voll aufschreiben wollte – eine komplexe Geschichte, die sich, je mehr man sich der Gegenwart nähert, in immer mehr Verfeinerungen aufspaltet und heute den Charakter einer ’großen Unübersichtlichkeit’ hat. Stace konzentriert sich auf ein Thema, lange Zeit das Hauptthema schlechthin, die ’Astronomie’, die Himmelskunde, und entwirft anhand der führenden Wissenschaftler dieser Zeit (15.Jh bis 20.Jh, kleine Rückblicke bis in die klassische Griechische Periode) holzschnittartig ein Bild der Entstehung des Neuen.

Ein Hauptcharakteristikum des neuen wissenschaftlichen Weltbildes ist der Übergang vom dominierenden ’geozentrischen Weltbild’ (die Erde als Mittelpunkt von allem) zum ’heliozentrischen Weltbild’ (die Erde dreht sich um die Sonne; die Sonne ist nicht mehr der einzige Bezugspunkt).

Vorgeschichten sind üblich

Für den Charakter von Weltbildern, die eine Kultur, eine ganze Epoche beherrschen, ist es bezeichnend, dass viele der wichtigen Grundüberzeugungen nicht einfach so ’vom Himmel gefallen sind’, sondern einen meist viele hundert Jahre andauernden ’Vorlauf’ haben, bisweilen tausende von Jahren. So auch im Fall der Diskussion ob ’geozentrisch’ oder ’heliozentrisch’. Schon lange vor dem Beginn der modernen Diskussion um ’geozentrisch’ oder ’heliozentrisch’, nämlich ca. 1800 Jahre (!) vor Kopernikus, gab es zwei griechische Mathematiker und Astronomen (Aristarch von Samos (um -310 bis um -230) und Seleukos von Seleukia (um -190 bis vor -135) ) die aufgrund ihrer Beobachtungen und Berechnungen ein klares heliozentrisches Weltbild vertraten. Für den damaligen ’Main Stream’ war das aber so ’unglaubwürdig’, dass Aristarch in die Rolle eines ’Ketzers’ gerückt worden sein soll, den man wegen ’Gottlosigkeit’ anklagen müsse.

Die Wiederkehr dieses Musters im Fall von Galileo Galilei und noch lange nach ihm (in manchen Teilen von religiösen Strömungen bis in die Gegenwart) mag als Indiz dafür gesehen werden, dass ’herrschende Weltanschauungen’ in ihrem eigenen Selbstverständnis, in ihrer Selbstbegründung, die Tendenz haben, sich ohne wirkliche Begründung ’absolut zu setzen’. Auf den ersten Blick erscheint solch ein Verhalten als ’Schutz der bestehenden Ordnung’, aber bei längerer Betrachtung ist dies ein gefährliches Spiel mit der Wahrheit, das eine ganze Kultur in die Irre und dann in den Abgrund führen kann. ’Sicherheit’ ist kein Ersatz für ’Freiheit’ und ’Wahrheit’.

Die Theoretiker

Bezeichnend für die Entwicklung von etwas Neuem ist auch, dass es letztlich nicht die ’Praktiker’ waren, nicht die ’Datensammler’, durch die das ’Neue’ sichtbar wurde, sondern eher die ’Theoretiker’, also jene Menschen, die über all die vielen ’Phänomene’ ’nachgedacht’ haben, nach irgendwelchen ’Regelhaftigkeiten’, ’Muster’ Ausschau gehalten haben, und die dies letztlich auch nur geschafft haben, weil sie in der Lage waren, die wichtigste Sprache der Menschheit zu benutzen, die es gibt, die Sprache der Mathematik. Kopernikus, Kepler, Galileo, Descartes, Huygens, Newton, Laplace – dies waren Menschen mit einer starken, primären Bildung in Mathematik. Ohne die mathematischen Kenntnisse hätten sie niemals die neue Sicht der Welt entwickeln können.

Andererseits, das gilt auch, ohne die Daten eines Tycho Brahe oder ohne bessere Messgeräte (z.B.Fernrohr), die Handwerker (und heute Ingenieure) bauen und gebaut haben, gäbe es auch nicht die Daten, die Fakten, anhand deren die Theoretiker jene Muster herauslesen konnten, die sie dann in der Sprache der Mathematik soweit ’idealisieren’, ’veredeln’ konnten, dass daraus die neuen unfassbaren Sichten entstanden, mit denen wir auch heute noch die Wirklichkeit um uns herum, das ’Rauschender Phänomene’ gedanklich sortieren, filtern, so neu anordnen können, dass wir darin und dadurch weitreichende Strukturen und Dynamiken erkennen können, die Jahrtausende unsichtbar waren, obwohl sie schon Milliarden Jahre da waren und wirkten.

Politisch Inkorrekt …

Während Kopernikus Zeit seines Lebens nur Ausschnitte aus seinem Hauptwerk ’De revolutionibus orbium coelestium’ veröffentlichte, da er damit rechnen konnte, von der Kirche als Ketzer angeklagt zu werden (der volle Text also erst 1543 erschien), legte sich Galileo Galilei (1564 – 1642) schon zu Lebzeiten mit den Vertretern der Kirche an und bewegte sich immer nah vor einer vollen Verurteilung als Ketzer mit dem dazugehörigen Tod durch Verbrennen.

Theoriebildung – Ein Muster

An der Theoriebildung von Galileo wird eine Eigenschaft sichtbar, die sich auch bei allen späteren wissenschaftlichen Theorien finden wird. Es ist das Moment der ’kreativen Irrationalität’, wie ich es mal nennen möchte. Dieses Moment findet sich in jeder wissenschaftlichen Theorie, und zwar notwendigerweise (Was heute gerne übersehen oder verschwiegen wird.). Seine Experimente zur Bewegung mit Körpern führten ihn zur Formulierung seines ersten Bewegungsgesetzes (das sich später auch in Newtons Hauptwerk ”Philosophiae Naturalis Principia Mathematica” als Teil seiner Mechanik findet) . Es besagt letztlich, dass kräftefreie Körper entweder in Ruhe bleiben oder sich geradlinig mit konstanter Bewegung bewegen (vgl. Stace (1952) [1]:64ff). Als ’Gesetz’ kann man diese Aussage nicht beweisen, man kann nur aufgrund von ’endlichen Daten’ eine ’Vermutung’ äußern, eine ’Hypothese’ formulieren, dass die bekannten Beispiele einen ’Wirkzusammenhang’ nahelegen, der sich eben auf die zuvor formulierte Weise beschreiben lässt. Solange dieser ’hypothetische Wirkzusammenhang’ sich im Experiment ’bestätigt’, so lange ist dieses Gesetz ’gültig’. Es kann im Laufe der Zeit aber auch durch neue, bisweilen ’feinere’ Beobachtungen, in ’Frage gestellt’ werden und dann –was oft geschehen ist – durch neue Formulierungen abgelöst werden.

Wichtig ist die grundlegende Figur, die sich hier zeigt: (i) Es gibt aktuell Phänomene (meistens aus der Vergangenheit), die man ’erklären möchte. Noch fehlen passende ’Regeln’. (ii) Aufgrund eines kreativen, irrationalen Denkprozesses entstehen ’Bilder von möglichen Mustern/ Regeln’, die mit den bekannten Phänomenen so ’passen’, dass man mit diesen Regeln das Auftreten der Phänomene so ’erklären’ kann, dass man ’zukünftige Phänomene’ voraussagen kann. (iii) Man erhebt diese kreativ gewonnenen Regeln in den Status von offiziellen ’Arbeitshypothesen’. (iv) Man macht Experimente mit diesen Arbeitshypothesen und ’überprüft’, ob die Arbeitshypothesen auch bei neuen, zukünftigen Phänomenen ’gültig’ bleiben. (v) Solange sich keine’ widersprüchlichen Befunde’ ergeben, gelten die Arbeitshypothesen als akzeptierte Regel.

Kreativität ist Fundamental – Logik Sekundär

Anders formuliert, mittels eines ’kreativen irrationalen’ Denkprozesses gewinnt man aus gegebenen Phänomenen ’induktiv’/ ’bottom-up’ mögliche ’erklärende Hypothesen’. Sofern man diese hat, kann man ’deduktiv’/ ’top-down’ gezielt Experimente durchführen, um die ’Gültigkeit’ dieser Arbeitshypothese zu überprüfen. Arbeitshypothesen kann man aber ’nicht logisch beweisen’, da dies voraussetzen würde, dass man  über eine noch ’allgemeinere’ Hypothese verfügt, aus der man eine ’speziellere’ Hypothese ableiten kann (So hat sich gezeigt, dass man z.B. die drei Planetengesetze von Kepler durch das spätere Gravitationsgesetz von Newton
als ’Spezialfall’ ’ableiten’ kann). Das menschliche Gehirn verfügt aber als solches nicht ’von vornherein’ (nicht ’a priori’) über irgendwelche allgemeinen Gesetze. Das Gehirn scheint aber sehr wohl in der Lage zu sein, anscheinend beliebig viele (genauer Umfang ist unbekannt) ’Regelmäßigkeiten’, sofern sie sich anhand von Phänomenen zeigen, zu erkennen und weiter zu ’verallgemeinern’. Die Geschichte zeigt, dass das ’Zusammenwirken’ von vielen Gehirnen einerseits den einzelnen bei weitem übertreffen kann, ohne allerdings — andererseits — die kreativ-irrationale Kraft des einzelnen dadurch zu ersetzen. Es bleibt immer ein spannungsvolles Wechselspiel von individueller Kreativität und kulturellem Main-Stream. Individuelle Abweichungen werden eher nicht toleriert, werden eher an die Seite gedrückt. Der ’aktuelle’ Erfolg wirkt stärker als der ’vermeintliche’. Insofern sind Kulturen große ’Echokammern’, die beständig in Gefahr sind, sich selbst zu lähmen.

Entzauberung – Entmystifizierung

Kopernikus, Galileos Fernrohr und Bewegungsgesetze, Keplers Planetengesetze, Newtons Mechanik samt dem Gravitationsgesetz, dies alles verhalf dem Denken durch neue Erklärungsmuster und unter Einsatz der mathematischen Sprache, zu einer Sicht der Dinge, die ein direktes Eingreifen ’anderer Mächte’ oder ’Gottes’ überflüssig erscheinen liesen. Im Fall von Newton ist aber zu beobachten, dass er trotz so großartiger Erklärungserfolge ’in seinem Innern’ noch eine Vorstellung von ’Gott’ hatte, die ihn dazu verleitete, einige Unregelmäßigkeiten bei den Planetenbahnen, die er nicht mit seinen Formeln erklären konnte, dann doch einem ’direkten Wirken Gottes’ zuzuschreiben. (vgl. Stace (1952) [1]:69ff) Es war dann Laplace, der die Unregelmäßigkeiten mathematisch einordnen konnte und der mit einer eigenen Theorie zur Entstehung der Sterne (bekannt als ’Nebularhypothese’) sogar meinte, er habe damit die Annahme Gottes als notwendiger erster Ursache ’erledigt’.

QUELLEN
[1] W. Stace, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980
from Lippincott and Crowell, Publishers.

Eine Fortsetzung findet sich HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

 

 

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’ Teil 2: Kap.3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
10.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

ÜBERBLICK

Der Philosoph W.T.Stace ist in diesem Blog bekannt durch die Besprechung seines Buches ’Mysticism and Philosophy’ [1]. Er hatte aber schon 1952 [2] ein interessantes Buch veröffentlicht, in dem er den Übergang vom mittelalterlich-religiösen Weltbild zum modernen, von der Wissenschaft geprägten Weltbild, skizziert hatte. Dies ist im Jahr 2018 von besonderem Interesse, da wir zur Zeit erleben, wie das wissenschaftliche Weltbild sich selbst in eine tiefe Krise stürzt und die ’unverdauten Reste’ vor- wissenschaftlicher Weltbilder wieder erstarken. Krisen können bedrohlich wirken, sie können zerstörerisch sein, sie können aber auch als Chance begriffen werden, die Mängel des bisherigen wissenschaftlichen Weltbildes besser zu verstehen. Letzteres kann möglicherweise der Ausgangspunkt für eine ’Erneuerung’ des wissenschaftlichen Denkens bilden, das seine Schwächen durch ein verbessertes Selbstverständnis überwinden kann. Im Teil 2 wird Kap.3 besprochen (In Teil 1 wird fehlerhaft von Kap.1-3 gesprochen; tatsächlich waren es Kap.1-2)

I. KAPITEL 3

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch]{Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

In diesem Kapitel 3 kontrastiert Stace das mittelalterliche (christliche) mit dem neuzeitlich- wissenschaftlichen Denken zu den Themen ’Gott als letzte Ursache’, ’Teleologisches Ziel der Welt’ und ’Moralische Ordnung (Werte)’ (vgl. das Schaubild 1).

Während das mittelalterlich-christliche Denken von einer bestehenden moralischen Ordnung ausgeht, die in einer alles umfassenden Absicht eingebettet ist, die letztlich auf einen alles ermöglichenden ’Gott’ zurückgeht, beginnt spätestens im 16.Jahrhundert eine neuzeitlich-wissenschaftliche Sicht der Welt Raum zu greifen. In dieser auf nachweisbaren kausalen Beziehungen gründenden Sicht relativieren sich alle Dinge zu überschaubaren kausalen Netzwerken; Aussagen über Eigenschaften und Beziehungen, die über das direkt Kausal-Nachweisbare hinausgehen verlieren ihre Akzeptanz. ’Werte’ werden zurück gebunden an konkrete Menschen und deren individuellen Befindlichkeiten, die man als ’relativ’ betrachtet, nicht mehr ’absolut’. Die Ausdehnung auf größere ’Gruppen’ (Stämme, Völker, …) hebt die grundlegende Relativität nicht auf.

Eine schwer kontrollierbare Wendung bringen Vorstellungen von einer ’kosmischen Absicht’, einem ’universellen Geist’, sofern diese sich nur ’indirekt (immanent)’ manifestieren, womöglich noch verschattet von unserem Un-Bewussten, das einen viel größeren Bereich unseres Körpers abdeckt als der bewusste.

II. DISKURS

Die klare Konturierung von mittelalterlich-christlichem und neuzeitlich-wissenschaftlichem Denken zu den genannten Themen geht – wie Stace selbst bemerkt – auf Kosten von Genauigkeit und vielen Details. Ohne die vielen Fragen, die sich hier stellen, schon zu diskutieren (siehe nachfolgende Teile), sei nur auf folgende Punkte hingewiesen.

A. Gefühle

Gefühle sind streng genommen nicht einfach ’subjektiv’, sondern haben in der Regel ’objektive Ursachen’, die auf objektive Prozesse verweisen. Manche dieser Prozesse sind komplexer Natur und erschließen sich erst bei der Analyse von ’Zeitreihen’.

In neueren Spielarten der christlichen Spiritualität und Mystik quasi parallel zum Entstehen des neuzeitlichen Denkens war eine solche Sicht üblich (z.B. in der Spiritualität des Jesuitenordens). Die Hintergrundannahme, dass es einen ’Gott’ gibt, war das mittelalterliche Erbe. Durch die Verknüpfung mit einem empirischen Erfahrungsansatz des eigenen Fühlens, wodurch Gott mit Menschen direkt interagieren kann, nicht ’kausal-deterministisch’, sondern ’kausal-nicht deterministisch’ (’sine cause’), in Abstimmung mit anderen Menschen und dem übrigen Weltwissen, veränderte sich aber der zuvor unnahbar transzendente Begriff Gottes zu einem nahbaren, partiell empirisch kontrollierbaren Begriff. Diese eigentlich revolutionäre Veränderung der christlichen Spiritualität wurde aber bis heute dadurch verdeckt, dass die kirchliche hierarchische Autorität mit ihrer papalen Verfassung die Anerkennung von individuellen Erfahrungen als ’heilsrelevant’ grundsätzlich verweigert. Dies ergibt sich nicht nur aus dem kirchenrechtlich fixierten Sachverhalt, dass alle offiziellen spirituellen Gemeinschaften dem jeweiligen Papst einen absoluten Gehorsam schulden, sondern grundlegend aus der kirchlichen Lehre, dass es nach dem Tod Jesu keine neuen öffentlichen Offenbarungen Gottes mehr geben wird.

(Anmerkung 2: Im offiziellen Text des II.Vatikanischen Konzils von 1965 lautet die Formel dazu ”… et nulla iam nova revelation publica expectanda est ante gloriosam manifestationem Domini nostri Iesu Christi”.(Siehe: [3], Kap.1, Nr.4) )

 

B. Kausale Erklärungen

Sosehr das neuzeitliche wissenschaftliche Denken mit der Vorstellung verknüpft wird, dass seit Galileo und Newton (um nur die prominentesten Namen zu nennen), das wissenschaftliche Denken ein ’kausales Denken’ sei, das sich in jedem Einzelfall empirisch bestätigen lassen können soll, so falsch, oder zumindest ’grob vereinfachend’ ist diese Ansicht.

Was die moderne empirischen Wissenschaften haben, das ist eine klare Trennung zwischen ’Messwerten’ und ’interpretierenden Modellen’. Damit einher geht aber auch die wachsende Einsicht, dass es keinen irgendwie gearteten Automatismus gibt, um von Messwerten zu einem geeigneten interpretierenden Modell zu kommen. Rein formal ist die Menge der möglichen Modelle quasi unendlich. Nur durch die Rückkopplung des unendlich formalen Raumes an ein konkretes, endliches Gehirn mit meist endlich vielen, sehr überschaubaren Vorstellungsmustern zum Zeitpunkt der Theoriebildung, verringert den Raum des ’Denkbaren’ dramatisch; doch ist dieser reduzierte Denkraum immer noch ’groß’.

Welches nun tatsächlich ein ’angemessenes Modell’ ist, das sich experimentell ’bestätigen’ lässt, dafür gibt es keine absolute Kriterien, sondern muss ’ausprobiert’ werden (’trial and error’). Dass es hier zu schweren Fehlern kommen kann, hat die Geschichte mehrfach eindrucksvoll gezeigt, und liegt auch in der Natur der Sache. Der einzige ’harte’ Referenzpunkt ist die ’erfahrbare Realität’, und diese ist, so wie wir sie vorfinden, inhärent ’unbekannt’, ’komplex’, ’mindestens endlich unendlich groß’. Kein menschlicher Forscher hat ’vorweg’ (’a priori’) ein irgendwie geartetes Wissen von dem großen Ganzen. Der Kampf um das ’Unbekannte’ erfordert höchsten Einsatz und ist ohne massiven und kreativen Einsatz von ’Fehlern’ (!) nicht zu gewinnen.

Wenn man also ein ’absolutes’ Wissen ablegt und sich auf das ’Objektive’ verlegen will, dann gerät man zunächst unweigerlich in das Fahrwasser von ’Relativität’. Andererseits, diese wissenschaftliche Relativität ist deutlich zu unterscheiden von ’Beliebigkeit’! Die Objektivität als primäre Form der Wirklichkeit für wissenschaftliche Erkenntnis wird letztlich als eine ’absolute Größe’ angenommen, die wir mit unseren beschränkten Mitteln aber nur häppchenweise erkenn können. Doch sind diese ’Häppchen’, sofern sie die unterstellte ’absolute Objektivität’ treffen, in diesem angenommenen Sinn auch ’absolut objektiv’, allerdings im Modus einer ’relativen Absolutheit’. Während man in einer allgemeinen Beliebigkeit nichts voraussagen kann, erlaubt eine ’relative Absolutheit’ (die wissenschaftliche Objektivität) weitreichende Voraussagen im Rahmen der Übereinstimmung mit der relativen Absolutheit und im Rahmen der Eigenart der erkannten Sachverhalte. Diese Bewegung von der relativen Absolutheit der aktuellen Erkenntnis zu einer immer ’absoluteren Absolutheit’ stellt keinen vollen Gegensatz dar zu  einem alles bestimmenden ’kosmischen Prinzip’.

Allerdings verwandelt die relative Absolutheit alle Menschen in gleicherweise Suchende. Grundsätzlich erlaubt diese Art der Erkenntnissituation keine ’absoluten Führer’, auch irgendwelche ’Klassen’ oder ’Kastenbildungen’ sind in diesem Kontext ’irrational’.

QUELLEN

[1] W. Stace, Mysticism and Philosophy, 1st ed. 2 Los Angeles (CA): Jeremy P.Tarcher, Inc., 1960.
——, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980 from Lippincott and Crowell, Publishers.
[3] H. S. Brechter and et.al, Eds., II. Vatikanisches Konzil. Dogmatische Konstitution über die Göttliche Offenbarung, 2nd ed. Freiburg – Basel – Wien: Herder Verlag, 1967.

Zur Fortsetzung geht es HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

DAS KOPFTUCH – DIE EMOTIONEN – GLAUBEN, POLITIK UND DIE GEWOHNHEITEN. Ein Reflex zu einem Gespräch unter FreundenInnen

EIN ARTIKEL

  1. Vor fast drei Wochen gab es im Freundeskreis ein Gespräch, zu dem ein Artikel von Simon Jacob im Heft 8 (2016) der Zeitschrift CICERO Anlass gab.
  2. Aus meiner Sicht würde ich die Gedanken des Artikels zu folgenden Arbeitshypothesen umformulieren: (i) Angesichts der historischen Entwicklung und der heutigen Vielfalt gibt es nicht DEN Islam, sondern eine VIELFALT von Interpretationen des Islam. (ii) Für viele Menschen, die sich Muslime nennen, ist die Hauptquelle für ihr VERHALTEN nicht der Koran selbst, sondern es sind bestimmte KULTURELLE MUSTER, in denen sie leben. Sie glauben, dass die konkrete Art und Weise, wie sie leben, der Lehre des Korans entspricht. Dazu zählt nach Jacob das PATRIARCHAT. Ferner (iii) gibt es nach Jacob neben den kulturellen Muster MACHTINTERESSEN, die sich der Religion und der kulturellen Muster bemächtigen, sie instrumentalisieren, um sie für die eigenen politischen Ziele nutzbar zu machen. Und (iv) in Europa haben die Gesellschaften die direkte Bindung an die Lehren der Religionen aufgehoben, um dadurch quer zu ALLEN Religionen und für ALLE Menschen (auch die nichtreligiösen) einen gemeinsamen WERTERAUM zu ermöglichen, in dem ALLE ohne Gewalt friedlich und respektvoll miteinander leben können.
  3. Daraus folgert Jacob, dass eine Diskussion um die Rolle der Frauen in Deutschland NICHT so sehr mit Argumenten der islamischen Religion geführt werden sollte (was auch die freiheitlich-demokratische Grundordnung mit ihrem Grundgesetz in Frage stellen würde), sondern mit Bezug auf das kulkturell-soziologische Muster eines Patriarchats, das dem Deutschen Werteraum widerspricht.
  4. In dem lebhaften, streckenweise sehr emotional-intensivem Gespräch, flammte all dies und noch viel mehr auf.

ZUSAMMENSTOSS UNTERSCHIEDLICHER KULTURELLER MUSTER

  1. Auf der einen Seite zeigte sich immer wieder, dass das allgemeine Wissen um den Islam (aber auch der christlichen und jüdischen Traditionen) kaum vorhanden ist (was bei Muslimen nicht unbedingt viel anders ist), auf der anderen Seite standen sich unterschiedliche deutsche (und westliche) Verhaltensmodelle und eben sehr patriarchalisch oder salafistisch anmutende Verhaltensweisen gegenüber. Ganz klar, für eine Frau, die in Deutschland aufgewachsen ist, wo der Einfluss eines (tendenziell) fundamentalistischen Christentums aus der Vergangenheit stark rückläufig ist, wo die Rechte der Frauen sowohl per Gesetz als auch im Alltag enorm zugenommen haben, wirken patriarchalische Verhaltensmuster und Werteüberzeugungen, wie sie von außen nach Deutschland hineingetragen werden, mindestens befremdlich, wenn nicht angsteinflößend, provozierend und rückwärtsgewandt.
  2. Wenn nun im deutschen Alltag Verhaltensmuster und Symbole aus eher muslimischen Kontexten auftreten (die christlichen sind seit Jahrzehnten verblasst und verschlissen; das Christentum der letzten 150 Jahre hatte viele Ähnlichkeiten mit dem heutigen Islam im gesellschaftlichen Auftreten, was gerne vergessen wird), so wird dies zusätzlich dadurch verkompliziert, weil diejenigen Menschen, die solche Verhaltensmuster haben, sehr oft keine klare Zuordnung zulassen.

VIELFALT IM ALLTAG

  1. Ich arbeite an einer Universität, an der junge Menschen aus über 100 Nationen studieren. Junge Frauen mit Hintergründen im Hinduismus, Buddhismus, Islam, Judentum, Christentum, dazu mit sehr vielen Spielarten in jeder Richtung, aus unterschiedlichen Ländern, in unterschiedlichen familiären Zusammenhängen, meist noch berufstätig, um das Geld für ihr Studium zu verdienen, in ganz verschiedenen Berufen, in allen Varianten von Kleidung, auch viele mit Kopftüchern; z.T. als Gaststudierende, meistens aber als Deutsche mit Eltern aus verschiedenen Ländern. Warum trägt die eine ein Kopftuch, die andere nicht? Warum bilden Deutsche im Ausland ‚Deutsche Kolonien‘ in denen man deutsches Brauchtum pflegt und primär Deutsch spricht? Aus religiöser Überzeugung oder vielleicht eher, weil man etwas soziale Nähe in einer fremden Kultur sucht? Warum laufen Fußballfans mit ihren Schals herum? Warum müssen Mitglieder christlicher Orden (heute weniger, bis vor wenigen Jahrzehnten immer und überall) eine Ordenskleidung tragen? Warum tragen Frauen fast zwanghaft das, was die jeweilige Mode gerade diktiert? Was ist, wenn man dem Trend nicht folgt? Warum kreieren mittlerweile immer mehr muslimische Frauen (aus vielen verschiedenen Ländern) eine eigene Mode? Mit Religion und Politik hat dies in der Regel nichts zu tun. Wäre das nicht auch eine eigene Form von Revolution und Emanzipation, dass junge muslimische Frauen die Insignien des Patriarchats und des fundamentalistischen-politischen Islams durch eigene Modepraktiken schlicht unterlaufen, umwerten, verändern, dieser Tradition ihren eigenen Stempel aufdrücken? Vielleicht sollten sich eingefleischte Feministen mal direkt mit den jungen muslimischen Frauen auseinandersetzen; möglicherweise könnten alle etwas lernen.

VERSCHIEDENE GENERATIONEN

  1. Interessant waren in unserem Gespräch auch die Unterschiede zwischen jüngeren Frauen (23-28) und älteren (über 50). Während die älteren Frauen zuerst die Abweichungen und möglichen Bedrohungen sahen, erlebten die jüngeren Frauen die muslimischen Frauen in ihrem Alltag als jene, die sich bemühen, in ihrem Alltag mit Kindern, Familie und Arbeit klar zu kommen, und die Schwierigkeiten weniger im Umgang mit der Deutschen Gesellschaft erleben, sondern mit den vielen Unterschieden innerhalb der anderen Kulturen und ihren z.T. rigorosen Wertesystemen.

VERÄNDERUNGSPROZESSE BRAUCHEN ZEIT

  1. Mit Blick auf die Veränderungsprozesse in Deutschland und Europa in den letzten Jahrhunderten wurde auch darauf aufmerksam gemacht, dass man möglicherweise die aktuellen Anpassungsprozesse als langatmige Prozesse sehen muss, als eine Angelegenheit von Generationen. Die Gastarbeiter von vor ca. 50 Jahren sind heute normaler Teil der Deutschen Gesellschaft; in weiteren 50 Jahren wird es vermutlich eine weitere Normalisierung geben.

MEHRHEITSGESELLSCHAFT IM WANDEL

  1. Allerdings, dies wurde auch bemerkt, erfordern solche Anpassungsprozesse Engagement auf allen Seiten. Auch die, die zur Zeit die Mehrheiten in Deutschland bilden, müssen sich immer wieder neu selbst die Frage stellen, was sind da genau die Werte, die im Gesetz, in der Verfassung stehen? Was heißt Menschenwürde und Religionsfreiheit heute? Dies ist eine Chance, die Verfassung in den Köpfen und Herzen lebendig zu halten. Der leichthändige Rückzug einer CSU auf die sogenannte Leitkultur mit christlichen Werten ist so, wie er bislang propagiert wird, historisch und inhaltlich schlicht falsch. Statt einfach Parolen in die Welt zu setzen sollte die CSU die historische Gelegenheit ergreifen, und einen entsprechenden gesellschaftlichen Diskurs beflügeln, in dem die Werte des Grundgesetzes neu erlebt und verstanden werden, statt eine kaum verstandene Leitkultur mit christlichem Standards einfach roboterhaft zu deklamieren. Das hilft niemandem.
  2. Auch unabhängig von religiösen Einflüssen befindet sich die industrialisierten Länder in einem dramatischen Struktur- und Wertewandel, der NICHT von den Religionen kommt, sondern von den empirischen Wissenschaften und den aktuellen Technologietrends. Während die Religionen sich oft bizarre Wortwechsel über Nebensächlichkeiten leisten, gibt es in der modernen Wissenschaft momentan weit und breit überhaupt keine Werte mehr, weil die Rolle des Menschen als möglichem Träger von Werten sich völlig aufgelöst hat. Der Mensch kommt wissenschaftlich so gut wie nicht mehr vor (und Religionen damit automatisch auch nicht). Zugleich lösen sich die demokratischen Strukturen von innen her auf, da technologische Entwicklungen viele klassische Grundwerte (z.B. Privatheit, individuelle Freiheit)  weitgehendschon  aufgelöst haben, und die Politik unter dem Motto ‚Sicherheit‘ dabei ist, mehr und mehr Freiheiten zu opfern. Zugleich grassiert ein Lobbyismus, der die normalen demokratischen Prozesse ab absurdum führt. Das ist ein Wertewandel, der an die Substanz geht; ob Religion hier eine Rolle spielen  könnte, ist fraglich; sicher nicht in jener Form der Vergangenheit, die sich durch Machtintrigen und fundamentalistisches Denken unglaubwürdig gemacht hat…. (ein gewisser Jesus von Nazareth starb damals (so heißt es) freiwillig am Kreuz, ohne Rekurs auf Machtmittel …)

DEN BLICK ETWAS AUSWEITEN

Vereinfachter Überblick zur Entstehungszeit der großen Religionen der Welt mit wichtigsten Aufspaltungen

Vereinfachter Überblick zur Entstehungszeit der großen Religionen der Welt mit wichtigsten Aufspaltungen

  1. Vielleicht könnte es in solch einer Situation auch hilfreich sein, nicht immer nur über Details einer Religion zu sprechen, ohne historische Kontexte. Stattdessen könnte man mal die Gesamtheit der Religionen in den Blick nehmen (siehe vereinfachendes Schaubild), ihre Entstehungen, die Vielzahl an Motiven, die bei der Gründung und den vielen Aufspaltungen eine Rolle gespielt haben. Auffällig ist auf jeden Fall, dass alle diese vielen Formen und Regeln kaum etwas mit Gott zu tun haben scheinen, dafür aber sehr viel mit menschlichen Ängsten, Wünschen, Fantasien, Bedürfnissen, vor allem mit blanker Macht.
  2. Falls Religion irgendwie für die Menschen (und das Leben überhaupt wichtig sein sollte), dann wäre heute ein guter Zeitpunkt, sich dieser Frage unvoreingenommen zu widmen, quer zu ALLEN Religionen, unter Einbeziehung ALLER wissenschaftlicher und kultureller Erkenntnisse. Dass die aktuellen Religionen möglicherweise NICHT authentisch sind, kann man daran ablesen, wie wenig sie bereit und fähig sind, eine friedliche Zukunft für ALLE Menschen zu denken und zu praktizieren, in der der Respekt vor JEDEM Menschen grundlegend ist. Es gibt keinen Automatismus für eine gelungene Zukunft. Aber ohne eine gemeinsame Lösung jenseits von Diktaturen, Gewalt und dogmatischem Wissen wird die Zukunft nicht gelingen.
  3. Was ist mit jenen gesellschaftlichen Systemen mit selbsternannten großen Anführern, wenn diese (in absehbarer Zeit) sterben? Eine Gesellschaft, die auf der Vergöttlichung einzelner sterblicher Individuen setzt hat keine wirklich nachhaltige Lebenskraft, und Sicherheit ohne Freiheit gleicht einer Todeszelle; das Ende ist sehr absehbar.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

MEMO: AUGE IN AUGE MIT DER KÜNSTLICHEN INTELLIGENZ. PHILOSOPHIESOMMER 2016 IN DER DENKBAR – Sitzung vom 12.Juni 2016

Entsprechend den vielfachen Wünschen der Teilnehmer war für die Sitzung am 12.Juni 2016 ein Experte für intelligente Maschinen eingeladen worden, eine kleine Einführung in die aktuelle Situation zu geben.

Ziel des Beitrags sollte es sein, anhand konkreter Beispiele ein wenig mehr zu verdeutlichen, was intelligente Maschinen wirklich leisten können. Im anschließenden Diskurs sollte es wieder darum gehen, diesen Beitrag als Ausgangspunkt zu nehmen, um die Fragen der anwesenden Teilnehmer und ihre Gedanken zu Worte kommen zu lassen.

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Gedankenskizze von der Sitzung des Philosophiesommers 2016 in der DENKBAR vom 12.Juni 2016

Das Diagramm gibt einen ersten Überblick über die Struktur der Sitzung. Im Einstieg wurden in lockerer Form verschiedene Videos vorgestellt, immer wieder unterbrochen durch ad hoc Erläuterungen, die sehr konkrete Eindrücke von den agierenden Forschern und ihren Algorithmen vermittelten. Danach gab es ein sehr lebhaftes Gespräch, in dem weniger die Details der Algorithmen diskutiert wurden, sondern mehr die Gefühle, Befürchtungen und Fragen, die das Ganze bei allen auslöste.

KI DIREKT

Das Gebiet der KI ist ziemlich groß. An diesem Tag wurde von einem kleinen Ausschnitt berichtet, er sich aber zur Zeit im Zentrum größten Interesses befindet. Es ging vornehmlich um Bilderkennung und ein bisschen um Methoden des anfangshaften Verstehens von Sprache.

Bei der Bilderkennung wurden Beispiel gezeigt, wie Rechner heute Szenen analysieren und darin dann einzelne Objekte erkennen könne; wie dann in einer Folge von Szenen die erkannten Objekte räumliche Strukturen bilden können (Räume, Straßen, …), in denen man dann nach Pfaden/ Wegen suchen kann. Unter den Videos war auch eine künstlerische Anwendung, die zeigte, dass man diese Technologien auch ganz anders einsetzen kann. (Ergänzend kann man z.B. auch hinweisen auf Bereiche wie die Musik, in der KI mittlerweile komplexe Musikstücke analysieren und neu arrangieren kann, und sogar als eigenständiger Musiker in einer Band mitspielen kann, z.B. „Wunder der Technik Musikalische Drohnen ersetzen das Orchester „, oder „Neue Jobs für Roboter„).

Bei dem anfangshaften Verstehen von Sprache wurden Methoden vorgestellt, die aus den Verteilungen von Worten und Wortverbindungen zu Bedeutungsschätzungen kommen können, und auch hier wieder alltagspraktische Anwendungen wie jene, bei der Texte eines Politikers künstlerisch so abgewandelt werden konnten, dass sie wie die Texte dieses Politikers aussahen, aber vom Algorithmus produziert worden waren. Aber auch hier gilt, dass dies nur ein kleiner Ausschnitt von dem war, was heute schon im Einsatz ist (man denke an den sogenannten Roboter-Journalismus, wo die Nachrichten und Artikel ganzer Webseiten mittlerweile komplett durch Algorithmen erstellt werden, z.B. „Roboterjournalismus: Maschinen ohne Moral“ oder „Automatisierter Journalismus: Nehmen Roboter Journalisten den Job weg?)

GESPRÄCH : WIDERHALL IN UNS

Bei den Teilnehmern überwog die Skepsis die Faszination.

KI AKTEURE

Auffällig war den meisten, wie jung die Akteure in der Szene waren, selbst die Chefs und CEOs von milliardenschweren Unternehmen. Wie diese (scheinbar) unbekümmert die Vorzüge ihrer Technik priesen, begeistert, enthusiastisch; Nachdenklichkeiten, kritische Überlegungen sah man nicht (im Kontrast dazu vielleicht die Eindrücke, die man von deutschen Konzernen hat mit ihren schwerfälligen autoritären Strukturen, mit ihren zementierten Abläufen, der großen Risikoaversion…). Der Geist der KI-Akteure hingegen erzeugt Neues, Innovatives, bewegt die Welt. In Erinnerungen an den Bau der Atombombe mit den begeisterten Forschern für das technische faszinierend Machbare stellte sich mancher aber auch die Frage, ob diese Unbekümmertheit, diese emotionslose Technik, nicht auch gefährlich ist (je mehr Bilderkennung z.B. im öffentlichen Bereich, dann auch mehr umfassende Kontrolle, Überwachung. Das ‚System‘ weiß dann immer, wo man gerade ist und mit wem er zusammen ist (immerhin hat sich das US-Verteidigungsministerium den Chef von Alphabet (dazu gehört google) mittlerweile offiziell als Berater geholt)). Andere fragten sich, ob es in Zukunft eigentlich nur noch Informatiker gibt (quasi als allfällige Diener der KI), während alle anderen überflüssig werden.

OFFENE ZIELE

Sieht man die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften, dann kann (und muss?) man die Frage, nach dem darin wirkenden Fortschrittsbegriff stellen, nach den wirkenden Kriterien.

WAS IST INTELLIGENZ?

Ein Teilaspekt ist der Begriff der Künstlichen Intelligenz mit dem Teilbegriff Intelligenz. Was ist damit eigentlich gemeint? Auf welche Intelligenz bezieht man sich? In der Psychologie benutzt man seit ca. 100 Jahren einen operationalisierten Intelligenzbegriff zur Messung der Intelligenz (Binet). Doch diese Betrachtungsweise ist sehr quantifizierend und wird vielfach kritisiert, auch mit Verweis auf kulturelle Unterschiede. Im Unterschied zur Pschologie findet man im Bereich der KI selbst bzw. in der Informatik keine einheitliche Definition von Intelligenz (siehe z.B. KI ). Während die KI im klassischen Sinne sich an der Intelligenz von biologischen Systemen orientiert, die nachempfunden werden soll, findet sich heute vielfach ein engeres, ingenieurmäßiges Verstehen von KI als Maschinelles Lernen. Hier wird die Frage nach Intelligenz im allgemeinen gar nicht mehr gestellt. Stattdessen gibt es immer konkrete, spezielle Aufgabenstellungen, die technisch gelöst werden sollen, und die Lösung konzentriert sich dann ausschließlich auf diese eingeschränkten Aspekte.

SELBSTBESCHREIBUNG DES MENSCHEN ALS MASCHINE

Die Diskussion um den Intelligenzbegriff streift auch das Phänomen, dass die Menschen in nahezu allen Epochen dahin tendieren, sich selbst immer im Licht der neuesten Erkenntnisse und Techniken zu beschreiben, sozusagen auf der Suche nach sich selbst. Eigentlich weiß kein Mensch so richtig, wer er ist und ist dankbar für jedes Bild, was man ihm anbietet. So vergleichen sich Kinder heute häufig mit einem PC: ‚mein Kopf ist wie ein Computer‘; ‚ich habe das nicht abgespeichert‘; ‚meine Festplatte ist leer’…. Zu Zeiten eines La Mettrie (1709 – 1751)  wurde der Geist der Dualisten (vor allem repräseniert duch Descartes) aus dem Körper des Menschen verbannt; der Körper war nur noch eine Maschine (im damaligen Verständnis) ohne Geist.

VIRTUALITÄT ALS GEFAHR?

Mit Blick auf die KI und die enorme Zunahme an digitalen Räumen als virtuelle Welten wurde auch die Frage aufgeworfen, wieweit dies eine Gefahr darstellt? Verzetteln wir uns nicht? Wissen wir noch Virtuelles und Reales auseinander zu halten? Dazu sei angemerkt, dass sich das Erleben und Denken des Menschen ja primär in seinem Gehirn abspielt, das als Gehirn im Körper sitzt ohne direkten Weltbezug. D.h. schon das normale Denken des Menschen hat das Problem, dass es dem einzelnen zwar real erscheint, inhaltlich aber – bezogen auf eine unterstellte Außenwelt – mit der Außenwelt nicht automatisch übereinstimmen muss. Es gehört ja gerade zur Kulturgeschichte des Menschen, dass er mühsam lernen musste, dass die meisten Gedanken der Vergangenheit eben nur Gedanken waren und nicht die Welt beschrieben haben, wie sie wirklich (=empirisch überprüfbar) ist. Insofern stellen die neuen virtuellen Welten nichts wirklich Neues dar, wohl aber eine Modifikation der Situation, die neu verstanden und gelernt werden muss.

BRAUCHEN WIR NOCH MEHR EVOLUTION?

Greift man nochmals den Gedanken auf, dass die aktuelle Techniksituation als Momentaufnahme eines Prozesses mit einer Geschichte und möglichen Zukünften Teil der Evolution ist, wurde gefragt, ob wir noch mehr Evolution brauchen? Außerdem, welches Ziel hat diese Evolution?

Mit Blick auf den Blogeintrag vom 11.Juni 2016 wurde eingeblendet, dass sich die Frage nach der Evolution möglicherweise anders stellt. Schliesslich sind wir selbst, alle Menschen, alle Lebewesen, Produkt der Evolution, wir sind Teilnehmer, aber bislang nicht als Herren des Geschehens. Und vieles spricht dafür, dass alle Phänomene im Umfeld des Menschen auch nicht los lösbar sind von der Evolution. Sie gehören quasi dazu, wenn auch vielleicht in einem neuen qualitativen Sinn. Soweit wir heute erkennen können, ist es seit dem Auftreten des homo sapiens sapiens (hss) zum ersten Mal seit dem Auftreten des Lebens auf der Erde möglich, dass das Leben als Ganzes sich in Gestalt des hss sich quasi selbst anschauen kann, es kann sich mehr und mehr verstehen, es kann seine eigenen Baupläne lesen und mehr und mehr abändern. Dies eröffnet für das Leben auf der Erde (und damit im ganzen bekannten Universum) eine völlig neue und radikale Autonomie. Die allgemeine physikalische Entropie wird bislang dadurch zwar nur lokal aufgehoben, aber immerhin, dass es überhaupt möglich ist, über die bekannten Naturgesetze hinaus durch bestimmte Prozesse Strukturen zu erzeugen, die der Entropie zuwider laufen, ist ein bemerkenswertes Faktum, das bislang von der Physik so gut wie gar nicht zur Kenntnis genommen wird (und auch nicht von den Akteuren selbst, dem hss).

RADIKALE AUTONOMIE

Möglicherweise ist die fundamentale Tragweite der neuen radikalen Autonomie des Lebens auch deshalb noch nicht so recht ins Bewusstsein getreten, weil im Alltag, im konkreten Dasein, die körperlichen Grenzen sehr deutlich sind, die ganze Trieb-, Bedürfnis-, und Emotionsstruktur des Menschen in ihrer Konkretheit und Intensität vielfach als so stark empfunden wird, dass man die großen Linien, die geradezu kosmologische Dimension dieser radikalen Autonomie noch kaum wahrnimmt.

Dazu kommt, dass die Tatsache, dass sich fast alle interessanten Prozesse im Innern des Menschen abspielen, es notwendig macht, dass diese inneren Prozesse über Kommunikation miteinander koordiniert werden müssten. Dies ist aufwendig und schwierig. Viele (die meisten) Menschen scheitern hier, kapitulieren. So verharren sie – und damit ganze Generationen – in bestimmten Empfindungs-, Denk- und Handlungsmustern, die nicht weiter führen, die eher Rückschritt bedeuten.

Aktuell erscheint es offen, in welche der vielen möglichen Zukünfte wir uns bewegen werden. Werden demnächst die intelligenten Maschinen alles übernehmen, weil der hss ausgedient hat? Oder wird es doch bei einer Symbiose auf hohem Niveau bleiben, in der der hss die intelligenten Maschinen für sich nutzt und die intelligenten Maschinen durch den Menschen Räume erobern können, die ihnen sonst verschlossen wären? Oder – und diese dritte Möglichkeit sieht aktuell – soweit ich sehe – eigentlich noch niemand – wird er Mensch in den nächsten Jahren neu erwachen und begreifen, dass diese radikale Autonomie etwas radikal Neues darstellt, etwas, das es so noch nie zuvor in den 13.8 Mrd Jahren gegeben hatte?

Um die radikale Autonomie nutzen zu können, muss der Mensch erstmalig in der Geschichte des Lebens die Frage nach den Werten, nach den Zielen, wohin die Reise eigentlich gehen soll, selber stellen … und beantworten. Bis zum hss gab es keine Wertediskussion. Die Evolution stellte einen Prozess dar, in dem bestimmte Lebensformen im Kontext der Erde überlebt hatten; das waren die einzigen Werte im Nachhinein. Vor der Neuwerdung im Reproduktionsprozess gab es keine expliziten Werte. Es gab bisherige Erfolge und viel Zufall.

Einen Überblick über alle Beiträge zum Philosophiesommer/ zur Philosophiewerkstatt nach Titeln findet sich HIER.

DENKEN UND WERTE – DER TREIBSATZ FÜR ZUKÜNFTIGE WELTEN (Teil 1)

  1. In dem Beitrag Digitalisierung und die Religionen vom 9.März 2016 gibt es neben vielen anderen Motiven zwei Motive, die besonders hervortreten: einmal das Momentum (i) kombinatorischer Räume, die gefüllt werden können, und zum anderen (ii) das Momentum der Auswahl, welche Teilräume wie gefüllt werden sollen.

KOMBINATORISCHER RAUM BIOLOGISCHE ZELLE

  1. Im Rahmen der biologischen Evolution auf Zellebene z.B. eröffnet sich der kombinatorische Raum an verschiedenen Stellen. Eine ist jene, wo das Übersetzungsmolekül (das Ribosom) von den gespeicherten potentiellen Informationen (DNA mit ihren Abwandlungen) eine Transformation in andere Moleküle (Proteine) überleitet , mit denen sich neue Zellstrukturen aufbauen lassen. Die Verfügbarkeit dieser Proteine, ihre chemischen Eigenschaften und die Umgebungseigenschaften definieren einen potentiellen kombinatorischen Raum, von dem im konkreten Übersetzungsprozess dann ein bestimmter Teilraum ausgewählt wird.
  2. Aber auch schon der potentielle Informationsspeicher (realisiert mittels DNA-Molekülen) selbst, wie auch seine verschiedenen Transformationsprozesse bis zum Übersetzungsprozess in Proteine repräsentieren ebenfalls kombinatorische Räume, deren Realisierung viel Spielraum zulässt.
  3. Man könnte diese molekülbasierte Informationsspeicherung, diese Transformationen der Moleküle, als eine Urform des Denkens ansehen: Moleküle fungieren als Repräsentanten möglicher Konstruktionsprozesse, und diese Repräsentanten können verändert, rekombiniert werden zu neuen Strukturen, die dann zu neuen Konstruktionsprozessen führen. Man hat also – vereinfacht – ein Funktion der Art repr: M_inf x M_tr x MMprot —> Z, d.h. die Reproduktionsfunktion repr die mittels Molekülen, die als Informationsträger fungieren (M_inf), mittels Molekülen (M_tr), die als Übersetzer fungieren und Molekülen (MM_prot), die als Proteine fungieren können, daraus neue Zellstrukturen entstehen lassen kann.

GELIEHENE PRÄFERENZEN

  1. So wundersam diese Urform des Denkens immer neue kombinatorische Räume strukturell aufspannen und dann im Reproduktionsprozess als reales Strukturen konkretisieren kann, so hilflos und arm ist dieser Mechanismus bei der Beurteilung, Bewertung, welche der möglichen Teilräume denn bevorzugt vor anderen realisiert werden sollten. Soll das Fell weiß oder schwarz sein? Benötigt man überhaupt Zähne? Wozu so komplizierte Hand- und Fingergelenke? Warum tausende Kilometer reisen, um zu brüten? … Die Urform des Denkens ist unfähig, ihre potentielle innere Vielfalt selbständig zu bewerten. Man kann auch sagen, die Urform des Denkens kann zwar kombinieren, ist aber blind wenn es darum geht, gezielt Teilräume auszuwählen, die sich als interessante Kandidaten für das Leben anbieten.
  2. Dabei ist schon die Wortwahl ‚interessante Kandidaten für das Leben‘ problematisch, da der Begriff Leben eine Schöpfung von Lebewesen ist, die viele Milliarden Jahre später erst auftreten und die versuchen im Nachhinein, von außen, durchtränkt von neuen Bedingungen, die zunächst bedeutungsleere Wortmarke Leben mit Bedeutung zu füllen. Die Urform des Denkens verfügt über keinen externen Begriff von Leben und es gibt keine Ingenieure, die der Urform des Denkens zuflüstern können, was sie tun sollen.

MOLEKÜLE ALS INFORMATIONSSPEICHER IMPLIZITE PRÄFERENZEN

  1. Allerdings beinhaltet schon die Urform des Denkens über ein Moment, das außerordentlich ist: jene Moleküle (DNA), die als Speicher potentieller Informationen dienen. Zu einem bestimmten Zeitpunkt repräsentieren diese Informations-Moleküle einen eng umgrenzten Teilraum eines kombinatorischen Raumes und wirken für den Übersetzungsprozess wie eine Art Anweisung in Form eines Bauplans. Gemessen an dem theoretisch möglichen kombinatorischen Raum stellt der Plan des Informationsmoleküls eine Auswahl dar, eine Selektion und damit zeigt sich hier eine indirekte Präferenz für die Informationen auf dem Molekül vor allen anderen möglichen Informationen. Die Urform des Denkens kann zwar im Prinzip einen riesigen potentiellen kombinatorischen Raum repräsentieren und transformieren, die konkrete Zelle aber repräsentiert in diesem riesigen Raum einen winzigen Teilbereich, mit einem aktuellen Ausgangspunkt – gegeben durch die aktuellen Informationen auf dem Informationsmolekül M_inf – und potentiellen Veränderungsrichtungen – gegeben durch die Transformationsprozesse einschließlich der verfügbaren Materialien und Pannen im Prozess. Anders formuliert, die Informationsmoleküle repräsentieren eine komplexe Koordinate (KK) im kombinatorischen Raum und die Transformationsprozesse (einschließlich Pannen und Materialien) repräsentieren eine Menge von möglichen Veränderungsrichtungen (DD), an deren Endpunkten dann jeweils neue komplexe Koordinaten KK_neu_1, …, KK_neu_n liegen.
  2. Wichtig: eine Zelle enthält über die Informationsmoleküle zwar implizite Präferenzen/ Werte, die die Urform des Denkens steuern, diese Präferenzen werden aber nicht von der Zelle selbst generiert, sondern entstehen aus einem Wechselspiel/ aus einer Interaktion mit der Umgebung! Biologische Strukturen (bis heute nur bekannt auf dem Planeten Erde in unserem Sonnensystem in einem geschützten Bereich der Galaxie Milchstraße des uns bekannten Universums) kommen nie isoliert vor, sondern als Teil einer Umgebung, die über sogenannte freie Energie verfügt.

OHNE ENERGIE GEHT NICHTS

  1. Biologische Zellen sind Gebilde, die für ihre Konstruktion und für ihr Funktionieren solche freie Energie brauchen. Der Umfang ihrer Strukturen wie auch die Dauer ihres Funktionierens hängt direkt und ausschließlich von der Verfügbarkeit solcher freien Energie ab. Bezogen auf den kombinatorischen Raum, der durch die Kombination (Informationsmoleküle, Transformationsmolekül, Bausteine) potentiell gegeben ist, ist unter Berücksichtigung der notwendigen Fähigkeit zum Finden und Verarbeiten von freier Energie nicht neutral! Definieren wir den potentiellen kombinatorischen Raum PKK für biologische Zellen als Raum für mögliche komplexe Koordination KK (also KK in PKK), dann sind im potentiellen kombinatorischen Raum nur jene Teilräume von Interesse, in denen die biologische Zelle über hinreichende Fähigkeiten verfügt, freie Energie zu finden und zu nutzen. Nennen wir die Gesamtheit dieser interessanten Teilräume PKK+, mit PKK+ subset PKK.

GEBORGTE PRÄFERENZEN

  1. Da die individuelle biologische Zelle selbst über keinerlei explizite Informationen verfügt, wo überall im potentiell kombinatorischen Raum PKK die interessanten Teilräume PKK+ liegen, stellt sie – trotz ihrer eigenen Reproduktionstätigkeit – eher ein passives Element dar, das sich mit geborgten Präferenzen im potentiellen kombinatorischen Raum PKK bewegt, ohne explizit wissen zu können, ob es auf seinem Weg durch den potentiellen kombinatorischen Raum PKK auch tatsächlich auf solche komplexen Koordinaten KK+ stößt, die ihr eine minimale Lebensfähigkeit erlauben.
  2. Da wir vom Jahr 2016 rückwärts blickend wissen, dass diese passiven Elemente es in ca. 4 Mrd Jahren geschafft haben, komplexe Strukturen unvorstellbaren Ausmaßes zu generieren (ein Exemplar des homo sapiens soll z.B. ca. 37 Billionen Körperzellen haben (davon ca. 100 Mrd als Gehirnzellen), dazu ca. 200 Billionen Bakterien in seinem Körper plus ca. 220 Milliarden auf seiner Haut (siehe dazu Kegel-Review Doeben-Henisch), muss man konstatieren, dass die permanente Interaktion zwischen biologischer Zelle und ihrer Umgebung offensichtlich in der Lage war, all diese wichtigen Informationen PKK+ im potentiellen kombinatorischen Raum PKK zu finden und zu nutzen!
  3. Für die Frage der potentiellen Präferenzen/ Werte gilt für diesen gesamten Zeitraum, dass sich die implizit gespeicherten Präferenzen nur dadurch bilden konnten, dass bestimmte generierte Strukturen (M_inf, M_tr, MM_prot) sich immer von einer positiven komplexen Koordinate zur nächsten positiven Koordinate bewegen konnten. Dadurch konnten die gespeicherten Informationen kumulieren. Aus der Evolutionsgeschichte wissen wir, dass ein Exemplar des homo sapiens im Jahr 2016 eine Erfolgsspur von fast 4 Mrd Jahren repräsentiert, während in diesem Zeitraum eine unfassbar große Zahl von zig Mrd anderen generierte Strukturen (M_inf, M_tr, MM_prot) irgendwann auf eine negative komplexe Koordinate KK- geraten sind. Das war ihr Ende.

ERHÖHUNG DER ERFOLGSWAHRSCHEINLICHKEIT

  1. Für den Zeitraum bis zum Auftreten des homo sapiens müssen wir konstatieren, dass es Präferenzen/ Werte für ein biologisches System nur implizit geben konnte, als Erinnerung an einen erreichten Erfolg im Kampf um freie Energie. Unter Voraussetzung, dass die umgebende Erde einigermaßen konstant war, war die Wahrscheinlichkeit, von einer positiven Koordinate KK+ zu einer weiteren komplexen Koordinate KK+ zu kommen um ein Vielfaches höher als wenn das biologische System nur rein zufällig hätte suchen müssen. Die gespeicherten Informationen in den Informationsmolekülen M_inf stellen somit sowohl erste Abstraktionen von potentiellen Eigenschaften wie auch von Prozessen dar. Damit war es Anfangshaft möglich, die impliziten Gesetzmäßigkeiten der umgebenden Welt zu erkennen und zu nutzen.

URSPRUNG VON WERTEN

  1. Es fragt sich, ob man damit einen ersten Ort, einen ersten Ursprung potentieller Werte identifizieren kann.
  2. Vom Ergebnis her, von den überlebensfähigen biologischen Strukturen her, repräsentieren diese einen partiellen Erfolg von Energienutzung entgegen der Entropie, ein Erfolg, der sich in der Existenz von Populationen von solchen erfolgreichen Strukturen als eine Erfolgsspur darstellt. Aber sie alleine bilden nur die halbe Geschichte. Ohne die umgebende Erde (im Sonnensystem, in der Galaxie…), wäre dieser Erfolg nicht möglich. Andererseits, die umgebende Erde ohne die biologischen Strukturen lässt aus sich heraus nicht erkennen, dass solche biologische Strukturen möglich noch wahrscheinlich sind. Bis heute ist die Physik mehr oder weniger sprachlos, wirkt sie wie paralysiert, da sie mit ihren bisherigen (trotz aller mathematischen Komplexität weitgehend naiven) Modellen nicht einmal ansatzweise in der Lage ist, die Entstehung dieser biologischen Strukturen zu erklären. Von daher müssen wir fordern, dass die umgebende Erde — letztlich aber das gesamte bekannte Universum — die andere Hälfte des Erfolgs darstellt; nur beide zusammen geben das ganze Phänomen. In diesem Fall würde ein reduktiver Ansatz nicht vereinfachen, sondern das Phänomen selbst zerstören!

ONTOLOGISCHE GELTUNG VON BEZIEHUNGEN

  1. Dies führt zu einem bis heute ungeklärten philosophischen Problem der ontologischen Geltung von Funktionen. In der Mathematik sind Funktionen die Grundbausteine von allem, und alle Naturwissenschaften wären ohne den Funktionsbegriff aufgeschmissen. Eine Funktion beschreibt eine Beziehung zwischen unterschiedlichen Elementen. In der Mathematik gehören diese Elemente in der Regel irgendwelchen Mengen an, die einfach unterstellt werden. Wendet man das mathematische Konzept Funktion auf die empirische Wirklichkeit an, dann kann man damit wunderbar Beziehungen beschreiben, hat aber ein Problem, die in der Mathematik unterstellten Mengen in der Realität direkt erkennen zu können; man muss sie hypothetisch unterstellen. Was man direkt beobachten und messen kann sind nicht die funktionalen Beziehungen selbst, sondern nur isolierte Ereignisse in der Zeit, die der Beobachter in seinem Kopf (Gehirn, Gehirnzellen…) verknüpft zu potentiellen Beziehungen, die dann, wenn sie sich hinreichend oft wiederholen, als gegebener empirischer Zusammenhang angenommen werden. Was ist jetzt empirisch real: nur die auslösenden konkreten individuellen Ereignisse oder das in der Zeit geordnete Nacheinander dieser Ereignisse? Da wir ja die einzelnen Ereignisse protokollieren können, können wir sagen, dass auch das Auftreten in der Zeit selbst empirisch ist. Nicht empirisch ist die Zuordnung dieser protokollierten Ereignisse zu einem bestimmten gedachten Muster/ Schema/ Modell, das wir zur gedanklichen Interpretation benutzen. Die gleichen Ereignisse lassen in der Regel eine Vielzahl von unterschiedlichen Mustern zu. Einigen wir uns kurzfristig mal auf ein bestimmtes Muster, auf den Zusammenhang R(X, …, Z), d.h. zwischen den Ereignissen X, …, Z gibt es eine Beziehung R.
  2. Biologische Systeme ohne Gehirn konnten solche Relationen in ihrem Informations-Moleküle zwar speichern, aber nicht gedanklich variieren. Wenn die Beziehung R stimmen würde, dann würde sie zur nächsten positiven komplexen Koordinate KK+ führen, was R im Nachhinein bestätigen würde; wenn R aber zu einer negativen komplexen Koordinate KK- führen würde, dann war dies im Nachhinein eine Widerlegung, die nicht mehr korrigierbar ist, weil das System selbst verschwunden (ausgestorben) ist.
  3. Im Gehirn des homo sapiens können wir ein Beziehungsmuster R(X, …, Z) denken und können es praktisch ausprobieren. In vielen Fällen kann solch ein Interpretationsversuch scheitern, weil das Muster sich nicht reproduzieren lässt, und in den meisten solchen Fällen stirbt der Beobachter nicht, sondern hat die Chance, andere Muster R‘ auszuprobieren. Über Versuch und Irrtum kann er so – möglicherweise irgendwann – jene Beziehung R+ finden, die sich hinreichend bestätigt.
  4. Wenn wir solch ein positiv bestätigtes Beziehungsmuster R+ haben, was ist dann? Können wir dann sagen, dass nicht nur die beteiligten empirischen Ereignisse empirisch real sind, sondern auch das Beziehungsmuster R+ selbst? Tatsächlich ist es ja so, dass es nicht die einzelnen empirischen Ereignisse als solche sind, die wir interessant finden, sondern nur und ausschließlich die Beziehungsmuster R+, innerhalb deren sie uns erscheinen.
  5. In der Wechselwirkung zwischen umgebender Erde und den Molekülen ergab sich ein Beziehungsmuster R+_zelle, das wir biologische Zelle nennen. Die einzelnen Elemente des Musters sind nicht uninteressant, aber das wirklich frappierende ist das Beziehungsmuster selbst, die Art und Weise, wie die Elemente kooperieren. Will man dieses Beziehungsmuster nicht wegreden, dann manifestiert sich in diesem Beziehungsmuster R+_zelle ein Stück möglicher und realer empirisches Wirklichkeit, das sich nicht auf seine Bestandteile reduzieren lässt. Es ist genau umgekehrt, man versteht die Bestandteile (die vielen Milliarden Moleküle) eigentlich nur dadurch, dass man sieht, in welchen Beziehungsmustern sie auftreten können.
  6. Vor diesem Hintergrund plädiere ich hier dafür, die empirisch validierten Beziehungsmuster als eigenständige empirische Objekte zu betrachten, sozusagen Objekte einer höheren Ordnung, denen damit eine ontologische Geltung zukommt und die damit etwas über die Struktur der Welt aussagen.
  7. Zurück zur Frage der Präferenzen/ Werte bedeutet dies, dass man weder an der Welt als solcher ohne die biologischen Systeme noch an den biologischen Strukturen als solche ohne die Welt irgendwelche Präferenzen erkennen kann. In der Wechselwirkung zwischen Erde und biologischen Strukturen unter Einbeziehung einer Irreversibilität (Zeit) werden aber indirekt Präferenzen sichtbar als jener Pfad im potentiellen Möglichkeitsraum der komplexen Koordinaten KK, der die Existenz biologischer Systeme bislang gesichert hat.
  8. Dieser Sachverhalt ist für einen potentiellen Beobachter unaufdringlich. Wenn der Beobachter nicht hinschauen will, wenn er wegschaut, kann er diesen Zusammenhang nicht erkennen. Wenn der Beobachter aber hinschaut und anfängt, die einzelnen Ereignisse zu sortieren und versucht, aktiv Beziehungsmuster am Beispiel der beobachteten Ereignispunkte auszuprobieren (was z.B. die Evolutionsbiologie tut), dann kann man diese Strukturen und Prozesse erkennen, und dann kann man als Beobachter Anfangshaft begreifen, dass hier ein Beziehungsmuster R+_zelle vorliegt, das etwas ganz Außerordentliches, ja Einzigartiges im ganzen bekannten Universum darstellt.

Keine direkte, aber eine indirekte, Fortsetzung könnte man in diesem Beitrag sehen.

Einen Überblick von allen Beiträgen des Autors cagent in diese Blog nach Titeln findet sich HIER.

PHILOSOPHIESOMMER 2016 IN DER DENKBAR FRANKFURT

Alltag, Visionen der Wissenschaft, und die antike Philosophie: müssen hier Köpfe rollen oder gibt es neue gedankliche Fusion?

Sind Sie neugierig, oder meinen Sie, etwas beitragen zu können?

Kommen Sie dazu.

Geben Sie ihrer Eitelkeit drei Stunden Urlaub und lassen Sie zu, dass Sie in der Andersartigkeit vielleicht etwas Neues entdecken.

ORT:

DENKBAR Frankfurt
Spohrstrasse 46a

(Achtung: Parken schwierig! Man muss wirklich im Umfeld suchen)

PROGRAMMFORMAT

Moderation: Gerd Doeben-Henisch

16:00 Begrüßung

16:05 Kleine Performance aus dem PHILOSOPHY-IN-CONCERT Experiment

16:15 Eingangsüberlegungen

16:30 Erste offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

17:30 Blubberpause (Jeder kann mit jedem reden; Essen und Trinken)

18:00 Zweite offene Gesprächsrunde (simultan Erstellung eines Begriffsnetzwerkes)

18:45 Schlussstatements

19:00 Ende

Langsames Wegdiffundieren der Teilnehmer ….

ERINNERUNGEN…

In der Regel erscheint im Anschluss an eine Sitzung ein Bericht im Blog cognitiveagent.org, der auch Gelegenheit bietet, sich durch Kommentare oder eigene Beiträge an der Diskussion zu beteiligen.

INHALTLICHE LINIE

Da der Gesprächsprozess – abhängig von den Teilnehmern! – seine eigene Dynamik gewinnt, lässt sich keine genaue Prognose für alle kommenden Themen geben.

Das Rezept für den Start orientiert sich einmal an unseren alltäglichen Erfahrung einer Menschheit im Fiebertaumel zwischen Gewalt, Krieg, Katastrophen auf der einen Seite, eingespannt in ein umfassendes Räderwerk von Wirtschaft, Verwaltungen, Medienströmen, Politikbetrieb, Anwachsen von ‚tiefem Staat‘ mit mittlerweile grenzenloser Überwachung andererseits; dazu eine scheinbar entfesselte Wissenschaft, die – abgeschottet von der Öffentlichkeit – immer neue Details der Materie enthüllt, den Menschen als biochemische Masse sieht, deren Tage gezählt sind, und in automatisierten Produktionsprozessen denkt, die mit bekannten Wertesystemen kaum noch etwas zu tun haben. Und dann, man wagt es kaum zu sagen, gab es einen alten, sehr alten Philosophen, der mindestens 1800 Jahre lang das Denken In ganz Europa (Westen wie Osten; christliche Theologie genauso wie die islamische Theologie!) geprägt hat, Aristoteles, der heute auf allen Gebieten als abgeschrieben gelten kann. Und doch, schaut man sich die großen Lücken an, die die moderne Wissenschaft mit sich herumschleppt, kann man ins Grübeln kommen. Die Zukunft ist niemals einfach nur die Wiederholung des Gestern. Aber sie ist auch niemals das total ganz andere. Die biologische Evolution praktiziert das Modell der Zähmung des Zufalls durch Erinnerung; das Ergebnis nach ca. 4 Mrd Jahren sind u.a. wir, der homo sapiens. Es ist schwer zu verstehen, bis heute. Manche wollen es auch gar nicht verstehen…

ARCHIV

Wer sich für die bisherigen philosophischen Gespräche unter der Überschrift ‚Philosophiewerkstatt‘ interessiert, ist eingeladen, die Erinnerungsseite zu besuchen. Hier gibt es Berichte von den zurückliegenden Diskursen.

IST DIE SELBSTVERSKLAVUNG DER MENSCHEN UNTER DIE MASCHINEN EVOLUTIONÄR UNAUSWEICHLICH?

  1. In diesem Blog gab es in der Vergangenheit schon mehrere Einträge (z.B. den ersten großen Beitrag Kann es doch einen künstlichen Geist geben?), die sich mit der Frage beschäftigt haben, inwieweit Maschinen die Lernfähigkeit und die Intelligenz von Menschen erreichen oder sogar übertreffen können.
  2. In vielen wichtigen Punkten muss man diese Frage offensichtlich bejahen, obgleich es bis heute keine Maschine gibt, die das technische Potential voll ausnutzt.
  3. Umso bemerkenswerter ist es, welche Wirkungen Maschinen (Computer) auf die Gesellschaft erzielen können, obgleich sie noch weitab von ihrem Optimum agieren.
  4. In einem Blogeintrag anlässlich eines Vortrags Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab? hatte ich noch eine grundsätzlich positive Grundstimmung bzgl. dessen, was auf uns zukommt. Ich schrieb damals:
  5. Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!
  6. Mittlerweile beschleicht mich der Verdacht, dass wir aktuellen Menschen die nächste Phase der Evolution möglicherweise unterschätzen.
  7. Auslöser war der persönliche Bericht eines Managers in einem weltweiten IT-Konzern, der – von Natur aus ein Naturwissenschaftler, ‚knochentrocken‘, immer sachlich, effizient – zum ersten Mal nach vielen Jahren Ansätze von Emotionen zeigte, was die Entwicklung seiner Firma angeht. Die Firma (und nicht nur diese Firma, s.u.) entwickelt seit vielen Jahren ein intelligentes Programm, das eine Unzahl von Datenbanken auswerten kann, und zwar so, dass die Anfrage von Menschen ‚interpretiert‘, die Datenbanken daraufhin gezielt abgefragt und dem anfragenden Menschen dann mitgeteilt werden. Das Ganze hat die Form eines passablen Dialogs. Das Verhalten dieses intelligenten Programms ist mittlerweile so gut, dass anfragende Menschen nicht mehr merken, dass sie ’nur‘ mit einer Maschine reden, und dass die Qualität dieser Maschine mittlerweile so gut ist, dass selbst Experten in vielen (den meisten?) Fällen schlechter sind als diese Maschine (z.B. medizinische Diagnose!). Dies führt schon jetzt dazu, dass diese Beratungsleistung nicht nur nach außen als Dienstleistung genutzt wird, sondern mehr und mehr auch in der Firma selbst. D.h. die Firma beginnt, sich von ihrem eigenen Produkt – einem in bestimmtem Umfang ‚intelligenten‘ Programm – ‚beraten‘ (und damit ‚führen‘?) zu lassen.
  8. Wenn man sich in der ‚Szene‘ umhört (man lese nur den erstaunlichen Wikipedia-EN-Eintrag zu deep learning), dann wird man feststellen, dass alle großen global operierenden IT-Firmen (Google, Microsoft, Apple, Facebook, Baidu und andere), mit Hochdruck daran arbeiten, ihre riesigen Datenbestände mit Hilfe von intelligenten Maschinen (im Prinzip intelligenten Algorithmen auf entsprechender Hardware) dahingehend nutzbar zu machen, dass man aus den Nutzerdaten nicht nur möglichst viel vom Verhalten und den Bedürfnissen der Nutzer zu erfahren, sondern dass die Programme auch immer ‚dialogfähiger‘ werden, dass also Nutzer ’natürlich (= menschlich)‘ erscheinende Dialoge mit diesen Maschinen führen können und die Nutzer (= Menschen) dann zufrieden genau die Informationen erhalten, von denen sie ‚glauben‘, dass es die ‚richtigen‘ sind.
  9. Auf den ersten Blick sieht es so aus, als ob die Manager dieser Firmen dank ihrer überlegenen Fähigkeiten die Firmen technologisch aufrüsten und damit zum wirtschaftlichen Erfolg führen.
  10. Tatsache ist aber, dass allein aufgrund der Möglichkeit, dass man ein bestimmtes Informationsverhalten von Menschen (den aktuellen ‚Kunden‘!) mit einer neuen Technologie ‚bedienen‘ könnte, und dass derjenige, der dies zu ‚erschwinglichen Preisen‘ als erster schafft, einen wirtschaftlichen Erfolg erzielen kann (zu Lasten der Konkurrenz), diese rein gedachte Möglichkeit einen Manager zwingt (!!!), von dieser Möglichkeit Gebrauch zu machen. Tut der Manager es nicht läuft er Gefahr, dass die Konkurrenz es tut, und zwar vor ihm, und dass er dadurch möglicherweise auf dem Markt so geschwächt wird, dass die Firma sich davon u.U. nicht mehr erholt. Insofern ist der Manager (und die ganze Firma) ein Getriebener (!!!). Er kann gar nicht anders!
  11. Das, was den Manager ‚treibt‘, das ist die aktuelle technische Möglichkeit, die sich aufgrund der bisherigen technischen Entwicklung ergeben hat. Für die bisherige technische Entwicklung gilt aber für jeden Zeitpunkt die gleiche Logik: als die Dampfmaschine möglich wurde, hatte nur noch Erfolg, wer sie als erster und konsequent eingesetzt hat; als die Elektrizität verfügbar, nicht anders, dann Radio, Fernsehen, Auto, Computer, ….
  12. Die ‚Manager‘ und ‚Unternehmensgründer‘, die wir zurecht bewundern für ihre Fähigkeiten und ihren Mut (nicht immer natürlich), sind trotz all dieser hervorstechenden Eigenschaften und Leistungen dennoch nicht autonom, nicht freiwillig; sie sind und bleiben Getriebene einer umfassenderen Logik, die sich aus der Evolution als Ganzer ergibt: die Evolution basiert auf dem bis heute nicht erklärbaren Prinzip der Entropie-Umkehr, bei dem freie Energie dazu genutzt wird, den kombinatorischen Raum möglicher neuer Zustände möglichst umfassend abzusuchen, und in Form neuer komplexer Strukturen in die Lage zu versetzen, noch mehr, noch schneller, noch effizienter zu suchen und die Strukturen und Dynamiken der vorfindlichen Welt (Universum) darin zu verstehen.
  13. Während wir im Falle von Molekülen und biologischen Zellen dazu tendieren, diese eigentlich ungeheuren Vorgänge eher herunter zu spielen, da sie quasi unter unserer Wahrnehmungsschwelle liegen, wird uns heute vielleicht dann doch erstmalig, ansatzweise, etwas mulmig bei der Beobachtung, dass wir Menschen, die wir uns bislang für so toll halten, dazu ganze riesige globale Firmen, die für Außenstehende beeindruckend wirken und für Firmenmitglieder wie überdimensionale Gefängnisse (? oder Irrenanstalten?), dass wir ‚tollen‘ Menschen also ansatzweise spüren, dass die wahnwitzige Entwicklung zu immer größeren Metropolen und zu immer intelligenteren Maschinen, die uns zunehmen die Welt erklären (weil wir es nicht mehr schaffen!?), uns dies alles tun lassen, weil der einzelne sich machtlos fühlt und die verschiedenen Chefs auf den verschiedenen Hierarchieebenen total Getriebene sind, die ihre Position nur halten können, wenn sie hinreichend effizient sind. Die Effizienz (zumindest in der freien Wirtschaft) wird jeweils neu definiert durch das gerade Machbare.
  14. Politische Systeme haben zwar immer versucht – und versuchen es auch heute – sich ein wenig vor dem Monster der Innovation abzuschotten, aber dies gelingt, wenn überhaupt, in der Konkurrenz der Gesellschaftssysteme nur für begrenzte Zeiten.
  15. Was wir also beobachten ist, dass die immense Informationsflut, die das einzelne Gehirn hoffnungslos überfordert, Lösungen mit intelligente Maschinen auf den Plan ruft, die das Sammeln, Sortieren, Klassifizieren, Aufbereiten usw. übernehmen und uns Menschen dann auf neue Weise servieren. So betrachtet ist es hilfreich für alle, nützlich, praktisch, Lebensfördernd.
  16. Beunruhigend ist einmal die Art und Weise, das Wie: statt dass es wirklich allen hilft, hat man den Eindruck, dass es die globalen Konzerne sind, die einseitig davon Vorteile haben, dass das bisherige Ideal der Privatheit, Freiheit, Selbstbestimmung, Würde usw. aufgelöst wird zugunsten einer völlig gläsernen Gesellschaft, die aber nur für einige wenige gläsern ist. Demokratische Gesellschaften empfinden dies u.U, stärker als nicht-demokratische Gesellschaften.
  17. Beunruhigend ist es auch, weil wir als Menschen erstmalig merken, dass hier ein Prozess in Gang ist, der eine neue Qualität im Verhältnis Mensch – Technik darstellt. In primitiveren Gesellschaften (und auch noch in heutigen Diktaturen) war es üblich , dass wenige Menschen die große Masse aller anderen Menschen quasi ‚versklavt‘ haben. Unter absolutistischen Herrschern hatten alle einem Menschen zu gehorchen, ob der nun Unsinn redete oder Heil verkündete. Nach den verschiedenen demokratischen Revolutionen wurde dieser Schwachsinn entzaubert und man wollte selbst bestimmen, wie das Leben zu gestalten ist.
  18. In der fortschreitenden Komplexität des Alltags merken wir aber, dass das sich selbst Bestimmen immer mehr vom Zugang zu Informationen abhängig ist und von der kommunikativen Abstimmung mit anderen, die ohne erheblichen technischen Aufwand nicht zu leisten sind. Die dazu notwendigen technischen Mittel gewinnen aber im Einsatz, im Gebrauch eine solche dominante Rolle, dass sie immer weniger nur die neutralen Vermittler von Informationen sind, sondern immer mehr ein Eigenleben führen, das sich ansatzweise und dann immer mehr auch von denen abkoppelt, die diese vermittelnden Technologien einsetzen. Kunden und Dienstleister werden werden gleichzeitig abhängig. Wirtschaftlich können die Dienstleister nicht mehr dahinter zurück und lebenspraktisch ist der Verbraucher, der Kunde immer mehr von der Verfügbarkeit dieser Leistung abhängig. Also treiben beide die Entwicklung zu noch größerer Abhängigkeit von den intelligenten Vermittlern voran.
  19. Eine interessante Entwicklung als Teil der übergreifenden Evolution. Wo führt sie uns hin?
  20. Die Frage ist spannend, da die heute bekannten intelligenten Maschinen noch weitab von den Möglichkeiten operieren, die es real gibt. Die Schwelle ist bislang die Abhängigkeit von den begrenzten menschlichen Gehirnen. Unsere Gehirne tun sich schwer mit Komplexität. Wir brauchen Computer, um größere Komplexität bewältigen zu können, was zu noch komplexeren (für uns Menschen) Computern führt, usw. Dabei haben wir noch lange nicht verstanden, wie die etwa 200 Milliarden einzelne Nervenzellen in unserem Gehirn es schaffen, im Millisekundenbereich miteinander so zu reden, dass all die wunderbaren Leistungen der Wahrnehmens, Denkens, Erinnerns, Bewegens usw. möglich sind.
  21. Heutige Computer haben mittlerweile eine begrenzte lokale Lernfähigkeit realisiert, die ihnen den Zugang zu begrenzter Intelligenz erlaubt. Heutige Computer sind aber weder im lokalen wie im strukturellen voll Lernfähig.
  22. Einige meinen, dass die Zukunft im Sinne von technischer-Singularität zu deuten ist, dass die intelligenten Maschinen dann irgendwann alles übernehmen. Ich wäre mir da nicht so sicher. Das Hauptproblem einer vollen Lernfähigkeit ist nicht die Intelligenz, sondern die Abhängigkeit von geeigneten Präferenzsystemen (Werte, Normen, Emotionen, Bedürfnissen, …). Dieses Problem begegnen wir beim Menschen auf Schritt und Tritt. Die vielen Probleme auf dieser Welt resultieren nicht aus einem Mangel an Intelligenz, sondern aus einem Mangel an geeigneten von allen akzeptierten Präferenzsystemen. Dass Computer die gleichen Probleme haben werden ist den meisten (allen?) noch nicht bewusst, da die Lernfähigkeit der bisherigen Computer noch so beschränkt ist, dass das Problem nicht sichtbar wird. Sobald aber die Lernfähigkeit von Computern zunehmen wird, wird sich dieses Problem immer schärfer stellen.
  23. Das einzige wirklich harte Problem ist jetzt schon und wird in der Zukunft das Werteproblem sein. Die bisherigen Religionen haben unsere Blicke mit vielen falschen Bildern vernebelt und uns im Glauben gelassen, das Werteproblem sei ja gelöst, weil man ja an Gott glaubt (jede Religion tat dies auf ihre Weise). Dieser Glaube ist aber letztlich inhaltsleer und nicht geeignet, die realen Wertprobleme zu lösen.
  24. Man kann nur gespannt sein, wie die Menschheit als Teil des umfassenden Lebensphänomens mit einer immer leistungsfähigeren Technik auf Dauer das Werteproblem lösen wird. Die einzige Hoffnung ruht in der Logik des Prozesses selbst. Der Mensch in seiner unfassbaren Komplexität ist ein Produkt der Evolutionslogik; wir selbst sind weit entfernt davon, dass wir etwas Vergleichbares wie uns selbst schaffen könnten. Darf man also darauf vertrauen, dass die in allem Leben innewohnende Logik der Evolution uns Menschen als Werkzeuge benutzt zu noch mehr Komplexität, in der wir alle kleine Rädchen im Ganzen sind (als was erscheint uns  ein einzelner Mensch in einer 30-Millionen Metropole?)

Einen Überblick über alle Einträge von cagent nach Titeln findet sich HIER

NOTIZ ZU DEN UNWISSENSCHAFTLICHEN VORAUSSETZUNGEN DER WISSENSCHAFTEN

  1. Als ich gestern weiter im Buch ‚An Inventive Universe‘ von Denbigh las, diskutierte er dort u.a. die verschiedenen Positionen, die in der Physik und in der Philosophie zum Thema Determinismus eingenommen werden. Er arbeitete heraus, dass jede physikalische Theorie einen nicht unwesentlichen nicht-wissenschaftlichen Anteil besitzt, nämlich diejenigen Interessen, Fragen und Grundannahmen, die der Bildung einer wissenschaftlichen Theorie voraus liegen. Ohne diese Annahmen und vorauseilenden Interessen gibt es keine wissenschaftliche Aktivitäten.
  2. Moderne Wissenschaft versteht sich zwar so, dass sie ihr Vorgehen transparent machen will, wiederholbar, unabhängig (invariant) von individuelle Gefühle und Fantasien, aber die nicht-wissenschaftlichen vorausgehenden Annahmen sind unausweichlich individuell bedingt, aus allen möglichen Quellen (auch individuellen Interessen, Fantasien, Erinnerungen, Vorstellungen) gespeist. Etwas anderes hat auch ein Wissenschaftler nicht zur Verfügung.
  3. Im Fall des Determinismus ist z.B. die Vorstellung, dass die Ereignisse in der Natur nicht zufällig sind, sondern bestimmten Regeln, Gesetzen folgen, dass sie damit berechenbar sind, dass damit Voraussagen möglich sind, eine solche Grundannahme.
  4. Diese Annahmen kommen nicht aus der Welt jenseits des Kopfes, sondern sie entstehen im individuellen Gehirn eines potentiellen Forschers. Sie werden ihm bewusst, prägen seine Sehweise, wie er die Welt betrachtet und interpretiert. Als solche sind sie weder wahr noch falsch. Es sind Formen der Wahrnehmung von Welt.
  5. Die Mechanik von Newton passte sehr gut in diese Erwartung: plötzlich konnte man scheinbar alle Bewegungen damit berechnen. Sowohl die Bewegung der Sterne wie auch die der Körper auf der Erde.
  6. Der weitere Gang der Forschung zeigte dann aber, dass diese Wahrnehmung der Natur unvollständig, wenn nicht gar in einem tiefen Sinne falsch ist. Beim immer weiter Vordringen in das ‚Innere der Natur‘ lernten die Wissenschaftler, dass die Natur alles andere als determiniert ist; ganz im Gegenteil, sie ist radikal probabilistisch, nicht ausrechenbar im Detail, auch nicht ausrechenbar in ihren komplexesten Erscheinungen, den biologischen Lebensformen. Die Annahme einer deterministischen, Gesetzen folgenden Natur erwies sich als Fiktion des individuellen Denkens. Das, was man für objektive Wissenschaft gehalten hatte zeigte sich plötzlich als überaus subjektives Gebilde mit hohem metaphysischen Unterhaltungswert.
  7. Die Einstellung, dass Wissenschaft um so objektiver sei, umso weniger man den Anteil des erkennenden Subjektes in den Erklärungsprozess einbezieht, erweist sich immer mehr als falsch. Gerade diese Verweigerung, den handelnden Wissenschaftler mit seinen spezifischen biologischen Voraussetzungen als konstitutives Element des Erkennens nicht kritisch in die Reflexion einzubeziehen, macht Wissenschaft ideologieanfällig, lässt sie unbewusst in das Schlepptau einer verdeckten Metaphysik geraten, die umso schlimmer wütet, als man so tut, als ob es so etwas doch gar nicht gibt [Anmerkung: Eine solche Wissenschaftskritik ist nicht neu. Die Wissenschaftsphilosophie bzw. Wissenschaftstheorie ist voll von diesen kritischen Überlegungen seit mehr als 100 Jahren].
  8. Für das wissenschaftliche Denken hat dies weitreichende Konsequenzen, vorausgesetzt, man nimmt diese Erkenntnisse ernst.
  9. Streng genommen dürfte es keine einzige wissenschaftliche Disziplin mehr geben, die in ihrem Alltagsbetrieb nicht eine Theorie-kritische, sprich wissenschaftsphilosophische Abteilung besitzt, die sich kontinuierlich aktiv mit den ganzen nichtwissenschaftlichen Annahmen auseinandersetzt, die in jeden Wissenschaftsbetrieb eingehen. Insofern die Verantwortlichen eines solchen wissenschaftskritischen Unterfangens natürlich selbst von den jeweiligen Annahmen infiziert sind, gibt es keine Garantie, dass der nicht-wissenschaftliche Anteil tatsächlich immer angemessen erkannt und behandelt wird.
  10. Das heute oft so beklagte Auseinanderdriften von naturwissenschaftlichem Denken einerseits und und sozialem-kulturellem-geisteswissenschaftlichem Denken andererseits könnte durch die direkte philosophische Aufbereitung des naturwissenschaftlichen Denkens möglicherweise vermindert werden. Doch trotz aller Einsichten in die metaphysischen Schwachstellen des naturwissenschaftlichen Wissenschaftsbetriebs sieht es momentan nicht so aus, dass der Mainstream naturwissenschaftlichen Forschens sich solchen Maßnahmen öffnen würde.
  11. Man könnte sich jetzt einfach vom Geschehen abwenden und sagen, dann lass sie halt (die Naturwissenschaftler). Das Problem ist nur, dass diese Art von eingeschränktem Denken vielfache Fernwirkungen hat, die – für viele unmerkbar – grundlegende Anschauungen über die Welt und die Menschen beeinflussen.
  12. Wichtige Themen hier sind (i) das Bild vom Menschen generell, (ii) davon abhängig die Auffassung möglicher Werte, Grundwerte, Menschenrechte und Verfassungstexte, u.a. auch (iii) die Vorstellungen vom Sinn des Lebens im Kontext von religiösen Vorstellungen.
  13. Diese Überlegungen sind weiter zu führen.

Literaturhinweis:

Kenneth George Denbigh (1965 – 2004), Mitglied der Royal Society London seit 1965 (siehe: https://en.wikipedia.org/wiki/List_of_Fellows_of_the_Royal_Society_D,E,F). Er war Professor an verschiedenen Universitäten (Cambridge, Edinbugh, London); sein Hauptgebet war die Thermodynamik. Neben vielen Fachartikeln u.a. Bücher mit den Themen ‚Principles of Chemical Equilibrium, ‚Thermodynamics of th Steady State‘ sowie ‚An Inventive Universe‘.

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 2 (neu)

Der folgende Text ist der Vorabdruck des Kapitel 2 aus dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?.

Neue Version von Kap.2 vom 21.Juli 2015

Monster und Engel

Es ist noch nicht so lange her, da folgten Menschenmassen wie Marionetten den Parolen faschistischer und nationalistischer Führer. Sie bekamen Arbeit, bescheidenen Wohlstand, Ordnung und viele Belobigungen für ihr Selbstwertgefühl. Dafür waren sie willig, gehorchten den Befehlen aus dem Radio, den Wochenschauen und den lokalen Repräsentanten. Dem voraus gingen Könige und Kaiser, für die Ehre alles und der Mensch nichts war.

Tötungsorgien

Mit der Kriegserklärung von Österreich-Ungarn an Serbien am 28.Juli 1914 begann der erste Weltkrieg. Im Laufe dieses Krieges standen nach Schätzungen ca. 70 Millionen Menschen unter Waffen und ca. 17 Millionen sind gefallen. Dies war bis dahin die größte Tötungsorgie in der Geschichte der Menschheit.

Konnte man denken, dass dieser Tötungswahnsinn nicht mehr zu überbieten ist, wurde man durch die Geschichte darin belehrt, dass der Mensch sehr wohl zu noch mehr Gräueltaten fähig ist.
Mit dem Überfall Japans auf China am 7.Juli 1937 begann der zweite chinesisch-japanische Krieg, der mit dem Überfall auf Pearl Harbor am 7.Dezember 1941 sich zum pazifischen Krieg ausweitete. Hitler, der China bis 1941 gegen Japan unterstützt hatte, startete dann selbst einen Krieg. Mit dem Überfall der deutschen Wehrmacht am 1.September 1939 auf Polen begann der zweite Weltkrieg in Europa. Der europäische, der chinesisch-japanische und der pazifische Krieg zusammen haben nach Schätzung 1 und Schätzungen 2 ca. 22 – 33 Mio. Kriegstote gefordert hat und ca. 38 – 55 Mio zivile Opfer. Das Besondere hier ist, dass es dieses Mal nicht nur die Europäer waren — genauer die Deutschen –, die diesen Tötungswahnsinn inszenierten, sondern dass im asiatisch-pazifischen Raum Japan als imperiale Macht mit dem asiatisch-japanischen Krieg demonstrierte, dass der Wahnsinn des Tötens nicht geographisch und ethnisch beschränkt ist.

Ist der Krieg als solcher schon erschreckend genug, übersteigt das systematische Töten unabhängig vom Krieg, das Grauen deutlich. Unter Hitlers Führung wurden etwa 13.1 Mio systematische Tötungen an Menschen vorgenommen, die aus religiös-ethnischen, medizinischen, politischen Gründen ausgegrenzt wurden. Von den Opfern waren ca. 45\% jüdische Mitmenschen, ca. 25\% sowjetische Kriegsgefangene und ca. 25\% nichtjüdische Zivilisten (siehe Schätzung Kriegstote). Das systematische Töten Andersdenkender war aber kein Privileg Hitlers. Vor und nach dem zweiten Weltkrieg forderten die politischen Säuberungen von Josef Stalin ca. 3 -20 Millionen Tote.

Und auch nach dem zweiten Weltkrieg ging das Opfern von Menschen im großen Stil weiter. Zwar von anderer Art, aber nicht minder grausam für die Betroffenen, war ein politisches Programm genannt der ‚Großer Sprung‘, das Mao Zedong 1958 gestartet hatte. Eine massive Umstrukturierung der Gesellschaft mit dem Ziel einer Verbesserung kalkulierte große Opfer ein. Dieses Opfer kam tatsächlich zustande durch eine schwerwiegende Hungersnot, die in China von 1959 bis 1961 ca. 36 bis 45 Mio Menschen das Leben kostete. Damit handelt es sich um die größte Hungerkatastrophe in der Geschichte der Menschheit. Das Wort ‚Demozid‘ wurde geprägt.

Ein anderer ‚Demozid‘ ereignete sich in Kambodscha, kurz nachdem die roten Khmer im April 1975 die Hauptstadt Phnom Penh erobert hatten. Unter der Leitung von Pol Pot führten die roten Khmer eine radikale Umgestaltung und Säuberung der Gesellschaft durch. Die absoluten Opferzahlen betragen — im Vergleich zur großen Hungersnot zwar ’nur‘ — ca. 2-3 Mio Menschen, was bei einer Gesamtbevölkerung von ca. 8 Mio Menschen aber etwa einem Viertel der Bevölkerung entspricht, die hier auf grausamste Weise umgebracht wurde.

Die Liste von Kriegen, Verfolgungen, Folterungen, Genozids, Demozids ließe sich hier weiter fortsetzen bis in unsere Gegenwart.

Diese Ereignisse zeigen eines ganz klar: Wir Menschen sind relativ leicht im großen Stil manipulierbar; wir begehen die schlimmsten Gräueltaten, wenn andere uns dies befehlen; keine Nation scheint hier ausgenommen zu sein.

Neuentdeckung der Würde

Schon während des großen Tötens, am 1.Januar 1942, schließen sich unverhofft 26 Länder zu einer gemeinsamen Aktion gegen die kriegstreibenden Länder zusammen, was nach Beendigung des zweiten Weltkriegs am 24.Okt.1945 seine Fortsetzung in der Gründung der Vereinten Nationen (United Nations, UN) findet. Etwa drei Jahre später am 28.Dez.1948, kommt es zur Allgemeinen Erklärung der Menschenrechte (Englisch, Deutsch.

Die Gründung der Bundesrepublik Deutschland ereignete sich in diesem kurzen Zeitfenster eines Aufleuchtens von Bildern zu Demokratie und Menschenrechten, wie sie so historisch kaum jemals zuvor verfügbare gewesen waren und verfügbar gewesen sein konnten. Die Vorgeschichte der politischen Demokratiebewegung in Deutschland, hatte sich im politischen Durchsetzungskampf bis dahin als zu schwach erwiesen.

Vor dem Hintergrund der grausamen Tötungsorgien erscheint es wie ein Wunder, dass der Verfassungstext vom Mai 1949 mit dem Begriff der ‚Menschenwürde‘ beginnt. Gleich im Artikel 1 wird die Würde des Menschen, werden die Menschenrechte sowie nachfolgend einige Grundrechte explizit genannt. Während die ‚Menschenrechte‘ mit einem ‚darum‘ in einen logischen Zusammenhang zur Menschenwürde gestellt werden, bleibt der Zusammenhang zwischen ‚Menschenwürde‘ und ‚Menschenrechten‘ an dieser Stelle offen. Die Menschenwürde gilt als „unantastbar“ und es ist „Verpflichtung aller staatlichen Gewalt“, „sie zu achten und zu schützen“.

Mit der Gründung der demokratischen Bundesrepublik beginnt aus der Mitte Europas heraus ein neuer Demokratisierungsprozess, der nach und nach den größten Teil West- und Mitteleuropas erfasst. Die Anfänge datieren wohl auf den 18.April 1951, dem Abschluss des dem Schuhman-Plans , und einen vorläufigen Höhepunkt findet dieser Demokratisierungsprozess in den Jahren 2004 und 2007; in diesen Jahren treten 12 neue Länder aus dem ehemaligen Ostblock als neue demokratische Mitglieder dem demokratischen Europa bei.

In all diesem Geschehen demonstriert die Geschichte, dass es in der ‚Finsternis des Daseins‘ ‚Inseln des Lichts‘ geben kann, die sich nicht aus der Finsternis selbst herleiten! Irgendetwas im Menschen befähigt ihn, nicht nur den Tod, nicht nur das Grauen, nicht nur die Menschenverachtung hervor zu bringen, sondern auch das Gegenteil: Würde, Achtung, Liebe.

Der Begriff folgt der Realität

Weder die Gründung der vereinten Nationen, noch die Verkündigung der allgemeinen Menschenrechte, noch weniger die Gründung der Bundesrepublik Deutschland waren Projekte, die sich Philosophen am grünen Tisch ausgedacht hatten. Am Anfang standen keine klaren Ideen von Menschenrechten und Demokratie, die zur Realisierung in den konkreten Ereignissen führten. Nein, es war das Grauen der realen Kriege, der unendliche Wahnsinn dieser weltweiten Tötungsorgien, die in den betroffenen und bedrohten Menschen und Nationen einen Widerstand herausforderten, einen Überlebenswillen wach riefen, dem man im Nachhinein Form und Worte verlieh, eben die Idee eines friedlichen Völkerbundes, die Idee von der absoluten Würde jedes einzelnen Menschen, die Vision einer demokratischen Gesellschaft.

Dafür Worte zu finden war kein Automatismus, und sicher beeinflusst von den demokratischen Traditionen in Frankreich, England, den USA und Deutschland. Man wird aber nirgends eindeutige und zweifelsfreie Definitionen der verwendeten Begriffe finden, niedergeschrieben in einem Lehrbuch. Es ist eher ein ‚historisches Naturereignis‘, in dem die aufwühlenden Erfahrung von Krieg und Solidarität sich neue Worte gesucht und gefunden hat. Diese Worte finden wir, die der ‚Zeit danach‘ angehören, heute vor, lesen sie, reiben uns die Augen, versuchen sie zu verstehen, und beginnen mit unseren Interpretationen.

Aufstieg des Individuums

Das Buch ‚Menschenwürde (2014)‘ von Paul Tiedemann (Paul Tiedemann,„Was ist Menschenwürde? Eine Einführung“, 2. aktualisierte Aufl., Darmstadt: Wissenschaftliche Buchgesellschaft, 2014. Zur Person von Paul Tiedemann.) ist solch ein Interpretationsunternehmen, das einerseits die mögliche inhaltliche Bedeutung des Begriffs aus philosophischer Sicht erläutert, andererseits eine Einordnung in das Deutsche Rechtssystem vornimmt (Anmerkung: Eine längere Diskussion des Buches von Paul Tiefemann in 11 Beiträgen vom Autor ‚cagent‘).

Im Kapitel zwei seines Buches listet Paul Tiedemann 9 verschiedene Verwendungsweisen auf, wie unterschiedliche Gruppen mit dem Begriff ‚Menschenwürde‘ verfahren; in Kapitel drei folgen 8 weitere unterschiedliche Blickrichtungen auf das Thema. Alle diese verschiedenen Verwendungsweisen und Blickrichtungen sind kaum miteinander vereinbar.

Bedenkt man den historischen Kontext verwundert dies nicht. Es illustriert nur sehr deutlich, wie schwer sich das reflektierende Denken mit Manifestationen des Menschlichen tut und dass die Begriffe, die man benutzt, nicht das Phänomen selbst ersetzen, sondern — bestenfalls — angemessen beschreiben.

Anstatt nun die aufgelisteten Positionen im einzelnen zu analysieren greift Paul Tiedemann hier explizit auf die philosophische Reflexion zurück und versucht in Kapitel vier der Relativität der Vielfalt dadurch zu entkommen, dass er anfängt, die Wortbedeutung des Wortes ‚Menschenwürde‘ isoliert von den verschiedenen zuvor zitierten Lehrmeinungen zu analysieren. Dies wirkt etwas willkürlich, da er nicht alle historisch vorkommenden Verwendungsweisen ins Auge fasst, sondern nur eine bestimmte.

In seiner Analyse, fördert Paul Tiedemann das Subjekt als Ankerpunkt zutage, dem er eine Absolutheit zuspricht, die, anders als bei Kant, nicht unerreichbar ist, sondern hinreichend mit der Konkretheit eines menschlichen Subjekts verknüpft ist. Das Subjekt ist für ihn ein Zweck an sich, vor allen anderen Werten, darin ein absoluter Wert, und auch der einzige absolute Wert. Diese Absolutheit findet im politischen Handeln, in der Delegation der politischen Macht ihre gesellschaftliche Umsetzung, die so sein soll, dass sie den einzelnen in seiner Würde ermöglicht.

Erosion des Individuums zu Beginn des 21.Jahrhunderts

Während Kant eine Absolutheit (re-)konstruieren konnte, indem er sie von allem Kontingentem, Zufälligem, Empirischem abgekoppelt hatte, lokalisiert Paul Tiedemann die Unverfügbarkeit im Individuum, das sich seiner im freien Urteilen ‚gewiss‘ sein kann. Diese Autonomie des eigenen Entscheidens und Urteiles geht einher mit den modernen sozialwissenschaftlichen und psychologischen Erkenntnissen, dass ein junger Mensch nur über angemessene soziale Interaktionen und sprachliche Kommunikation zu jenem Umgang mit sich selbst findet, der ihn in die Lage versetzt, seine eigenen Bedürfnisse, Wünsche, Einsichten angemessen zu identifizieren und den Einklang mit der sozialen Umwelt zu wahren. Während die Inhalte wechseln können, bleibt die grundsätzliche Fähigkeit zu Reflexion und Urteilen konstant, bildet einen ‚Raum‘, innerhalb dessen sich der einzelne als „sich selbst bestimmend“ erfahren kann und simultan auch den anderen, das Gegenüber, mitbestimmt. Dieser generellen Selbstbestimmungsmöglichkeit kommt für Tiedemann ein grundlegender Wert zu, der durch die konkreten Einschränkungen nicht aufgehoben wird. In all diesen Prozessen vollzieht sich der Aufbau einer individuellen Identität (‚Ich‘). Tiedemann benutzt zur Kennzeichnung dieses Ansatzes die Bezeichnung ‚Identitätstheorie der Menschenwürde‘ (vgl. Tiedemann (2014), S.101f).

Die Idee, den Ankerpunkt der Autonomie in der unterstellten Fähigkeit zum eigenen Urteilen zu suchen, hat etwas Bestechendes, zugleich bietet sie einen Angriffspunkt für vielerlei Infragestellungen:

  1. Wie Tiedemann selbst ausführt, ist die inhaltliche Füllung des autonomen Urteilens abhängig von den Interaktionen mit der Umwelt und zahlreichen Rahmenbedingungen. Sollte auf einen Menschen Zwang ausgeübt werden, Gewalt, dann kann er in seinem individuellen Urteilen so stark beeinflusst werden, dass sein Urteilen nicht mehr wirklich autonom ist. Aber auch wenn dem Menschen kein Vertrauen geschenkt wird, ihm wichtiges Wissen vorenthalten oder falsches Wissen aufgezwungen wird, auch dann kann sein autonomes Urteilen ihm nicht wirklich helfen. Ferner, wird ihm keine hinreichende Privatsphäre zugestanden, wird er seine spezifischen Bedürfnisse und Fähigkeiten nicht hinreichend ausleben können (Siehe zu diesen Beispielen ausführlich das Kap.7 von Tiedemann (2014)). Und wir müssen feststellen, dass es in fast jedem Land der Erde — z.T. sehr große — Menschengruppen gibt, auf die die genannten Einschränkungen zutreffen.
  2. Wie im Kapitel 1 angedeutet, bewirkt der technologische Wandel durch die verstärkte Einführung des Digitalen in nahezu allen Bereichen eine zunehmende Abbildung von zuvor privaten, persönlichen Dingen und Handlungen in den Raum des Digitalen, wodurch Privatheit real verlorengeht. Dazu kommt das wachsende Problem der Qualität des Wissens: was ist noch ‚wahr‘, was ist ‚gefaked‘? Im Digitalen ist man auf neue Weise Beleidigungen ausgesetzt, Verleumdungen, dem Stehlen von Eigentum, der Manipulation, Ausbeutung, richtigem Terror. Die Autonomie alleine hilft hier nicht.
  3. Für die Gültigkeit seiner Überlegungen verweist Paul Tiedemann auch auf die allgemeinen Gesetze der Logik. Dieser Verweis geht ins Leere, da es die Logik, die unterstellt wird, in dieser Form bis heute nicht gibt, zumindest nicht als ausgearbeitete Theorie.
  4. Am Horizont der Vision, ansatzweise auch in der Realität, erscheint eine künstliche Intelligenz, die ebenfalls den Anspruch erhebt, autonom entscheiden zu können. War es das dann mit der Würde des Menschen? Besteht die Würde des Menschen ’nur‘ in dieser Fähigkeit des autonomen Urteilens im Raume vorfindlicher Gegebenheiten?

Das ‚Monster des Tötens‘ und der ‚Engel der Menschenwürde‘ wohnen im Menschen unmittelbar nebeneinander. Die Abhängigkeit des einzelnen von seiner Umgebung ist stark und damit das Einfallstor sowohl für menschenverachtende Propaganda wie auch für lebensbejahende Werte. Wer wird in der Zukunft gewinnen: das Monster oder der Engel? Was ist für ein Leben in der Zukunft wichtiger? Was ist ‚wahrer‘?

Fortsezung mit Teil 3 (neu).