Archiv für den Monat: Juni 2018

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’, Teil 3: Kap.4

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
17.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

ÜBERSICHT

In Fortsetzung der vorausgehenden Teile 1 und 2 wird hier das Kap.4 besprochen. In ihm beschreibt Stace die Entstehung des modernen wissenschaftlichen Weltbildes am Beispiel der Astronomie. Bei genauerem Hinsehen kann man schon hier die ’Bruchstelle’ erkennen, wo heute (mehr als 60 Jahre nach Staces Buch) eine ’Wiedervereinigung’ von Wissenschaft und ’Moral’ (oder gar ’Religion’) nicht nur möglich, sondern geradezu ’notwendig’ erscheint.

I. KAPITEL 4

Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes
Gedankenskizze zu Staces Kap.4: Entstehung des neuzeitliches wissenschaftlichen Weltbildes

Entstehung der neuzeitlichen Wissenschaft

Die Entstehung der neuzeitlichen Wissenschaft ist eine langwierige und – wenn man sie voll aufschreiben wollte – eine komplexe Geschichte, die sich, je mehr man sich der Gegenwart nähert, in immer mehr Verfeinerungen aufspaltet und heute den Charakter einer ’großen Unübersichtlichkeit’ hat. Stace konzentriert sich auf ein Thema, lange Zeit das Hauptthema schlechthin, die ’Astronomie’, die Himmelskunde, und entwirft anhand der führenden Wissenschaftler dieser Zeit (15.Jh bis 20.Jh, kleine Rückblicke bis in die klassische Griechische Periode) holzschnittartig ein Bild der Entstehung des Neuen.

Ein Hauptcharakteristikum des neuen wissenschaftlichen Weltbildes ist der Übergang vom dominierenden ’geozentrischen Weltbild’ (die Erde als Mittelpunkt von allem) zum ’heliozentrischen Weltbild’ (die Erde dreht sich um die Sonne; die Sonne ist nicht mehr der einzige Bezugspunkt).

Vorgeschichten sind üblich

Für den Charakter von Weltbildern, die eine Kultur, eine ganze Epoche beherrschen, ist es bezeichnend, dass viele der wichtigen Grundüberzeugungen nicht einfach so ’vom Himmel gefallen sind’, sondern einen meist viele hundert Jahre andauernden ’Vorlauf’ haben, bisweilen tausende von Jahren. So auch im Fall der Diskussion ob ’geozentrisch’ oder ’heliozentrisch’. Schon lange vor dem Beginn der modernen Diskussion um ’geozentrisch’ oder ’heliozentrisch’, nämlich ca. 1800 Jahre (!) vor Kopernikus, gab es zwei griechische Mathematiker und Astronomen (Aristarch von Samos (um -310 bis um -230) und Seleukos von Seleukia (um -190 bis vor -135) ) die aufgrund ihrer Beobachtungen und Berechnungen ein klares heliozentrisches Weltbild vertraten. Für den damaligen ’Main Stream’ war das aber so ’unglaubwürdig’, dass Aristarch in die Rolle eines ’Ketzers’ gerückt worden sein soll, den man wegen ’Gottlosigkeit’ anklagen müsse.

Die Wiederkehr dieses Musters im Fall von Galileo Galilei und noch lange nach ihm (in manchen Teilen von religiösen Strömungen bis in die Gegenwart) mag als Indiz dafür gesehen werden, dass ’herrschende Weltanschauungen’ in ihrem eigenen Selbstverständnis, in ihrer Selbstbegründung, die Tendenz haben, sich ohne wirkliche Begründung ’absolut zu setzen’. Auf den ersten Blick erscheint solch ein Verhalten als ’Schutz der bestehenden Ordnung’, aber bei längerer Betrachtung ist dies ein gefährliches Spiel mit der Wahrheit, das eine ganze Kultur in die Irre und dann in den Abgrund führen kann. ’Sicherheit’ ist kein Ersatz für ’Freiheit’ und ’Wahrheit’.

Die Theoretiker

Bezeichnend für die Entwicklung von etwas Neuem ist auch, dass es letztlich nicht die ’Praktiker’ waren, nicht die ’Datensammler’, durch die das ’Neue’ sichtbar wurde, sondern eher die ’Theoretiker’, also jene Menschen, die über all die vielen ’Phänomene’ ’nachgedacht’ haben, nach irgendwelchen ’Regelhaftigkeiten’, ’Muster’ Ausschau gehalten haben, und die dies letztlich auch nur geschafft haben, weil sie in der Lage waren, die wichtigste Sprache der Menschheit zu benutzen, die es gibt, die Sprache der Mathematik. Kopernikus, Kepler, Galileo, Descartes, Huygens, Newton, Laplace – dies waren Menschen mit einer starken, primären Bildung in Mathematik. Ohne die mathematischen Kenntnisse hätten sie niemals die neue Sicht der Welt entwickeln können.

Andererseits, das gilt auch, ohne die Daten eines Tycho Brahe oder ohne bessere Messgeräte (z.B.Fernrohr), die Handwerker (und heute Ingenieure) bauen und gebaut haben, gäbe es auch nicht die Daten, die Fakten, anhand deren die Theoretiker jene Muster herauslesen konnten, die sie dann in der Sprache der Mathematik soweit ’idealisieren’, ’veredeln’ konnten, dass daraus die neuen unfassbaren Sichten entstanden, mit denen wir auch heute noch die Wirklichkeit um uns herum, das ’Rauschender Phänomene’ gedanklich sortieren, filtern, so neu anordnen können, dass wir darin und dadurch weitreichende Strukturen und Dynamiken erkennen können, die Jahrtausende unsichtbar waren, obwohl sie schon Milliarden Jahre da waren und wirkten.

Politisch Inkorrekt …

Während Kopernikus Zeit seines Lebens nur Ausschnitte aus seinem Hauptwerk ’De revolutionibus orbium coelestium’ veröffentlichte, da er damit rechnen konnte, von der Kirche als Ketzer angeklagt zu werden (der volle Text also erst 1543 erschien), legte sich Galileo Galilei (1564 – 1642) schon zu Lebzeiten mit den Vertretern der Kirche an und bewegte sich immer nah vor einer vollen Verurteilung als Ketzer mit dem dazugehörigen Tod durch Verbrennen.

Theoriebildung – Ein Muster

An der Theoriebildung von Galileo wird eine Eigenschaft sichtbar, die sich auch bei allen späteren wissenschaftlichen Theorien finden wird. Es ist das Moment der ’kreativen Irrationalität’, wie ich es mal nennen möchte. Dieses Moment findet sich in jeder wissenschaftlichen Theorie, und zwar notwendigerweise (Was heute gerne übersehen oder verschwiegen wird.). Seine Experimente zur Bewegung mit Körpern führten ihn zur Formulierung seines ersten Bewegungsgesetzes (das sich später auch in Newtons Hauptwerk ”Philosophiae Naturalis Principia Mathematica” als Teil seiner Mechanik findet) . Es besagt letztlich, dass kräftefreie Körper entweder in Ruhe bleiben oder sich geradlinig mit konstanter Bewegung bewegen (vgl. Stace (1952) [1]:64ff). Als ’Gesetz’ kann man diese Aussage nicht beweisen, man kann nur aufgrund von ’endlichen Daten’ eine ’Vermutung’ äußern, eine ’Hypothese’ formulieren, dass die bekannten Beispiele einen ’Wirkzusammenhang’ nahelegen, der sich eben auf die zuvor formulierte Weise beschreiben lässt. Solange dieser ’hypothetische Wirkzusammenhang’ sich im Experiment ’bestätigt’, so lange ist dieses Gesetz ’gültig’. Es kann im Laufe der Zeit aber auch durch neue, bisweilen ’feinere’ Beobachtungen, in ’Frage gestellt’ werden und dann –was oft geschehen ist – durch neue Formulierungen abgelöst werden.

Wichtig ist die grundlegende Figur, die sich hier zeigt: (i) Es gibt aktuell Phänomene (meistens aus der Vergangenheit), die man ’erklären möchte. Noch fehlen passende ’Regeln’. (ii) Aufgrund eines kreativen, irrationalen Denkprozesses entstehen ’Bilder von möglichen Mustern/ Regeln’, die mit den bekannten Phänomenen so ’passen’, dass man mit diesen Regeln das Auftreten der Phänomene so ’erklären’ kann, dass man ’zukünftige Phänomene’ voraussagen kann. (iii) Man erhebt diese kreativ gewonnenen Regeln in den Status von offiziellen ’Arbeitshypothesen’. (iv) Man macht Experimente mit diesen Arbeitshypothesen und ’überprüft’, ob die Arbeitshypothesen auch bei neuen, zukünftigen Phänomenen ’gültig’ bleiben. (v) Solange sich keine’ widersprüchlichen Befunde’ ergeben, gelten die Arbeitshypothesen als akzeptierte Regel.

Kreativität ist Fundamental – Logik Sekundär

Anders formuliert, mittels eines ’kreativen irrationalen’ Denkprozesses gewinnt man aus gegebenen Phänomenen ’induktiv’/ ’bottom-up’ mögliche ’erklärende Hypothesen’. Sofern man diese hat, kann man ’deduktiv’/ ’top-down’ gezielt Experimente durchführen, um die ’Gültigkeit’ dieser Arbeitshypothese zu überprüfen. Arbeitshypothesen kann man aber ’nicht logisch beweisen’, da dies voraussetzen würde, dass man  über eine noch ’allgemeinere’ Hypothese verfügt, aus der man eine ’speziellere’ Hypothese ableiten kann (So hat sich gezeigt, dass man z.B. die drei Planetengesetze von Kepler durch das spätere Gravitationsgesetz von Newton
als ’Spezialfall’ ’ableiten’ kann). Das menschliche Gehirn verfügt aber als solches nicht ’von vornherein’ (nicht ’a priori’) über irgendwelche allgemeinen Gesetze. Das Gehirn scheint aber sehr wohl in der Lage zu sein, anscheinend beliebig viele (genauer Umfang ist unbekannt) ’Regelmäßigkeiten’, sofern sie sich anhand von Phänomenen zeigen, zu erkennen und weiter zu ’verallgemeinern’. Die Geschichte zeigt, dass das ’Zusammenwirken’ von vielen Gehirnen einerseits den einzelnen bei weitem übertreffen kann, ohne allerdings — andererseits — die kreativ-irrationale Kraft des einzelnen dadurch zu ersetzen. Es bleibt immer ein spannungsvolles Wechselspiel von individueller Kreativität und kulturellem Main-Stream. Individuelle Abweichungen werden eher nicht toleriert, werden eher an die Seite gedrückt. Der ’aktuelle’ Erfolg wirkt stärker als der ’vermeintliche’. Insofern sind Kulturen große ’Echokammern’, die beständig in Gefahr sind, sich selbst zu lähmen.

Entzauberung – Entmystifizierung

Kopernikus, Galileos Fernrohr und Bewegungsgesetze, Keplers Planetengesetze, Newtons Mechanik samt dem Gravitationsgesetz, dies alles verhalf dem Denken durch neue Erklärungsmuster und unter Einsatz der mathematischen Sprache, zu einer Sicht der Dinge, die ein direktes Eingreifen ’anderer Mächte’ oder ’Gottes’ überflüssig erscheinen liesen. Im Fall von Newton ist aber zu beobachten, dass er trotz so großartiger Erklärungserfolge ’in seinem Innern’ noch eine Vorstellung von ’Gott’ hatte, die ihn dazu verleitete, einige Unregelmäßigkeiten bei den Planetenbahnen, die er nicht mit seinen Formeln erklären konnte, dann doch einem ’direkten Wirken Gottes’ zuzuschreiben. (vgl. Stace (1952) [1]:69ff) Es war dann Laplace, der die Unregelmäßigkeiten mathematisch einordnen konnte und der mit einer eigenen Theorie zur Entstehung der Sterne (bekannt als ’Nebularhypothese’) sogar meinte, er habe damit die Annahme Gottes als notwendiger erster Ursache ’erledigt’.

QUELLEN
[1] W. Stace, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980
from Lippincott and Crowell, Publishers.

Eine Fortsetzung findet sich HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

 

 

KULTUR ALS ECHOKAMMER: Wo ist der Ausgang? Nachbemerkung zum CAES-Symposium Frankfurt 13.Juni 2018

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Aufhänger

Nachhall zu einer Veranstaltung gestern mit dem Titel ’Populismus! Gefahr für die Demokratie in Europa?’, veranstaltet vom ’Center for Applied European Studies (CAES)’ der Frankfurt University of Applied Sciences.

Populismus ist wieder da…

Nach den obligatorischen Begrüßungs- und Einleitungsworten entwickelte Prof.Heinisch von der Universität Salzburg in markigen Strichen ein Bild von der Entstehung des Populismus in den letzten Jahren, wie dieser von den Rändern mittlerweile in das Zentrum der Macht gewandert ist. In manchen Ländern Europas (aus unterschiedlichen Gründen) schon sehr weit, in anderen noch eher am Rande. Der Populismus nutzt für sich eine weit verbreitete Unzufriedenheit, die sich naturgemäß in jedem gesellschaftlichen System findet. Mit einer ’ad-hoc-Programmatik’, mit stark vereinfachenden Formulierungen, durch Ausnutzung moderner Kommunikationstechniken infiltrieren populistische Gruppierungen den öffentlichen Bewusstseinsraum, den Alltag der Menschen, in einer Weise, dass schleichend immer mehr diese vereinfachenden Weltsichten über die Medien in sich aufnehmen, selbst wenn sie es gar nicht wollen.

Verstärker, auch ungewollt …

Wer sich bei den Worten von Prof. Heinisch gewundert haben mag, wie das alles so rasch und scheinbar ohne jeden Widerstand vonstatten gehen konnte und auch heute, in unserer Gegenwart, stattfindet,dem lieferte direkt im Anschluss Prof.Dr. Harald Welzer sozialpsychologische Deutungsmodelle, denen man eine gewisse Suggestivkraft nicht absprechen kann. Nach Welzer wirken fast alle Medien und bürgerliche Parteien – gerade auch in ihrer Rhetorik, diese populistischen Strömungen ’kritisch’ die Stirnbieten zu wollen – als überproportionale Verstärker der vereinfachenden sprachlichen Formulierungen dieser Gruppierungen. Die komplizierten Motive und Begründungen der angeblichen kritischen Positionen vergessen fast alle sofort wieder, aber die zu kritisierenden vereinfachenden Floskeln bleiben im Gedächtnis haften. Auf diese Weise sind die vorgeblichen Kritiker paradoxerweise jene, die die anfänglich kleine Gruppe der Populisten täglich verstärken, stark machen, und die ganze Gesellschaft mit den unsinnigen Formulierungen ’falsch programmieren’.

Da war doch was …

Welzer erinnerte an die Zeit der Machtergreifung durch die Nazis. In den ersten Jahren konnte sich keiner vorstellen, dass die Mehrheit der Deutschen die radikalen Positionen der Nationalsozialisten übernehmen würden (z.B. dass man jüdische Mitbürger bei Tage durch die Straßen hochbürgerlicher Wohnviertel unter Beifall eben dieser zu ihrem ’Abtransport’ trieb), aber nach Jahren der Infiltration des Alltags mit einer Wolke entsprechender vereinfachender Gedankenbilder hatten selbst die, die sich nicht wirklich interessierten, die mit ’Wichtigerem’ beschäftigt waren, ’über Nacht’ in bestimmender Weise nur noch diese Floskeln ’im Kopf’ … und plötzlich war denkbar, was vorher undenkbar erschien. Und ausgerechnet die sogenannten ’Akademiker’ waren jene, die sich der neuen Bewegung am schnellsten und am intensivsten ’hingaben’. Ein Wunder?

Es geschieht gerade wieder …

In der aktuellen Situation erleben wir all dies wieder, selbst (oder gerade?) in den sogenannten demokratischen Gesellschaften. Die Infiltration von kleinen und kleinsten Gruppen über die Medien, über provozierende Aktionen, die dann ja doch keine gewesen sein sollen, finden in den Medien und den etablierten Parteien ein überproportionales Echo, so dass schon jetzt viele Menschen genau diese Vereinfachungen inhaliert haben, nicht aber die angeblichen kritischen Motive der Verstärker. Die ganze Fake-News Debatte krankt daran – was Welzer auch eindrücklich darstellte –, dass es den Verbreitern von Fake-News nirgendwo um ’Wahrheit’ und ’Fakten’ geht, sondern nur um Aufmerksamkeit, um Infiltration des Bewusstseins der Menschen in ihrem Alltag, was die Populisten auch bestens erreichen, während die Medien in ihrer naiven Aufgeklärtheit unterm Strich letztlich nur Werbung machen für diese Gruppen.

Die aktive Gleichgültigkeit gegenüber möglicher ’Wahrheit’ findet – wieder einmal – wenig Widerstand durch die akademische Welt, durch die Wissenschaften. Die moderne Hochleistungswissenschaft ist in eine Vielzahl von spezialisierten – und darin fragmentierten – Weltbildern zerfallen; ein allgemein geteiltes Menschenbild gibt es aktuell nicht. Ansätze, eines aus all den Mosaiksteinen zusammen zu setzen, sind kaum erkennbar. Die Wissenschaft selbst ist sich des Leitbegriffs ’Wissenschaft’ nicht mehr sicher; kaum ein Wissenschaftler ist mehr in der Lage, zu formulieren, was Wissenschaft eigentlich ist, wie sie sich (wissenschaftsphilosophisch) in das Gesamt von Weltwissen und Weltgesellschaft einordnet; eine Kommunikation zwischen den Disziplinen findet kaum statt und auch die wenigen Ansätze, die es gibt, leiden an erheblichen ’Sprachstörungen’. Diese Form von Wissenschaft ist schon jetzt ’verloren’. Sie hat aufgrund ihres defizitären Selbstverständnisses schon jetzt jeder Form von Populismus nichts entgegen zu setzen. Auch ’Esoterik’ ist eine Form von Populismus, und die Zahl von Akademikern (auch solche mit Doktortiteln), die keine Probleme haben, völlig haltlose Anschauungen über die Welt, über die Wirklichkeit zu vertreten, ist nicht gering. Ihr Studium hat sie nicht dazu befähigt, auch nur ansatzweise ’Wahres’ von ’Falschem’ zu unterscheiden.

Betriebssystem Demokratie …

Das ’Betriebssystem’ demokratische Gesellschaft hat – zumindest nach dem Buchstaben der Verfassung und den vielen ungeschrieben Erfahrungen, die zur demokratischen Verfassung geführt haben – sehr viele Voraussetzungen, damit es funktionieren kann. Neben der schon erwähnten Öffentlichkeit sind z.B. die Parteien vorgesehen als wichtiger Vermittler, als Transformator zwischen der Vielfalt des Alltags eines jeden und den exekutiven Prozessen der Machtausübung. Doch die etablierten Parteien mit ihrer komplexen und umfassenden Programmatik, ihren schwerfälligen hierarchischen Strukturen, ihrer mittlerweile hohen Verzahnung mit diversen Machtzirkeln, die unabhängig von der Öffentlichkeit massiv Einfluss nehmen, diese Parteien wirken auf die Bürger zunehmend unbefriedigend, fern, korrupt, selbstvergessen; ein Eindruck, der falsch sein kann, vielen Politikern vielleicht Unrecht tut, aber die Prozesse der Partizipation stottern. Massive Defizite im konkreten Alltag der Mehrheit der Menschen schwächen täglich die notwendige Vertrauensbasis. Klare, überzeugende, effektive politische Maßnahmen fehlen; sie zerbröseln in den Kämpfen um Macht, Anerkennung, Geld, Angst um Wiederwahl; auch mangelnde Kompetenz bei vielen Politikern kommt dazu. Die hier täglich genährte Unzufriedenheit, lange Zeit unsichtbar, ist ein guter Nährboden für die vereinfachenden Parolen der Populisten, für ihr programm-freies ad hoc Taktieren im Alltag, sie haben nichts zu verlieren, aber alles zu gewinnen.

Ein anderes Denken?

Was offensichtlich fehlt, das sind die ’alternativen Bilder’ zur Erklärung der Welt, überzeugende Visionen, wirkende Maßnahmen. Noch haben zumindest in Deutschland und Frankreich (und wo noch?) die Nichtpopulisten die Mehrheit und die Macht. Aber wenn sie (wie insbesondere die CSU) wie das berühmte ’Kaninchen auf die Schlange’ starren, die Schlange sogar noch übertreffen wollen, weil sie selbst kein wirkliches Selbstvertrauen mehr haben (!!!), dann ist es nur noch eine Frage der Zeit, bis auch in Deutschland die Populisten wieder die Mehrheit haben. Waffengewalt oder überhaupt Gewalt ist dazu gar nicht notwendig. Die ’Umprogrammierung der Gehirne’ findet lautlos statt, jeden Tag, im ordinären Alltag, durch die Art, wie wir miteinander reden. Wenn wir jeden Tag immer nur über Fragmente von Flüchtlingen reden und all die wirklich wichtigen Probleme bei Seite lassen, dann glauben irgendwann alle daran, weil sie nichts anderes mehr in ihrem Kopf haben. Irgendjemand sprach von einer notwendigen ’Re-Politisierung’ der Bürger … aber die findet schon längst statt, nur anders, als der Sprecher wohl gemeint hat, durch den täglichen Populistensprech, den viele Medien und Internetportale jeden Tag,stündlich servieren; das ist leichter und billiger als anspruchsvolle Informationen und Gedanken…

Kultur als Echokammer?!

Einige Zeit berauschten sich die Verteidiger der Demokratie an dem Befund, dass die neuen sozialen Netzwerke wie ’Echokammern’ wirken, in denen sich Gleichgesinnte treffen, um ihre Vor-Urteile zu pflegen. Allerdings wusste so recht niemand, wie man die ’Gefangenen der Echokammern’ aus ihren Echokammern ’befreien’ könnte. In dieser Debatte blieb unausgesprochen, dass alle menschlichen Gruppierungen letztlich das ’Prinzip Echokammer’ praktizieren, nur wurde es bislang nicht so benannt.Die berühmten ’Wirtshausstammtische’, jede religiöse Gemeinschaft, jede Partei, die Unterrichtspläne, jede wissenschaftliche Disziplin, jede Firma … letztlich eine ganze Kultur praktiziert nichts anderes als dieses: einen Raum von Anschauungen und Formulierungen aufspannen und diesen dann dazu zu benutzen, um die Zugehörigkeit zu einer bestimmte Gruppierung daran zu knüpfen, dass man genau diese Anschauungen und Formulierungen ’pflegt’.

Im Alltag werden daher ’normalerweise’ genau die am meisten belohnt, die sich dieser Vorgabe am meisten und am besten ’anpassen’. Das Wort von der ’politischen Korrektheit’ hat jeder schon gehört, das Wort von den ’gesellschaftlichen Gepflogenheiten’, von den ’guten Sitten’, ’das macht man nicht’, ’Knigge’, du bist ’CDU-ler/ SPD-ler/ … Du musst X vertreten, das erwartet die Partei von Dir … Dies sitzt so tief in unserem sozialen Leben, ist so allgegenwärtig, dass es uns im Normalbetrieb kaum auffällt. Aber wenn jetzt eine neue Gruppe auftritt, die bislang ’am Rande’ war, die sich mit einer besseren Kommunikationsstrategie ’effektiver’ in das Bewusstsein der Menschen ’hinein arbeitet’, dann regen sich alle anderen auf … allerdings nur am Anfang. Nach einer gewissen Zeit ist die neue Gruppe assimiliert und sie ist eine weitere Variante von spezieller Echokammer im Sammelsurium von Echokammern, die wir Kultur nennen.

Echokammern kommen mit einem Minimum an Wahrheit aus. Wahrheit ist grundsätzlich zu kompliziert, zu anstrengend, und wird immer sehr schnell an ’Spezialisten’ delegiert: die Wissenschaft, die macht das schon, lasst uns damit in Ruhe. Wir wollen leben und regieren.

Es ist kein Zufall, dass Kultur noch nie in ihrer Geschichte am Begriff ihrer ’Wahrheitsfähigkeit’ gemessen wurde. Man weiß viel über Sprachen, Architektur, politische Formate, Formen des Handelns und Produzierens, berauscht sich an Mode … aber ob und wie eine Kultur ’wahrheitsfähig’ sein kann, und zwar nachhaltig wahrheitsfähig, das war bislang nie so recht Thema.

Wenn schon Echokammern das Grundmuster aller Kulturen sind, ihr eigentliches ’Betriebssystem’, welche Vorkehrung müsste dann eine Gesellschaft treffen, um sich selbst immer wieder aus ihren eigenen Echokammern zu befreien?

Die Evolution, die Mutter aller heutigen Gesellschaften, hat das Ausbrechen aus gewohnten Bahnen als substantielles Element in ihre Entwicklungslogik eingebaut: Erinnerung + Freiheit + ein großes Maß an Experimenten mit dem Unbekannten haben bislang in 3.8 Milliarden Jahren dafür gesorgt, dass das Leben auf der Erde nicht nur die größten vorstellbaren Katastrophen überstehen konnte, es hat sich sogar in seiner inneren Komplexität unfassbar weiter entwickelt, soweit, dass wir Menschen als homo sapiens bislang nicht in der Lage sind, unsere eigene Komplexität voll zu durchschauen.  Wir sind uns selbst bislang mehr unbekannt als bekannt.

Wenn Prof. Michel Friedmann, der charismatische Leiter des CAES, während des  Symposiums  mehrfach wie ein Heroe aus alten Zeiten das flammende Schwert der Grundwerte – insbesondere der ’Würde’ des Menschen – hoch hielt, dann könnte man versucht sein, zu lächeln. ’Würde’? Wer weiß noch, was das ist? (Anmerkung:
Es sei hier u.a. an die mehrteilige Diskussion zum Buch von Paul Tiedemann in diesem Blog erinnert. Selbst Justitia hat mit diesem Begriff ein Problem.)  Aber, andererseits hat Prof. Friedmann  natürlich recht: einer kulturellen Echokammer der Nicht-Werte kann man nur entkommen, wenn man sich möglicher Alternativen real aussetzt. Und, so verquer es klingen mag, es ist genau der Mensch selbst, der sich selbst abhanden gekommen ist. … oder haben wir uns vielleicht noch nie ’gehabt’ und wir merken es erst heute,jetzt? Als jemand vor vielen hundert Jahren erzählte, dass sich die Erde um die Sonne bewegt, war es zunächst ’nur‘ ein   ‚Gedanke‘, dann aber mit weitreichenden Folgen.  Welche Sonnen müssen wir  entdecken, um uns heute aus den kulturellen Echokammern falscher Menschenbilder und wahrheitsfreier Meinungen zu befreien?

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

OBJEKTIVE WERTE? Diskussion von Stace’s ’Religion and the Modern Mind’ Teil 2: Kap.3

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
10.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

 

ÜBERBLICK

Der Philosoph W.T.Stace ist in diesem Blog bekannt durch die Besprechung seines Buches ’Mysticism and Philosophy’ [1]. Er hatte aber schon 1952 [2] ein interessantes Buch veröffentlicht, in dem er den Übergang vom mittelalterlich-religiösen Weltbild zum modernen, von der Wissenschaft geprägten Weltbild, skizziert hatte. Dies ist im Jahr 2018 von besonderem Interesse, da wir zur Zeit erleben, wie das wissenschaftliche Weltbild sich selbst in eine tiefe Krise stürzt und die ’unverdauten Reste’ vor- wissenschaftlicher Weltbilder wieder erstarken. Krisen können bedrohlich wirken, sie können zerstörerisch sein, sie können aber auch als Chance begriffen werden, die Mängel des bisherigen wissenschaftlichen Weltbildes besser zu verstehen. Letzteres kann möglicherweise der Ausgangspunkt für eine ’Erneuerung’ des wissenschaftlichen Denkens bilden, das seine Schwächen durch ein verbessertes Selbstverständnis überwinden kann. Im Teil 2 wird Kap.3 besprochen (In Teil 1 wird fehlerhaft von Kap.1-3 gesprochen; tatsächlich waren es Kap.1-2)

I. KAPITEL 3

Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch]{Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch
Stace Kap.3 (1952), rekonstruiert als Mind-Map von G.Doeben-Henisch

In diesem Kapitel 3 kontrastiert Stace das mittelalterliche (christliche) mit dem neuzeitlich- wissenschaftlichen Denken zu den Themen ’Gott als letzte Ursache’, ’Teleologisches Ziel der Welt’ und ’Moralische Ordnung (Werte)’ (vgl. das Schaubild 1).

Während das mittelalterlich-christliche Denken von einer bestehenden moralischen Ordnung ausgeht, die in einer alles umfassenden Absicht eingebettet ist, die letztlich auf einen alles ermöglichenden ’Gott’ zurückgeht, beginnt spätestens im 16.Jahrhundert eine neuzeitlich-wissenschaftliche Sicht der Welt Raum zu greifen. In dieser auf nachweisbaren kausalen Beziehungen gründenden Sicht relativieren sich alle Dinge zu überschaubaren kausalen Netzwerken; Aussagen über Eigenschaften und Beziehungen, die über das direkt Kausal-Nachweisbare hinausgehen verlieren ihre Akzeptanz. ’Werte’ werden zurück gebunden an konkrete Menschen und deren individuellen Befindlichkeiten, die man als ’relativ’ betrachtet, nicht mehr ’absolut’. Die Ausdehnung auf größere ’Gruppen’ (Stämme, Völker, …) hebt die grundlegende Relativität nicht auf.

Eine schwer kontrollierbare Wendung bringen Vorstellungen von einer ’kosmischen Absicht’, einem ’universellen Geist’, sofern diese sich nur ’indirekt (immanent)’ manifestieren, womöglich noch verschattet von unserem Un-Bewussten, das einen viel größeren Bereich unseres Körpers abdeckt als der bewusste.

II. DISKURS

Die klare Konturierung von mittelalterlich-christlichem und neuzeitlich-wissenschaftlichem Denken zu den genannten Themen geht – wie Stace selbst bemerkt – auf Kosten von Genauigkeit und vielen Details. Ohne die vielen Fragen, die sich hier stellen, schon zu diskutieren (siehe nachfolgende Teile), sei nur auf folgende Punkte hingewiesen.

A. Gefühle

Gefühle sind streng genommen nicht einfach ’subjektiv’, sondern haben in der Regel ’objektive Ursachen’, die auf objektive Prozesse verweisen. Manche dieser Prozesse sind komplexer Natur und erschließen sich erst bei der Analyse von ’Zeitreihen’.

In neueren Spielarten der christlichen Spiritualität und Mystik quasi parallel zum Entstehen des neuzeitlichen Denkens war eine solche Sicht üblich (z.B. in der Spiritualität des Jesuitenordens). Die Hintergrundannahme, dass es einen ’Gott’ gibt, war das mittelalterliche Erbe. Durch die Verknüpfung mit einem empirischen Erfahrungsansatz des eigenen Fühlens, wodurch Gott mit Menschen direkt interagieren kann, nicht ’kausal-deterministisch’, sondern ’kausal-nicht deterministisch’ (’sine cause’), in Abstimmung mit anderen Menschen und dem übrigen Weltwissen, veränderte sich aber der zuvor unnahbar transzendente Begriff Gottes zu einem nahbaren, partiell empirisch kontrollierbaren Begriff. Diese eigentlich revolutionäre Veränderung der christlichen Spiritualität wurde aber bis heute dadurch verdeckt, dass die kirchliche hierarchische Autorität mit ihrer papalen Verfassung die Anerkennung von individuellen Erfahrungen als ’heilsrelevant’ grundsätzlich verweigert. Dies ergibt sich nicht nur aus dem kirchenrechtlich fixierten Sachverhalt, dass alle offiziellen spirituellen Gemeinschaften dem jeweiligen Papst einen absoluten Gehorsam schulden, sondern grundlegend aus der kirchlichen Lehre, dass es nach dem Tod Jesu keine neuen öffentlichen Offenbarungen Gottes mehr geben wird.

(Anmerkung 2: Im offiziellen Text des II.Vatikanischen Konzils von 1965 lautet die Formel dazu ”… et nulla iam nova revelation publica expectanda est ante gloriosam manifestationem Domini nostri Iesu Christi”.(Siehe: [3], Kap.1, Nr.4) )

 

B. Kausale Erklärungen

Sosehr das neuzeitliche wissenschaftliche Denken mit der Vorstellung verknüpft wird, dass seit Galileo und Newton (um nur die prominentesten Namen zu nennen), das wissenschaftliche Denken ein ’kausales Denken’ sei, das sich in jedem Einzelfall empirisch bestätigen lassen können soll, so falsch, oder zumindest ’grob vereinfachend’ ist diese Ansicht.

Was die moderne empirischen Wissenschaften haben, das ist eine klare Trennung zwischen ’Messwerten’ und ’interpretierenden Modellen’. Damit einher geht aber auch die wachsende Einsicht, dass es keinen irgendwie gearteten Automatismus gibt, um von Messwerten zu einem geeigneten interpretierenden Modell zu kommen. Rein formal ist die Menge der möglichen Modelle quasi unendlich. Nur durch die Rückkopplung des unendlich formalen Raumes an ein konkretes, endliches Gehirn mit meist endlich vielen, sehr überschaubaren Vorstellungsmustern zum Zeitpunkt der Theoriebildung, verringert den Raum des ’Denkbaren’ dramatisch; doch ist dieser reduzierte Denkraum immer noch ’groß’.

Welches nun tatsächlich ein ’angemessenes Modell’ ist, das sich experimentell ’bestätigen’ lässt, dafür gibt es keine absolute Kriterien, sondern muss ’ausprobiert’ werden (’trial and error’). Dass es hier zu schweren Fehlern kommen kann, hat die Geschichte mehrfach eindrucksvoll gezeigt, und liegt auch in der Natur der Sache. Der einzige ’harte’ Referenzpunkt ist die ’erfahrbare Realität’, und diese ist, so wie wir sie vorfinden, inhärent ’unbekannt’, ’komplex’, ’mindestens endlich unendlich groß’. Kein menschlicher Forscher hat ’vorweg’ (’a priori’) ein irgendwie geartetes Wissen von dem großen Ganzen. Der Kampf um das ’Unbekannte’ erfordert höchsten Einsatz und ist ohne massiven und kreativen Einsatz von ’Fehlern’ (!) nicht zu gewinnen.

Wenn man also ein ’absolutes’ Wissen ablegt und sich auf das ’Objektive’ verlegen will, dann gerät man zunächst unweigerlich in das Fahrwasser von ’Relativität’. Andererseits, diese wissenschaftliche Relativität ist deutlich zu unterscheiden von ’Beliebigkeit’! Die Objektivität als primäre Form der Wirklichkeit für wissenschaftliche Erkenntnis wird letztlich als eine ’absolute Größe’ angenommen, die wir mit unseren beschränkten Mitteln aber nur häppchenweise erkenn können. Doch sind diese ’Häppchen’, sofern sie die unterstellte ’absolute Objektivität’ treffen, in diesem angenommenen Sinn auch ’absolut objektiv’, allerdings im Modus einer ’relativen Absolutheit’. Während man in einer allgemeinen Beliebigkeit nichts voraussagen kann, erlaubt eine ’relative Absolutheit’ (die wissenschaftliche Objektivität) weitreichende Voraussagen im Rahmen der Übereinstimmung mit der relativen Absolutheit und im Rahmen der Eigenart der erkannten Sachverhalte. Diese Bewegung von der relativen Absolutheit der aktuellen Erkenntnis zu einer immer ’absoluteren Absolutheit’ stellt keinen vollen Gegensatz dar zu  einem alles bestimmenden ’kosmischen Prinzip’.

Allerdings verwandelt die relative Absolutheit alle Menschen in gleicherweise Suchende. Grundsätzlich erlaubt diese Art der Erkenntnissituation keine ’absoluten Führer’, auch irgendwelche ’Klassen’ oder ’Kastenbildungen’ sind in diesem Kontext ’irrational’.

QUELLEN

[1] W. Stace, Mysticism and Philosophy, 1st ed. 2 Los Angeles (CA): Jeremy P.Tarcher, Inc., 1960.
——, Religion and the Modern Mind, 1st ed. Westport (Connecticut): Greenwood Press, Publishers, 1952, reprint 1980 from Lippincott and Crowell, Publishers.
[3] H. S. Brechter and et.al, Eds., II. Vatikanisches Konzil. Dogmatische Konstitution über die Göttliche Offenbarung, 2nd ed. Freiburg – Basel – Wien: Herder Verlag, 1967.

Zur Fortsetzung geht es HIER.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

SCHÄTZING: TYRANNEI DES SCHMETTERLINGS. KOMMENTAR: DEN ZEITGEIST DURCHBUCHSTABIERT – Über den Stil kann man streiten.

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
16.Mai 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Den folgenden Text hatte ich als Buchbesprechung zu Schätzings neuem Buch auf der Verkaufsseite des Buches bei amazon veröffentlicht. Es geht tatsächlich um eine Sachlage, um die Sachlage von uns Menschen. Hier der Link auf meine Besprechungsseite bei amazon.

KRITISCHE REZENSIONEN

Wer vor der Lektüre von Schätzings neuem Roman „Die Tyrannei des Schmetterlings. Roman. Kiepenheuer & Witsch, 736 Seiten“ versucht hat, Rezensionen zu diesem Buch zu lesen, der wird wenig ermutigt sein, sich diesem Buch zu widmen. In angesehenen Zeitungen finden sich Verrisse wie die von Jan Wiele (FAZ), 25.4.2018, Elmar Krekeler (Die Welt, 27.4.2018), Gerhard Matzig (SZ, 28.4.), und Alard von Kittlitz (Die Zeit, 5.5.2018). Ähnlich kritisch (wenngleich auch mit unterschiedlichen Argumenten) die Mehrheit der Reaktionen bei den Lesermeinungen zum Buch auf amazon. Bei amazon finden sich dann zwar auch positive Stimmen, aber aus ihnen kann man nicht so recht entnehmen, warum das Buch positiv ist. Von all diesen verrissartigen Besprechungen hebt sich wohltuend die ausführliche Besprechung von Peter Körting ab (FAZ, 24.4.2018). Sehr sachlich, sehr differenziert und sehr ausführlich gibt er einen Überblick über die Struktur des Romans, benennt Schwächen, lässt die Stärken nicht aus, und überlässt es dem Leser, zu einem endgültigen Urteil zu kommen.

STANDPUNKT DES REZENSENTEN

Ich hatte im Vorfeld den Verriss von Jan Wiele zum Buch gesehen, zwei Talkshows mit Schätzing, in denen die üblichen Klischees zu Künstlicher Intelligenz ausgetauscht wurden, und hatte nach dem begeisternden ‚Schwarm‘ zwei nachfolgende Romane von ihm nur mit Unlust zu Ende gebracht. Sein tendenziell schwulstiger Stil mit vielen Längen, dazu relativ flache Personenprofile, ist nicht unbedingt mein Stil. Dazu kommt, dass ich ein Experte in Sachen Künstlicher Intelligenz und angrenzender Themenfelder bin, seit mehr als 30 Jahren, und die Signale, die das Buch im Vorfeld aussendete, waren eher dazu angetan, es nicht auf die Leseliste zu setzen. Aber, zum Glück, ist das Leben trotz aller Pläne und Steuerungen doch immer noch von Zufällen geprägt: meine Frau bekam das Buch als Hörbuch zum Geburtstag geschenkt und aktuell anstehende lange Autofahrten brachten mich in eine Art Schicksalsgemeinschaft mit diesem Buch.

REINKOMMEN

Die ersten Minuten des Hörbuchs waren bei meiner Voreinstellung eine harte Prüfung: ein erhebliches Wortgetöse für eine Situation, die man mehr erahnen als verstehen konnte, mit einem abrupten harten Schnitt, der den Hörer von einem afrikanischen Land direkt nach Nord-Kalifornien, ins Land des Silicon Valley, führte. Die geringen Ausweichmöglichkeiten einer langen Fahrgemeinschaft hielten mich dann – glücklicherweise – fest, und ich konnte in der Folge minutenweise, stündlich erleben, wie sich aus einer scheinbaren Idylle langsam ein Thriller entwickelte, der bis zum Schluss (verteilt über mehrere Fahrten) häppchenweise an Dramatik zulegte. Nach ca. drei-viertel des Hörbuchs bin ich dann auf die Ebook-Version umgestiegen, da das dann einfach schneller ging.

ÄSTHETISCHE VERPACKUNG VON IDEEN

Die große Masse der Rezensionen arbeitet sich stark an der ästhetischen Verpackung ab, kritisiert die vielen Wortungetüme oder scheinbare ‚Slangs‘, die dem deutschen Bildungsbürger abartig erscheinen, leidet an empfundenen Längen, findet die Personen nicht so dargestellt, wie man selbst sie gerne sehen würde …. aber das ist weitgehend wirklich Geschmackssache und sagt nicht wirklich etwas über die ‚Botschaft‘, die in diesem Buch mutig und – man muss es schon mal hier sagen – ‚genial‘ verpackt wurde.

DER ZEITGEIST UND KÜNSTLICHE INTELLIGENZ

Während Experten im Bereich künstliche Intelligenz sich mit den Themen mindestens seit der Mitte des vorausgehenden Jahrhunderts intensiv beschäftigen, wurde die deutsche Öffentlichkeit so richtig erst seit der Cebit 2016 mit diesen Themen überrollt. Mit einem Mal besetzte das Thema ‚künstliche Intelligenz‘ nach und nach alle Medienkanäle, fortan täglich, stündlich. Es waren nicht unbedingt die Forscher selbst, die sich hier artikulierten, sondern vorwiegend die Marketingabteilungen der großen Konzerne, die verkaufen wollten, und die vielen Journalisten, die kaum etwas verstanden, aber nichts desto trotz als ‚Verstärker‘ der Marketingabteilungen viele Schlagworte in die Welt setzten, ohne sie wirklich zu erklären.

Während sich die Öffentlichkeit mit möglichen Schreckgespensten wie einer neuen kommenden Arbeitslosigkeit beschäftigte, das – in der Tat ungute – globale Ausspähen zum Thema machte, die Politik Digitalisierung und Industrie 4.0 propagierte, bunte lustige Filmchen von Robotern herumgereicht wurden, die merkwürdig aussahen und merkwürdige Dinge taten, blieb die ‚wahre Natur‘ von künstlicher Intelligenz, die rasant voranschreitende Forschungen zu immer komplexeren Steuerungen, Vernetzungen, und vor allem zur Kombination von künstlicher Intelligenz und Mikrobiologie, vor allem Genetik, weitgehend unsichtbar. Neueste Erkenntnisse zur Evolution des Lebens, zur Astrophysik, die weitgehende Auflösung aller alten Menschenbilder samt einer damit verbundenen Auflösung aller bekannten Ethiken wurde nie und wird immer noch nicht offiziell in der Öffentlichkeit diskutiert. Das weltweit zu beobachtende Phänomen von neuen, starken Strömungen in Richtung Populismus, Fanatismus, Nationalismus, verbunden mit stark diktatorischen Zügen ist – in diesem Kontext – kein Zufall.

In einer solchen Situation ist es wichtig, dass man anfängt, die vielen scheinbar isolierten Einzelphänomene aus ganz unterschiedlichen Bereichen in ihrem Zusammenhang sichtbar zu machen, in ihrer tatsächlichen Dynamik, in ihrer möglichen synergistischen Logik, ansatzweise verstehbar ohne die vielen komplexen Details, die ja selbst die Fachwissenchaftler kaum verstehen. Ich gebe offen zu, dass ich selbst – als Fachexperte – schon mehrfach erwogen hatte, etwas Populäres zu schreiben, um die komplexen Sachverhalte irgendwie verständlicher zu machen. Ich bin aber über erste Plots nicht hinaus gekommen. Ich fand einfach keinen Weg, wie man diese Komplexität erzählbar machen kann.

JENSEITS DER EINZELFAKTEN

Sieht man von den ästhetischen Besonderheiten des Textes bei Schätzing ab (die einen finden seinen Stil gut, andere leiden), dann kann man im Verlaufe seiner Schilderungen nicht nur eine erstaunliche große Bandbreite an technischen Details kennenlernen, die den aktuellen und denkbar kommenden Forschungsstand sichtbar machen, sondern er vermag es, diese vielen Details in funktionale Zusammenhänge einzubetten, die nicht so ohne weiteres auf der Hand liegen und die sich so auch in kaum einer anderen Publikation finden, nicht in dieser Explizitheit. In seinem Text offenbart er eine innovative, kreative Kraft des Weiter-Denkens und des Zusammen-Denkens, die beeindruckend ist, die sehr wohl zu weiterführenden und intensiven Diskussionen geeignet sein könnte.

PARALLEL-UNIVERSEN

Verglichen mit dem mittlerweile schon abgedroschen wirkendem Stilmittel der Zeitreisen eröffnet seine Verwendung der Idee von Parallel-Universen viele neue, interessante Szenarien, die erzählerisch zu ungewohnten, und darin potentiell aufschlussreichen, Konstellationen führen können. Wissenschaftlich ist dieses Thema hochspekulativ und in der Art der Umsetzung wie bei Schätzing eher extrem unwahrscheinlich. Erzählerisch eröffnet es aber anregende Perspektiven, die viele philosophisch relevante Themen aufpoppen lassen, einfach so, spielerisch. Ob es Schätzing gelungen ist, dieses Stilmittel optimal zu nutzen, darüber kann man streiten. In seinem Text eröffnet dieses Stilmittel allerdings eine Diskussion über alternative Entwicklungsmöglichkeiten, die ohne das Stilmittel Parallel-Universen, wenn überhaupt, nur sehr umständlich hätten diskutiert werden können.

CYBORGS

Was Schätzing hier mit vielen Beispielen zum Thema ‚Design von neuen biologischen Strukturen‘ schreibt, ist in so manchem Entwicklungslabors Alltag. Die Fassade einer Ethik, die es inhaltlich gar nicht mehr gibt, verhindert in manchen Ländern die offizielle Forschung mit neuen molekularbiologischen Strukturen, aber sie passiert trotzdem. Unterstützt durch Computer mit immer leistungsfähiger Software werden immer schneller immer neuere biologische Strukturen geschaffen, die mit anderen Technologien (z.B. Nanotechnologie) verknüpft werden. Und der Einbau von künstlicher Intelligenz in biologische Strukturen (die als solche ja schon unterschiedliche Formen von Intelligenz haben) ist in vollem Gange. Aktuell sind diese Spezialentwicklungen. Es ist das Verdienst von Schätzing, beispielhaft Zusammenhänge zu denken, in denen sich diese Spezialentwicklungen im größeren Kontext zeigen und was sie bewirken können, wenn Geld und Macht gezielt genutzt werden, um sie bewusst zu nutzen. Diese Art von Science Fiction ist unserer Gegenwart erschreckend nahe.

SUPERINTELLIGENZ

Während heute selbst seriöse Forscher immer öfter über die Möglichkeit von technischen Superintelligenzen nachdenken, ist das Verständnis einer solchen Technologie bislang noch nicht wirklich da. Es gibt bis jetzt ja noch nicht einmal eine allgemein akzeptierte Definition von ‚künstlicher Intelligenz‘. Das Ausweichen auf den harmloser klingenden Ausdruck ‚maschinelles Lernen‘ löst das Problem nicht. Die Wissenschaft hat bislang keine klare Meinung, was sie wirklich unter einer ‚künstlichen Intelligenz‘ verstehen soll, geschweige denn, was eine ‚Superintelligenz‘ sein soll, eine solche, die die ‚menschliche Intelligenz‘ deutlich übertrifft. Erstaunlich ist in diesem Zusammenhang, dass auch die sogenannte ‚menschliche Intelligenz‘ nach ungefähr 150 Jahren Intelligenzforschung noch nicht vollständig geklärt ist. Gemeinsam ist allen Positionen, dass man den Menschen in seiner aktuellen biologischen Verfassung bezüglich Datenmenge und Geschwindigkeit der Verarbeitung von Daten einer potentiellen Maschine gegenüber als hoffnungslos unterlegen ansieht. Aus diesen sehr äußerlichen Kriterien leitet man ab, dass eine solche Maschine dann ‚irgendwie‘ den Menschen auch in Sachen ‚Intelligenz‘ haushoch überlegen sein wird.

Schätzing kann das Fehlen wissenschaftlicher Erklärungen zu künstlicher Intelligenz nicht ersetzen, aber als innovativ-kreativer Geist kann er literarisch ein Szenario erschaffen, in dem ansatzweise sichtbar wird, was passieren könnte, wenn es eine solche maschinelle Superintelligenz gäbe, die über Netze und steuerbare Körper mit der Welt verbunden ist. Es ist auch bemerkenswert, dass Schätzing sich dabei nicht von technischen Details ablenken lässt sondern den Kern des Super-Intelligenz-Problems im Problem der ‚Werte‘, der ‚Präferenzen‘ verortet. Das, was heute weltweit als ‚künstliche Intelligenz‘ propagiert wird, ist in der Regel noch weitab von einer ‚vollen künstlichen Intelligenz‘, da diese ‚gezähmten Intelligenzen‘ nur innerhalb eng vorgegebener Zielgrößen lernen und dann agieren dürfen. Andernfalls könnten die Firmen die Zuverlässigkeit des Betriebs nicht garantieren. Jene wenigen Forschungsgruppen, die sich mit echten ‚ungezähmten‘ künstlichen Intelligenzen beschäftigen (z.B. im Bereich ‚developmental robotics‘), stehen vor dem riesigen Problem, welche Werte diese offen lernenden Systeme haben sollten, damit sie tatsächlich ‚autonom‘ ‚alles‘ lernen können. Aktuell hat niemand eine befriedigende Lösung. Und diese Forschungen zeigen, dass wir Menschen über die Art und Weise, wie wir selbst Werte finden, entwickeln, benutzen bislang kein wirklich klares Bild haben. Das bisherige Reden über Ethik hat eher den Charakter einer ‚Verhinderung von Klärung‘ statt einer offenen Klärung.

Schätzing wagt es sogar, über das mögliche Bewusstsein einer solchen maschinellen Superintelligenz zu spekulieren. Dies ist nicht abwegig, es ist sogar notwendig. Aber auch hier zeigt sich, dass wir Menschen unsere eigenen Hausaufgaben noch lange nicht gemacht haben. Auch das Thema ‚Bewusstsein‘ ist weder von der Philosophie noch von den unterstützenden empirischen Wissenschaften bislang gelöst. Es gibt viele hundert Artikel und Bücher zum Thema, aber keine allgemein akzeptierte Lösung.

Ich finde es daher gut und mutig, dass Schätzing in diesem Zusammenhang es wagt, das Thema anzusprechen. Künstliche Intelligenzforschung kann ein wunderbarer Gesprächspartner für Psychologen, Neuropsychologen und Philosophen sein. Leider wissen die jeweiligen Gesprächspartner aber oft zu wenig voneinander.

DEN ZEITGEIST DURCHBUCHSTABIERT

Nimmt man alle Einzelheiten zusammen, würdigt die vielen kreativ-innovativen Zusammenhänge, die Schätzing sichtbar macht, schaut sich an, wie er es schafft, das schwierige Thema ‚maschinelle Superintelligenz‘ in einem größeren komplexen Kontext in Szene zu setzen, dann bin ich bereit, zu konzedieren, dass dies eine tatsächlich geniale Leistung ist. Er kondensiert die vielen losen Fäden zu einem Gesamtbild, das unserer tatsächlichen und der sehr bald möglichen Zukunft sehr nahe ist, und macht deutlich, dass hier ein erheblicher Diskussionsbedarf besteht, und zwar über alle Positionen und Fachgrenzen hinweg. Ich kenne kein Buch, das in der aktuellen Situation auch nur ansatzweise literarisch das leistet, was Schätzing hier vorgestellt hat. Ich kann nur hoffen, dass diesem Aufschlag von Schätzing noch viele Reaktionen folgen (allerdings bitte nicht als billiger Verriss).

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER