EPISTEMISCHE SCHOCKWELLEN. Die letzten 3500 Jahre

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 20.Sept. 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

KONTEXT

Die Diskussion im Kontext des letzten Textes von Freud zur Psychoanalyse lässt erkennen, wie sich das Bild von uns Menschen über uns selbst dadurch in gewisser Weise ändern kann und letztlich dann ändert, wenn wir uns auf diese Gedanken einlassen. Die Einbeziehung des ‚Unbewussten‘ in das Gesamtbild des Systems homo sapiens verschiebt so manche Beziehungen im Gefüge des menschlichen Selbstbildes, und nicht nur das, es wirkt sich auch aus auf das Gesamtbild der empirischen Wissenschaften, auf ihr Gesamtgefüge. Dies hatte sich ja auch schon angedeutet in der vorausgehenden Diskussion des Buches von Edelman, die noch nicht abgeschlossen ist.

Dies hat mich angeregt, über Freud und Edelman hinausgehenden einige der epistemischen Schockwellen zusammen zu stellen, denen das menschliche Selbstverständnis in den letzten ca. 3500 Jahren ausgesetzt war. Dabei muss man sich darüber im Klaren sein, dass es natürlich immer nur eine Minderheit war, die überhaupt an den übergreifenden Erkenntnissen teilhaben konnte, und selbst diese Minderheit zerfällt in unterschiedliche Subgruppen ohne ein kohärentes Gesamtbild.

EPISTEMISCHE SCHOCKWELLEN

Unter ‚Schockwellen‘ werden hier energetische Ereignisse verstanden, die nur gelegentlich auftreten, und die geeignet sind, bestehende Strukturen zumindest zum Schwingen, zum Erbeben zu bringen, wenn nicht gar zu ihrer Zerstörung führen. ‚Epistemisch‘ bezieht sich auf die Dimension des Erkennens, des Verstehens, zu dem Exemplare des Homo sapiens fähig sind. ‚Epistemische Schockwellen‘ sind also Ereignisse, durch die das Selbstverständnis, die Weltbilder der Menschen in Schwingungen versetzt wurden bzw. sich neu aufbauen mussten.

Die folgende Zusammenschau solcher epistemischer Schockwellen ist in keiner Weise vollständig, weitgehend nicht differenziert genug, rechtfertigt sich aber dadurch, dass es darum geht in einer überschaubaren Weise einen Grundeindruck von der Dynamik des Geistes zu vermitteln, die dem Geschehen des biologisch fundierten Lebens innewohnt.

CLUSTER RELIGION

 

Stichworte zu 'Epistemische Schockwellen', Teil 1. ca. -1500 bis ca. 1500

Stichworte zu ‚Epistemische Schockwellen‘, Teil 1. ca. -1500 bis ca. 1500

Zwischen ca. -1500 bis etwa 650 gab mindestens 8 große das Weltverstehen prägende Ereignisse – daneben viele andere, weitere –, die wir im Nachgang als ‚Religionen‘ bezeichnen. Religionen zeichnen sich aus durch ‚Gründer‘, durch ‚Botschaften‘, durch ‚Erfahrungen‘ und dann meistens nachfolgend durch ‚Regeln‘ und Bildung von ‚Organisationsformen‘. Sie erheben einen Anspruch auf ‚Deutung der Welt‘ mit ‚Sinn‘, ‚Werten‘ und ‚Spielregeln‘. Sie versprechen auch den Kontakt zu eine Letzten, Größten, Umfassenden, Endgültigen, dem alles andere unter zu ordnen ist. Vielfach gehen diese Versprechungen auch einher mit speziellen ‚außergewöhnlichen Erlebnissen‘, die im einzelnen stattfinden.

In Vorderasien und Europa waren dies vor allem das Duo Judentum-Christentum und der Islam. Während diese sich explizit auf einen ‚Schöpfer‘ bezogen, kam der indische Subkontinent neben der vielfältigen Götterwelt des Hinduismus in seinem Grundtenor — realisiert im Buddhismus — ohne einen expliziten Schöpfer aus, allerdings nicht ohne eine tiefgreifende Existenzerfahrung des einzelnen Menschen, der sich durch einen geeigneten Lebensstil und Meditation möglichst weitgehend von einem normalen Alltag und seinen vielfältigen Spannungen isolierte.

So verschieden Jugentum-Christentum, Islam auf der einen Seite und Indischer Existentialismus auf der anderen Seite auf den ersten Blick wirken können, kann man aber dennoch auffällige strukturelle Parallelen erkennen.

Die sprachliche Seite der genannten Religionen tendiert dazu, nicht die Weite und Vielfalt der Welt zu kommunizieren, keine weiterreichende Erkenntnisse, sondern die Sprache hat einzig den Zweck, eine bestimmte, abgegrenzte Idee zu kommunizieren, diese abzugrenzen von allem anderen, bis dahin, dass alle Abweichungen diskreditiert werden. Jene Menschen, die sich sprachlich von der ‚Norm‘ entfernen sind Abweichler, Dissidenten, Ungläubige, Verräter, Feinde. Die Sprache wird also nicht gesehen als ein offener, lebendiger, dynamischer Raum von ‚Wahrheit‘, die sich weiter entwickeln kann, sondern als eine symbolische Fessel, eine symbolische Mauer, die einige wenige Ideen abgrenzen sollen. Auch der Buddhismus, der eigentlich sein Fundament in einer schwer beschreibbaren individuellen Existenzerfahrung sieht, praktiziert Sprache überwiegend als Gefängnis.

Betrachtet man sich die Geschichte dieser Religionen bis heute, dann ist diese Starrheit unübersehbar. Alle modernen Erkenntnisse und Entwicklungen prallen an der Sprache dieser Religionen ab.

Neben der sprachlichen Dimension haben alle diese Religionen auch eine ‚Erlebnisdimension‘, oft auch ‚Spiritualität‘ oder ‚Mystik‘ genannt. Einzelne, Gruppierungen, Bewegungen erzähltem davon, schrieben es auf, dass sie ‚besondere, tiefgreifende Erlebnisse‘ hatten, die ihnen ‚klar gemacht haben‘, was wirklich ‚wichtig‘ ist, ‚worin der Sinn des Lebens‘ liegt, Erlebnisse, die ihnen ‚Frieden‘ geschenkt haben, ‚Erfüllung‘, ‚Wahrheit‘. Und diese Erlebnisse waren immer so stark, dass sie diese Menschen aus allen Schichten dazu bewegt haben, ihr Lebens radikal zu ändern und von da an eben ‚erleuchtet‘ zu leben. Diese Menschen gab es nicht nur im Umfeld des Buddhismus, sondern auch zu Tausenden, Zehntausenden im Umfeld des Judentum-Christentums.

Solange diese religiösen Bewegungen sich im Umfeld der etablierten religiösen Überzeugungen und Praktiken bewegen wollten, mussten sie sich – wie immer auch ihre individuellen Erlebnisse waren – diesem Umfeld anpassen. In vielen Fällen führte dies auch zu Absetzbewegungen, zur Entwicklung neuer religiöser Bewegungen. Das Problem dieser erlebnisbasierten Bewegungen war, dass sie entweder nicht die Sprache benutzen durften, die sie zur Beschreibung ihrer Erlebnisse brauchten (da nicht erlaubt), oder aber, sie benutzten eine neue Sprache, und dies führte zum Konflikt mit den etablierten Sprachspielen.

Unter den vielen hunderten Bewegungen allein im Bereich Judentum-Christentum, die z.T. viele tausend, ja zehntausend  Mitglieder hatten und dabei oft auch materiell sehr wohlhabend bis reich wurden, möchte ich zwei kurz erwähnen: die Reformation angefeuert von Martin Luther und den Jesuitenorden, angefeuert von Ignatius von Loyola. Im historischen Klischee werden beide Bewegungen oft als direkte Gegner skizziert, da der Jesuitenorden kurz nach Beginn der Reformationsbewegung gegründet wurde und der katholische Papst gerade diesen Orden auch zur ‚Bekämpfung der Reformation‘ einsetzte. Dieses Bild verdeckt aber die wirklich interessanten Sachverhalte.

Der Jesuitenorden entstand aus den spirituellen Erfahrungen eines baskischen Adligen, deren innere Logik, Beschreibung und Praxis, im Lichte der Erkenntnisse der modernen Psychologie (und Psychoanalyse) stand halten würde. Außerdem war der Orden aufgrund dieser Spiritualität extrem weltoffen, wissenschaftsaffin, und revolutionierte die damals beginnende christliche Missionierung der Welt, indem jeweils die Kultur der verschiedenen Erdteile studiert und übernommen und sogar gegen zerstörerische Praktiken der europäischen Kolonisatoren geschützt wurden. Genau dieses wahre Gesicht des Ordens mit einer radikal individuell-erlebnisbasierten Spiritualität und daraus resultierenden Weltoffenheit und Menschlichkeit führte dann zum Verbot und Aufhebung des Ordens weltweit, verbunden mit Einkerkerungen, Folter und Tod ohne Vorankündigung. Das korrupte Papsttum ließ sich damals von dem portugiesischen und spanischen Hof erpressen, die ihre menschenverachtende Geschäfte in den Kolonien, speziell Südamerika, bedroht sahen. Dies war nicht die einzige Aufhebung und Misshandlung, die der Orden seitens des Papstums erfuhr. Während Luther sich gegen das Papsttum erhob und es auf einen Konflikt ankommen ließ, blieben die Jesuiten dem Papst treu und wurden vernichtet.

Diese Minigeschichte ließe sich aber zu einem großen Thema erweitern, da eben die sprachlich fixierten Religionen generell ein Problem mit Wahrheit und damit mit jeglicher Art von Erfahrung haben. Die Akzeptanz individueller Erfahrung als möglicher Quell von ‚Wahrheit‘, möglicherweise einer weiter reichenden alternativen Wahrheit zu der sprachlich fixierten (und damit eingesperrten) Wahrheit der Religionen, eine solche Akzeptanz würde das Wahrheitsmonopol dieser Religionen aufheben. Bislang hat keine der genannten Religionen es geschafft, von sich aus ihr problematisches Wahrheitsmonopol in Frage zu stellen.

JUDENTUM – CHRISTENTUM – PHILOSOPHIE

In der Zeit vor den modernen empirischen Wissenschaften existierte wissenschaftliches Denken entweder gar nicht oder in enger Verbindung mit dem philosophischen Denken bzw. der Medizin.

In der alten und klassischen Griechischen Philosopie (ca. -800 bis -200) wurde das Weltverstehen in vielen Bereichen erstmalig sehr grundlegend reflektiert, unabhängig von bestimmten religiösen Überzeugungen, obgleich natürlich auch diese Denker nicht im luftleeren Raum lebten sondern in konkreten Kulturen mit einer damals üblichen Moral, Ethik, Spielregeln, Sprachspielen.

Unter den vielen bedeutenden Konzepten war das größte systematische Konzept wohl jenes von Aristoteles, Schüler Platons, und den an ihn anschließenden Schulen. Während dieses griechische Denken nach der Eroberung Griechenlands durch die Römer in Mittel- und Westeuropa bis zum Jahr 1000 mehr oder weniger unbekannt war (Kriege, radikal anti-wissenschaftliche Einstellung der katholischen Kirche) war der damalige Islam sehr offen für Wissen. Das griechische Denken war im Islam weitgehend bekannt, lag entsprechend in arabischen Übersetzungen vor, und durch eine Vielzahl von Schulen, Bildungsstätten und großen Bibliotheken (z.T. mehrere hundert Tausend Bücher!) wurde dieses Wissen gepflegt und weiter entwickelt (welcher Kontrast zum heutigen Islam!). Und nur über diese Umweg über den hochgebildeten Islam mit Übersetzungsschulen in Spanien kam das Wissen der Griechen ab ca. 1000 wieder in das christliche Mittel- und West-Europa.

Mit dem Entstehen eines aufgeschlosseneren Bildungssystem in Europa wanderten die griechischen Gedanken über Bücher und Gelehrte wieder in europäische Bildungsstätten ein. Es gab eine Zeit der intensiven Auseinandersetzung zwischen bisheriger christlicher Theologie und Aristoteles. Auf dem Höhepunkt der begrifflichen Integration von christlichem Glauben und Aristotelischer Weltsicht gab es aber ‚Abspaltungstendenzen‘ in mehreren Bereichen.

POLITIK – WISSENSCHAFT – SPIRITUALITÄT

Das zunehmend freie und kritische Denken begann mit der Infragestellung der bis dahin waltenden absolutistischen Machtstrukturen.

Das methodisch geschulte universitäre Denken begann, über die aristotelischen Konzepte hinaus zu denken. Anknüpfungspunkte gab es genügend.

Das individuelle Erleben der Menschen, ihre Frömmigkeit, ihre Spiritualität suchte nach neuen Wegen, benutzte eine neue Sprache, um sich besser ausdrücken zu können.

Das neue politische Denken führte später zur französischen Revolution und vielen ähnlichen politischen Erneuerungsbewegungen.

Das neue philosophische Denken führt alsbald zum Bildung der neuen empirischen Wissenschaften mit neuer Logik und Mathematik.

Die neue Spiritualität lies viele neue religiöse Bewegungen entstehen, die quer zu allen etablierten Glaubensformen lagen, u.a. auch zur Reformation.

PHILOSOPHIE – WISSENSCHAFT

Stichworte zu 'Epistemische Schockwellen', Teil2. ca. ca. 1550 bis ca.2018

Stichworte zu ‚Epistemische Schockwellen‘, Teil2. ca. ca. 1550 bis ca.2018

Aus der Vielzahl der philosophischen Denker bieten sich vier besonders an: Descartes, Kant, Wittgenstein und Carnap.

Von heute aus betrachtet markieren diese Vier entscheidende Umbrüche des philosophischen Denkens, das von den Entwicklungen in der Logik, Mathematik,Physik, Geowissenschaften, Biologie und Psychologie zusätzlich profitiert hat und noch immer profitiert.

Descartes versuchte zu klären, inwieweit sich die Wahrheitsfrage nur durch Rekurs auf das eigene Denken lösen ließe. Sein Fixpunkt in der Gewissheit des eigenen Denkens (cogito ergo sum) wurde aber erkauft durch einen fortbestehenden Dualismus zwischen Körper (res extensa) und Denken/ Geist (res cogitans), den er mit einem irrationalen Gedanken zu einer Zirbeldrüse zu kitten versuchte.

Kant führte dieses Forschungsprogramm von Descartes letztlich weiter. Sein Vermittlungsversuch zwischen fehlbarer konkreter empirischer Erfahrung und den allgemeinen Prinzipien der Mathematik und des Denkens (des Geistes) ging über Descartes insoweit hinaus, dass er auf eine Zirbeldrüsen-ähnliche Lösung verzichtete und stattdessen davon ausging, dass der Mensch in seinem Denken von vornherein in abstrakten Kategorien wahrnimmt und denkt. Unsere menschliche Konstitution ist so, dass wir so wahrnehmen und Denken. Er konstatierte damit ein Faktum, das wir heute mit all unseren Erkenntnissen nur bestätigen können. Es blieb bei ihm offen, warum dies so ist. Es zeichnet seine intellektuelle Redlichkeit aus, dass er die offenen Enden seiner erkenntnistheoretischen (epistemischen) Analysen nicht krampfhaft mit irgendwelchen Pseudo-Lösungen versucht hat zu vertuschen.

Wittgenstein war der erste, der sich mit dem Funktionieren der Sprache und ihrer Wechselwirkung mit unserem Denken ernsthaft, ja radikal beschäftigte. Während er in seinem Frühwerk noch der Statik der damaligen modernen Logik huldigte, begann er dann später alle diese statischen formalen Konstruktionen in der Luft zu zerreißen, durchlief weh-tuende detaillierte Analysen der Alltagssprache, machte vor nichts Halt, und hinterließ mit seinem frechen und angstfreien Denken einen Trümmerhaufen, dessen Verdienst es ist, den Raum frei gemacht zu haben für einen echten Neuanfang.

Carnap wirkt in diesem Zusammenhang auf den ersten Blick wie ein Antipode zu Wittgenstein, und in der Tat hat er ja das vor-wittgensteinsche Sprachverständnis in seinen Studien zu den formalen Sprachen, zur Logik, zur logischen Semantik weiter angewendet. Allerdings hat er dies dann auch im Kontext der empirischen Wissenschaften getan. Und in diesem Kontext hat sein formal-scholastisches Denken immerhin dazu beigetragen, die Grundstrukturen moderner empirische Theorien mit einem formalen Kern frei zu legen und ihre Eigenschaften zu untersuchen.

Alle diese genannten Ansätze (Kant, Wittgenstein, Carnap) wurden später mehrfach kritisiert, abgewandelt, weiter entwickelt, aber es waren diese Ansätze, die die nachfolgenden Richtungen entscheidend beeinflusst haben.

Ein interessanter Grenzfall ist Freud (s.u.). Irgendwie könnte man ihn auch zur Philosophie rechnen.

LOGIK – MATHEMATIK

Aus heutiger Sicht kann man sich gar nicht mehr vorstellen, dass es eine Zeit gegeben hat, in der die moderne Logik und Mathematik nicht verfügbar war. Nahezu alles, was unseren Alltag ausmacht setzt sehr viel Mathematik als beschreibende Sprache, als Berechnung, als Simulation voraus. Dass mathematisches Denken in den Schulen so wenig – und immer weniger – behandelt wird, ist sehr irritierend.

Logik und Mathematik sind einen weiten Weg gegangen.

Ein Meilenstein ist der Übergang von der klassischen aristotelischen Logik (eng an der Alltagssprache, Einbeziehung inhaltlichen Alltagsdenkens) zur modernen formalen Logik seit Frege (formale Sprache, formaler Folgerungsbegriff).

Eng verknüpft mit der Entwicklung der neuen formalen Logik ist auch die Entwicklung der modernen Mathematik, die entscheidend mit der Erfindung der Mengenlehre durch Cantor ihren Durchbruch fand, und dann mit Russel-Whitehead und Hilbert die Neuzeit erreichte. Keine der modernen Arbeiten in Gebieten wie z.B. Algebra, Topologie, Geometrie sind ohne diese Arbeiten denkbar, ganz zu schweigen von der modernen theoretischen Physik.

EMPIRISCHE WISSENSCHAFTEN

Erste Ausläufer empirischer Wissenschaft gab es schon vor Galilei (man denke z.B. nur an die bahnbrechenden Forschungen zur Medizin von dem islamischen Gelehrten (und Philosophen, Logiker, Theologen!) Avicenna). Doch an der Person Galileis kristallisiert sich der Konflikt zwischen neuem, offenen wissenschaftlichen Denken und dem alten, geschlossenen christlichen Denken. Zudem hat Galilei eben konsequent sowohl eine experimentelle Messmethode angewendet wie auch eine beginnende mathematische Beschreibung. Mit Newton gelang dann eine Fassung von Experiment und Theorie, die atemberaubend war: die Bewegung der Himmelskörper ließ sich nicht nur mit einfachen mathematischen Formeln beschreiben, sondern auch noch mit bis dahin unbekannter Präzision voraus sagen. Es sollte dann zwar noch fast 300 Jahre dauern, bis die moderne Physik eine erste Theorie zur Entstehung des ganzen Weltalls formulieren konnte samt ersten experimentellen Bestätigungen, aber die Befreiung des Denkens von dogmatischen Sprachbarrieren war geschafft. Die Wissenschaft insgesamt hatte sich freigeschwommen.

Schon im 17.Jahrhundert hatte Niels Stensen entdeckt, dass die unterschiedlichen Ablagerungsschichten der Erde in zeitlicher Abfolge zu interpretieren sind und man daher auf geologische Prozesse schließen kann, die die Erde durchlaufen haben muss.

Zwei Jahrhunderte später, schon im 19.Jahrhundert, wurde diese historische Sicht der Erde ergänzt durch Charles Darwin, der am Beispiel der Pflanzen- und Tierwelt auch Hinweise auf eine Entwicklung der Lebensformen fand. Sowohl die Erde als auch die biologischen Lebensformen haben eine Entwicklung durchlaufen, zudem in enger Wechselwirkung.

Fast parallel zu Darwin machte Freud darauf aufmerksam, dass unser ‚Bewusstsein‘ nicht die volle Geschichte ist. Der viel größere Anteil unseres menschlichen Systems ist ’nicht bewusst‘, also ‚unbewusst‘. Das Bewusstsein ‚erzählt‘ uns nur ‚Bruchstücke‘ jener Geschichten, die weitgehend im ‚Nicht-Bewusstein‘ oder ‚Unbewussten‘ ablaufen.

Die weitere Entwicklung der Biologie lieferte viele Argumente, die das Bild von Freud stützen.

Der Versuch von Watson, 1913, die Psychologie als empirische Verhaltenswissenschaft zu begründen, wurde und wird oft als Gegensatz zu Psychoanalyse gesehen. Das muss aber nicht der Fall sein. Mit der Verhaltensorientierung gelang der Psychologie seither viele beeindruckende theoretische Modelle und Erklärungsleistungen.

Von heute aus gesehen, müsste man ein Biologie – Psychologie – Psychoanalyse Cluster befürworten, das sich gegenseitig die Bälle zuspielt.

Durch die Einbeziehung der Mikro- und Molekularbiologie in die Evolutionsbiologie konnten die molekularen Mechanismen der Evolution entschlüsselt werden.Mittlerweile steht ein fast komplettes Modell der biologischen Entwicklung zur Verfügung. Dies erlaubt es sowohl, Kants (als auch Descartes) Überlegungen von den biologischen Voraussetzungen her aufzuklären (z.B. Edelman!), wie auch die Psychologie samt der Psychoanalyse.

COMPUTER

Als Gödel 1931 die Unentscheidbarkeit anspruchsvoller mathematischer Theorien (das fängt bei der Arithmetik an!) beweisen konnte, wirkte dies auf den ersten Blick negativ. Um seinen Beweis führen zu können, benötigte Gödel aber sogenannte ‚endliche Mittel‘. Die moderne Logik hatte dazu ein eigenes Forschungsprogramm entwickelt, was denn ‚endliche Beweismethoden‘ sein könnten. Als Turing 1936/7 den Beweis von Gödel mit dem mathematischen Konzept eines Büroangestellten wiederholte, entpuppte sich dieses mathematische Konzept später als ein Standardfall für ‚endliche Mittel‘. Turings ‚mathematisches Konzept eines Büroangestellten‘ begründete dann die spätere moderne Automatentheorie samt Theorie der formalen Sprachen, die das Rückgrat der modernen Informatik bildet. Das ‚mathematische Konzept eines Büroangestellten‘ von Turing wurde ihm zu Ehren später ‚Turingmaschine‘ genannt und bildet bis heute den Standardfall für das, was mathematisch ein möglicher Computer berechnen kann bzw. nicht kann.

Im weiteren Verlauf zeigte sich, dass gerade das Konzept des Computers ein extrem hilfreiches Werkzeug für das menschliche Denken sein kann, um die Grenzen des menschlichen Wahrnehmens, Erinnerns und Denkens auszugleichen, auszuweiten.

Schon heute 2018 ist der Computer zu einem unverzichtbaren Bestandteil der Gesellschaft geworden. Das Wort von der ‚Digitalen Gesellschaft‘ ist keine Fiktion mehr.

ZEITGEIST

Der extrem kurze Rückblick in die Geschichte zeigt, wie schwer sich die Ausbildung und Verbreitung von Ideen immer getan hat. Und wenn wir uns die gesellschaftliche Realität heute anschauen, dann müssen wir konstatieren, dass selbst in den hochtechnisierten Ländern die gesamte Ausbildung stark schwächelt. Dazu kommt das eigentümliche Phänomen, dass das Alltagsdenken trotz Wissenschaft wieder vermehrt irrationale, gar abergläubische Züge annimmt, selbst bei sogenannten ‚Akademikern‘. Die Herrschaft von Dogmatismen ist wieder auf dem Vormarsch. Die jungen Generationen in vielen Ländern werden über mobile Endgeräte mit Bildern der Welt ‚programmiert‘, die wenig bis gar nicht zu wirklichen Erkenntnissen führen. Wissen als solches, ist ‚wehrlos‘; wenn es nicht Menschen gibt, die mit viel Motivation, Interesse und Ausdauer und entsprechenden Umgebungen zum Wissen befähigt werden, dann entstehen immer mehr ‚Wissens-Zombies‘, die nichts verstehen und von daher leicht ‚lenkbar‘ sind…

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

 

DESCARTES IMPLODIEREN LASSEN. Dualität mutiert zur Monade

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
14.Juli 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

IDEE

Bei der Lektüre des Buches ’Quanten sind anders’ (2006) von Görnitz [1] bin ich auf den Seiten 27-49 über Erklärungen gestolpert, die man so zwar eigentlich in allen heutigen Interpretationen zu Descartes wiederfindet, die aber deswegen nicht unbedingt richtig sein müssen. Möglicherweise angeregt durch den Erklärungskontext bei Görnitz sowie meinen eigenen Überlegungen in verschiedenen Zusammenhängen (u.a. in den Rekonstruktionen von Stace, insbesondere ab Teil 3  und 4) erscheint mir die schnelle Etikettierung von Descartes Ansatz als Dualist nur bedingt hilfreich, zumindest wenn man über ihn vom heutigen Wissensstand aus spricht.

I. DESCARTES

a) Descartes klassisch interpretiert: Vereinfachend kann man die klassische Interpretation von Descartes in zwei Punkten zusammenfassen.1) Bei der Suche nach einem ’Ankerpunkt’ für sein Denken meinte Descartes in der ’Gewissheit seiner eigenen Denktätigkeit’ einen Punkt gefunden zu haben , von dem aus sich alles weitere – die verschiedenen wechselnden Inhalte und Formen – sortieren und diskutieren lassen. 2) Von diesem markierten Denkpunkt aus hat er dann versucht, diese beiden ’Pole’ seiner Bewusstheit– das ’Sich-im-Denken-gewiss-sein’ und die ’wechselnden Inhalte’ – seinsmäßig (ontologisch) zu ’interpretieren. Eine solche Interpretation in Form von spezifischen ’Zuordnungen’ folgt nicht zwingend aus den Phänomenen des Ausgangspunktes. Diese Zuordnung stellt eine freie Auswahl aus verschiedenen Denkmöglichkeiten dar.

Descartes wählte für seine freie Zuordnung (Deutung,Interpretation, Kodierung) die Begriffe ’res cogitans’ und ’res extensa’, die zur damaligen Zeit in verschiedenen philosophischen Konzepten verfügbar waren. Und er ordnete dann seine ’Gewissheit’ der ’res cogitans’ zu und die wechselnden Inhalte und Formen der ’res extensa’. Belässt man es bei dieser Interpretation, dann spaltet sich in der Tat die Wirklichkeit in zwei ontologisch unterschiedliche Seinsbereiche auf, deren Beziehung untereinander logisch größte Probleme aufwirft.

Dass Descartes selbst hier eine Lösung über eine postulierte ’Zirbeldrüse’ andachte (was die logischen Probleme faktisch nicht löste), soll uns hier weiter nicht beschäftigen.

2b) Descartes neu interpretiert: Nach dem heutigen Wissensstand können wir annehmen, dass das bewusste Denken sich – wie genau, das ist noch nicht vollständig geklärt – in Verbindung mit dem ’Gehirn’ abspielt. Das Gehirn ist ein Organ unseres Körpers und wäre im Sinne Descartes der ’res extensa’ zuzuordnen. Anstatt nun eine weiter ’Substanz’ zu postulieren, die ’res cogitans’, wie es Descartes tat (und vermutlich aufgrund seines Wissensstandes auch gar nicht anders konnte), könnten wir heute sagen, dass das bewusste Denken, die Selbstgewissheit, eine ’Eigenschaft des Gehirns’ ist, genauer eine ’Funktion des Gehirns’. Damit wären ’res cogitans’ und ’res extensa’ nicht mehr zwei ontologisch unverbundene Seinsweisen sondern die ’res cogitans’ wird zu einer Eigenschaft, zu einer Funktion der ’res extensa’. Die res extensa, als ’Sammelbecken’ von statischen Eigenschaften, wird mit der ’res cogitans’ zu jenem’ dynamischen Etwas’ als das wir heute die ’Materie (= res extensa)’ erleben und erforschen. Statt einer klassischen Dualität haben wir dann eine dynamische ’Monadizität’, eine Art ’Implosion‘ der res cogitans in die res extensa hinein (Anmerkung: In direkte Antwort zu Descartes waren es speziell Spinoza und Leibniz, die seinen dualistischen Ansatz ablehnend-kritisch sahen. In der Einleitung zum 5.Kapitel seiner Ethik hat Spinoza [2] den Ansatz von Descartes analysiert und als nicht akzeptabel verworfen. Sein eigener Lösungsansatz versucht die ’Einheit’ von Denken und Körper durch Annahme einer in Gott gründenden ’einen Substanz’ zu retten, die in vielen Punkten ebenso wenig nachvollziehbar ist wie Descartes Rettungsversuch über die Zirbeldrüse. (Für die weitere kritische Diskussion von Spinoza siehe auch Decher (2015) [3]:SS.101-108) Der Lösungsansatz von Leibniz in seiner ’Monadologie’ [4] kommt einem systematisch-modernen Denken weiter entgegen, doch bringt er auch als Letztbegründung wieder Gott ins Spiel (vgl. Decher (2015) [3]:SS.110-117). Würde man diesen Faktor bei Leibniz ’herausrechnen’, dann erscheint seine Monadologie in einem interessanten Licht. Der hier benutze Begriff der ’Monadizität’ setzt das Wort ’Monadologie’ voraus.).

Im Denken selbst erscheint zwar ’Denken’ und ’Inhalt’ als etwas Getrenntes, aber ’ontologisch’ ist das Denken (die klassische ’res cogitans’) eine ’inhärente Eigenschaft’ des Körpers, der Materie (die klassische ’res extensa’). Eine Zirbeldrüse im Sinne des Descartes wird damit überflüssig.

c) Geist-Materie: Bislang wird der Begriff ‚Geist-Materie‘ kaum benutzt.  Mit dieser neuen implodierten Einheit von Denken und Sein lösen sich viele klassische Probleme, die aus einer speziellen Interpretation der primären Phänomene resultierten, es stellen sich aber ganz neue, möglicherweise noch radikalere Herausforderungen. Denn jetzt wird das ’Bewusstsein’, das ’Sich-Selbst-Denken’ zu einer genuinen Eigenschaft der Materie. Während die einen darin eine ’Abwertung’ des Denkens und des ’Geistigen’ sehen, werden die anderen darin eine ’Aufwertung’ des Körperlichen, des Materiellen sehen (oder auch, ganz im Gegenteil, eine ‚Verwässerung‘ des Materiebegriffs).

Die moderne Physik, hier allen voraus die Quantenphysik, hat schon längst die Positionen der klassischen Physik und damit eines deterministischen Objektdenkens aufgebrochen. Die schöne heile Welt der abgrenzbaren Objekte, der deterministischen Verhältnisse, wurde mit den neuen Forschungen quasi weggesprengt. Der fließende Übergang von Energie und Materie, das Verschwinden aller Determinismen, bei einer gleichzeitig zu beobachtenden Dynamik des bekannten Universums, das sich nicht als reines ’Chaos’ präsentiert, sondern als eine Quelle gerichteter und steigender Komplexität, allerdings nicht deterministisch, sondern ’frei’ … dies wirft tonnenweise Fragen auf, die bislang nicht einmal im Ansatz geklärt sind. Historisch mag man Descartes als jenen Meilenstein ansehen, an dem die Aporie des klassischen Geist-Materie Denkens sein historisches Maximum erreicht hat, das aber dann mit der modernen Quantenphysik (wann genau?) seine denkerische Transformation hinein in eine neue ontologische Geist-Materie-Einheit erlebte.

Im Prinzip war das klassische griechische Denken davon nicht weit entfernt, aber es fehlten ihnen damals einfach die notwendigen Daten.

d) Nachbemerkungen: Görnitz erwähnt in der Kritik an Descartes Dualismus auch zwei der heutigen Standardeinwände gegen Descartes Gewissheitsansatz: Freud mit seinem Unbewussten und Gödel mit seiner Unentscheidbarkeit hinreichend komplexer formaler Systeme (vgl. Görnitz S.45). Im Lichte der neuen Interpretation erscheinen mir beide Hinweise nicht zielführend zu sein.

Die Tatsache, dass ein Großteil der Vorgänge in unserem Körper – möglicherweise muss man heute sogar sagen: der überwiegende Teil – nicht im Zugriff des Bewusstseins liegt, muss nicht notwendigerweise ein Totschlagargument gegen die Position der Gewissheit von Descartes sein. Die ’Gewissheit im Denken’ bezieht sich ja gerade nicht auf die wahrnehmbaren ’Inhalte’ des Denkens, die variieren, die ganz unterschiedlichen Wirkursachen zu verdanken sind, sondern auf die Fähigkeit, in diesem Wandel einen Bezugspunkt zu haben, relativ zu dem der Wandel überhaupt ’bewusst’ sein kann. Dass das ’Unbewusste’ sich ’auswirken’ kann – in seinen Auswirkungen dann sehr wohl bewusst’ –unterscheidet es nicht von jeder beliebigen anderen bewusst wahrnehmbaren Wirkung von irgendwelchen anderen Wirkursachen. Entscheidend ist vielmehr, dass der Mensch über jene Form von Bewusstsein verfügt, die die Andersartigkeit der Phänomene wie auch ihren Wandel ’bemerken’ kann. Diese formale Bewusstheit wird ergänzt um ein –weitgehend unbewusst arbeitendes – Gedächtnis (eine Funktion des Gehirns), das auf ’automatische’ (vom Gehirn vorgegebene) Weise den Strom der Phänomene selektiert, abstrahiert, assoziiert und vieles mehr. In diesem Zusammenspiel von ’Sich-Selbst-Bewusst-Sein-können‘ und der ’ordnenden Funktion’ des Gedächtnisses kann das sich seiner bewusste Subjekt den Strom der Phänomene (wodurch auch immer verursacht) soweit ’sortieren’, dass Muster, Regel erkennbar werden, die Zeitreihen erlauben, mittels denen das punktuelle Bewusstsein sich denkerisch in Räume und Zeiten hinein ausdehnen kann, die es selbst in einem komplexen Geschehen vorkommend erscheinen lassen.

Dass diese Bewusstheit samt Ordnungstätigkeit sich ’täuschen’ kann ist zwar bekannt, aber – wie wir heute wissen können – bis zu einem gewissen Grad ’ausgleichbar’, speziell dann, wenn die einzelnen Gehirne gelernt haben, ’im Verbund’ zu denken.

Auch der berühmte Unentscheidbarkeitsbeweis von Kurt Gödel (1931) [5] scheint hier fehl am Platz zu sein. Gödel bezieht sich nicht auf Phänomene des Bewusstseins sondern auf die Möglichkeit, die Eigenschaften eines formalen Systems (Anmerkung: Er benutzte das System der Arithmetik. ) formal so zu beschreiben, dass alle (=Vollständigkeit) wahren(=speziell ausgezeichnete) Aussagen dieses Systems formal ableitbar sind. Aufgrund der inhärenten Doppelstruktur eines solchen formalen Beweises von Objektsprache (das zu beschreibenden System) und Metasprache (die Sprache des Beweises), die dann die Objektsprache in der Metasprache nachvollziehen muss, kann es grundsätzlich keinen vollständigen Beweis geben. Dies liegt einfach an der Struktur eines solchen Beweises. Dieser beweistheoretische Sachverhalt, auf den Gödel in wunderbarer Weise hingewiesen hat (was später von Turing (1936/7) [6] auf eine andere Weise ebenfalls gezeigt worden ist), berührt die Überlegungen von Descartes in keiner Weise. Vielmehr ist der metalogische Beweis von Gödel (und auch von Turing (und von vielen anderen)) ein wunderbares Beispiel, wie die Struktur des Selbstbewusstseins im Zusammenspiel mit dem (denkenden) Gedächtnis gerade in der Lage ist, die Eigenschaften solcher formaler Systeme und der metalogischen Beweise nicht nur zu vollziehen, sondern sie auf eine Weise zu vollziehen, die dann andere Gehirne mit ihrem Bewusstsein nachvollziehen können.

Diese relative Struktur des Bewusstseins (und des zugehörigen Gehirns) ist genau die Stärke des menschlichen Denkens. Im Prinzip wissen wir im Augenblick nichts, aber in einem kontinuierlichen Prozess können wir immer mehr Strukturen aufbauen, die uns die Möglichkeit verschaffen, ’im Prinzip’ ’Alles’ wissen zu können. In diesem Zusammenhang hat die Menschheit gelernt, dass ihre Gehirne bei anwachsender Komplexität der äußeren Welt – die weitgehend vom Menschen mit verursacht ist – trotz aller Wunderbarkeit des Gehirns an physische, und damit endliche Grenzen, der Verarbeitung stößt. Glücklicherweise hat die Menschheit mittlerweile programmierbare Maschinen erfunden (die Computer), beherrscht ihre Vernetzung, so dass die menschlichen Gehirne ihre physischen Grenzen im Prinzip mittels dieser programmierbaren Maschinen wieder ein Stück überwinden könnten. Aktuell hat man aber den Eindruck, dass die Menschheit sich noch schwer tut, diese neue Technologie in maximal symbiotischer Weise konstruktiv einzusetzen.

4 QUELLEN

[1] T. Goernitz, Quanten Sind Anders: Die verborgene Einheit der Welt, 1st ed. Heidelberg: Spektrum Akademischer Verlag,2006.

[2] Spinoza, “Werke. Bd 1+2, lateinisch – deutsch,” Darmstadt, 1967.

[3] F. Decher, Handbuch der Philosophie des Geistes, 1st ed. Darmstadt: WBG Wissenschaftliche Buchgesellschaft, 2015.

[4] G. Leibniz, Monadologie und andere metaphysische Schriften, Französisch-Deutsch, 1st ed., J. Schneider, Ed. Hamburg:Felix Meiner Verlag, 2002.

[5] K. Goedel, “Über formal unentscheidbare Saetze der principia mathematica und verwandter Systeme, I,” Monatshefte fuer Mathematik und Physik, vol. 38, pp. 173–98, 1931.

[6] A. M. Turing, “On computable numbers, with an application to the Entscheidungsproblem,” Proceedings of the London Mathematical Society, vol. 42, no. 2, p. 230–265, 1936-7.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

KÜNSTLICHE INTELLIGENZ (KI) – CHRISTLICHE THEOLOGIE – GOTTESGLAUBE. Ein paar Gedanken

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062
24.Juni 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

VORBEMERKUNG

Der folgende Text wurde im September in einer christlichen Zeitschrift veröffentlicht [*]. Es war (und ist) ein ‚experimenteller Text‘, bei dem ich versucht habe, auszuloten, was gedanklich passiert, wenn man die beiden Themenkreise ‚Glaube an Gott im   Format christlicher Theologie‘ mit dem Themenkreis ‚Künstliche Intelligenz‘ zusammen führt. Das Ergebnis kann überraschen, muss aber nicht. Dieser ganze Blog ringt von Anbeginn um das Verhältnis von Philosophie, Wissenschaft (mit Technologie) und dem Phänomen der Spiritualität als Menschheitsphänomen, und die christliche Sicht der Dinge (die in sich ja keinesfalls einheitlich ist), ist nur eine Deutung von Welt unter vielen anderen. Wer die Einträge dieses Blogs durch mustert (siehe Überblick) wird feststellen, dass es sehr viele Beiträge gibt, die um die Frage nach Gott im Lichte der verfügbaren Welterfahrung kreisen. Die aktuelle Diskussion von W.T.Stace’s Buch ‚Religion and the Modern Mind‘ (Beginn mit Teil 1 HIER) setzt sich auch wieder   mit dieser Frage auseinander.

INHALT BEITRAG

Im Alltag begegnen wir schon heute vielfältigen Formen von Künstlicher Intelligenz. Bisweilen zeigt sie sehr menschenähnliche Züge. In Filmen werden uns Szenarien vorgeführt, in denen Superintelligenzen zukünftig die Herrschaft über uns Menschen übernehmen wollen. Wie verträgt sich dies mit unserem Menschen-und Gottesbild? Macht Glauben an Gott dann noch Sinn?

I. KI IST SCHON DA …

Vielen Menschen ist gar nicht bewusst, wo sie im Alltag schon mit Programmen der Künstlichen Intelligenz (KI) zu tun haben. Schaut man sich aber um, wird man entdecken, dass Sie scheinbar schon überall am Werk ist. Hier ein paar Stichworte: Kundenanfragen werden immer mehr durch KI-Programme bestritten. In der Logistik: In Lagerhallen und ganzen Häfen arbeiten intelligente Roboter, die wiederum von anderen KI-Programmen überwacht und optimiert werden. Ähnliches in Fabriken mit Produktionsstraßen. Für die Wartung von Maschinenbenutzen Menschen Datenhelme, die über ein KI-Programm gesteuert werden und die dem Menschensagen, was er sieht, und wo er was tun soll. In der Landwirtschaft sind die beteiligten Maschinen vernetzt, haben KI-Programme entweder an Bord oder werden über Netzwerke mit KI-Programmen verbunden: diese kontrollieren den Einsatz und steuern Maßnahmen. Auf den Feldern können diese Maschinen autonom fahren. Im Bereich Luftfahrt und Schifffahrt können sich Flugzeuge und Schiffe schon heute völlig autonom bewegen, ebenso beim LKW-Verkehr und auf der Schiene. Durch das Internet der Dinge (IoT) wird gerade der Rest der Welt miteinander vernetzt und damit einer zunehmenden Kontrolle von KI-Programmen zugänglich gemacht. In der Telemedizin ist dies schon Alltag: Ferndiagnose und Fernbehandlung sind auf dem Vormarsch. Schon heute wird für die Diagnose schwieriger und seltener Krankheiten KI eingesetzt, weil sie besser ist als ganze Gruppen menschlicher Experten. Viele komplizierte Operationen – speziell im Bereich Gehirn – wären ohne Roboter und KI schon heute unmöglich. KI-Programme entschlüsseln das Erbgut von Zellen, Suchen und Finden neue chemische Verbindungen und pharmakologische Wirkstoffe.

In der Finanzwirtschaft haben KI-Programme nicht nur den Handel mit Aktien und anderen Finanzprodukten übernommen (Stichwort: Hochfrequenzhandel), sondern sie verwalten auch zunehmend das Vermögen von Privatpersonen, übernehmen den Kontakt mit den Kunden, und wickeln Schadensfälle für Versicherungen ab. Bei anwaltlichen Tätigkeiten werden Routineaufgaben von KI-Programmen übernommen. Richter in den USA lassen sich in einzelnen Bundesländern mit KI-Programmen die Wahrscheinlichkeit ausrechnen, mit der ein Angeklagter wieder rückfällig werden wird; dies wird zum Schicksal für die Angeklagten, weil die Richter diese Einschätzungen in ihr Urteil übernehmen. Das Militär setzt schon seit vielen Jahren in vielen Bereichen auf KI-Programme. Zuletzt bekannt durchfliegende Kampfroboter (Drohnen). Dazu weltweite Ausspähprogramme von Geheimdiensten, die mit Hilfe von KI-Programmen gewaltige Datenströme analysieren und bewerten.Diese Aufzählung mag beeindruckend klingen, sie ist aber nicht vollständig. In vielen anderen Bereichen wie z.B. Spielzeug, Online-Spiele, Musikproduktion,Filmproduktion, Massenmedien, Nachrichtenproduktion,… sind KI-Programme auch schon eingedrungen. So werden z.B. mehr und mehr Nachrichtentexte und ganze Artikel für Online-Portale und Zeitungen durch KI-Programme erstellt; Journalisten waren gestern. Dazu hunderttausende von sogenannten ’Bots’ (Computerprogramme, die im Internet kommunizieren, als ob sie Menschen wären), die Meinungen absondern, um andere zu beeinflussen. Was bedeuten diese Erscheinungsformen Künstlicher Intelligenz für uns?

A. Freund oder Konkurrent?

Bei einem nächtlichen Biergespräch mit einem der berühmtesten japanischen Roboterforschern erzählte er aus seinem Leben, von seinen Träumen und Visionen. Ein Thema stach hervor: seine Sicht der Roboter. Für ihn waren Roboter schon seit seiner Kindheit Freunde der Menschen, keinesfalls nur irgendwelche Maschinen. Mit diesen Roboter-Freunden soll das Leben der Menschen schöner, besser werden können. In vielen Science-Fiction Filmen tauchen Roboter in beiden Rollen auf: die einen sind die Freunde der Menschen, die anderen ihre ärgsten Feinde; sie wollen die Menschen ausrotten, weil sie überflüssig geworden sind. Bedenkt man, dass die Filme auf Drehbüchern beruhen, die Menschen geschrieben haben, spiegelt sich in diesem widersprüchlichen Bild offensichtlich die innere Zerrissenheit wieder, die wir Menschen dem Thema Roboter, intelligenten Maschinen, gegenüber empfinden. Wir projizieren auf die intelligenten Maschinen sowohl unsere Hoffnungen wie auch unsere Ängste, beides übersteigert, schnell ins Irrationale abrutschend.

B. Neue Verwundbarkeiten

Ob intelligente Maschinen eher die Freunde der Menschen oder ihre Feinde sein werden, mag momentan noch unklar sein, klar ist jedoch, dass schon jetzt der Grad der Vernetzung von allem und jedem jeden Tag einen realen Raum mit realen Bedrohungen darstellt. Global operierenden Hacker-Aktivitäten mit Datendiebstählen und Erpressungen im großen Stil sind mittlerweile an der Tagesordnung. Während die einen noch versuchen, es klein zu reden, lecken andere schon längst ihre Wunden und es gibt immer mehr Anstrengungen, diesen Angriffen mehr ’Sicherheit’ entgegen zu setzen. Doch widerspricht das Prinzip der Zugänglichkeit letztlich dem Prinzip der vollständigen Abschottung. Wenn die Vernetzung irgendeinen Sinn haben soll, dann eben den, dass es keine vollständige Abschottung gibt. Dies läuft auf die große Kunst einer ’verabredeten Abschottung’ hinaus: es gibt eine ’bestimmte Datenkonstellation, die den Zugang öffnet’. Dies aber bedeutet, jeder kann herumprobieren, bis er diese Datenkonstellation gefunden hat. Während die einen KI-Programme einsetzen, um diese Datenschlüssel zu finden, versuchen die anderen mit KI-Programmen, mögliche Angreifer bei ihren Aktivitäten zu entdecken. Wie dieses Spiel auf lange Sicht ausgehen wird, ist offen. In der Natur wissen wir, dass nach 3.8 Milliarden Jahren biologischem Leben die komplexen Organismen bis heute beständig den Angriffen von Viren und Bakterien ausgeliefert sind, die sich um Dimensionen schneller verändern können, als das biologische Abwehrsystem(das Immunsystem) lernen kann. Die bisherige Moral aus dieser Geschichte ist die, dass diese Angriffe bei komplexen Systemen offensichtlich ko-existent sind, dazu gehören. Nur ein schwacher Trost ist es, dass der beständige Abwehrkampf dazu beiträgt, die Systeme graduell besser zu machen. Mit Blick auf diese fortschreitende Vernetzung ist es wenig beruhigend, sich vorzustellen, dass es in ca. 70- 90 Jahren (wie viele vermuten) (Anmerkung: Siehe dazu eine längere Argumentation im 1.Kap. von Bostrom (2014) [Bos14]) tatsächlich eine echte technische Superintelligenz geben wird, die allen Menschen gegenüber überlegen ist; eine solche technische Superintelligenz könnte im Handumdrehen alle Netze erobern und uns alle zu ihren Gefangenen machen. Nichts würde mehr in unserem Sinne funktionieren: die Super-KI würde alles kontrollieren und uns vorschreiben, was wir tun dürfen. Über das Internet der Dinge und unsere Smartphones wäre jeder 24h unter vollständiger Kontrolle. Jede kleinste Lebensregung wäre sichtbar und müsste genehmigt werden. Ob und was wir essen, ob wir noch als lebenswert angesehen werden …

C. Noch ist es nicht soweit …

Zum Glück ist dieses Szenario einer menschenfeindlichen Superintelligenz bislang nur Science-Fiction. Die bisherigen sogenannten KI-Programme sind nur in einem sehr eingeschränkten Sinne lernfähig. Bislang sind sie wie abgerichtete Hunde, die nur das suchen,was ihnen ihre Auftraggeber vorgeben, zu suchen. Sie haben noch keine wirkliche Autonomie im Lernen, sie können sich noch nicht selbständig weiter entwickeln(nur unter speziellen Laborbedingungen). Allerdings sammeln sie Tag und Nacht fleißig Daten von allem und jedem und erzeugen so ihre einfachen Bilder von der Welt: z.B. dass die Männer im Alter von 21 in der Region Rhein-Main mit Wahrscheinlichkeit X folgende Gewohnheiten haben …. Herr Müller aus der Irgendwo-Straße hat speziell jene Gewohnheiten …. seine Freunde sind … Es gibt eine hohe Wahrscheinlichkeit dass er Partei Y wählen wird … dass er in drei Monaten ein neues Auto vom Typ X kaufen wird ….am liebsten klickt er folgende Adressen im Internet an …

In den Händen von globalen Firmen, anonymen Nachrichtendiensten, autoritären Regierungen oder verbrecherischen Organisationen können allerdings schon diese Daten zu einer echten Bedrohung werden, und diese Szenarien sind real. Die Rolle der bösen Superintelligenz wird hier bis auf weiteres noch von Menschen gespielt; Menschen haben in der Vergangenheit leider zur Genüge bewiesen, dass sie das Handwerk des Bösen sehr gut beherrschen können…Es stellt sich die Frage, ob sich die bisherigen einfachen künstlichen Intelligenzen weiter entwickeln können? Lernen künstliche Intelligenzen anders als Menschen? Welche Rolle spielen hier Werte? Sind Werte nicht ein altmodischer Kram, den nur Menschen brauchen (oder selbst diese eigentlich nicht)? Schließlich, wo kommt hier Gott ins Spiel? Tangieren künstliche Intelligenzen den menschlichen Glauben an Gott überhaupt?

II. WAS IST ’KÜNSTLICHE INTELLIGENZ’

Für eine Erkundungsreise in das Land der Künstlichen Intelligenz ist die Lage nicht ganz einfach, da das Gebiet der KI sich mittlerweile sehr stürmisch entwickelt. Immer mehr Konzepte stehen nebeneinander im Raum ohne dass es bislang allgemein akzeptierte Theorie- und Ordnungskonzepte gibt. (Anmerkung: Für zwei sehr unterschiedliche historische Rückblicke in das Thema sei verwiesen auf Mainzer (1995) [Mai95] und Nilsson (2010) [Nil10]. Für eine sehr populäre, wenngleich methodisch problematische, Einführung in den Stand der Disziplin siehe Russel und Norvik (2010) [RN10]).

Wir besuchen hier für einen Einstieg einen der großen Gründungsväter ganz zu Beginn 1936 – 1950 Alan Matthew Turing, und dann für die Zeit 1956 – 1976 Alan Newell und Herbert A.Simon. (Anmerkung: Simon war auch ein Nobelpreisträger im Gebiet der Wirtschaftswissenschaften 1978.) Dann schauen wir noch kurz in allerneueste Forschungen zum Thema Computer und Werte.

A. Am Anfang war der Computer

Wenn wir von künstlicher Intelligenz sprechen setzen wir bislang immer voraus, dass es sich um Programme (Algorithmen) handelt, die auf solchen Maschinen laufen, die diese Programme verstehen. Solche Maschinen gibt es seit 1937 und ihre technische Entwicklung hing weitgehend davon ab, welche Bauteile ab wann zur Verfügung standen. Das Erstaunliche an der bisherigen Vielfalt solcher Maschinen, die wir Computer nennen, ist, dass sich alle diese bis heute bekannt gewordenen Computer als Beispiele (Instanzen) eines einzigen abstrakten Konzeptes auffassen lassen. Dieses Konzept ist der Begriff des universellen Computers, wie er von Alan Matthew Turing 1936/7 in einem Artikel beschrieben wurde (siehe: [Tur 7] 4 ). In diesem Artikel benutzt Turing das gedankliche Modell einer endlichen Maschine für jene endlichen Prozesse, die Logiker und Mathematiker intuitiv als ’berechenbar’ und ’entscheidbar’ ansehen. (Anmerkung: Zum Leben Turings und den vielfältigen wissenschaftlichen Interessen und Einflüssen gibt es die ausgezeichnete Biographie von Hodges (1983) [Hod83].) Das Vorbild für Turing, nach dem er sein Konzept des universellen Computers geformt hat, war das eines Büroangestellten, der auf einem Blatt Papier mit einem Bleistift Zahlen aufschreibt und mit diesen rechnet.

B. Computer und biologische Zelle

Was Turing zur Zeit seiner kreativen Entdeckung nicht wissen konnte, ist die Tatsache, dass sein Konzept des universellen Computers offensichtlich schon seit ca. 3.5 Milliarden Jahre als ein Mechanismus in jeder biologischen Zelle existierte. Wie uns die moderne Molekularbiologie über biologische Zellen zur Erfahrung bringt(siehe [AJL + 15]), funktioniert der Mechanismus der Übersetzung von Erbinformationen in der DNA in Proteine (den Bausteinen einer Zelle) mittels eines Ribosom-Molekülkomplexes strukturell analog einem universellen Computer. Man kann dies als einen Hinweis sehen auf die implizite Intelligenz einer biologischen Zelle. Ein moderner Computer arbeitet prinzipiell nicht anders.

C. Computer und Intelligenz

Die bei Turing von Anfang an gegebene Nähe des Computers zum Menschen war möglicherweise auch die Ursache dafür, dass sehr früh die Frage aufgeworfen wurde, ob, und wenn ja, wieweit, ein Computer, der nachdem Vorbild des Menschen konzipiert wurde, auch so intelligent werden könnte wie ein Mensch?

Der erste, der diese Frage in vollem Umfang aufwarf und im einzelnen diskutierte, war wieder Turing. Am bekanntesten ist sein Artikel über Computerintelligenz von 1950 [Tur50]. Er hatte aber schon 1948 in einem internen Forschungsbericht für das nationale physikalische Labor von Großbritannien einen Bericht geschrieben über die Möglichkeiten intelligenter Maschinen. (Anmerkung: Eine Deutsche Übersetzung findet sich hier: [M.87]. Das Englische Original ’Intelligent Machinery’ von 1948 findet sich online im Turing Archiv: http://www.alanturing.net/intelligent_machinery.) In diesem Bericht analysiert er Schritt für Schritt, wie eine Maschine dadurch zu Intelligenz gelangen kann, wenn man sie, analog wie bei einem Menschen, einem Erziehungsprozess unterwirft, der mit Belohnung und Strafe arbeitet. Auch fasste er schon hier in Betracht, dass sein Konzept einer universellen Maschine das menschliche Gehirn nachbaut. Turing selbst konnte diese Fragen nicht entscheiden, da er zu dieser Zeit noch keinen Computer zur Verfügung hatte, mit dem er seine Gedankenexperimente realistisch hätte durchführen können. Aber es war klar, dass mit der Existenz seines universellen Computerkonzeptes die Frage nach einer möglichen intelligenten Maschine unwiderruflich im Raum stand. Die Fragestellung von Turing nach der möglichen Intelligenz eines Computers fand im Laufe der Jahre immer stärkeren Widerhall. Zwei prominente Vertreter der KI-Forschung, Allen Newell und Herbert A.Simon, hielten anlässlich des Empfangs des ACM Turing-Preises1975 eine Rede, in der sie den Status der KI-Forschung sowie eigene Arbeiten zum Thema machten (siehe dazu den Artikel [NS76]).

D. Eine Wissenschaft von der KI

Für Newell und Simon ist die KI-Forschung eine empirische wissenschaftliche Disziplin, die den Menschen mit seinem Verhalten als natürlichen Maßstab für ein intelligentes Verhalten voraussetzt. Relativ zu den empirischen Beobachtungen werden dann schrittweise theoretische Modelle entwickelt, die beschreiben, mit welchem Algorithmus man eine Maschine (gemeint ist der Computer) programmieren müsse, damit diese ein dem Menschen vergleichbares – und darin als intelligent unterstelltes – Verhalten zeigen könne. Im Experiment ist dann zu überprüfen, ob und wieweit diese Annahmen zutreffen.

E. Intelligenz (ohne Lernen)

Aufgrund ihrer eigenen Forschungen hatten Newell und Simon den unterstellten vagen Begriff der ’Intelligenz’ schrittweise ’eingekreist’ und dann mit jenen Verhaltensweisen in Verbindung gebracht, durch die ein Mensch (bzw. ein Computer) bei der Abarbeitung einer Aufgabe schneller sein kann, als wenn er nur rein zufällig’ handeln würde. ’Intelligenz’ wurde also in Beziehung gesetzt zu einem unterstellten ’Wissen’ (und zu unterstellten ‚Fertigkeiten‘), über das ein Mensch (bzw. ein Computer) verfügen kann, um eine bestimmte Aufgabe ’gezielt’ zu lösen. Eine so verstandene ’Intelligenz’ kann sich aus sehr vielfältigen, möglicherweise sogar heterogenen, Elementen zusammen setzen.

Dies erklärt ihre mannigfaltigen Erscheinungsweisen bei unterschiedlichen Aufgaben. ’Intelligenz’ ist dabei klar zu unterscheiden, von einem ’Lernen’. Ist die Aufgabenstellung vor dem Einsatz einer Maschine hinreichend bekannt, dann kann ein Ingenieur all das spezifische Wissen, das eine Maschine für die Ausführung der Aufgabe benötigt, von vornherein in die Maschine ’einbauen’. In diesem Sinne ist jede Maschine durch das Knowhow von Ingenieuren in einem spezifischen Sinne ’intelligent’. Bis vor wenigen Jahrzehnten war dies die Standardmethode, wie Maschinen von Ingenieuren entworfen und gebaut wurden.

F. Lernen ermöglicht Intelligenz

Im Fall von biologischen Systemen ist ein solches Vorgehen kaum möglich. Biologische Systeme entstehen (durch Zellteilung), ohne dass bei der Entstehung bekannt ist, wie die Umwelt aussehen wird, ob sie sich verändert, welche Aufgaben das biologische Systemlösen muss. Zwar haben alle biologische Systeme auch genetisch vorbestimmte Verhaltensmuster, die gleich bei der Geburt zur Verfügung stehen, aber darüber hinaus haben alle biologische Systeme einen ariablen Anteil von Verhaltensweisen, die sie erst lernen müssen. Das Lernen ist hier jene Fähigkeit eines biologischen Systems, wodurch es seine internen Verhaltensstrukturen in Abhängigkeit von der ’Erfahrung’ und von ’spezifischen Bewertungen’ ’ändern’ kann. Dies bedeutet, dass biologische Systeme durch ihre Lernfähigkeit ihr Verhalten ’anpassen’ können. Sie können damit – indirekt – ein ’spezifisches Wissen’ erwerben, das ihnen dann eine spezifische ’Intelligenz’ verleiht, wodurch das biologischen System besser als durch Zufall reagieren kann. Diese Fähigkeit eines situationsgetriebenen Wissens besaßen Maschinen bis vor kurzem nicht. Erst durch die modernen Forschungen zu einer möglichen ’künstlichen Intelligenz (KI)’ machte man mehr und mehr Entdeckungen, wie man Maschinen dazu in die Lage versetzen könnte, auch nach Bedarf neues Verhalten erlernen zu können. Innerhalb dieses Denkrahmens wäre dann eine ’künstliche Intelligenz’ eine Maschine, hier ein Computer, der über Algorithmen verfügt, die ihn in die Lage versetzen, Aufgaben- und Situationsabhängig neues Verhalten zu erlernen, falls dies für eine bessere Aufgabenbearbeitung wünschenswert wäre.

Die noch sehr ursprüngliche Idee von Turing, dass ein Computer Lernprozesse analog dem der Menschen durchlaufen könnte, inklusive Belohnung und Bestrafung, wurde seitdem auf vielfältige Weise weiter entwickelt. Eine moderne Form dieser Idee hat unter dem Namen ’Reinforcement Learning’ sehr viele Bereiche der künstlichen Intelligenzforschung erobert (vgl. Sutton und Barto (1998) [SB98]).

G. KI und Werte

Für die Aufgabenstellung einer ’lernenden Intelligenz’ spielen ’Werte’ im Sinne von ’Verhaltenspräferenzen’ eine zentrale Rolle. Ein Gebiet in der KI-Forschung, in dem diese Thematik sehr intensiv behandelt wird, ist der Bereich der ’Entwicklungs-Robotik’ (Engl.:’developmental robotics’). In diesem Bereich wurde u.a. die Thematik untersucht (vgl. Kathryn Merrick(2017) [Mer17]), wie ein Roboter ’von sich aus’, ohne direkte Befehle, seine Umgebung und sich selbst ’erforschen’ und aufgrund dieses Lernens sein Verhalten ausrichten kann. Dabei zeigt sich, dass reine Aktivierungsmechanismen, die im Prinzip nur die Neugierde für ’Neues’ unterstützen, nicht ausreichend sind. Außerdem reicht es nicht aus, einen Roboter isoliert zu betrachten, sondern man muss Teams oder ganze Populationen von Robotern betrachten, da letztlich ein ’Wert’ im Sinne einer ’Präferenz’ (eine bevorzugte Verhaltenstendenz) nur etwas nützt, wenn sich alle Mitglieder einer Population daran orientieren wollen. Dies führt zur grundlegenden Frage, was denn eine Population von Robotern gemeinschaftlich als solch einen gemeinsamen ’Wert’ erkennen und akzeptieren soll. Wirklich befriedigende Antworten auf diese grundlegenden Fragen liegen noch nicht vor. Dies hat u.a. damit zu tun, dass die Robotersysteme, die hier untersucht werden, bislang noch zu unterschiedlich sind und dass es auch hier bislang – wie bei der KI-Forschung insgesamt – ein großes Theoriedefizit gibt in der Frage, innerhalb welches theoretischen Rahmens man diese unterschiedlichen Phänomene denn diskutieren soll.

Man kann aber den Ball dieser Forschung einmal aufgreifen und unabhängig von konkreten Realisierungsprozessen die Frage stellen, wie denn überhaupt ein ’Wert’ beschaffen sein müsste, damit eine ganze Population von Robotern sich ’von sich aus’ darauf einlassen würde. Letztlich müsste auch ein Roboter entweder eine ’eingebaute Tendenz’ haben, die ihn dazu drängt, ein bestimmtes Verhalten einem anderen vor zu ziehen, oder aber es müsste eine ’nicht eingebaute Tendenz’ geben, die im Rahmen seiner ’internen Verarbeitungsprozesse’ neue Verhalten identifizieren würde, die ihm im Sinne dieser ’Tendenz’ ’wichtiger’ erscheinen würde als alles andere. Es ist bislang nicht erkennbar, wo eine ’nicht eingebaute Tendenz’ für eine Verhaltensauswahl herkommen könnte. Ein industrieller Hersteller mag zwar solche Werte aufgrund seiner Interessenlage erkennen können, die er dann einem Roboter ’zu verstehen geben würde’, aber dann wäre die Quelle für solch eine ’Initiierung einer Verhaltenstendenz’ ein Mensch.

In der aktuellen Forschungssituation ist von daher als einzige Quelle für nicht angeborene Verhaltenstendenzen bislang nur der Mensch bekannt. Über welche Werte im Falle von sogenannten künstlichen Super-Intelligenzen diese verfügen würden ist noch unklar. Dass künstliche Super-Intelligenzen von sich aus Menschen grundsätzlich ’gut’ und ’erhaltenswert’ finden werden, ist in keiner Weise abzusehen. Die künstlichen Superintelligenzen müssten sich in Wertefragen – wenn überhaupt – eher am Menschen orientieren. Da die bisherige Geschichte der Menschheit zeigt, dass der Mensch selbst zu allen Zeiten eine starke Neigung hat, andere Menschen zu unterdrücken, zu quälen, und zu töten, würde dies für alle Menschen, die nicht über künstliche Superintelligenzen verfügen, tendenziell sehr gefährlich sein. Ihr ’Opferstatus’ wäre eine sehr große Versuchung für die jeweilige technologische Macht.

III. WER SIND WIR MENSCHEN?

Wenn Menschen sich in der KI wie in einem Spiegelbetrachten, dann kann dies für den betrachtenden Menschen viele Fragen aufwerfen. Zunächst erfinden die Menschen mit dem Computer einen Typ von intelligenter Maschine, die zunehmend den Eindruck erweckt, dass sich die Menschen in solchen Maschinen vervielfältigen (und möglicherweise noch übertreffen) können. Dann benutzen sie diese Computer dazu, die Strukturen des menschlichen Körpers immer tiefer zu erforschen, bis hin zu den Zellen und dort bis in die Tiefen der molekularen Strukturen, um z.B. unsere Gene zu erforschen, unser Erbmaterial, und zwar so weitgehend, dass wir dieses Erbmaterial gezielt verändern können. Die Menschen verstehen zwar noch nicht in vollem Umfang die möglichen Wirkungen der verschiedenen Änderungen, aber es ist möglich, real Änderungen vorzunehmen, um auszuprobieren, ’was dann passiert’? Mit Hilfe des Computers beginnt der Mensch, seinen eigenen Bauplan, sein eigenes genetisches Programm, umzubauen.

Dazu kommt, dass die Menschen seit dem19.Jahrhundert mit der modernen Biologiewissen können, dass die vielfältigen Formen des biologischen Lebens zu einem bestimmten Zeitpunkt immer das Ergebnis von langen vorausgehenden Entwicklungsprozessen sind. Das Wachsen und Sterben von Organismen gründet jeweils in einer befruchteten Zelle, für die durch das Erbmaterial festgelegt ist, wie sie sich weiter vermehrt und wie sich Millionen, Milliarden und gar Billionen von Zellen zu komplexen Formen zusammen finden. Und bei der Vervielfältigung von Zellen können Änderungen, Abweichungen vom ursprünglichen Plan auftreten, die über viele Tausende  und Millionen von Jahren zu deutlichen Änderungen im Bau und Verhalten eines Organismus führen können. Die Biologen sprechen von ’Evolution’. Eine Erkenntnis aus diesem Evolutionsprozess war (und ist), dass wir Menschen, so, wie wir heute da sind, auch solche evolutionär gewordene biologische Strukturen sind, die Vorläufer hatten, die mit uns heutigen Menschen immer weniger zu tun hatten, je weiter wir in der Zeit zurückgehen. Wer sind wir also?

Die Frage, ob Computer als intelligente Maschinen genau so gut wie Menschen werden können, oder gar noch besser, läuft auf die Frage hinaus, ob der Mensch Eigenschaften besitzt, die sich generell nicht durch einen Computer realisieren lassen.

Die moderne Psychologie und die modernen Neurowissenschaften haben bislang nichts zutage fördern können, was sich einem ingenieurmäßigen Nachbau entziehen könnte. Auch wenn es sich hierbei nicht um einen ’strengen Beweise’ handelt, so kann dieser Anschein einer generellen ’maschinelle Reproduzierbarkeit’ des Menschen in Gestalt von intelligenten Maschinen das bisherige Selbstverständnis von uns Menschen stark verunsichern.

IV. GLAUBEN AN GOTT

A. In allen Himmelsrichtungen

Aus der Geschichte der letzten Jahrtausende wissen wir, dass es zu allen Zeiten und in allen Kulturen Religionen gegeben hat. Die größten sind wohl (bis heute) der Hinduismus, der Buddhismus, das Judentum mit dem Christentum, und der Islam. So verschieden diese zu verschiedenen Zeiten und in verschiedenen Regionen äußerlich erscheinen mögen, sie verbindet alle das tiefe Fühlen und Glauben von Menschen an einen über-persönlichen Sinn, der Glaube an ein höheres Wesen, das zwar unterschiedliche Namen hat (’Gott’, ’Deus’, ’Theos’, ’Jahwe’, ’Allah’ …), aber – möglicherweise – vielleicht nur ein einziges ist.

B. Jüdisch-Christlich

So verschieden die christlichen Bekenntnisse der Gegenwart auch sein mögen, was die Anfänge angeht beziehen sich noch immer alle auf die Bibel, und hier, für die Anfänge der Geschichte auf das Alte Testament.(Anmerkung: Für eine deutsche Übersetzung siehe die Katholisch-Evangelische Einheitsübersetzung [BB81]).

Wie uns die modernen Bibelwissenschaften lehren, blickt der Text des Alten Testaments auf eine vielfältige Entstehungsgeschichte zurück. (Anmerkung: Für eine Einführung siehe Zenger et.al (1998) [ZO98]). Nicht nur, dass der Übergang von der mündlichen zur schriftlichen Überlieferung sich im Zeitraum von ca. -700 bis ca.+200 abgespielt hat, auch die redaktionelle Erzeugung verweist auf sehr viele unterschiedliche Traditionen, die nebeneinander existiert und die zu unterschiedlichen Varianten geführt haben. Auch die Kanonbildung dauerte dann nochmals viele hundert Jahre mit dem Ergebnis, dass es schwer ist, von dem einen Urtext zu sprechen. Für jene Menschen, die vorzugsweise Halt an etwas Konkretem, Festen suchen, mag dieses Bild der Überlieferung der Texte des alten Testaments beunruhigend wirken. Wird hier nicht vieles relativiert? Kann man denn da noch von einem ’Wort Gottes an die Menschen’ sprechen? Diese Furcht ist unbegründet, im Gegenteil.

C. Neues Weltbild

Wenn wir Menschen heute lernen (dürfen!), wie unsere individuelle, konkrete Existenz eingebettet ist in einen geradezu atemberaubenden Prozess der Entstehung der bekannten Lebensformen über viele Milliarden Jahre, wie unser eigener Körper ein unfassbares Gesamtkunstwerk von ca. 37 Billionen (10^12 !) Körperzellen in Kooperation mit ca. 100 Bio Bakterien im Körper und ca. 220 Mrd. Zellen auf der Haut  ist, die in jedem Moment auf vielfältige Weise miteinander reden, um uns die bekannten Funktionen des Körpers zur Verfügung zu stellen, dann deutet unsere reale Existenz aus sich heraus hin auf größere Zusammenhänge, in denen wir vorkommen, durch die wir sind, was wir sind. Und zugleich ist es die Erfahrung einer Dynamik, die das Ganze des biologischen Lebens auf der Erde in einem ebenfalls sich entwickelnden Universum umfasst und antreibt. Wenn wir verstehen wollen, wer wir sind, dann müssen wir diesen ganzen Prozess verstehen lernen.

Wenn wir uns dies alles vor Augen halten, dann können uns die Texte des alten Testaments sehr nahe kommen. Denn diese Texte manifestieren durch ihre Vielfalt und ihre Entstehungsgeschichte über viele Jahrhunderte genau auch diese Dynamik, die das Leben auszeichnet.

D. Schöpfungsberichte

Claus Westermann, ein evangelischer Theologe und Pfarrer, leider schon verstorben, hat uns einen Kommentar zum Buch Genesis hinterlassen und eine Interpretation der beiden biblischen Schöpfungsberichte, der jedem, der will, aufzeigen kann, wie nah diese alten Texte uns heute noch sein können, vielleicht viel näher als je zuvor. (Anmerkung: Neben seinen beiden wissenschaftlichen Kommentaren aus den Jahren 1972 und 1975 hat er schon 1971 ein kleines Büchlein geschrieben, in dem er seine Forschungsergebnisse in einer wunderbar lesbaren Form zusammengefasst hat (siehe: [Wes76]).

Der erste der beiden Schöpfungstexte in Gen 1,1-2,4a ist der jüngere der beiden; seine Entstehung wird auf die Zeit 6.-5.Jh vor Christus angesetzt, der zweite Schöpfungstext in Gen 2,4b – 24 wird mit seiner Entstehung im 10.-9.Jh vor Christus verortet. Der jüngere wird einer Überlieferungsschicht zugeordnet, die als ’Priesterschrift’ bezeichnet wird, die einen großen Bogen spannt von der Entstehung der Welt mit vielen Stationen bis hin zu einem neuen Bund zwischen Menschen und Gott. Dieser erste Schöpfungsbericht, bekannt durch sein 7-Tage-Schema, steht im Übergang von sehr, sehr vielen Traditionen mythischer Berichte über Schöpfung in den umliegenden Kulturen, Traditionen, die selbst viele Jahrhunderte an Entstehungszeit vorweisen können. Von daher wundert es nicht, wenn sich einzelne Worte, Motive, Bilder, die auch im 7-Tage-Schema auftauchen, Parallelen haben in anderen Schöpfungsgeschichten. Interessant ist das, was die biblische Schöpfungsgeschichte der Priesterschrift anders macht als die anderen bekannten Geschichten es tun.

E. Menschen als Ebenbild

Die zentrale Aussage im neueren Schöpfungsbericht ist nicht, wie im älteren Text, wie Gott den Menschen geschaffen hat, sondern die Aussage, dass er den Menschen nach seinem Bilde geschaffen hat, und dass er dem Menschen eine Verantwortung übertragen hat. In der schon zu dieser Zeit bekannten Vielgestaltigkeit der Welt, ihrer vielen Werdeprozesse, war die zentrale Einsicht und damit verbunden der Glaube, dass der Mensch als ganzer (nicht eine einzelne Gruppe, kein bestimmter Stamm, kein bestimmtes Volk!) über die konkrete, reale Existenz hinausweisend mit Gott verbunden ist als seinem Schöpfer, der auch ansonsten alles geschaffen hat: die Gestirne sind keine Götter, wie in vielen anderen älteren Mythen. Die Menschen sind nicht dazu da, niedere Arbeiten für Gott zu machen, wie in anderen Mythen. Die Menschen werden vielmehr gesehen als in einem besonderen Status im Gesamt der Existenz in der Geschichte, mit einer Verantwortung für das Ganze.

Und diese besondere Stellung des Menschen wird nicht festgemacht an besonderen körperlichen und geistigen Eigenschaften; schon zu dieser Zeit wussten die Autoren der Priesterschrift, wie vielfältig die Lebensformen, ja der konkrete Mensch, sein kann. Wenn wir heute durch die Wissenschaften lernen können, wie der Mensch sich im größeren Ganzen eines biologischen Werdens einsortieren lässt, wie der Mensch selbst durch seine Kultur, seine Technologie in der Lage und bereit ist, sich selbst in allen Bereichen– einschließlich seines biologischen Körpers – zu verändern, dann steht dies in keiner Weise im Gegensatz zu der globalen Sicht des biblischen Schöpfungsberichts. Im Gegenteil, man kann das Gefühl bekommen, das sich in unserer Gegenwart die Weite des biblischen Texte mit den neuen Weiten der Erkenntnisse über Mensch und Universum neu begegnen können. Was allerdings heute auffällig ist, wie viele Menschen sich schwer tun, in diesen neuen primär wissenschaftlichen Weltsichten den Glauben an einen Gott, einen Schöpfer, an eine Geschichtsübergreifende Beziehung zu einem Schöpfer aufrecht zu erhalten. Ist dies heute nicht mehr möglich?

F. Frömmigkeit – Spiritualität

An dieser Stelle sollte man sich vergegenwärtigen, dass zu allen Zeiten die Menschen in ihrer Religiosität nie nur ’gedacht’ haben, nie nur ’mit Bildern’ der Welt oder Gottes umgegangen sind. Zu allen Zeiten gab es – und gibt es noch heute – auch das, was man ’Frömmigkeit’ nennt, ’Spiritualität’, jenes sehr persönliche, individuelle sich einem Gott gegenüber ’innerlich Vorfinden‘, ’Ausrichten’, ’Fühlen’, ’Erleben’. Es ist nicht leicht, dafür die richtigen Worte zu finden, da es nun einmal ’innere’ Prozesse sind, die sich nicht wie Gegenstände vorweisen lassen können.   Sie betreffen das grundsätzliche Erleben eines Menschen, ein inneres Suchen, ein Erfahren, ein Erfülltsein (oder auch Leersein), das, was viele Menschen ermöglicht, ihr Leben in einer anderen, neuen Weise zu gestalten, sich zu ändern, anders mit Gefahren und Leiden umzugehen. In den Bildern des Alltags ’mehr’ sehen zu können als ohne dieses innere Erleben, Gestimmt sein.

In einer interessanten Untersuchung hat der britische Philosoph Walter Terence Stace die spirituellen Zeugnisse von vielen Jahrtausenden in unterschiedlichen Kulturen philosophisch untersucht (vgl. [Sta60]). Er kommt zu dem Ergebnis, dass sich trotz aller Verschiedenheiten im Äußeren, auch bei bestimmten Interpretationen, im Kern des Erlebens, des Wahrnehmens, sofern man dieses überhaupt von möglichen Interpretationen trennen lässt, erstaunliche Übereinstimmungen erkennen kann. Er folgert daraus, dass diese Fähigkeit von Menschen, einen übergreifenden Sinn direkt, existentiell erfahren zu können, möglicherweise auf eine sehr grundsätzliche Eigenschaft aller Menschen verweist, die wir einfach haben, weil wir Menschen sind. (Anmerkung: Er schließt auch nicht aus, dass alles Lebendige, von dem wir Menschen ja nur ein Teil sind, an dieser grundsätzlichen Fähigkeit einen Anteil haben könnte, wenn auch möglicherweise verschieden von der Art, wie wir Menschen erleben können.)

Die Tiefe und Weite der Sicht des jüngeren Schöpfungsberichts im Buch Genesis würde einem solchen grundlegenden Sachverhalt gut entsprechen: das Bild vom Menschen als Ebenbild Gottes schließt eine besondere Verbundenheit nicht aus; das ist das, was nach Westermann dem Menschen seine besondere Würde verleiht, diese Beziehung, nicht sein aktuelles konkretes So-sein, das sich ändern kann, ist die zentrale Botschaft.

G. Mensch, KI, Glaube an Gott

Damit beginnt sich der Kreis zu schließen. Wenn die Besonderheit des Menschen, seine zeitübergreifende Würde, in dieser grundlegenden Beziehung zu einem Schöpfergott gründet, die sich vielfältig im Gesamt des Universums und Lebens manifestiert, speziell auch in einer Form von individueller Spiritualität, dann gewinnt die Frage nach der Zukunft von Mensch und intelligenten Maschinen noch eine neue Nuance.

Bislang wird von den Vertretern einer Zukunft ohne Menschen nur noch mit intelligenten Maschinen einseitig abgehoben auf die größere Rechenkraft und die größeren Speicher, die alles erklären sollen. In diesem Beitrag wurde darauf hingewiesen, dass selbst die einfachsten Formen des Lernens ohne ’Werte’ im Sinne von ’Präferenzen’, von ’Bevorzugung von Handlungsalternativen’, ins Leere laufen. Sogenannte ’angeborene’ Präferenzen (oder eingebaute) können nur einen sehr begrenzten Nutzen vermitteln, da sich die Handlungsgegebenheiten und die gesamte Welt beständig weiter verändern. Auch die teilweise sehr komplexen Wertfindungen im sozialen-kulturellen Kontext ganzer Populationen, die von den künstlichen Intelligenzen dieser Welt noch nicht mal ansatzweise beherrscht werden, sind nur von begrenztem Wert, wie die bisherige Kulturgeschichte der Menschen eindrücklich belegt. [Mai95]

Vor diesem Hintergrund ist aktuell nicht zu sehen, wie intelligente Maschinen in der Zukunft alleine zu irgendwelchen brauchbaren Präferenzen kommen können. [SB98][Mer17][Nil10][NS76][RN10][Sta60][Tur37] Ungeklärt ist aktuell allerdings, ob und wieweit der Mensch – also jeder von uns – im Wechselspiel von philosophisch-empirischer Welterkenntnis und Spiritualität jene großen Richtungen ermitteln kann, die für die kommende komplexe Zukunft gefordert wird?

Sollte die Existenz eines Schöpfergottes über Welterkenntnis und Spiritualität wichtig sein für ein weiteres erfolgreiches Fortschreiten, dann hätten intelligente Maschinen möglicherweise ein grundsätzliches Problem. Es sei denn, auch sie könnten Gott erfahren? Einfacher wäre es, wenn Mensch und Maschine ihre aktuelle Koexistenz zu einer intensiveren Symbiose ausbauen würden. Dies würde viele sehr spannende Perspektiven bieten. Der Glaube an einen Schöpfergott ist auch heute, nach allem, was wir jetzt wissen können, keineswegs unsinnig;er erweist sich sogar – rein rational – als scheinbar dringend notwendig. Andererseits ist ein lebendiger Glaube kein Automatismus, sondern erfordert von jedem Menschen sein sehr persönliches Engagement in Verbundenheit mit dem ganzen Leben in einem dynamischen Universum. Gott erscheint hier nicht als das Hindernis, eher unsere Verweigerungen, das Ganze anzuschauen und zu akzeptieren.

QUELLEN

[*] G.Doeben-Henisch, Künstliche Intelligenz und der Glaube an Gott, In: Brennpunkt Gemeinde 70 (Aug./Sept. 2017), Studienbrief R21, 14 S., Hg. AMD Arbeitsgemeinschaft Missionarische Dienste im Verbund der Diakonie, Neukirchener Verlagsgesellschaft mbH, 47497 Neukirchen-Vluyn

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff,
K. Roberts, and P. Walter. Molecular Biology of the Cell.
Garland Science, Taylor & Francis Group, LLC, Abington
(UK) – New York, 6 edition, 2015.
[BB81] Katholisches Bibelwerk and Deutsche Bibelgesellschaft. Die
Heilige Schrift. Einheitsübersetzung. Verlag Katholisches
Bibelwerk & Deutsche Bibelgesellschaft, Stuttgart, 1 edition, 1981.
[Bos14] Nick Bostrom. Superintelligence. Paths, Dangers, Strategies.
Oxford University Press, Oxford (UK), 1 edition, 2014.
[Hod83] Andrew Hodges. Alan Turing, Enigma. Springer Verlag, Wien
– New York, 1 edition, 1983.
[M.87] Turing Alan M. Intelligente maschinen. In Bernhard Dotzler
and Friedrich Kittler, editors, Alan M. Turing. Intelligence
Service, pages 81 – 113. Brinkmann & Bose, Berlin, 1987.

[Mai95] Klaus Mainzer. Computer – Neue Flügel des Geistes? Die
Evolution computergestützter Technik, Wissenschaft, Kultur
und Philosophie. Walter de Gruyter, Berlin – New York, 1th edition, 1995.
[Mer17] Kathrin Merrick. Value systems for developmental cognitive
robotics: A survey. Cognitive Systems Research, 41:38–55, 2017.
[Nil10] Nils J. Nilsson, editor. The Quest for Artificial Intelligence. A
History of Idesas and Achievements. Cambridge University
Press, New York, 2010.
[NS76] Allen Newell and Herbert A. Simon. Computer science as
empirical inquiry: Symbols and search. Communications of
the ACM, 19(3):113–126, 1976.
[RN10] Stuart J. Russell and Peter Norvig. Artificial Intelligence: A
Modern Approach. Prentice Hall, Inc., Upper Saddle River, 2010.
[SB98] Richard S. Sutton and Andrew G. Barto. Reinforcement
Learning. An Introduction. The MIT Press, Ambridge (MA) –
London, 1 edition, 1998.
[Sta60]W.T. Stace. Mysticism and Philosophy. Jeremy P.Tarcher,
Inc., Los Angeles, 1 edition, 1960. (Eine Diskussion hier im Blog findet sich HIER).
[Tur37] Alan M. Turing. Corrections to: On computable numbers, with
an application to the entscheidungsproblem. Proceedings of
the London Mathematical Society, 43:544–546, 1937.
[Tur50] Alan Turing. Computing machinery and intelligence. Mind,
59:433–460, 1950.
[Tur 7] Alan M. Turing. On computable numbers, with an application
to the entscheidungsproblem. Proceedings of the London
Mathematical Society, 42(2):230–265, 1936-7.
[Wes76] Claus Westermann. Schöpfung. Kreuz-Verlag, Stuttgart –
Berlin, 2 edition, 1976.
[ZO98] Erich Zenger and Others. Einleitung in das Alte Testament.
W.Kohlhammer, Stuttgart, 3rd edition, 1998

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

MEMO ZU: 6 THESEN ZUM LEBEN: KREATIVITÄT, KOOPERATION, KOMMUIKATION, MEHR ALS JETZT, SEXUALITÄT, DAS BÖSE – PHILOSOPHIESOMMER 2016 in der DENKBAR Frankfurt am So, 15.Mai 2016

Hier wieder ein kurzer Bericht zum Philosophiesommer 2016 in der Denkbar, Treffen am So 15.Mai 2016 (siehe die zugehörige Einladung)

Die Einleitung geriet etwas lang, vielleicht auch angesichts der vielen neuen Gesichter. Letztlich hielten wir aber unseren vorgeschlagenen Zeitplan ein. Sehr erfreulich war die breite Streuung der versammelten Kompetenzen, was sich dann in den Beiträgen widerspiegelte.

EINLEITUNG: SPANNUNGSFELD MENSCH – INTELLIGENTE MASCHINE

Ausgangspunkt war die spannungsvolle Diskussion vom letzten Treffen, bei dem zwar das Spannungsfeld Mensch einerseits, intelligente Maschinen andererseits, zur Sprache kam, wir uns aber nicht auf ein klares Thema für die Fortsetzung einigen konnten. Dies führte zur Formulierung von sechs Thesen zu Grundmerkmalen des biologischen Lebens, so wie sie sich am Beispiel des homo sapiens sapiens nach heutigem Kenntnisstand ablesen lassen. Diese Thesen sind gedacht als mögliche Orientierungspunkte für die weitere Diskussion des Spannungsfeldes Mensch – intelligente Maschinen.

STICHWORTE ZU INTELLIGENTE MASCHINEN

Analog zu den sechs Thesen zum biologischen Leben wurden ein paar Meilensteine zum Begriff der intelligenten Maschine in den Raum gestellt, an denen man das Reden über intelligente Maschinen fest machen kann.

STANDARD FÜR EINEN COMPUTER

Es wurde verwiesen auf den berühmten Artikel On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. Band 42, 1937, S. 230–265, von Alan Mathison Turing (19121954), in dem er im Kontext eines mathematischen Beweises ein einfaches Gedankenkonstrukt einführte, was später zu seinen Ehren Turingmaschine genannt wurde. Dieses Gedankenkonstrukt, die Turingmaschine, ist bis heute der gedankliche Standard, die Norm, für Fragen der Entscheidbarkeit von Problemstellungen in der Computerwissenschaft. Nach heutigem Kenntnisstand kann kein realer Computer mehr als dieses gedankliche Konstrukt genannt Turingmaschine (und dies gilt auch für alle denkbaren reale Computer der Zukunft).

INTELLIGENTE MASCHINEN

Es war auch dann Turing, der 1950, als es gerade erste Ungetüme von Computer gab, die noch nicht allzu viel konnten, die Frage diskutierte, ob Computer einmal so intelligent werden könnten wie ein homo sapiens sapiens (siehe: Computing Machinery and Intelligence. In: Mind. LIX, Nr. 236, 1950, ISSN  0026-4423, S. 433–460 ). Er räsonierte darüber, dass Computer, wenn sie genauso lernen dürften wie Kinder, eigentlich auch alles wissen könnten, wie Kinder. Auf dem Weg zur intelligenten Maschine sah er weniger technische Probleme, sondern soziale psychologische: Menschen werden Probleme haben, intelligenten lernende Maschinen neben sich in ihrem Alltag zu haben.

EMOTIONALE MASCHINEN

Einer der einflussreichsten und wichtigsten Wissenschaftler der künstlichen Intelligenzforschung, Marvin Minsky (1927 – 2016) veröffentlichte wenige Jahre vor seinem Tod ein Buch über die emotionale Maschine ( The Emotion Machine, Simon & Schuster, New York 2006). Es ist – formal gesehen – kein streng wissenschaftliches Buch, aber dennoch bedenkenswert, da er hier im Lichte seines Wissens durchspielt, wie man die menschlichen Erfahrungen von diversen Gefühlszuständen mit dem zu diesem Zeitpunkt bekannten Wissen über Computer rekonstruieren – sprich erzeugen – könnte. Er sieht in solch einem Projekt kein prinzipielles Problem.(Anmerkung: Es könnte interessant sein, dieses Buch zusammen mit Psychologen und Psychotherapeuten zu diskutieren (evtl. ergänzt um Gehirnforscher mit einem psychologischen Training)).

SUPERINTELLIGENZ UND WERTE

Einen weiteren Aspekt bringt der in Oxford lehrende Philosoph Nick Bostrom ins Spiel. In seinem Buch Superintelligenz (Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford 2014) sieht er bzgl. der Möglichkeit, super-intelligenter Maschinen grundsätzlich auch keine grundsätzliche Schwierigkeit, wohl aber in der Wertefrage: nach welchen Werten (Zielgrößen, Präferenzen) werden sich diese super-intelligenten Maschinen richten? Werden sie sich gegen den Menschen wenden? Kann der Mensch ihnen solche Werte einspeisen, die diese super-intelligente Maschinen dem Menschen wohlgesonnen sein lassen? Er selbst findet auf diese Fragen keine befriedigende Antwort. Auch wird durch seine Analysen deutlich (was Bostrom nicht ganz klar stellt), dass die Wertefrage grundsätzlich offen ist. Die Menschen selbst demonstrieren seit Jahrtausenden, dass sie keine Klarheit besitzen über gemeinsame Werte, denen alle folgen wollen.

SECHS THESEN ZUM BIOLOGISCHEN LEBEN

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Angesichts des zuvor skizzierten ungebrochenen Glaubens an die Möglichkeiten einer Superintelligenz bei gleichzeitigem ungelösten Werteproblem bei den Menschen selbst stellt sich die Frage, ob wir Menschen als späte Produkte des biologischen Lebens nicht doch Eigenschaften an und in uns tragen, die mehr sind als eine beliebige Meinung. Aus der Vielzahl der neuesten wissenschaftlichen Erkenntnisse zum biologischen Leben und zum homo sapiens sapiens hatte Gerd Doeben-Henisch sechs in Form von Thesen ausgewählt und der Diskussion vorangestellt.

1. KREATIVITÄT JENSEITS DES BEKANNTEN: Die Explosion des Lebens fand statt auf der Basis eines Erfolgswissens aus der Vergangenheit (repräsentiert im DNA-Molekül) ohne Wissen um die Zukunft. Inmitten eines Nicht-Wissens wurde nicht nur das erprobte Wissen aus der Vergangenheit genutzt, sondern der Reproduktionsprozess erlaubte eine Vielzahl von Alternativen, die alle im Moment des Ereignisses das radikale Risiko des Scheiterns beinhalteten. Diese basale Form der Kreativität war die Methode, Leben zu finden, und das Risiko des Scheiterns der Preis: Ohne Tod kein Leben.
2. KOOPERATION ÜBR GRENZEN HINWEG: Die Explosion des Lebens fand statt durch Erlangung der Fähigkeit, mit völlig fremden Systemen (die oft lebensbedrohlich waren) in eine Kooperation geradezu galaktischen Ausmaßes einzutreten, die eine WinWin-Situation für alle Beteiligte bildete. Das Zustandekommen solcher WinWin-Situationen war in den ersten Milliarden Jahren zufällig; der Erhalt der gefundenen Vorteile beruhte auf der grundlegenden Fähigkeit des Lebens, Erfolge zu konservieren.
3. ÜBERWINDUNG DES JETZT: Solange die biologischen Systeme nicht über Gedächtnis, Abstraktionsfähigkeit, basalem Denken verfügten, waren sie im Jetzt der Sinneseindrücke gefangen. Es gab kein Gestern und kein Morgen. Nach der Explosion des Lebens ab ca. -450 Mio Jahren kam es zu einem einzigartigen Punkt: nach 13.8 Mrd Jahren konnte sich das Leben in Gestalt der Hominiden, speziell dann des homo sapiens sapiens, plötzlich selbst anschauen und verfügte ab da über das Potential, sich selbst zu verändern.
4. KOORDINIERUNG INDIVIDUELLER VIRTUELLER WELTEN: Mit der Überschreitung des Jetzt durch interne Konstruktionen entsteht im einzelnen Individuum ein rekonstruierendes virtuelles Abbild der realen Welt. Damit die vielen einzelnen dieses virtuelle Wissen gemeinsam nutzen können, braucht es neue, leistungsfähige Formen der Koordinierung durch symbolische Kommunikation. Erfindungen wie die Sprache, die Schrift, der Buchdruck usw. belegen eindrucksvoll, was symbolische Interaktion vermag.
5. JENSEITS VON SEXUALITÄT: Während die bisherige Form der Sexualität als Strategie der Mischung genetischer Informationen kombiniert mit endogenem Handlungsdruck bei den handelnden Individuen über Jahrmillionen den Erhalt des Lebens offensichtlich ermöglicht hat, führen die neuen Lebensverhältnisse der großen Siedlungsdichten und der drohenden Überbevölkerung zur Frage, wie sich der Mensch von den endogenen Handlungsdrücken hinreichend befreien kann. Mann – Frau war gestern?
6. DYNAMIK DES BÖSEN – WO LEBT DAS GUTE: tiefsitzende Triebstrukturen im Menschen (Macht, Geld, Dünkel, …) sind seit Jahrtausenden bekannt. Mit den neuen globalen Informationstechnologien können sie sich schneller und effektiver im globalen Maßstab organisieren als nationale politische Systeme. Globale Kartelle des Machtmissbrauchs und der der Kriminalität bedrohen die neuzeitlichen Freiheitsansätze des Kreativen (neben anderen Faktoren).

FREIER DISKURS
Bei diesem breiten Spektrum des Themas war klar, dass nicht alle angesprochenen Aspekte gleichzeitig diskutiert werden konnten.

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

SEXUALITÄT
Die ersten Gesprächsbeiträge griffen die These zur Sexualität auf. Eher grundsätzliche Überlegungen thematisierten, dass Sexualität als ein grundlegendes und übergreifendes Prinzip zu sehen ist; die einzelnen Individuen sind hier nur – in gewisser Weise – nur ‚Marionetten‘ in dem großen Spiel des Lebens. Das Leben will überleben, der einzelne muss entsprechend funktionieren. Dass die biologisch vorgegebene eingebaute endogene Drucksituation im Laufe der Jahrtausende innerhalb der unterschiedlichen Kulturen mit ihren Wertesystemen zu vielfältigen Formen der Regulierungen geführt hat (meist zu Lasten der Frauen), ist manifest. Versuche der Menschen, die strenge Kopplung zwischen Sexualität und Reproduktion zu lockern gab es immer. Erst in neuester Zeit verfeinerten sich die Techniken, bieten sich Möglichkeit in die chemischen oder gar genetischen Prozesse einzugreifen bzw. durch die Reproduktionsmedizin die Reproduktion mehr und mehr aus dem biologischen System auszulagern. War schon immer die Anzahl der Kinder ein Indikator für den aktuellen Wohlstand, so führt heute die zunehmende Bevölkerungsdichte erneut zu Überlegungen, den bisherigen Reproduktionsmechanismus zu verändern. Für alle die neuen Maßnahmen und Technologien zur Veränderung der Reproduktion spielt der Einsatz von Computern eine immer größere Rolle. Zugleich wird der Computern für die Sexualität in Form von Sexrobotern auch immer mehr eingesetzt. Bräuchten super-intelligente Maschinen auch ein Äquivalent zur Sexualität, um sich zu vermehren?

INTELLIGENTE MASCHINEN

Die Position der intelligenten Maschinen blieb auffällig abstrakt. Was können sie eigentlich wirklich leisten? Richtig intelligente Maschinen scheint es noch nicht wirklich zu geben. Generell wurde nicht ausgeschlossen, dass super-intelligente Maschinen eine neue Variante der Evolution ermöglichen können. Haben diese super-intelligente Maschinen dann einen eigenen Willen? Würden sie aus sich heraus zu dem Punkt kommen, dass sie die Menschen abschaffen würden? Können wir den super-intelligente Maschinen solche Werte einpflanzen, dass sie den Menschen grundsätzlich wohlgesonnen sind (hier sei erinnert an die vielen geistreichen Science Fiction von Isaak Asimov (1919 – 1992), der unter anderem die Robotergesetze erfunden hatte, die genau diese Idee umsetzen sollten: menschenfreundliche Roboter ermöglichen).

NICHT SCHWARZ-WEISS DENKEN

Im Gespräch zeichnete sich auch eine Position ab, die viele Argumente auf sich vereinte, nämlich jene, die weniger konfrontativ Mensch und super-intelligente Maschinen gegenüberstellt, sondern von einer symbiotischen Wechselbeziehung ausgeht. Der Mensch entwickelt schrittweise die neuen Technologien, und in dem Masse, wie diese real erfahrbar werden, beginnt die ganze Gesellschaft, sich damit auseinander zu setzen. Systemisch gibt es damit beständige Rückkopplungen, die – falls die gesellschaftliche Dynamik (Öffentlichkeit, freie Meinung, Diskurs..) intakt ist – nach Optimierungen im Verhältnis zwischen Menschen und Maschinen sucht. Natürlich gibt es massive wirtschaftliche Interessen, die versuchen, die neuen Möglichkeiten für sich zu nutzen und versuchen, alle Vorteile einseitig zu akkumulieren; es ist dann Aufgabe der ganzen Gesellschaft, dieser Tendenz entsprechend entgegen zu wirken. Dabei kann es sehr wohl zu Neujustierungen bisheriger Normen/ Werte kommen.

WEISHEIT DES LEBENS
Wenn man bedenkt, welch ungeheuren Leistungen das biologische Leben seit 3.8 Mrd Jahren auf der Erde vollbracht hat, wie es Lebewesen mit einer gerade zu galaktischen Komplexität geschaffen hat (der Körper des homo sapiens sapiens hat nach neuen Schätzungen ca. 34 Billionen (10^12) Körperzellen (plus noch mehr Bakterien in und am Körper), die alle als Individuen im Millisekundentakt zusammenwirken, während dagegen die Milchstraße, unsere Heimatgalaxie, ca. nur 100 – 300 Mrd. Sonnen besitzt), dann kann man nicht grundsätzlich ausschließen, dass diese Leben implizit über eine ‚Weisheit‘ verfügt (man könnte auch einfach von ‚Logik‘ sprechen), die möglicherweise größer, tiefer umfassender ist, als jede denkbare Superintelligenz, weil diese, wann und wo auch immer, nicht von außerhalb des Systems entsteht, sondern innerhalb des Systems.

NÄCHSTES THEMA

Da viele Teilnehmer sagten, dass sie sich unter diesen intelligenten Maschinen immer noch nichts Rechtes vorstellen können, wurde ein anwesender Experte für intelligente Maschinen (aus der Gattung homo sapiens sapiens) gebeten, für das nächste Treffen eine kleine Einführung in die aktuelle Situation zu geben.

Ein Überblick zu allen bisherigen Themen des Philosophiesommers (und seiner Vorgänger) nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER

Buch: Die andere Superintelligenz. Oder: schaffen wir uns selbst ab? – Kapitel 3-neu

VORBEMERKUNG: Der folgende Text ist ein Vorabdruck zu dem Buch Die andere Superintelligenz. Oder: schaffen wir uns selbst ab?, das im November 2015 erscheinen soll.

Hinter den Augen …

Das eingesperrte Gehirn

Die Antwort auf die Frage, warum Menschen so unterschiedlich wahrnehmen, warum sie dies tun und anderes lassen, liegt irgendwo da im ‚Inneren‘ des Menschen, dort, hinter seinen Augen, hinter seinem Gesicht, das mal lächelt, mal weint, mal zürnt; dort gibt es ‚geheimnisvolle Kräfte‘, die ihn, uns, Dich und mich, dazu bringen uns so zu verhalten, wie wir es erleben.

Wie die moderne Biologie uns in Gestalt der Gehirnforschung lehrt, ist es vor allem das Gehirn, in dem ca. 100 Milliarden einzelne neuronale Zellen miteinander ein Dauergespräch führen, dessen Nebenwirkungen die eine oder andere Handlung ist, die wir vornehmen.

Wenn wir uns auf die moderne Biologie einlassen, auf die Gehirnwissenschaft, erkennen wir sehr schnell, dass das Gehirn, das unser Verhalten bestimmt, selbst keinen Kontakt mit der Welt hat. Es ist im Körper eingeschlossen, quasi abgeschottet, isoliert von der Welt jenseits des Körpers.

Das Gehirn bezieht sein Wissen über die Welt jenseits der Gehirnzellen von einer Art von ‚Mittelsmännern‘, von speziellen Kontaktpersonen, von Übersetzern; dies sind unsere Sinnesorgane (Augen, Ohren, Haut, Geschmackszellen, Gleichgewichtsorgan, die bestimmte Ereignisse aus der Welt jenseits der Gehirnzellen in die ‚Sprache des Gehirns‘ übersetzen.(Anmerkung: Siehe: Sinnesorgan, Sensory Receptor, Sensory System)

Wenn wir sagen, dass wir Musik hören, wunderschöne Klänge, harmonisch oder dissonant, laut oder leise, hoch oder tief, mit unterschiedlichen Klangfarben, dann sind dies für das Gehirn ’neuronale Signale‘, elektrische Potentialänderungen, die man als ‚Signal‘ oder ‚Nicht-Signal‘ interpretieren kann, als ‚An‘ oder ‚Aus‘, oder einfach als ‚1‘ oder ‚0‘, allerdings zusätzlich eingebettet in eine ‚Zeitstruktur‘; innerhalb eines Zeitintervalls können ‚viele‘ Signale auftreten oder ‚wenige‘. Ferner gibt es eine ‚topologische‘ Struktur: das gleiche Signal kann an einem Ort im Gehirn ein ‚Klang‘ bedeuten, an einem anderen Ort eine ‚Bild‘, wieder an einem anderen Ort ein ‚Geschmack‘ oder ….

Was hier am Beispiel des Hörens gesagt wurde, gilt für alle anderen Sinnesorgane gleichermaßen: bestimmte physikalische Umwelteigenschaften werden von einem Sinnesorgan so weit ‚verarbeitet‘, dass am Ende immer alles in die Sprache des Gehirns, in die neuronalen ‚1en‘ und ‚0en‘ so übersetzt wird, so dass diese Signale zeitlich und topologisch geordnet zwischen den 100 Mrd Gehirnzellen hin und her wandern können, um im Gehirn Pflanzen, Tiere, Räume, Objekte und Handlungen jenseits der Gehirnzellen neuronal-binär repräsentieren zu können.

Alles, was in der Welt jenseits des Gehirns existiert (auch die anderen Körperorgane mit ihren Aktivitäten), es wird einheitlich in die neuronal-binäre Sprache des Gehirns übersetzt. Dies ist eine geniale Leistung der Natur(Anmerkung: Dass wir in unserem subjektiven Erleben keine ‚1en‘ und ‚0en‘ wahrnehmen, sondern Töne, Farben, Formen, Geschmäcker usw., das ist das andere ‚Wunder der Natur‘.) (siehe weiter unten.).

Die Welt wird zerschnitten

Diese Transformation der Welt in ‚1en‘ und ‚0en‘ ist aber nicht die einzige Übersetzungsbesonderheit. Wir wissen heute, dass die Sinnesinformationen für eine kurze Zeitspanne (in der Regel deutlich weniger als eine Sekunde) nach Sinnesarten getrennt in einer Art ‚Puffer‘ zwischen gespeichert werden. (Anmerkung: Siehe Sensory Memory) Von dort können sie für weitere Verarbeitungen übernommen werden. Ist die eingestellte Zeitdauer verstrichen, wird der aktuelle Inhalt von neuen Daten überschrieben. Das voreingestellte Zeitfenster (t1,t2) definiert damit, was ‚gleichzeitig‘ ist.

Faktisch wird die sinnlich wahrnehmbare Welt damit in Zeitscheiben ‚zerlegt‘ bzw. ‚zerschnitten‘. Was immer passiert, für das Gehirn existiert die Welt jenseits seiner Neuronen nur in Form von säuberlich getrennten Zeitscheiben. In Diskussionen, ob und wieweit ein Computer das menschliche Gehirn ’nachahmen‘ könnte, wird oft betont, der Computer sei ja ‚diskret‘, ‚binär‘, zerlege alles in 1en und 0en im Gegensatz zum ‚analogen‘ Gehirn. Die empirischen Fakten legen hingegen nahe, auch das Gehirn als eine ‚diskrete Maschine‘ zu betrachten.

Unterscheiden sich die ‚Inhalte‘ von Zeitscheiben, kann dies als Hinweis auf mögliche ‚Veränderungen‘ gedeutet werden.

Beachte: jede Sinnesart hat ihre eigene Zeitscheibe, die dann vom Gehirn zu ’sinnvollen Kombinationen‘ ‚verrechnet‘ werden müssen.

Die Welt wird vereinfacht

Für die Beurteilung, wie das Gehirn die vielen unterschiedlichen Informationen so zusammenfügt, auswertet und neu formt, dass daraus ein ’sinnvolles Verhalten‘ entsteht, reicht es nicht aus, nur die Gehirnzellen selbst zu betrachten, was zum Gegenstandsbereich der Gehirnwissenschaft (Neurowissenschaft) gehört. Vielmehr muss das Wechselverhältnis von Gehirnaktivitäten und Verhaltenseigenschaften simultan betrachtet werden. Dies verlangt nach einer systematischen Kooperation von wissenschaftlicher Verhaltenswissenschaft (Psychologie) und Gehirnwissenschaft unter der Bezeichnung Neuropsychologie. (Anmerkung: Siehe Neuropsychology)

Ein wichtiges theoretisches Konzept, das wir der Neuropsychologie verdanken, ist das Konzept des Gedächtnisses. (Anmerkung: Memory) Mit Gedächtnis wird die generelle Fähigkeit des Gehirns umschrieben, Ereignisse zu verallgemeinern, zu speichern, zu erinnern, und miteinander zu assoziieren.

Ausgehend von den oben erwähnten zeitlich begrenzten Sinnesspeichern unterteilt man das Gedächtnis z.B. nach der Zeitdauer (kurz, mittel, unbegrenzt), in der Ereignisse im Gedächtnis verfügbar sind, und nach der Art ihrer Nutzung. Im Kurzzeit- und Arbeitsgedächtnis kann eine kleine Zahl von Ereignissen im begrenzten Umfang verarbeitet und mit dem Langzeitgedächtnis in begrenztem Umfang ausgetauscht werden (speichern, erinnern). Die Kapazität von sinnespezifischen Kurzzeitspeicher und multimodalem Arbeitsgedächtnis liegt zwischen ca. 4 (im Kurzzeitgedächtnis) bis 9 (im Arbeitsgedächtnis) Gedächtniseinheiten. Dabei ist zu beachten, dass schon im Übergang vom oben erwähnten Sinnesspeichern zum Kurzzeit- und Arbeitsgedächtnis eine starke Informationsreduktion stattfindet; grob von 100% auf etwa 25%.

Nicht alles, was im Kurz- und Arbeitsgedächtnis vorkommt, gelangt automatisch ins Langzeitgedächtnis. Ein wichtiger Faktor, der zum Speichern führt, ist die ‚Verweildauer‘ im Kurzzeit- und Arbeitsgedächtnis, und die ‚Häufigkeit‘ des Auftretens. Ob wir nach einer Speicherung etwas ‚wiederfinden‘ können, hängt ferner davon ab, wie ein Ereignis abgespeichert wurde. Je mehr ein Ereignis sich zu anderen Ereignissen in Beziehung setzen lässt, umso eher wird es erinnert. Völlig neuartige Ereignisse (z.B. die chinesischen Schriftzeichen in der Ordnung eines chinesischen Wörterbuches, wenn man Chinesisch neu lernt) können Wochen oder gar Monate dauern, bis sie so ‚verankert‘ sind, dass sie bei Bedarf ‚mühelos‘ erinnern lassen.

Ein anderer Punkt ist die Abstraktion. Wenn wir über alltägliche Situationen sprechen, dann benutzen wir beständig Allgemeinbegriffe wie ‚Tasse‘, ‚Stuhl‘, ‚Tisch‘, ‚Mensch‘ usw. um über ‚konkrete individuelle Objekte‘ zu sprechen. So nennen wir ein konkretes rotes Etwas auf dem Tisch eine Tasse, ein anderen blaues konkretes Etwas aber auch, obgleich sie Unterschiede aufweisen. Desgleichen nennen wir ein ‚vertikales durchsichtiges Etwas‘ eine Flasche, ein vertikales grünliches Etwas auch; usw.

Unser Gedächtnis besitzt die wunderbare Eigenschaft, alles, was sinnlich wahrgenommen wird, durch einen unbewussten automatischen Abstraktionsprozess in eine abstrakte Struktur, in einen Allgemeinbegriff, in eine ‚Kategorie‘ zu übersetzen. Dies ist extrem effizient. Auf diese Weise kann das Gedächtnis mit einem einzigen Konzept hunderte, tausende, ja letztlich unendlich viele konkrete Objekte klassifizieren, identifizieren und damit weiter arbeiten.

Welt im Tresor

Ohne die Inhalte unseres Gedächtnisses würden wir nur in Augenblicken existieren, ohne vorher und nachher. Alles wäre genau das, wie es gerade erscheint. Nichts hätte eine Bedeutung.

Durch die Möglichkeit des ‚Speicherns‘ von Ereignisse (auch in den abstrakten Formen von Kategorien), und des ‚Erinnerns‘ können wir ‚vergleichen‘, können somit Veränderungen feststellen, können Abfolgen und mögliche Verursachungen erfassen, Regelmäßigkeiten bis hin zu Gesetzmäßigkeiten; ferner können wir Strukturen erfassen.

Eine Besonderheit sticht aber ins Auge: nur ein winziger Teil unseres potentiellen Wissens ist ‚aktuell verfügbar/ bewusst‘; meist weniger als 9 Einheiten! Alles andere ist nicht aktuell verfügbar, ist ’nicht bewusst‘!

Man kann dies so sehen, dass die schier unendliche Menge der bisher von uns wahrgenommenen Ereignisse im Langzeitgedächtnis weggesperrt ist wie in einem großen Tresor. Und tatsächlich, wie bei einem richtigen Tresor brauchen auch wir selbst ein Codewort, um an den Inhalt zu gelangen, und nicht nur ein Codewort, nein, wir benötigen für jeden Inhalt ein eigenes Codewort. Das Codewort für das abstrakte Konzept ‚Flasche‘ ist ein konkretes ‚Flaschenereignis‘ das — hoffentlich — genügend Merkmale aufweist, die als Code für das abstrakte Konzept ‚Flasche‘ dienen können.

Wenn über solch einen auslösenden Merkmalscode ein abstraktes Konzept ‚Flasche‘ aktiviert wird, werden in der Regel aber auch alle jene Konzepte ‚aktiviert‘, die zusammen mit dem Konzept ‚Flasche‘ bislang aufgetreten sind. Wir erinnern dann nicht nur das Konzept ‚Flasche‘, sondern eben auch all diese anderen Ereignisse.

Finden wir keinen passenden Code, oder wir haben zwar einen Code, aber aus irgendwelchen Emotionen heraus haben wir Angst, uns zu erinnern, passiert nichts. Eine Erinnerung findet nicht statt; Blockade, Ladehemmung, ‚blackout‘.

Bewusstsein im Nichtbewusstsein

Im Alltag denken wir nicht ‚über‘ unser Gehirn nach, sondern wir benutzen es direkt. Im Alltag haben wir subjektiv Eindrücke, Erlebnisse, Empfindungen, Gedanken, Vorstellungen, Fantasien. Wir sind ‚in‘ unserem Erleben, wir selbst ‚haben‘ diese Eindrücke. Es sind ‚unsere‘ Erlebnisse‘.

Die Philosophen haben diese Erlebnis- und Erkenntnisweise den Raum unseres ‚Bewusstseins‘ genannt. Sie sprechen davon, dass wir ‚Bewusstsein haben‘, dass uns die Ding ‚bewusst sind‘; sie nennen die Inhalte unseres Bewusstseins ‚Qualia‘ oder ‚Phänomene‘, und sie bezeichnen diese Erkenntnisperspektive den Standpunkt der ‚ersten Person‘ (‚first person view‘) im Vergleich zur Betrachtung von Gegenständen in der Außenwelt, die mehrere Personen gleichzeitig haben können; das nennen sie den Standpunkt der ‚dritten Person‘ (‚third person view‘) (Anmerkung: Ein Philosoph, der dies beschrieben hat, ist Thomas Nagel. Siehe zur Person: Thomas Nagel. Ein Buch von ihm, das hir einschlägig ist: ‚The view from nowhere‘, 1986, New York, Oxford University Press).

Nach den heutigen Erkenntnissen der Neuropsychologie gibt es zwischen dem, was die Philosophen ‚Bewusstsein‘ nennen und dem, was die Neuropsychologen ‚Arbeitsgedächtnis‘ nennen, eine funktionale Korrespondenz. Wenn man daraus schließen kann, dass unser Bewusstsein sozusagen die erlebte ‚Innenperspektive‘ des ‚Arbeitsgedächtnisses‘ ist, dann können wir erahnen, dass das, was uns gerade ‚bewusst‘ ist, nur ein winziger Bruchteil dessen ist, was uns ’nicht bewusst‘ ist. Nicht nur ist der potentiell erinnerbare Inhalt unseres Langzeitgedächtnisses viel größer als das aktuell gewusste, auch die Milliarden von Prozessen in unserem Körper sind nicht bewusst. Ganz zu schweigen von der Welt jenseits unseres Körpers. Unser Bewusstsein gleicht damit einem winzig kleinen Lichtpunkt in einem unfassbar großen Raum von Nicht-Bewusstsein. Die Welt, in der wir bewusst leben, ist fast ein Nichts gegenüber der Welt, die jenseits unseres Bewusstseins existiert; so scheint es.

Außenwelt in der Innenwelt

Der Begriff ‚Außenwelt‘, den wir eben benutzt haben, ist trügerisch. Er gaukelt vor, als ob es da die Außenwelt als ein reales Etwas gibt, über das wir einfach so reden können neben dem Bewusstsein, in dem wir uns befinden können.

Wenn wir die Erkenntnisse der Neuropsychologie ernst nehmen, dann findet die Erkenntnis der ‚Außenwelt‘ ‚in‘ unserem Gehirn statt, von dem wir wissen, dass es ‚in‘ unserem Körper ist und direkt nichts von der Außenwelt weiß.

Für die Philosophen aller Zeiten war dies ein permanentes Problem. Wie kann ich etwas über die ‚Außenwelt‘ wissen, wenn ich mich im Alltag zunächst im Modus des Bewusstseins vorfinde?

Seit dem Erstarken des empirischen Denkens — spätestens seit der Zeit Galileis (Anmerkung: Galilei) — tut sich die Philosophie noch schwerer. Wie vereinbare ich die ‚empirische Welt‘ der experimentellen Wissenschaften mit der ’subjektiven Welt‘ der Philosophen, die auch die Welt jedes Menschen in seinem Alltag ist? Umgekehrt ist es auch ein Problem der empirischen Wissenschaften; für den ’normalen‘ empirischen Wissenschaftler ist seit dem Erstarken der empirischen Wissenschaften die Philosophie obsolet geworden, eine ’no go area‘, etwas, von dem sich der empirische Wissenschaftler fernhält. Dieser Konflikt — Philosophen kritisieren die empirischen Wissenschaften und die empirischen Wissenschaften lehnen die Philosophie ab — ist in dieser Form ein Artefakt der Neuzeit und eine Denkblokade mit verheerenden Folgen.

Die empirischen Wissenschaften gründen auf der Annahme, dass es eine Außenwelt gibt, die man untersuchen kann. Alle Aussagen über die empirische Welt müssen auf solchen Ereignissen beruhen, sich im Rahmen eines beschriebenen ‚Messvorgangs‘ reproduzieren lassen. Ein Messvorgang ist immer ein ‚Vergleich‘ zwischen einem zuvor vereinbarten ‚Standard‘ und einem ‚zu messenden Phänomen‘. Klassische Standards sind ‚das Meter‘, ‚das Kilogramm‘, ‚die Sekunde‘, usw. (Anmerkung: Siehe dazu: Internationales Einheitensystem) Wenn ein zu messendes Phänomen ein Objekt ist, das z.B. im Vergleich mit dem Standard ‚Meter [m]‘ die Länge 3m aufweist, und jeder, der diese Messung wiederholt, kommt zum gleichen Ergebnis, dann wäre dies eine empirische Aussage über dieses Objekt.

Die Einschränkung auf solche Phänomene, die sich mit einem empirischen Messstandard vergleichen lassen und die von allen Menschen, die einen solchen Messvorgang wiederholen, zum gleichen Messergebnis führen, ist eine frei gewählte Entscheidung, die methodisch motiviert ist. Sie stellt sicher, dass man zu einer Phänomenmenge kommt, die allen Menschen(Anmerkung: die über gleiche Fähigkeiten der Wahrnehmung und des Denkens verfügen. Blinde Menschen, taube Menschen usw. könnten hier Probleme bekommen!“> … in gleicher Weise zugänglich und für diese nachvollziehbar ist. Erkenntnisse, die allen Menschen in gleicher Weise zugänglich und nachprüfbar sind haben einen unbestreitbaren Vorteil. Sie können eine gemeinsame Basis in einer ansonsten komplexen verwirrenden Wirklichkeit bieten.

Die ‚Unabhängigkeit‘ dieser empirischen Messvorgänge hat im Laufe der Geschichte bei vielen den Eindruck vertieft, als ob es die ‚vermessene Welt‘ außerhalb und unabhängig von unserem Bewusstsein als eigenständiges Objekt gibt, und dass die vielen ‚rein subjektiven‘ Empfindungen, Stimmungen, Vorstellungen im Bewusstsein, die sich nicht direkt in der vermessbaren Welt finden, von geringerer Bedeutung sind, unbedeutender ’subjektiver Kram‘, der eine ‚Verunreinigung der Wissenschaft‘ darstellt.

Dies ist ein Trugschluss mit verheerenden Folgen bis in die letzten Winkel unseres Alltags hinein.

Der Trugschluss beginnt dort, wo man übersieht, dass die zu messenden Phänomene auch für den empirischen Wissenschaftler nicht ein Sonderdasein führen, sondern weiterhin nur Phänomene seines Bewusstseins sind, die ihm sein Gehirn aus der Sinneswahrnehmung ‚herausgerechnet‘ hat. Vereinfachend könne man sagen, die Menge aller Phänomene unseres Bewusstseins — nennen wir sie PH — lässt sich aufteilen in die Teilmenge jener Phänomene, auf die sich Messoperationen anwenden lassen, das sind dann die empirischen Phänomene PH_EMP, und jene Phänomene, bei denen dies nicht möglich ist; dies sind dann die nicht-empirischen Phänomene oder ‚rein subjektiven‘ Phänomene PH_NEMP. Die ‚Existenz einer Außenwelt‘ ist dann eine Arbeitshypothese, die zwar schon kleine Kindern lernen, die aber letztlich darauf basiert, dass es Phänomene im Bewusstsein gibt, die andere Eigenschaften haben als die anderen Phänomene.

In diesen Zusammenhang gehört auch das Konzept unseres ‚Körpers‘, der sich mit den empirischen Phänomenen verknüpft.

Der Andere als Reflektor des Selbst

Bislang haben wir im Bereich der Phänomene (zur Erinnerung: dies sind die Inhalte unseres Bewusstseins) unterschieden zwischen den empirischen und den nicht-empirischen Phänomenen. Bei genauerem Hinsehen kann man hier viele weitere Unterscheidungen vornehmen. Uns interessiert hier nur der Unterschied zwischen jenen empirischen Phänomenen, die zu unserem Körper gehören und jenen empirischen Phänomenen, die unserem Körper ähneln, jedoch nicht zu uns, sondern zu jemand ‚anderem‘ gehören.

Die Ähnlichkeit der Körperlichkeit des ‚anderen‘ zu unserer Körperlichkeit bietet einen Ansatzpunkt, eine ‚Vermutung‘ ausbilden zu können, dass ‚in dem Körper des anderen‘ ähnliche innere Ereignisse vorkommen, wie im eigenen Bewusstsein. Wenn wir gegen einen harten Gegenstand stoßen, dabei Schmerz empfinden und eventuell leise aufschreien, dann unterstellen wir, dass ein anderer, wenn er mit seinem Körper gegen einen Gegenstand stößt, ebenfalls Schmerz empfindet. Und so in vielen anderen Ereignissen, in denen der Körper eine Rolle spielt(Anmerkung: Wie wir mittlerweile gelernt haben, gibt es Menschen, die genetisch bedingt keine Schmerzen empfinden, oder die angeboren blind oder taub sind, oder die zu keiner Empathie fähig sind, usw.“> … .

Generalisiert heißt dies, dass wir dazu neigen, beim Auftreten eines Anderen Körpers unser eigenes ‚Innenleben‘ in den Anderen hinein zu deuten, zu projizieren, und auf diese Weise im anderen Körper ‚mehr‘ sehen als nur einen Körper. Würden wir diese Projektionsleistung nicht erbringen, wäre ein menschliches Miteinander nicht möglich. Nur im ‚Übersteigen‘ (‚meta‘) des endlichen Körpers durch eine ‚übergreifende‘ (‚transzendierende‘) Interpretation sind wir in der Lage, den anderen Körper als eine ‚Person‘ zu begreifen, die aus Körper und Seele, aus Physis und Psyche besteht.

Eine solche Interpretation ist nicht logisch zwingend. Würden wir solch eine Interpretation verweigern, dann würden wir im Anderen nur einen leblosen Körper sehen, eine Ansammlung von unstrukturierten Zellen. Was immer der Andere tun würde, nichts von alledem könnte uns zwingen, unsere Interpretation zu verändern. Die ‚personale Wirklichkeit des Anderen‘ lebt wesentlich von unserer Unterstellung, dass er tatsächlich mehr ist als der Körper, den wir sinnlich wahrnehmen können.

Dieses Dilemma zeigt sich sehr schön in dem berühmten ‚Turing Test'(Anmerkung: Turing-Test, den Alan Matthew Turing 1950 vorgeschlagen hatte, um zu testen, wie gut ein Computer einen Menschen imitiere kann. (Anmerkung: Es war in dem Artikel: „Alan Turing: Computing Machinery and Intelligence“, Mind 59, Nr. 236, Oktober 1950, S. 433–460) Da man ja ‚den Geist‘ selbst nicht sehen kann, sondern nur die Auswirkungen des Geistes im Verhalten, kann man in dem Test auch nur das Verhalten eines Menschen neben einem Computer beobachten, eingeschränkt auf schriftliche Fragen und Antworten. (Anmerkung: heute könnte man dies sicher ausdehnen auf gesprochene Fragen und Antworten, eventuell kombiniert mit einem Gesicht oder gar mehr“) Die vielen Versuche mit diesem Test haben deutlich gemacht — was man im Alltag auch ohne diesen Test sehen kann –, dass das beobachtbare Verhalten eines Akteurs niemals ausreicht, um logisch zwingend auf einen ‚echten Geist‘, sprich auf eine ‚echte Person‘ schließen zu können. Daraus folgt nebenbei, dass man — sollte es jemals hinreichend intelligente Maschinen geben — niemals zwingend einen Menschen, nur aufgrund seines Verhaltens, von einer intelligenten Maschine unterscheiden könnte.

Rein praktisch folgt aus alledem, dass wir im Alltag nur dann und solange als Menschen miteinander umgehen können, solange wir uns wechselseitig ‚Menschlichkeit‘ unterstellen, an den ‚Menschen‘ im anderen glauben, und mein Denken und meine Gefühle hinreichend vom Anderen ‚erwidert‘ werden. Passiert dies nicht, dann muss dies noch nicht eine völlige Katastrophe bedeuten, aber auf Dauer benötigen Menschen eine minimale Basis von Gemeinsamkeiten, auf denen sie ihr Verhalten aufbauen können.

Im positiven Fall können Unterschiede zwischen Menschen dazu führen, dass man sich wechselseitig anregt, man durch die Andersartigkeit ‚Neues‘ lernen kann, man sich weiter entwickelt. Im negativen Fall kann es zu Missverständnissen kommen, zu Verletzungen, zu Aggressionen, gar zur wechselseitigen Zerstörung. Zwingend ist keines von beidem.

Fortsetzung mit Kapitel 4 (neu).

Einen Überblick über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 5

Vorheriger Beitrag Teil 4

Letzte Änderung (mit Erweiterungen): 12.April 2013, 06:26h

ALLGEMEINE EINSCHÄTZUNGEN ZU SEELE, GEIST UND WISSENSCHAFTEN

1. Im nächsten Kapitel ‚Mind‘ (etwa ‚Geist‘ (es gibt keine eindeutigen begrifflichen Zuordnungen in diesem Fall)) (SS.177-196) handelt Kauffman vom ‚Geist‘ des Menschen einschließlich dem besonderen Aspekt ‚(Selbst-)Bewusstsein‘ (‚consciousness‘) mit jenen Beschreibungsversuchen, die er für nicht zutreffend hält. Es folgt dann ein Kapitel ‚The Quantum Brain‘ (etwa ‚Das Quantengehirn‘) (SS.197-229), in dem er seine mögliche Interpretation vorstellt. Seine eigene Grundüberzeugung stellt er gleich an den Anfang, indem er sagt, dass der menschliche Geist (i) nicht ‚algorithmisch‘ sei im Sinne eines berechenbaren Ereignisses, sondern (ii) der Geist sei ‚Bedeutung und tue Organisches‘ (‚is a meaning and doing organic system‘). (iii) Wie der Geist Bedeutung erzeuge und sein Verhalten hervorbringe, das sei jenseits der aktuellen wissenschaftlichen Erklärungsmöglichkeiten.(vgl. S.177)
2. [Anmk: Seiner grundsätzlichen Einschätzung, dass eine vollständige wissenschaftliche Erklärung bislang nicht möglich sei (iii), kann ich nur zustimmen; wir haben mehr Fragen als Antworten. Die andere Aussage (ii), dass Geist ‚is a meaning and doing organic system‘, ist schwierig zu verstehen. Was soll es heißen, dass der Geist (‚mind‘) ‚doing organic system‘? Hier kann man nur raten. Ein sehr radikaler Interpretationsversuch wäre, zu sagen, dass der ‚Geist‘ etwas ist, was die Entstehung von organischen Systemen ermöglicht. Damit würde Geist fast schon zu einem ‚inneren Prinzip der Materie‘. Aus den bisherigen Ausführungen von Kauffmann gäbe es wenig Anhaltspunkte, das zu verstehen. Die andere Aussage (i), dass ‚Geist‘ (‚mind‘) ‚Bedeutung‘ sei, ist ebenfalls nicht so klar. Die Standardinterpretation von ‚Bedeutung‘ wird von der Semiotik geliefert. Innerhalb der Semiotik ist aber speziell der Begriff der Bedeutung, wie man sehr schnell sehen kann keinesfalls einfach oder klar. Ohne eine eigene Theorie verliert man sich in den historisch gewachsenen Verästelungen. Es gibt eine Vielzahl von Denkversuchen, die sich nicht auf einen gemeinsamen Denkrahmen zurückführen lassen. Die Geschichte der Ideen ist generell ein faszinierendes Phänomen ohne eine zwingende Logik. Die muss man sich selbst erarbeiten.]

ALGORITHMISIERUG VON GEIST

3. Auf den Seiten 178-182 zählt er einige wichtige Personen und Konzepte auf, die der Begriff ‚algorithmisch‘ in seiner historischen Entwicklung konnotiert. Da ist einmal Turing, der ein mathematisches Konzept von ‚Berechenbarkeit‘ gefunden hat, das bis heute die Grundlage für alle wichtigen Beweise bildet. Daneben von Neumann, der ’nebenher‘ eine Architektur für reale Computer erfunden hat, die als Von-Neumann-Architektur zum Ausgangspunkt der modernen programmierbaren Computers geworden ist. Ferner stellt er McCulloch vor und Pitts. McCulloch und Pitts gelten als jene, die als erstes eine erfolgreiche Formalisierung biologischer Nervenzellen durchgeführt haben und mit ihren McCulloch-Pitts Neuronen das Gebiet der künstlichen neuronalen Zellen begründeten. Das Besondere am frühen Konzept von McCulloch-Pitts war, dass sie nicht nur ein formales Modell von vernetzten künstlichen Neuronen definierten, sondern dass sie zusätzlich eine Abbildung dieser Neuronen in eine Menge formaler Aussagen in dem Sinne vornahmen, dass ein Neuron nicht nur eine Prozesseinheit war mit dem Zustand ‚1‘ oder ‚0‘, sondern man ein Neuron zugleich auch als eine Aussage interpretieren konnte, die ‚wahr‘ (‚1‘) sein konnte oder ‚falsch‘ (‚0‘). Damit entstand parallel zu den ‚rechnenden‘ Neuronen – in einer ’symbolischen‘ Dimension – eine Menge von interpretierten logischen Aussagen, die man mit logischen Mitteln bearbeiten konnte. Kauffman diskutiert den Zusammenhang zwischen diesen drei Konzepten nicht, stellt dann aber einen Zusammenhang her zwischen dem Formalisierungsansatz von McCulloch-Pitts und seinem eigenen Konzept eines ‚Boolschen Network Modells‘ (‚Boolean network model‘) aus Kapitel 8 her [hatte ich im Detail nicht beschrieben][Anmerkung: Vor einigen Jahren hatte ich mal versucht, die Formalisierungsansätze von McCulloch und Pitts zu rekonstruieren. Sie benutzen die Logik, die damals Carnap entwickelt hatte, erweitert um den Faktor Zeit. Mir ist keine konsistente Rekonstruktion gelungen, was nicht viel besagen muss. Möglicherweise war ich zu dumm, zu verstehen, was Sie genau wollen.]
4. Sowohl am Beispiel des ‚rechnenden Neurons‘ (was Kauffman und viele andere als ’subsymbolisch‘ bezeichnen) wie auch am Beispiel der interpretierten Aussagen (die von Kauffman als ’symbolisch‘ bezeichnete Variante) illustriert Kauffman, wie diese Modelle dazu benutzt werden können, um sie zusätzlich in einer dritten Version zu interpretieren, nämlich als ein Prozessmodell, das nicht nur ‚Energie‘ (‚1‘, ‚0‘) bzw. ‚wahr’/ ‚falsch‘ verarbeitet, sondern diese Zustände lassen sich abbilden auf ‚Eigenschaften des Bewusstseins‘, auf spezielle ‚Erlebnisse‘, die sich sowohl als ‚elementar’/ ‚atomar‘ interpretieren lassen wie auch als ‚komplex’/ ‚abstrahiert‘ auf der Basis elementarer Erlebnisse. (vgl. S.180f)
5. [Anmerkung: Diese von Kauffman eingeführten theoretischen Konzepte tangieren sehr viele methodische Probleme, von denen er kein einziges erwähnt. So muss man sehr klar unterscheiden zwischen dem mathematischen Konzept der Berechenbarkeit von Turing und dem Architekturkonzept von von Neumann. Während Turing ein allgemeines mathematisches (und letztlich sogar philosophisches!) Konzept von ‚endlich entscheidbaren Prozessen‘ vorstellt, das unabhängig ist von irgend einer konkreten Maschine, beschreibt von Neumann ein konkrete Architektur für eine ganze Klasse von konkreten Maschinen. Dass die Nachwelt Turings mathematisches Konzept ‚Turing Maschine‘ genannt hat erweckt den Eindruck, als ob die ‚Turing Maschine‘ eine ‚Maschine sei. Das aber ist sie gerade nicht. Das mathematische Konzept ‚Turing Maschine‘ enthält Elemente (wie z.B. ein beidseitig unendliches Band), was niemals eine konkrete Maschine sein kann. Demgegenüber ist die Von-Neumann-Architektur zu konkret, um als Konzept für die allgemeine Berechenbarkeit dienen zu können. Ferner, während ein Computer mit einer Von-Neumann-Architektur per Definition kein neuronales Netz ist, kann man aber ein neuronales Netz auf einem Von-Neumann-Computer simulieren. Außerdem kann man mit Hilfe des Turing-Maschinen Konzeptes untersuchen und feststellen, ob ein neuronales Netz effektiv entscheidbare Berechnungen durchführen kann oder nicht. Schließlich, was die unterschiedlichen ‚Interpretationen‘ von neuronalen Netzen angeht, sollte man sich klar machen, dass ein künstliches neuronales Netz zunächst mal eine formale Struktur KNN=[N,V,dyn] ist mit Mengen von Elementen N, die man Neuronen nennt, eine Menge von Verbindungen V zwischen diesen Elementen, und einer Übergangsfunktion dyn, die sagt, wie man von einem aktuellen Zustand des Netzes zum nächsten kommt. Diese Menge von Elementen ist als solche völlig ’neutral‘. Mit Hilfe von zusätzlichen ‚Abbildungen‘ (‚Interpretationen‘) kann man diesen Elementen und ihren Verbindungen und Veränderungen nun beliebige andere Werte zuweisen (Energie, Wahr/Falsch, Erlebnisse, usw.). Ob solche Interpretationen ’sinnvoll‘ sind, hängt vom jeweiligen Anwendungskontext ab. Wenn Kauffman solche möglichen Interpretationen aufzählt (ohne auf die methodischen Probleme hinzuweisen), dann sagt dies zunächst mal gar nichts.]

GEHIRN ALS PHYSIKALISCHER PROZESS

6. Es folgt dann ein kurzer Abschnitt (SS.182-184) in dem er einige Resultate der modernen Gehirnforschung zitiert und feststellt, dass nicht wenige Gehirnforscher dahin tendieren, das Gehirn als einen Prozess im Sinne der klassischen Physik zu sehen: Bestimmte neuronale Muster stehen entweder für Vorgänge in der Außenwelt oder stehen in Beziehung zu bewussten Erlebnissen. Das Bewusstsein hat in diesem Modell keinen ‚kausalen‘ Einfluss auf diese Maschinerie, wohl aber umgekehrt (z.B. ‚freier Wille‘ als Einbildung, nicht real).
7. [Anmk: Das Aufzählen dieser Positionen ohne kritische methodische Reflexion ihrer methodischen Voraussetzungen und Probleme erscheint mir wenig hilfreich. Die meisten Aussagen von Neurowissenschaftlern, die über die Beschreibung von neuronalen Prozessen im engeren Sinne hinausgehen sind – vorsichtig ausgedrückt – mindestens problematisch, bei näherer Betrachtung in der Regel unhaltbar. Eine tiefergreifende Diskussion mit Neurowissenschaftlern ist nach meiner Erfahrung allerdings in der Regel schwierig, da ihnen die methodischen Probleme fremd sind; es scheint hier ein starkes Reflexions- und Theoriedefizit zu geben. Dass Kauffman hier nicht konkreter auf eine kritische Lesart einsteigt, liegt möglicherweise auch daran, dass er in den späteren Abschnitten einen quantenphysikalischen Standpunkt einführt, der diese schlichten klassischen Modellvorstellungen von spezifischen Voraussetzungen überflüssig zu machen scheint.]

KOGNITIONSWISSENSCHAFTEN; GRENZEN DES ALGORITHMISCHEN

8. Es folgt dann ein Abschnitt (SS.184-191) über die kognitiven Wissenschaften (‚cognitive science‘). Er betrachtet jene Phase und jene Strömungen der kognitiven Wissenschaften, die mit der Modellvorstellung gearbeitet haben, dass man den menschlichen Geist wie einen Computer verstehen kann, der die unterschiedlichsten Probleme ‚algorithmisch‘, d.h. durch Abarbeitung eines bestimmten ‚Programms‘, löst. Dem stellt Kauffman nochmals die Unentscheidbarkeits- und Unvollständigkeitsergebnisse von Gödel gegenüber, die aufzeigen, dass alle interessanten Gebiete der Mathematik eben nicht algorithmisch entscheidbar sind. Anhand der beiden berühmten Mathematiker Riemann und Euler illustriert er, wie deren wichtigsten Neuerungen sich nicht aus dem bis dahin Bekanntem algorithmisch ableiten ließen, sondern auf ‚kreative Weise‘ etwas Neues gefunden haben. Er zitiert dann auch die Forschungen von Douglas Medin, der bei seinen Untersuchungen zur ‚Kategorienbildung‘ im menschlichen Denken auf sehr viele ungelöste Fragen gestoßen ist. Wahrscheinlichkeitstheoretische Ansätze zur Bildung von Clustern leiden an dem Problem, dass sie nicht beantworten können, was letztlich das Gruppierungskriterium (‚Ähnlichkeit‘, welche?) ist. Aufgrund dieser grundsätzlichen Schwierigkeit, ‚Neues‘, ‚Innovatives‘ vorweg zu spezifizieren, sieht Kauffman ein grundsätzliches Problem darin, den menschlichen Geist ausschließlich algorithmisch zu definieren, da Algorithmen – nach seiner Auffassung – klare Rahmenbedingungen voraussetzen. Aufgrund der zuvor geschilderten Schwierigkeiten, solche zu bestimmten, sieht er diese nicht gegeben und folgert daraus, dass die Annahme eines ‚algorithmischen Geistes‘ unzulänglich ist.
9. [Anmk: Die Argumente am Beispiel von Goedel, Riemann, Euler, und Medin – er erwähnte auch noch Wittgenstein mit den Sprachspielen – würde ich auch benutzen. Die Frage ist aber, ob die Argumente tatsächlich ausreichen, um einen ‚algorithmischen Geist‘ völlig auszuschliessen. Zunächst einmal muss man sich klar machen, dass es ja bislang überhaupt keine ‚Theorie des Geistes an sich‘ gibt, da ein Begriff wie ‚Geist‘ zwar seit mehr als 2500 Jahren — betrachtet man nur mal den europäischen Kulturkreis; es gibt ja noch viel mehr! — benutzt wird, aber eben bis heute außer einer Unzahl von unterschiedlichen Verwendungskontexten keine einheitlich akzeptierte Bedeutung hervorgebracht hat. Dies hat u.a. damit zu tun, dass ‚Geist‘ ja nicht als ‚direktes Objekt‘ vorkommt sondern nur vermittelt in den ‚Handlungen‘ und den ‚Erlebnissen‘ der Menschen in unzähligen Situationen. Was ‚wirklich‘ mit ‚Geist‘ gemeint ist weiß insofern niemand, und falls doch, würde es allen anderen nichts nützen. Es gibt also immer nur partielle ‚Deutungsprojekte‘ von denen die kognitive Psychologie mit dem Paradigma vom ‚Geist‘ als ‚Computerprogramm‘ eines unter vielen ist. Hier müsste man dann nochmals klar unterscheiden, ob die psychologischen Modelle explizit einen Zusammenhang mit einer zugrunde liegenden neuronalen Maschinerie herstellen oder nicht. Versteht man die wissenschaftliche Psychologie als ein ‚empirisches‘ Deutungsprojekt, dann muss man annehmen, dass sie solch einen Zusammenhang explizit annimmt. Damit wäre ein algorithmisches Verhalten aus der zugrunde liegenden neuronalen Maschinerie herzuleiten. Da man nachweisen kann, dass ein neuronales Netz mindestens so rechenstark wie eine Turingmaschine ist, folgt daraus, dass ein neuronales Netzwerk nicht in allen Fällen algorithmisch entscheidbar ist (Turing, 1936, Halteproblem). Dies bedeutet, dass selbst dann, wenn der menschliche Geist ‚algorithmisch‘ wäre, daraus nicht folgt, dass er alles und jedes berechnen könnte. Andererseits, wie wir später sehen werden, muss man die Frage des Gehirns und des ‚Geistes‘ vermutlich sowieso in einem ganz anderen Rahmen bedenken als dies in den Neurowissenschaften und den Kognitionswissenschaften bislang getan wird.]

GEIST OPERIERT MIT ‚BEDEUTUNG‘

10. Es folgen (SS.192-196) Überlegungen zur Tatsache, dass der ‚Geist‘ (‚mind‘) mit ‚Bedeutung‘ (‚meaning‘) arbeitet. Welche Zeichen und formale Strukturen wir auch immer benutzen, wir benutzen sie normalerweise nicht einfach ’nur als Zeichenmaterial‘, nicht nur rein ’syntaktisch‘, sondern in der Regel im Kontext ‚mit Bezug auf etwas anderes‘, das dann die ‚Bedeutung‘ für das benutzte Zeichenmaterial ausmacht. Kauffman bemerkt ausdrücklich, dass Shannon in seiner Informationstheorie explizit den Aspekt der Bedeutung ausgeschlossen hatte. Er betrachtete nur statistische Eigenschaften des Zeichenmaterials. Ob ein Zeichenereignis eine Bedeutung hat bzw. welche, das muss der jeweilige ‚Empfänger‘ klären. Damit aber Zeichenmaterial mit einer möglichen Bedeutung ‚verknüpft‘ werden kann, bedarf es eines ‚Mechanismus‘, der beides zusammenbringt. Für Kauffman ist dies die Eigenschaft der ‚Agentenschaft‘ (‚agency‘). Wie der menschliche Geist letztlich beständig solche neuen Bedeutungen erschafft, ist nach Kauffman bislang unklar.
11. Es folgen noch zwei Seiten Überlegungen zur Schwierigkeit, die nichtlineare Relativitätstheorie und die lineare Quantentheorie in einer einzigen Theorie zu vereinen. Es ist aber nicht ganz klar, in welchem Zusammenhang diese Überlegungen zur vorausgehenden Diskussion zum Phänomen der Bedeutung stehen.

Fortsezung mit Teil 6.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500

Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

EIN ABEND MIT DEM SALON SLALOM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Dezember 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Loser Kontakt

Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:

http://salonslalom.wordpress.com/termine/hinter-dem-phanomen-lauert-das-ich-aber-was-kommt-dann/. Der Ort war also, wie man aus der Ankündigung entnehmen kann, im INM (Institut für Neue Medien, url: http://www.inm.de), da einige Mitglieder explizit das INM mal kennen lernen wollten (in Frankfurt nicht ganz unbekannt).

Wintereinbruch

Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.

Harakiri?

Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.

Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:

Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…

Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.

Phänomene und hinter den Phänomenen

Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,

Vielschichtigkeit des Menschen (vier verschiedene Bilder von Wikipedia (en) zusammengesetzt (siehe Quellenangaben unten)

um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.

Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.

Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).

Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).

Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?

 

Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.

Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.

Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.

Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.

Die klassische Musikproduktion und Rezeption wird heute ergänzt durch eine technische Muskproduktion auf der Basis der Mathematik. Damit dehnen sich die potentiellen Klangräume schier unendlich aus.

Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.

Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).

The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…

Mathematik und Computer

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.

Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.

Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.

Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).

Intelligenz bei Tieren und Computern

Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.

Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.

Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.

Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.

Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.

Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.

Zentrale Komponenten eines minimalen lernenden Classifier Systems (ohne Anzeige des Bedürfnisses Hunger). Mit Hilfe des Fitnesswertes können alle jene Komponenten hervorgehoben werden, die im Zusammenwirken einen Pfad generieren. Fitnessgeber können auch ‚eingebaut‘ sein

Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.

Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?

Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.

Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.

In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.

Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:

Verhaltensformel Mensch: phi: I x IS —> IS x O

Verhaltensformel UTM: phi: I x IS —> IS x O

Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.

Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:

You are the message of the universe (Rap-like…)  Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..

PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….

PS2: Es gab noch eine recht intensive Diskussion.

PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechen kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Defintion entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müßte man von daher vielleicht sagen, dass wir in diesem Experiment zegen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.

PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…

Literaturnachweise

Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
Wilson, S.W. ZCS: a zeroth level classifier system, Evolutionary Computation, 2(1), 1-18 (1994)

Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER