Archiv der Kategorie: Lernfähigkeit

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften
Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

KULTURELLE AUTOIMMUNREAKTIONEN? oder: KONTROLLWAHN UND DIE ANGST UM SICH SELBST


(Unter twitter bei ‚cagentartist‘))

1) Treffen die Überlegungen im Blogeintrag ‚EMERGING MIND – Mögliche Konsequenzen‘ zu, dann befinden wir uns im Jahr 2013 an einem Punkt der Entwicklung des Geistes auf der Erde, der einen sich andeutenden umfassenden kulturellen Umbruch markiert.
2) In der Geschichte des Lebens auf der Erde gab es viele solcher Umbruchzonen, wobei der Begriff ‚Umbruchzone‘ nicht unproblematisch ist; schließlich ist jeder Abschnitt in der bisherigen Entwicklung letztlich eine Umbruchphase. Es scheint aber so zu sein, dass man Phasen unterscheiden kann, in denen aus Sicht der Beteiligten anscheinend ‚Weniger‘ oder gar ‚Nichts‘ geschieht gegenüber solchen, wo die Umbrüche durch real stattfindenden Veränderungen offensichtlicher zu sein scheinen.
3) Beispiele für global sichtbar werdende Strukturumbrüche waren die zuvor genannten ’neuen Strukturen S‘, die sich zum Vorausgehenden deutlich abhoben (Von der Anfangs-Energie zu den Quanten, von den Quanten zu den Atomen, …., von den einzelnen Zellen zu organisierten Zellverbänden, … die Sesshaftwerdung mit Ackerbau und Stadtbildung, ….. Motorisierung des Verkehrs, …. Gemeinsame Datenräume durch das Internet….).
4) Neben diesen Änderungen, die sich in realen Strukturänderungen widerspiegeln, gab es aber auch Änderungen, die sich in den semiotischen Räumen, in den deutenden ‚Weltbildern‘ abspielten, die nicht minder ‚real‘ und ‚wirksam‘ waren. So führte das Aufkommen experimenteller und formaler Methoden in der Renaissance nicht nur zu neuen Detailansichten, nein, es entstanden neue Zusammenhänge, neue Deutungsmuster, die sich zu einem kognitiven, wissensmäßigen Gegensatz zu den bisherigen Deutungsmustern aufbauten, weltanschauliche Konflikte hervorriefen, die die damals Mächtigen (die katholische Kirche) meinten, mit ‚Gewalt‘ kontrollieren und unterdrücken zu müssen. Galilei als ein Repräsentant dieser neuen Gedankenwelt sollte sich verleugnen, sollte abschwören, doch ca. 100 Jahre später waren diese neuen, gefährlich erscheinenden Gedanken in vielfältiger Weise in die Öffentlichkeit vorgedrungen. Die Erde bewegt sich um die Sonne und das Weltall ist erheblich größer, als sich jeder zuvor vorstellen konnte.
5) Weitere Umbrüche in der Deutung der Welt folgten (geologisch die Erde als Teil eines größeren Veränderungsprozesses, die biologische Evolution, das Gehirn als Organ des Fühlens und Denkens abhängig von physikalisch-chemischen Prozessen, die alltägliche Wirklichkeit als Artefakt unseres Denkens verglichen mit den zugrunde liegenden molekularen, atomaren, quantenhaften Strukturen, usw.). Allerdings scheint es so zu sein, dass die Ausbildungsprozesse mit der Explosion dieses Wissens über die Welt und uns selbst immer weniger Schritt halten können. In der Alltagswelt heute durchdringen zwar immer mehr technische Produkte als Konsequenz des erweiterten Denkens unseren Lebensraum, aber man hat nicht den Eindruck, dass im gemeinsamen öffentlichen Denken dieses Wissen tatsächlich ‚angekommen‘ ist.
6) Während digital gespeichertes Wissen sich – zumindest im Prinzip – beliebig schnell in beliebigen Mengen überall hin kopieren lässt, sich rasant schnell nahezu beliebigen formalen Operationen unterziehen lässt, haben die menschlichen biologischen Gehirne eine ihnen eingeborene eigene Langsamkeit, Trägheit, Begrenztheit, die dem Entstehen und dem Verwandeln von Wissen im einzelnen einen natürlichen Widerstand entgegen setzen. Was immer ein Individuum A in einer Generation G(t) schon alles erkannt und gedacht haben mag, ein Individuum B aus Generation G(t’>t) weiß dies alles nicht, es sei denn, er durchläuft ähnliche mühsame Lernprozesse. Solche Lernprozesse sind aber nicht notwendig, nicht zwingend, verlaufen nicht automatisch, und sind in ihren möglichen Inhalten nicht wirklich voraussagbar: keine Lernumgebung kann sicher stellen, dass die Inhalte, die die Lernorganisatoren intendieren, auch tatsächlich so in einem lernenden Individuum ‚entstehen‘.
7) Es ist von daher nicht erstaunlich, dass in einer Gesellschaft mit immer ‚mehr‘ und immer ‚komplexeren‘ Wissen immer weniger Menschen in der Lage sind, das bereits schon zuvor errungene Wissen für sich selbst erneut ‚wieder zu entdecken‘ und ‚für sich nutzbar‘ zu machen. Historisch bekannt ist der Untergang der griechischen Denkwelt samt ihren Schriften, der in Europa dann gut 1000 Jahre zu einer ‚Verdunklung‘ des Wissens geführt hatte. Erst über den Umweg vom Griechischen zum Arabischen (das damals das Wissen der Welt in sich aufsog) und dann wieder ins Lateinischen kam das ‚Licht der Erkenntnis‘ wieder nach Mitteleuropa. Ein langwieriger Übersetzungs- und Lernprozess, der nur durch den Aufbau eines neuen Ausbildungssystems (Schulen, erste Universitäten, Abschreiben, Kopieren und Übersetzen vieler Schriften…) über viele Jahrhunderte den Wissensstand von vorher ‚rekonstruierte‘ und durch diese aktive Rekonstruktion dann auch weiter entwickelte.
8) Wir leben heute in einer Welt von bizarren Wissensgegensätzen: während wir einerseits über einen Wissensschatz verfügen, der differenzierter und größer ist als jemals zuvor, erleben wir zugleich, dass viele Menschen, die meisten (?), sich in ihrem Wissen fragmentiert erleben, unvollständig oder, noch schlimmer, dass sie heute Weltbilder pflegen und für wahr halten, die 1000, 2000 Jahre alt sind, die mehrfach widerlegt wurden, aber die sie benutzen, als ob es die aktuellen Wahrheiten sind. Dies betrifft nicht nur solche Menschen, die aufgrund ihrer Lebensumstände keine oder fast keine Ausbildung genießen konnten, sondern sogar solche die Abitur haben, die studiert haben, ja sogar solche, die einen Doktortitel erworben haben. Unsere Wissenslandschaft ist mittlerweile so komplex und zerklüftet, dass Menschen mit Doktortiteln auftreten können und den letzten ‚Unsinn‘ erzählen, ohne dass ihnen bewusst ist, dass dem so ist.
9) In dieser Situation macht es keinen Sinn, die einzelnen dafür haftbar zu machen (obgleich natürlich schon jeder bis zu einem gewissen Grad Verantwortung für sein eigenes Denken trägt), sondern man muss den Kontext berücksichtigen, innerhalb dessen jemand heute Denken kann bzw. muss. Aus Sicht einer modernen Lerntheorie scheint es so zu sein, dass die Rahmenbedingungen für ein individuelles Lernen schwieriger denn je sind. Die Vielfalt der Methoden und die ungeheure Fülle an Fakten sind von einem einzelnen biologischen Gehirn nicht mehr bewältigbar. Eine Situation, die ich vor vielen Jahren schon mal als ’negative Komplexität‘ bezeichnet hatte: Komplexität, die da ist, die aber von uns nicht mehr hinreichend verarbeitet werden kann.
10) In einer solchen Situation wird es für alle Entscheidungsträger – insbesondere auch politisch Verantwortliche – immer schwieriger, das ‚Richtige‘ zu tun. Die Angst, dass alles aus dem Ruder läuft, außer Kontrolle gerät, ist real. Die Versuchung, durch immer mehr ‚Kontrollen‘ dieser ‚Unübersichtlichkeit‘ Herr zu werden ist real gegeben, wird immer stärker. Bedenkt man nun, dass diejenigen Menschen, die in höhere Verwaltungs- und Entscheidungspositionen drängen, tendenziell eher egozentriert sind, machthungrig, ’nicht zimperlich‘, es mit der Wahrheit eher nicht so genau nehmen, usw., dann erstaunt es nicht, zu sehen, wie heute weltweit in immer mehr Staaten die führenden Politiker autokratische Züge entwickeln, Meinungsfreiheit mehr und mehr unterdrücken, Technik dazu benutzen, immer mehr Datenströme und Lebenszuckungen der Menschen zu kontrollieren, einfache (in der Regel falsche) Weltbilder favorisieren, sich auch in sogenannten demokratischen Gesellschaften die Mächtigen von ‚den anderen‘ durch immer mehr Pseudoprivilegien abzusondern trachten, sich die alten absolutistischen Klassen von ‚früher‘ neu bilden.
11) Diese Phänomene stehen in seltsamem Kontrast zur tatsächlichen globalen Entwicklung des Lebens. Sie repräsentieren ‚Rückfälle‘, eine Art von ‚Verweigerung der Zukunft‘, sind ‚Reflexe‘ des ‚alten‘ Menschen vor der anrückenden Zukunft, die von jedem einzelnen Menschen und dann von den Gemeinschaften mehr verlangt als jeder einzelne bislang gewohnt ist, zu geben. Ob diese Reflexe stärker sind als das Neue, ob der Prozess des Lebens auf der Erde durch diese Anti-Reflexe zum Scheitern kommt, ist offen. Die ungeheure Wucht des bisherigen Lebens-Prozesses im Universum und auf der Erde kann den Verdacht nähren, dass die immanenten Faktoren dieses Prozesses stärker sind als die Abwehrreflexe eines Stadiums von Leben, das zu überschreiten ist. Wirklich wissen tut es vermutlich niemand, wie auch.
12) Vom individuellen biologischen Körper kennen wir nicht nur das Immunsystem, das auf geradezu fantastische Weise praktisch in jeder Sekunde gewaltige Abwehrschlachten gegen Millionen und Milliarden von Mikroorganismen führt. Wir haben gelernt, dass dieses Immunsystem sich auch irren kann; dann fängt es an, körpereigene Zellen zu bekämpfen, eine sogenannte Autoimmunreaktion. Wenn man sich den Lebensprozess auf der Erde anschaut, wie sich tatsächlich weltweit momentan in fast allen Ländern die politisch Verantwortlichen gegen den Trend stellen, dann drängt sich unwillkürlich das Bild einer globalen kulturellen Autoimmunreaktion auf: die Verantwortlichen, die für das Wohl ihrer jeweiligen Gesellschaften verantwortlich sind, wenden sich gegen ihre eigenen Gesellschaften, indem sie sich selbst zu ernst nehmen und das kreative Potential der jüngeren Generation mehr oder weniger mit Füssen treten (was nicht heißt, dass es auch viele Jüngere gibt, die sich totalitären Weltbildern zugewandt haben, die nicht besser sind; woher sollen sie es auch wissen?).
13) In diesem Kontext spielen die sogenannten ‚Offenbarungsreligionen‘ (die bekanntesten sind das Judentum, das Christentum, und der Islam) eine zwielichtige Rolle. Insofern sie alle einen ‚heißen Kern‘ haben der auf einen allumfassenden Schöpfergott ausgerichtet ist, haben sie prinzipiell einen ‚Anschluss‘ an den Lebensprozess im Universum; insofern sie aber diesen heißen Kern mit allzu viel historischen Zufälligkeiten, allzu zeitgebundenem Menschlichen aus ihren Entstehungszeiten um diesen Kern herum gesponnen haben, ist die immanente Sprengkraft eines universalen Gottesbildes weitgehend ‚abgedunkelt‘ worden durch Dinge, die irreführend oder falsch sind und die in der Vergangenheit allzu oft für persönliche Machtspielchen missbraucht wurden. Die Unwissenheit von Menschen für persönliche Machtinteressen zu instrumentalisieren ist eines der größten Verbrechen, das ein Mensch begehen kann (ein Gedanke, der sich u.a. im Neuen Testament der Christen findet; dort wird es Jesus von Nazareth als Aussage zugeschrieben (viele der heutigen Zeitungen, Radiostationen und Fernsehsender mit ihren Verantwortlichen haben in dieser Hinsicht möglicherweise schlechte Karten….)).

Eine Übersicht über alle bisherigen Blogbeiträge nach titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 7

Vorheriger Beitrag Teil 6

Letzte Änderungen: 22.April 2013, 08:18h

KAUFFMANS GOTTESBEGRIFF

1. In den folgenden Kapiteln 14-19 spekuliert Kauffman auf der Basis des bislang Gedachten. Das Kapitel ‚Living in Mystery‘ (etwa ‚Leben im Geheimnis‘) SS.230-245 beginnt er mit der zusammenfassenden Feststellung, dass nach den vorausgehenden Untersuchungen die gesamte bisherige – biologische wie auch kulturelle – Geschichte ’selbst-konsistent‘ (’self-consistent‘) sei, ‚ko-konstruierend‘ (‚co-constructing‘), ‚evolvierend‘ (‚evolving‘), ‚emergent‘ und ’nicht voraussagbar‘ (‚unpredictable‘).(vgl. S.231) In allem erkennt er eine fortschreitende ‚Individualisierung‘ (‚individuation‘) von Teilsystemen und Prozessen mit kontinuierlichen Ausprägungen von ’selbst-konsistenten Zusammenfügungen von Gemeinschaften‘. Alle diese Prozesse geschehen ständig, ohne dass wir in der Lage wären, sie mit den bekannten physikalischen Gesetzen hinreichend beschreiben zu können. (vgl. S.231) Für all dieses Geschehen, in dem er eine spezifische ‚Kreativität‘ am Werke sieht, führt er seinen Begriff von ‚Gott‘ (‚god‘) ein als eine Art technischen Begriff für das Ganze. (vgl.S.276) Und unter Voraussetzung dieses seines speziellen Gottesbegriffs führt er dann als weiteren technischen Begriff den Term ‚Heilig(es)‘ (’sacred‘) ein mit der Bemerkung, dass wir mit unserer Entscheidung (‚our choice‘) das ‚Heilige‘ im Universum und seinem Werden hochhalten (‚hold‘). (vgl. S.232,)

KRITISCHE ANMERKUNGEN ZU KAUFFMANS GOTTESBEGRIFF

2. [Anmerkung: Dieses Vorgehen ist schon etwas merkwürdig. Einerseits beteuert Kauffman dass er mit Glauben und Religion nichts zu schaffen habe, andererseits versucht er hier den historisch gewaltig aufgeladenen Begriff ‚Gott‘ in diesem neuen Kontext mit seiner Bedeutung zu etablieren, zusätzlich ergänzt um den nicht weniger aufgeladenen Begriff ‚heilig’/ ‚Heiligkeit‘. Warum tut er das? Wenn ihm die bisherigen Glaubenstraditionen egal wären, gäbe es eigentlich keine Motivation, Begriffe wie ‚Gott‘ bzw. ‚heilig‘ in diesen Kontexten zu erwähnen. Wenn er es aber dennoch tut, scheinen ihm diese Begriffe wichtig zu sein. Irgendwie verbindet sich für ihn mit den Begriffen ‚Gott‘ und ‚heilig‘ etwas, was er mit den für ihn spannendsten Eigenschaften dieser Welt verknüpft sehen will. Ich selbst bin 1990 aus der katholischen Kirche ausgetreten, da ich mit ihrer Art den Glauben an das Ganze zu vermitteln, einfach nicht mehr einhergehen konnte. Andererseits sind für mich die verschiedenen religiösen Traditionen (jüdisch, jüdisch-christlich, jüdisch-christlich-islamisch,…) trotz all ihrer Unvollkommenheiten nicht grundsätzlich etwas ‚Schlechtes‘, transportieren sie doch in ihrer geschichtlichen Konkretheit wertvolle menschliche Erfahrungen, von denen wir alle lernen können, sofern wir unser kritisches Denken dabei nicht ausschalten. Und mit Blick auf diese Traditionen muss man sagen, dass es hier Bilder und Überlegungen zu dem Begriff ‚Gott‘ gibt, die mit den Überlegungen von Kauffman vollständig kompatibel sein können; man könnte die Überlegungen von Kauffman ohne weiteres als eine Art weiterführenden Beitrag zum Thema sehen. Ein christlicher Theologe wie Teilhard de Chardin (1881 – 1955) war – trotz seiner beständigen Unterdrückung durch das kirchliche Lehramt – sehr nahe bei den Sichten, die Kauffman propagiert; in gewisser Weise vielleicht sogar weiter, wenngleich im technischen Detail natürlich – zeitbedingt – nicht so weit wie Kauffman. Kurzum, mir scheint dass Kauffman entweder das Thema ‚Gott‘ aus seinen Überlegungen heraushalten sollte (wenn Religion doch so unwichtig ist) oder aber, wenn er doch historisch so aufgeladene Begriffe wie ‚Gott‘ und ‚heilig‘ benutzt, sich die Mühe machen müsste, seine Art der Verwendung dieser Begriffe mit den in diesen gewachsenen Traditionen gebräuchlichen Verwendungen abzugleichen. Die wissenschaftliche Redlichkeit, um die er sich ansonsten immer bemüht, gebietet dies. Seine seltsam ‚verdrängende‘ Vorgehensweise im Gebrauch der Begriffe ‚Gott‘ und ‚heilig‘ erscheint mir von daher – so stimulierend diese Gedanken sind – wissenschaftlich unredlich und damit der schwächste Teil seines ganzen Buches. Nicht nur das, indem er diese Dimension seines Buches nahezu vollständig ausklammert beraubt er sein Buch einer wichtigen möglichen Wirkkomponente: die große Schwäche der religiösen Traditionen Judentum, jüdisches Christentum, jüdisch-christlicher Islam heute besteht nach meiner Wahrnehmung darin, dass sie die gesamten modernen Entwicklungen mehr oder weniger vollständig ausgeklammert haben. Ein konstruktiver Brückenschlag zwischen Erkenntnissen, wie sie Kauffman kommuniziert und diesen Positionen könnte ‚belebend‘ sein für beide Seiten. Dies setzt allerdings voraus, dass man die religiösen Traditionen nicht als vollständigen Unsinn abtut sondern in ihrem ‚Kern‘ eine empirisch vollziehbare Gottesbeziehung erkennt und für möglich hält, die jedem Lebewesen, ja dem ganzen Universum ‚innewohnt‘. Es ist für mich eine offene Frage, ob es irgend einen offiziellen religiösen Repräsentanten gibt, der in diesem radikalen Sinne ‚an Gott glaubt‘ – oder verbirgt sich hinter der ‚religiösen Fassade‘ letztlich ein abgrundtiefer Unglaube? Wirklich entscheiden werden wir diese Frage nie können. Es bleibt uns letztlich nur eine ‚Vertrauen‘ in den anderen, eine Art von ‚Glauben‘, der natürlich enttäuscht werden kann. Jede Art von Radikalismus ist hier fehl am Platz.]

PRINZIPIELL UNVOLLSTÄNDIGES WISSEN

3. Auf den SS.232-235 folgen dann verschiedene Überlegungen, in denen er unterschiedlichste Autoren zitiert (u.a. T.S.Eliot, Plato, Aristoteles, Newton, Carl Jung, Paul Dirac, Nietzsche) und das ‚Deep Blue‘ Computerprogramm von IBM, das den damaligen Schachweltmeister Gary Kasparow schlagen konnte. Alle diese Stellen sollen illustrieren, dass und wie wir mit einem begrenzten Wissen in einer offenen, sich beständig wandelnden Situation agieren.
4. Es folgt dann ein etwas systematischerer Abschnitt SS.236-245, in dem er anhand einer spieltheoretischen Situation illustriert, wie zwei Spieler sich wechselseitig hochschaukeln können, indem sie nach und nach jeweils ein ‚Modell des Anderen‘ konstruieren, das sie in ihren Entscheidungen leitet. Jede Ereigniskette, die solche Akteure als Produzenten enthält, verliert damit auf Dauer ihren ‚zufälligen‘ Charakter. Andererseits ist es so, dass die Verhaltensweisen solcher ‚lernfähiger‘ Akteure nicht ‚konstant‘ ist, sondern sich aufgrund ihrer aktiven Modellbildungen beständig verändert. D.h. adaptive Rationalität selbst ändert die erfahrbare Rationalität der Wirklichkeit. Und folgerichtig stellt Kauffman die Frage, was es denn heißt, ‚vernünftig‘ (‚wisely‘) zu handeln, wenn wir nicht nur das Ganze noch nicht kennen, sondern durch unser eigenes Verhalten das Ganze beständig verändern? (vgl. S.244) Und er kommt aufgrund wissenschaftlicher Überlegungen zu dem bedenkenswerten Schluss: „Das, was wir brauchen, um unser Leben zu leben, ist Glauben (‚faith‘); bei weitem wichtiger als Wissen (‚knowing‘) oder Erkennen (‚reckoning‘).“ (S.244) Und diese Art zu glauben ist ein biologisches Phänomen, eine inhärente Eigenschaft biologischer Lebensformen, die auf dieser Erde entstanden sind. (vgl. S.245)

DIE ZWEI KULTUREN (und Religion)

5. Auf den folgenden Seiten SS.246-254 variiert Kauffman diese Gedanken weiter anhand der kulturellen Aufspaltung in Wissenschaft und Nicht-Wissenschaft, wie sie Europa – und dann auch andere Teile der Erde – seit dem Aufkommen der modernen empirischen Wissenschaften charakterisiert und prägt. Angesichts der von ihm herausgearbeiteten grundsätzlichen ‚Kreativität‘ des ganzen Universums und des evolutionären Geschehens auf der Erde, hält er diese Aufspaltung für nicht mehr gerechtfertigt. Mit zahlreichen Zitaten von diversen Wissenschaftlern, Philosophen und Künstlern versucht er zu unterstreichen, dass die ‚Kunst‘ letztlich zum inneren Prinzip des kreativ-evolutionären Geschehens gehört. Wie zuvor aufgezeigt stößt die menschliche Vernunft beständig an ihre Grenzen, die sie nur überwinden kann, wenn sie diese Grenzen akzeptiert und sie durch ein geeignetes kreativ-koevolutionäres Verhalten ‚erweitert‘ und so dem Werden des je Unbekannten Raum gibt.
6. Verräterisch ist, wenn Kauffman zu Beginn dieses Kapitels hervorhebt, dass man jetzt mit einem Gottesbegriff leben kann, den ‚wir selber erfunden haben‘ (‚our own invention‘).(S.246) Damit bestätigt er indirekt die oben von mir geäußerte Vermutung, dass er die ‚älteren Verwendungsweisen des Begriffes ‚Gott“ als unangemessen ablehnt. [Anmerkung: Hier baut Kauffman einen Gegensatz auf, der so meines Erachtens nicht nur unnötig, sondern sogar falsch ist. Noch mehr, er vergibt sich die Chance, zu zeigen, dass auch die traditionellen jüdisch-christlich-islamischen Verwendungsweisen des Wortes ‚Gott‘ historisch gewachsen sind, dass sie sich kreativ-koevolutiv im Wechselspiel von menschlichem Leben und umgebender sich ereignender Geschichte ‚entwickelt‘ haben. Und dass gerade diese Entwicklung der verschiedenen Verwendungsweisen des Begriffs ‚Gott‘ in dramatisch wissenschaflich-künstlerischer Weise dokumentieren, wie hier der menschliche Geist damit ringt, trotz seiner konkreten und historischen Begrenztheiten das je Größere zu ahnen, irgendwie doch zu fassen, irgendwie doch das je Größere Absolute Transzendente in die endliche Konkretheiten einer historisch bedingten Körperlichkeit zu ‚übersetzen‘. Wer in den Wörtern der ‚heiligen‘ Texte immer nur die historischen Bedingtheiten, die zeitlich bezogenen Konkretheiten sieht, der verweigert diesen Texten genau die Ehrfurcht, die Weite, die Tiefe, die Großzügigkeit, den Mut, die transzendierende Mystik, die in ihnen ‚lebt‘, sich Ausdruck gesucht hat. Natürlich ist dieser ‚weitere, tiefere‘ Blick nicht logisch zwingend, nicht deduktiv absolut herleitbar (was manche immer wieder glauben), aber Kraft der transzendenten Wahrheit, die in jedem menschlichen Erkennen lebt, kann sie jeder ’sehen‘, wenn er will, und, vor allem, er kann sie mit seinem eigenen Leben ‚ausprobieren‘; dies nennt man dann entweder ‚Künstlersein‘ oder ‚religiös sein‘, gespeist von Kreativität und Glauben, oder beides in einem. Es ist sehr schade, dass Kauffman diesen tieferen und umfassenderen Zusammenhang offensichtlich nicht sieht. Dies kann u.a. daran liegen, dass die offiziellen religiösen Gemeinschaften den tieferen ‚Schatz ihrer eigenen Überlieferung‘ oft nicht voll verstehen und dass die sogenannten ‚geistlichen Führer‘ weniger ‚geistliche‘ Führer sind sondern Machtmenschen und Geschäftsleute, die ihre sehr persönlichen Vorteile in allem suchen. Die innere Freiheit des Geschehens kann solchen Missbrauch nicht verhindern und kann dann zur Abkehr von sehr vielen Menschen von den religiösen Traditionen führen. Schon ein Jesus von Nazareth hatte den Unterschied zwischen ’sich religiös geben‘ und ‚tatsächlich religiös sein‘ sehr klar erkannt und benannt.]

FÄHIG ZUM BÖSEN

7. Auf den SS.255-258 verweist Kauffman auf das Faktum, dass wir Menschen als konkreter Teil einer konkreten Evolution aufgrund unserer limitierten Ausstattung sehr vieles falsch machen können und auch schon falsch gemacht haben. zusätzlich haben wir Bedürfnisse, Emotionen, Motivationen die sehr partikulär sein können, sehr egoistisch und sehr, sehr grausam. Die Technologien der Zerstörung (und des Tötens) gehören immer mit zu den am weitesten entwickelten. Ob und wie wir diese destruktiven limitierenden Kräfte auf Dauer hinreichend konstruktiv einbinden können muss die Zukunft zeigen.

ETHIK

8. Ein Hauptthema des Buches von Kauffman war und ist der Versuch, aufzuzeigen, dass der sogenannte ‚Reduktionismus‘ aller Phänomene auf einen ‚Physikalismus‘ nicht haltbar ist. Ein zentrales Argument innerhalb dieses Aufweises ist die Behauptung, dass die meisten für uns Menschen interessante Phänomene der Evolution ‚emergenter‘ Natur sind, d.h. sich in ihrer Komplexität nicht aus den physikalischen Bestandteilen als solchen erschließen. Innerhalb dieser emergenter Phänomene gibt es das, was Kauffman ‚Agentenschaft‘ (‚agency‘) nennt, und verbunden mit der Agentenschaft, die Fähigkeit, bestimmten Vorkommnissen nicht nur allgemein eine ‚Bedeutung‘ zuzuweisen, sondern sogar eine ausgezeichnete Bedeutung im Sinne eines ‚Wertes‘: ein Vorkommnis x hat einen bestimmten ‚Wert‘ v mit Bezug auf einen ‚lebensrelevanten‘ Faktor L. D.h. innerhalb der biologischen Evolution haben sich Strukturen entwickelt, für die die wahrnehmbare Welt nicht ’neutral‘ ist, sondern ‚wertig‘; es gibt Ereignisse die mit Bezug auf das ‚Überleben‘ der Art ‚relevant‘ sind, ‚bedeutungsvoll‘, ‚wichtig‘.(vgl. S.259)
9. [Anmerkung: Man muss also sagen, dass es zum ‚Auftreten‘ des ‚Lebens‘ auf dieser Erde gehört, dass das Leben ‚als Teil von sich‘ bestimmte Ereignisse/ Eigenschaften dieser Welt als ‚wertvoll‘ erlebt. Oder, anders ausgedrückt, das Leben definiert sich wesentlich dadurch, dass es selbst einen ‚Wert‘ darstellt, der ‚von sich aus‘ ‚erhalten‘ sein will. Das Leben muss nicht künstlich irgendwelche Werte finden, derentwillen es sich lohnt zu leben, sondern das Leben als biologisches Phänomen ‚ist selbst der primäre Wert‘, um den es geht. Es existiert nur, weil es in dieser Form vom ‚Kosmischen Gesamtzusammenhang‘ Erde – Sonnensystem – Milchstraße – Universum in dieser Besonderheit ‚induziert‘ wurde und sich in Form dieser Besonderheit entwickeln konnte. Eine Alternative ist praktisch nicht möglich, da die Alternative vom kosmischen Gesamtzusammenhang her nicht unterstützt wird! Alle Atome, Moleküle, die sich nicht ‚in der Weise verhalten‘, wie es vom kosmischen Gesamtzusammenhang ‚belohnt‘ wird, haben keine Existenzmöglichkeit!!! Damit erscheint das Leben, so, wie es sich im kosmischen Gesamtzusammenhang entwickelt hat, als der einzige ‚fundamentale Wert‘, den wir bis heute kennen!!! Und natürlich liegt der Schluss nahe, dass sich aus diesem fundamentalen Wert (der sich aber nur den ‚im Leben befindlichen Akteuren‘ erschließt) alle anderen Werte ableiten lassen müssen.]
10. Im Lichte dieser fundamentalen Werteposition wundert es nicht, dass Kauffman zwei wichtige Positionen der heutigen Ethik kritisiert: den ‚Deontologismus‘ und den ‚Konsequentialismus‘. (vgl. S.259).
11. Sein Hauptargument besteht darin, dass unser moralisches Empfinden und unser Wertesystem sich erst in der Evolution und der zugehörigen Kultur ‚entwickelt‘ hat und dass von daher die Bezugnahme auf eine höheres, absolutes moralisches Fühlen im Sinne eines Deontologismus (sich verpflichtet fühlen) bzw. eines die Folgen des Handelns Bedenkens im Sinne eines Konsequentialismus ohne die Berücksichtigung der Entstehung und ihres jeweiligen Kontexts keinen Sinn macht. (vgl.S.259f)
12. Kauffman illustriert diese Kernthese mit vielen Zitaten (vgl. SS.260-266) und ergänzt den Entwicklungscharakter der Ethik noch um den Aspekt er formalen Unabgeschlossenheit (Gödels Theorem) jeglichen möglichen ethischen Systems. (vgl. S.266) [Anmerkung: Diese formale Unabgechlossenheit ergibt sich u.a. aus der evolutiven Entstehung des Wertesystems bzw. aus der inneren Struktur des Lebens. Diese innere Struktur besteht prinzipiell im beständig über das Gegebene Hinausgehen mit einem – zum Zeitpunkt des Darüberhinausgehens – unvollständigen Wissen! D.h. das ‚Innovative‘ am Leben ist seine ‚Kreativität‘ und die Fähigkeit, sich selbst permanent ‚transzendieren‘ zu können. Die Struktur des Lebens ist – was viele Philosophen früher auch schon erkannt hatten, ohne den Mechanismus der Evolution zu verstehen – in sich so, dass die ‚Erfüllung‘ des Lebensprozesses nur möglich ist, indem sich die bestehenden Strukturen mit etwas ‚außerhalb ihrer selbst‘ ‚verbinden‘!! Zum Zeitpunkt des Lebens ist dem jeweiligen lebenden System aber nicht vollständig klar, was dies genau ist; es erlebt sich selbst allerdings in einer ‚prinzipiellen Unabgeschlossenheit‘ (eine mögliche Version von ‚Transzendentalität‘), durch die es ‚angetrieben‘ ist, das ’noch Fehlende‘ zu ‚finden‘!!!]
13. Aus diesen Überlegungen folgert Kauffman, dass es nicht ein einzelnes höchstes Gut gibt, sondern eher – entsprechend der Idee eines ‚Pareto Optimums‘ im Kontext der Pareto Effizienz (nicht zu verwechseln mit dem Pareto Prinzip) – viele verschiedene Dinge, die alle zugleich wichtig sein können, damit bestimmte Lebensprozesse funktionieren. Nicht die Luftreinheit alleine oder die Wasserqualität oder die Ressourcenschonung oder …. bilden biologisch relevante Werte, sondern das Zusammenspiel vieler verschiedener Faktoren in einem bestimmten Gleichgewicht. (vgl. S.266f). Es kann also nicht darum gehen einige wenige absolute Werte zu identifizieren und zu isolieren. Nein, die biologische Evolution wird kontinuierlich neue Werteensembles ’sichtbar‘ machen, deren Einhaltung und Zusammenspiel wichtig sind; diese Werte können und werden sich im Laufe der Zeit ändern. (vgl. S.271f)

GLOBALE ETHIK

14. Es liegt nahe, den Gedanken der Ethik in einem globalen Rahmen weiter zu denken. Viele Gedanken aus den vorausgehenden Kapiteln wiederholen sich hier (vgl. SS.273-280). Ausdrücklich genannt wird das Thema Vielfalt und Vermischung von Kulturen, globale Ressourcenknappheit, die Problematik verzerrter (fundamentalistischer) religiöser Richtungen und unser Missbrauch anderer Lebewesen für unsere Ernährung. Und er wiederholt auch das Problem der prinzipiellen Wissensgrenzen zu jedem Zeitpunkt bei gleichzeitiger Notwendigkeit, handeln zu müssen. Dieses wissens-unvollständige Handeln verlangt nach Werten, die nicht ‚partikulär‘ sein können. Wo sollen diese neuen Werte herkommen? Er hofft, dass seine Deutung der natürlichen Entwicklung mit seinem Begriff der ‚Kreativität‘ als ‚Heiligkeit‘ eine Art ’natürlichen Gottesbegriff‘ begründet, der als gemeinsamer Grund für alle dienen kann. (vgl. S.276, 280)
15. [Anmerkung: Hier wird unmissverständlich deutlich, dass Kauffman einen bestimmten globalen Zusammenhang voraussetzt, ganz bestimmte kulturelle Gegebenheiten, die in seinem Verständnis eine neue Weltsicht einschließlich einer neuen Ethik verlangen. Während er glaubt, dass dies möglicherweise durch bloße Einführung eines neuen Begriffs (‚God‘, ‚Sacred‘) gelingt, beschreibt er indirekt, dass sehr viele Menschen noch unter dem Eindruck der ‚alten Bilder und Interpretationen‘ stehen, die durch ihre Begrenztheiten ein ‚angemesseneres‘ Verhalten verhindern. Angesichts des Beharrungsvermögens, das psychische und kognitive Muster an den Tag legen, ist es eher unwahrscheinlich, dass die bloße Einführung einer neuen Deutung von ‚Gott‘ die Gewohnheiten von 2000 – 3000 Jahren einfach so ändern; sie sind im Alltag eingebettet und leben dort u.a. in Form von Gewohnheiten, Gebräuchen, Schriftstücken, und Gesetzen, die sich von alleine nicht ändern. Ihre ‚Faktizität‘ prägt aber täglich das Verhalten und damit das Bewusstsein großer Teile der Bevölkerung. Durch diese Rückkopplung des subjektiven Erlebens und Denkens an objektive, soziale Tatbestände kann eine einschneidende Veränderung des Denkens von Dauer immer nur über eine entsprechende Änderung der realen Lebensverhältnisse führen. Die Geschichte hat Beispiele parat, wann und wie solche Prozesse stattgefunden haben.]

NOCHMALS GOTT

16. Auf den abschließenden Seiten SS.281-288 kulminiert nochmals das Denken von Kauffman in der Verwendung und Motivierung der Begriffe ‚Gott‘ und ‚Heilig‘, wie er sie eingeführt hat. Er nimmt ausdrücklich Bezug auf die jüdisch-christliche Traditionen, auch den Buddhismus, nicht aber auf den jüdisch-christlichen Islam. Er unterstreicht, dass eigentlich nur der Begriff ‚Gott‘ die kulturelle Kraft hat, die tiefsten und wichtigsten Überzeugungen der Menschheit zu repräsentieren. Er spricht von der Notwendigkeit von ‚Spiritualität‘ und auch von ‚Riten‘.
17. [Mit diesen vielfachen Wiederholung immer des gleichen Themas in den letzten Kapiteln manifestiert sich sowohl die Bedeutung, die Kauffman diesen Begriffen beimisst wie auch die Schwierigkeit, dieser Bedeutungschwere den angemessenen Ausdruck zu verleihen. Wenn man Kaufman auf all den Seiten seines Buches gefolgt ist, und schrittweise miterlebt hat, wie er sich seine eigene, neue Sichtweise mühsam gegen vielseitig gewohnte Sehweisen erkämpft hat, dann kann man ansatzweise nachempfinden, wie das Neue nachhallt und sich zugleich immer mehr Perspektiven auftun, neue Ansatzpunkte greifbar werden, wo und wie man diese stimulierenden Gedanken weiterführen und möglicherweise sogar umsetzen kann. Jeder erlebt die Lektüre eines Buches notgedrungen im Lichte seiner eigenen Fragen und seines eigenen Wissens. Für mich war dies Buch eine Art ‚Katalysator‘ für sehr viele wichtige Gedanken und Perspektiven. In der nächsten Zeit werde ich mit Sicherheit darauf zurückkommen. ]

Ende der besprechenden Lektüre von Kauffman’s Buch ‚Reinventing the Sacred‘.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

EIN ABEND MIT DEM SALON SLALOM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Dezember 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderung: Postscript 23.Febr.2021

Loser Kontakt

Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:

http://salonslalom.wordpress.com/termine/hinter-dem-phanomen-lauert-das-ich-aber-was-kommt-dann/. Der Ort war also, wie man aus der Ankündigung entnehmen kann, im INM (Institut für Neue Medien, url: http://www.inm.de), da einige Mitglieder explizit das INM mal kennen lernen wollten (in Frankfurt nicht ganz unbekannt).

Wintereinbruch

Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.

Harakiri?

Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.

Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:

Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…

Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.

Phänomene und hinter den Phänomenen

Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,

Vielschichtigkeit des Menschen (vier verschiedene Bilder von Wikipedia (en) zusammengesetzt (siehe Quellenangaben unten)

um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.

Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.

Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).

Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).

Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?

Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.

Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.

Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.

Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.

Die klassische Musikproduktion und Rezeption wird heute ergänzt durch eine technische Muskproduktion auf der Basis der Mathematik. Damit dehnen sich die potentiellen Klangräume schier unendlich aus.

Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.

Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).

The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…

Mathematik und Computer

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.

Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.

Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.

Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).

Intelligenz bei Tieren und Computern

Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.

Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.

Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.

Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.

Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.

Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.

Zentrale Komponenten eines minimalen lernenden Classifier Systems (ohne Anzeige des Bedürfnisses Hunger). Mit Hilfe des Fitnesswertes können alle jene Komponenten hervorgehoben werden, die im Zusammenwirken einen Pfad generieren. Fitnessgeber können auch ‚eingebaut‘ sein

Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.

Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?

Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.

Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.

In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.

Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:

Verhaltensformel Mensch: phi: I x IS —> IS x O

Verhaltensformel UTM: phi: I x IS —> IS x O

Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.

Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:

You are the message of the universe (Rap-like…)  Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..

PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….

PS2: Es gab noch eine recht intensive Diskussion.

PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechend kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Definition entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müsste man von daher vielleicht sagen, dass wir in diesem Experiment zeigen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.

PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…

Literaturnachweise

Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
Wilson, S.W. ZCS: a zeroth level classifier system, Evolutionary Computation, 2(1), 1-18 (1994)

POSTSCRIPT 23.Februar 2021

8 Jahre und drei Monate später … es hat etwas Berührendes, nach einer so langen Zeit einen eigenen Text samt Musikbeispielen nochmals zu lesen (und zu hören). Alles gesagte würde ich auch heute wieder unterschreiben. Es ist sehr ‚zum Punkt‘; besonders das Rapp-artige Musikstück ‚You are the message of the universe‘ geht mir noch immer ‚unter die Haut‘. Das im Text angekündigte Experiment am INM hatte tatsächlich unter dem Label ‚emerging-mind‚ stattgefunden. Aber es ist wieder versandet… Seit ca. 2018/19 ist ein neues Projekt entstanden, nicht wirklich geplant, aber irgendwie auch nicht planlos, und gewinnt immer mehr Fahrt. Der innere Motor ist der Gedankenkomplex ‚Kollektive Mensch-Maschine Intelligenz. Der treibende Motor ist die Vereinigung von Philosopie, Engineering und Gesellschaft. Ausgang offen, aber die Dynamik ist stark. Das Thema ‚You are the Message of the Universe‘ schwingt in allem weiter …

Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER

EINSCHUB – ‚RADICALLY UNPLUGGED‘ ALS ERKENNTNISFORM

(1) Eigentlich versuche ich das Buch von Duve zu Ende zu besprechen. Während des Semesterbetriebes muss ich aber in vielen Prozessen parallel denken und arbeiten. Es gibt dann immer diese ‚Zeitscheiben‘ (wie das klingt, die Zeit in ‚Scheiben‘ geschnitten, wie Salami oder Käse…) und jede Zeitscheibe ist eine kleine ‚Welt für sich‘, als ob es das andere nicht gibt. Allerdings ist unser Körper (das unbekannte Wesen, letztlich), der diese verschiedenen Zeitscheibenwelten ‚beherbergt‘ und untereinander auf geheimnisvolle Weise verknüpfen kann, so als ob die eine Zeitscheibe mit der anderen ‚redet’….In diesem Sinne spricht jetzt hier eine ‚Zeitscheibe‘ während die andere (Besprechung Duve) ‚ruht’…
(2) Ich mache seit Jahren ‚Selbstversuche‘ mit experimenteller Musik. Ich wusste lange nicht, wie ich dies einschätzen sollte: Völliger ‚Humbug‘, ‚Zeitverschwendung‘, ‚Lächerlich‘, …mittlerweile bin ich aber sicher, dass dies eine fast unausweichliche Verhaltensweise ist, wenn man in der immer stärkeren Automatisierung und Virtualisierung unser Kultur seinen eigenen ‚Realitätskern‘ nicht verlieren will. Es ist sicher auch kein Zufall, dass die ’nachwachsende‘ Generation (wie das klingt ’nachwachsend‘, aber es ist mehr als wahr, wenn es auch den individuellen Egoismus und die individuelle Eitelkeit von so manchem stark ankratzt…) im Bereich Musik (zumindest abseits der populären Schiene, die immer nur das gewohnt Konventionelle reproduziert (man will ja ‚gefallen‘, es geht nicht um Erkenntnis…)) extrem experimentell vorgeht (die Musikerin Dominique Dillon de Byington, genannt Dillon ist hier nur ein Beispiel von vielen (hundert?)).
(3) Diese meine Einschätzung hängt damit zusammen, dass im täglichen Erkenntnisvollzug jeder von uns in erster Linie und unausweichlich in der ‚Schleife des Bekannten‘ hängt. Unser Körper (und hier speziell das Gehirn) verfügt über die wunderbare Gabe, wahrnehmbare Ereignisse (niemand spricht über die unfassbar große Menge der ’nicht-wahrnehmbaren‘ Ereignisse!) mit Hilfe von bestimmten Mustern (das hatte schon Kant und viele andere Philosophen zum Nachdenken gebracht) in ‚abstrakteren‘ Einheiten zu ‚organisieren‘ und uns damit ein ‚Bild‘ von einer ‚alltäglich geordneten‘ Welt aufbereitet, die wir für ‚wahr‘ nehmen und wir unser Verhalten entsprechend diesem Bild ausrichten.
(4) Der wichtige Punkt ist hier die ‚Unausweichlichkeit‘ in dem Sinne, dass unser Gehirn-Körper auch ohne unser ‚Zutun‘ so ‚arbeitet‘ und auf diese Weise in jeder wahrnehmbaren Zeitscheibe (ja, unser Körper arbeitet mit Zeitscheiben einer messbaren Länge!) ein ‚Produkt‘ abliefert, das wir als ‚Welt‘ bezeichnen.
(5) Solange sich die ‚reale‘ Welt mit den Bildern der ‚Gehirn-Körper-Generierten‘ Welt in Übereinstimmung befindet, ergibt sich ein gewisser Gleichklang, Einklang, Harmonie, eine ‚Flüssigkeit‘, eine ‚Vertrautheit‘, die uns in ‚gewohnten Bahnen‘ laufen lässt. Weichen die realen Ereignisse von den ‚erwarteten‘ ab, gibt es ‚Unruhe‘; bei solchen Gelegenheiten haben wir die Chance, zu bemerken (zu erkennen?), dass die ‚Welt im Kopf‘ nicht die ‚Welt da draußen‘ ist. Die einen unternehmen viele Anstrengungen, entweder solche ‚Beunruhigungen‘ von vornherein zu ‚unterbinden‘ (! lieber ‚Ruhe‘ als ‚Wahrheit‘!), oder sie zu unterdrücken, falls sie dann doch auftreten. Gelingt dies alles nicht, gibt es die Aggressiven, die die Quelle der Beunruhigung auszuschalten versuchen, die ‚Possenreißer‘, die das Ungeplante per Humor zersteuben wollen, … die Bandbreite möglicher Reaktionen ist groß. Das ‚Unerwartete‘ bewusst zu integrieren ist auf jeden Fall anstrengender als es nicht zu tun.
(6) Als Kinder ist dieser beständige Konstruktionsprozess das ‚Normale‘; wir nennen das ‚Lernen‘. Dass Kinder dabei ziemliche Dramen durchleben können ist nicht unbedingt Allgemeingut bei den Erwachsenen…
(7) Manche ziehen aus dem Unverhofften, Unerwarteten ‚Nutzen‘; sie verändern ihr Bild von sich, den anderen, der Welt….
(8) Die Frage ist auch, inwieweit wir im Laufe des Lebens diese grundlegende Lernfähigkeit verlieren können. Ich werde niemals den Kontrast vergessen, den ich als Jugendsozialarbeiter erlebt habe, als ich in einer deutschen Großstadt nachmittags mit Kindergruppen (7-11 Jahre) gearbeitet hatte und abends mit den ‚Älteren‘ (ca. 17-22 Jahren). Innerhalb von 5 bis 10 Jahren können junge Menschen nahezu alle positiven Fähigkeiten verlieren, die sie als Kinder mal hatten. Der Einfluss der täglichen Umgebung erscheint erschreckend gewaltig destruktiv: aus selbstbewussten kreativen neugierigen Wesen werden stumpfe ideenlose hoffnungslose Wesen ohne Selbstvertrauen, die Menschen, die unsere Zukunft tatkräftig gestalten sollen, ohne zu wissen, wer sie selbst sind….
(9) Wie auch immer, selbst wenn man viele Dinge in seinem Leben konstruktiv gemeistert haben mag. Die Tendenz, sich im Erfolg letztlich doch zu verstetigen, in gebahnte Bahnen zu erstarren, sich im Gewohnten zu betäuben, ist massiv. Als ich vor ein paar Jahren dazu kam, nach mehr als 35 Jahren Pause wieder Musik zu machen, ohne Training, unmusikalisch, keine Zeit zu großen Übungen, alleine, in einem Mehrparteienmietshaus (Lärm praktisch unmöglich), psychologisch in einer schlechten Situation: was denken die Leute (ganz zu schweigen von meiner Frau), da blieb mir nur eines, ‚radically unplugged music (RUM)‘ als ‚legale‘ Form des Musikmachens zu erklären. Quasi als Manifest gegen die Diktatur der herrschenden Gewohnheiten, die u.a. die meisten Radio- und Fernsehkanäle besetzt halten, als ‚Aufschrei‘ des unterdrückten Individuums, das angesichts dieser allseitigen ‚Vernormung‘ dessen was sein darf zu ersticken droht, an ‚Atemnot‘, weil alles, was man als einzelner tun kann, bevor man es tut, schon gesellschaftlich ’nichts‘ ist. Globalisierung als Elimination des Individuums im Ansatz. Zerstörung von Kreativität und Erkenntnis im Ansatz. Menschenverachtend. Zynismus pur…
(10) Als ich gestern — während ich etwas schrieb — zufällig im Hintergrund die Sendung ‚Punk in Myanmar‘ in zdf-kultur sah (siehe: http://aufnahmezustand.zdf.de/ZDF/zdfportal/programdata/cd946bca-3138-33a7-9ff7-c183e90cd233/20065425?doDispatch=1″), merkte ich, wie ich von diesem Bericht sehr beeindruckt war. Dieser Bericht verstand es, die Situation der jungen Menschen in der Diktatur Myanmar so in Szene zu setzen, dass jedem Zuschauer klar werden konnte, warum diese jungen Leute so waren, wie sie sind, und dass diese den Nerv des möglichen Lebens in einer lebensfeindlichen Umgebung in — auf ihre Weise — aufopfernder Weise zu Gehör bringen wollten. Die persönlichen Risiken, die sie dabei eingingen, ihr Engagement, war sehr beeindrucken. Beeindruckend auch die einzige Sängerin, die schließlich aber wegen ihres Vaters wieder aufhörte, zu singen. Am tiefsten beeindruckte mich die Mutter des einen, eine emeritierte Professorin für Chemie. Wahnsinn welche Personalität, Liebe und Tiefe. Wie sie mit der Andersartigkeit ihres Sohnes und der ganzen Bewegung umging trotz der Ablehnung und Aggressivität der Umgebung!!!!! Hier erschien die Musik als Teil des Lebens, des Lebenskampfes, des Lebenlernens, als authentische Tätigkeit in dem Kampf um Wahrheit, Authentizität, Lebensgefühl schlechthin.
(11) Myanmar erscheint weit weg von Deutschland aus gesehen. Aber in gewisser Weise ist es direkt um uns herum. Auch wir erleben unzählige Prozesse um uns herum, die ‚lebensfeindlich‘ sind, die die uns unsere Ideen stehlen, uns unserer Lebensgefühle zu entfremden drohen, und auch wir sind beständig herausgefordert, uns aus dem Alltagsschlaf heraus zu reißen und uns zu fragen: ist es das wirklich? Soll es so sein oder sollte es nicht ganz anders sein? Jeder weiß, dass wir genügend offene Rechnung mit der Gegenwart haben…
(12) In mir verstärkt sich das Gefühl, dass die Methode ‚Radically Unplugged‘ etwas wirklich Grundlegendes ist, die Art und Weise betrifft, in der wir mit uns selbst und der Welt um uns herum umgehen. In einer Welt der globalisierenden Virtualisierung und Normierung durch diktatorische Kapitalmassen haben wir als Individuen nur noch die Authentizität. Diese alleine reicht zwar nicht, ist aber eine fundamentale Voraussetzung. Ohne diese sind wir nur mehr das dreihundert-billionste Bit in einem gigantischen Datenmeer, das von so vielen verschiedenen ‚Geistern‘ angetrieben wird, dass …..
(13) Merkwürdigerweise können wir im Prinzip alles ändern… nicht nur, indem wir alles zerstören, was in ein paar Milliarden Jahre ohne unser Zutun aufgebaut wurde, nicht nur, aber das ‚konstruktive Gestalten‘, eher eine Form des ‚Miterschaffens‘, ist extrem lernabhängig, dialogisch, … wir müssen verstehen, wer wir sind, wozu wir da sind, was dieses ganze Universum soll, um vielleicht weniger zu zerstören und ein wenig beizutragen. Der kosmologische Prozess selbst hat uns ins Szene gesetzt, ohne dass wir es wollten. Es wäre mehr als erstaunlich, wenn diese implizit kosmologische Weisheit nicht auch für die Option eines konstruktiven Mitwirkens eine Option parat halten würde… unsere aktuelle Dummheit ist aber vielleicht noch zu groß, als dass wir es verstehen können…

RUM Links

Insgesamt wird empfohlen, entweder richtig gute Kopfhörer zu benutzen oder eine richtig gute Soundanlage. Normale PC-Lautsprecher sind einfach zu schlecht; man hört irgendein Gequäcke aber keinen wirklichen ‚Sound’…

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER

DIE ANDERE DIFFERENZ – TEIL2 – THEORETISCHE MODELLE

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Datum: 3.März 2012

(1) Die Charakterisierung von ‚Leben‘ über das Konzept der ‚Differenz‘ (siehe vorausgehende Blogeinträge) kann mit unterschiedlichen theoretischen Konzepten formuliert werden. Wichtig dabei ist, dass man nicht die konkreten ‚Bestandteile‘ eines biologischen Organismus betrachtet, sondern die ‚Funktion(en)‘, die durch diese verfügbar werden. So kann man z.B. die grobe Unterteilung machen in ‚Versorgungsstrukturen‘ (Energie, Bewegung, Fortpflanzung,…) und ‚Informationsstrukturen‘. Letztere unterteilt nach ‚Strukturinformationen‘ und ‚Arbeitsinformationen‘.

(2) DNA-Moleküle (und zusätzliche Moleküle) realisieren Informationen über potentielle Körperstrukturen und jenen Wachstumsprozessen, die zu deren Aufbau führen; sie gelten damit als ‚Strukturinformationen‘. Die Nervensysteme (Gehirne), die sich mittels Strukturinformationen ausbilden können, besitzen als Eigenschaft eine spezifische ‚Lernfähigkeit‘, die es ermöglicht, dass aktuelle Ereignisse im und außerhalb des Körpers registriert und verarbeitet werden können. Diese Art von Informationen gehört zur ‚Arbeitsinformation‘.

(3) Von einem gewissen Abstraktionspunkt aus betrachtet könnte man sagen, dass der ‚Zweck‘ von biologischen System letztlich die Bereitstellung von solchen Strukturen ist, die fähig sind, Arbeitsinformationen zu realisieren. Alle anderen Strukturen haben einen ‚Supportcharakter‘: damit Arbeitsinformationen realisiert werden können, muss beständig hinreichend viel Energie herbeigeschafft werden; damit hinreichende Bewegungen im Raum möglich sind, müssen entsprechende Raumstrukturen durch Knochen, Sehnen und Muskeln bereitgestellt werden; damit der gesamte Prozess erhalten bleibt, müssen alle notwendigen Strukturinformationen hinreichend gut kopiert und partiell modifiziert (Mutation) werden können.

(4) Im folgenden soll daher das Konzept der ‚biologischen Differenz‘ vor allem am Beispiel solcher Strukturen erklärt werden, die dazu dienen, Arbeitsinformationen zu realisieren; alle anderen bleiben hier momentan außer Betracht.

 Kopplung von Differenzsystemen

 Bild 1: Kooperierende Differenzsysteme

(5) In der Literatur gibt es mehr als tausend Publikationen zu sogenannten künstlichen Neuronen, mittels deren man das Verhalten von biologischen Neuronen (Nervenzellen) modellieren kann. In diesem Kontext soll – soweit dies bei all dem Hintergrundwissen heute noch möglich ist – weitgehend von diesen bekannten Modellen abgesehen werden und ausgehend von dem Differenzgedanken die Frage nach einer minimalen Modellierung nochmals gestellt werden.

(6) Wie die Handskizze in Bild 1 andeutet, reichen als Annahmen die Folgenden: (i) wesentlich muss ein Differenzsystem zwischen mindestens zwei Zuständen {‚1‘, ‚0‘} wechseln können, wobei einer dieser Zustände, der ’sensitive‘ oder ‚kritische‘, durch Zuführung von Energie E künstlich erzeugt wird (hier angenommen als Zustand ‚1‘). (ii) Spezifische Umweltereignisse können ein spezifisches Eingangsereignis σ (Klein-Sigma) erzeugen, bei dessen Auftreten das Differenzsystem vom kritischen Zustand ‚1‘ in den unkritischen Zustand ‚0‘ übergeht. (iii) Beim Verlassen des kritischen Zustands wird ein spezifisches Ausgangsereignis ξ (Klein-Xi) erzeugt, das in die Umgebung des Differenzsystems hineinwirken kann. (iv) Sofern genügend Energie vorhanden ist, kann das Differenzsystem DS durch Zuführung von Energie wieder in den kritischen Zustand ‚1‘ zurückkehren. Damit wären die minimalen Bestandteile eines biologischen Differenzsystems für Arbeitsinformationen beschrieben. Für theoretische Zwecke könnte man auf weite Strecken auch auf den Faktor Energieversorgung E verzichten. Andererseits kann der Faktor Energie E ein Parameter sein, der helfen kann, die ‚Kosten‘ eines Differenzsystems, vor allem wenn es viele sind, die im Verbund arbeiten, abzuschätzen (Biologische Differenzsysteme in realen Systemen haben noch weit mehr Elemente, diese gehören aber zur ‚Versorgungsstruktur‘, die wir hier ausklammern). Als Besonderheit von biologischen Differenzsystemen sollte man noch erwähnen, dass es im Bereich der Eingangsereignisse σ neben den ’normalen‘ Ereignissen σ+ auch solche Eingangsereignisse σ- gibt, die den gesamten Eingang neutralisieren können, d.h. Liegt ein negatives ‚hemmendes‘ Eingangsereignis vor, dann sind alle anderen positiven ‚aktivierenden‘ Eingangsereignisse wirkungslos.

 Hemmende Ereignisse

 Bild 2: Blockierende (hemmende) Eingangsereignisse

(7) Biologische Differenzsysteme kann man dann beliebig ‚kombinieren‘, entweder entlang von Außenweltmembranen, um Umweltereignisse ‚außerhalb‘ des Systems ins ‚Innere‘ des Systems zu transformieren, oder um Outputereignisse an andere Differenzsysteme weiter zu reichen. Für diese nachfolgenden Differenzsysteme sind die Outputs des einen Systems dann Inputs. Statt explizit die Differenzustände {‚1‘, ‚0‘} anzuführen, könnte man auch allgemein eine Differenzfunktion δ: σ x κ → κ‘ x ξ hinschreiben, also wenn ein Inputereignis σ auftritt und ein kritischer Zustand κ (Klein-Kappa) liegt vor, dann geht das System, in den unkritischen Zustand κ‘ über und erzeugt gleichzeitig ein Outputereignis ξ. Ein Differenzsystem wäre dann eine Struktur wie folgt < σ, κ, κ‘, ξ, δ> (ohne Energiekomponente) oder < σ, κ, κ‘, ξ, δ, E,EO> mit ι: EO —> E; ι (Klein-Iota) ist die Energiefunktion, die aus einem Energieeingangspuffer Energie in den Systemenergiepuffer E überführt.

 3-3-12_4b_differenzkoopelungparallel.png

 Bild 3: 5 Differenzsysteme {1,…,5}

(8) Eine Komposition von Differenzsystemen wäre dann eine Menge von Differenzsystemen N mit der Angabe ihrer Verbindungen Δ (Gross-Delta), also <N, Δ>. Ein einfaches Beispiel zeigt die Handskizze Nr.3: 5 Elemente sind angeordnet, und die Beschreibung der Anordnung erfolgt über eine Menge von geordneten Paaren, also z.B. der Ausgang von Element N1 geht auf den Eingang von Element N2 wird geschrieben ‚(1,2)‘, usw. Die Menge aller dieser Verbindungspaare wird geschrieben als Δ = {(1,2), (2,3), …}. Die Menge der Verbindungen Δ bildet also eine Struktur. Die Struktur gehört zur ‚Strukturinformation‘; die Informationen, die innerhalb solcher Strukturen ‚laufen‘ können, bilden die ‚Arbeitsinformation‘.

(9) Wie die Handskizze auch andeutet, arbeiten alle Elemente eines realen biologischen Differenzsystems ’simultan‘ oder ‚parallel‘. Wie verhält sich dies zum bekannten Konzept des ‚Automaten‘, wie ihn die Informatik als Grundbegriff für alle Phänomene der Berechenbarkeit benutzt? Nach der These von Church (1936) lassen sich ja alle berechenbare Prozesse zurückführen auf allgemein rekursive Prozesse, insbesondere dann auch auf die Turingmaschine. Es wäre eine interessante Frage, ob man das bislang skizzierte Differenzensystem mit einer Turingmaschine gleichsetzen könnte. Der Grundtyp eines Automaten arbeitet nicht parallel, sondern ’sequentiell‘.

 3-3-12_2b_automaton.png

 Bild 4: Automat als Grundbegriff

(10) Die Grundelemente eines Automaten, die sich letztlich von dem Konzept der Turingmaschine her ableiten, das Turing 1936/7 eingeführt hatte, bestehen auch aus Input- und Output-Ereignissen, die von einem sogenannten ‚Schreib-Lese-Band‘ stammen. Während ein Differenzsystem grundsätzlich nur einen Zustand umfasst kann ein Automat endlich viele (n) Zustände Q umfassen. Sobald es mehr als ein Zustand ist (n > 0) bilden die verschiedenen Zustände auch eine Struktur Δ ähnlich wie Differenzstrukturen, die man miteinander kombiniert. Die Struktur entsteht hier aber nicht durch fest Verbindungen zwischen Elementen, sondern durch logische ‚Übergänge‘ zwischen Zuständen; diese sind in der Regel abhängig vom jeweiligen Inputereignis σ. Vereinfachend kann man die Struktur Δ eines Automaten dann auch auffassen als eine Menge von Paaren der Art Δ = {(q1, q2), (q2, q3), …} mit ‚q_i‘ als einen der möglichen Zustände.

 3-3-12_12b_differenzkopplungpartitionierung.png

 Bild 5: Zerlegung einer Verbundsystems in individuelle Einheiten

(11) Wie steht es nun mit der sequentiellen Abarbeitung eines parallel arbeitenden Verbundes von Differenzsystemen? Generell kann man sich klar machen, dass bei einer idealen simultanen Verarbeitung diejenigen Inputereignisse σ benutzt, werden die zum Zeitpunkt t verfügbar sind (die Menge aller dieser Inputereingisse bilden den ‚Definitionsbereich‘ oder das ‚Urbild‘ der Berechnungen). Angenommen alle Differenzsysteme arbeiten gleich schnell und benötigen die Zeit (t,t‘) mit t‘ > t, dann erzeugen alle Differenzsysteme zum Zeitpunkt t‘ ein neues Ausgangsereignis ξ (Die Menge all dieser Ausgangsereignisse bilden den ‚Wertebereich‘ aller Berechnungen bzw. das ‚Bild‘). Man kann sich also abstrakt eine ‚Zerlegung‘ (Partitionierung) eines Verbundes von Differenzsystemen vorstellen, die jeweils ein Differenzsystem mit seinen speziellen Eingangs- und Ausgangsereignissen betrachtet. Wenn man jetzt jedes Differenzsystem rechnen läßt – die Reihenfolge ist irrelevant –, dann erhält man nach (t,t‘) für jedes System sein Ergebnis. Ersetzt man im Urbild alle Werte durch die neuen Bild-Werte, erhält man den Nachfolgezustand des Systems. Da es auf die Reihenfolge dieser Rechnung nicht ankommt, könnte man sie auch alle ‚hintereinander‘ (sequentiell) ausführen; dies würde am Ergebnis logisch nichts ändern. Würde die reale Zeit der Abarbeitung von Bedeutung sein, dann müsste man sicherstellen, dass bei einer angenommen Taktrate von T = t‘ – t die Einzelberechnungen mit der Geschwindigkeit T/n (n := Anzahl der beteiligten Elemente) durchgeführt würde. Für eine logische Äquivalenz ist die reale Zeit allerdings irrelevant.

(12) Die vorausgehende Überlegung deutet an, dass es prinzipiell eine Übersetzung der Parallelität in die Sequentialität geben kann. Reicht dies aus für eine Simulation durch eine Turingmaschine TM? Turing selbst hat gezeigt, wie man hier vorgehen kann. Man geht davon aus, dass man die Beschreibung eines Differenzsystem-Verbundes DS = <N, Δ> auf das Schreibleseband schreibt und in jedem Zeitpunkt auch alle Eingangsereignisse, denen dieser Verbund ausgesetzt sein soll. Dann simuliert die TM das Verhalten von DS indem – entsprechend der zuvor skizzierten Idee einer Zerlegung – die Werte für jedes Element individuell berechnet werden und dann die neuen Werte auf das Band als neue Eingangswerte eingetragen werden. Es gibt kein Argument, dass eine TM genau diese Berechnung nicht durchführen kann. Damit ist aber klar, dass eine sequentiell arbeitende Turingmaschine jeden Verbund von Differenzsystemen simulieren kann.

(13) Man kann auch leicht nachvollziehen, dass eine ‚genetische Beschreibung‘ eines Differenzsystem-Verbundes DS letztlich – wie immer die Kodierung auch vorgenommen wird – genau eine Struktur DS = <N, Δ> repräsentiert. Eine geeignete Kopier- und Mutationsfunktion (z.B. im Stile eines genetischen Algorithmus GA) könnte dann aus bestehenden Strukturen neue Strukturen generieren, die dann zum Ausgangspunkt neuer Simulationen werden.

(14) Eine andere Variante sind zelluläre Automaten. Ein zellulärer Automat (cellular automaton, CA) bezieht sich auf einen Bereich (analog dem Band eines Automaten), der im Prinzip n-dimensional sein kann. Die Funktion der Differenzsysteme haben hier Übergangsregeln der Art m —> m‘, d.h. bei Vorliegen eines bestimmten Musters m im Bereich wird dieses ersetzt durch ein Muster m‘. In der Regel ist die Menge der Regeln Δ_ca größer als 1, also Δ_ca| > 1. Alle Regeln sind gleichberechtigt, d.h. Sie werden simultan (parallel) abgearbeitet (Beispiele finden sich z.B. in dem Artikel von Gardner über Conways ‚Game of Life‘ oder im Buch von Wolfram). Ein zellulärer Automat CA besteht also aus einem Bereich W und einer Menge von Umformungsregeln Δ_ca, also CA = <W, Δ_ca>. Für jedes Element w in W werden die passenden Regeln δ aus Δ_ca angewendet, man erhält eine Folgezustand W‘. Um einen zellulären Automaten durch eine Turingmaschine zu simulieren zerlegt man den Bereich W in geeignete Teilbereiche, berechnet für jeden Teilbereich die neuen Werte w und dann setzt man den Nachfolgebereich W‘ daraus zusammen. Dieses Verfahren setzt voraus, dass die Zielbereiche in jeder Zerlegung disjunkt (voneinander unabhängig) sind. Daraus folgt, dass ein zellulärer Automat nicht mächtiger ist als eine Turingmaschine (Anmk: Man kann einen zellulären Automaten auch mittels einer kontextsensitiven Grammatik beschreiben).

(15) Die Beziehung zwischen einem Verbund von Differenzsystemen DS und einem zellulären Automaten kann man sich dadurch klar machen, dass man (siehe Bild 5) sich den Bereich W des CA vorstellt als eingeteilt in feste disjunkte Unterbereiche W_1, W_2 usw., denen bestimmte Umformungsregel ebenfalls fest zugeordnet sind. D.h. Ein Verbundsystem von Differenzsystemen ist eine eingeschränkte Version eines zellulären Automaten.

(16) Was man aus diesen Überlegungen entnehmen kann ist die Einsicht, dass biologische Differenzsysteme, sofern sie genau die Eigenschaften besitzen, die hier unterstellt wurden, sich mit den Mitteln von Automaten (maximal einer Turingmaschine) simulieren lassen. Dies wiederum bedeutet, dass man im Rahmen der Forschung (einschließlich philosophierender Wissenschaft) einen Simulationsansatz ohne Einschränkung der Allgemeinheit benutzen kann.

(17) Letzte Bemerkung: Statt mit Automaten könnte man auch mit Classifier-Systemen arbeiten (Details dazu in meinem <a href=“http://www.uffmm.org/science-technology/single/themes/computer-science/personal-sites/doeben-henisch/KNOW/gbblt/index.html“> GBBCLT-Skript</a>).

LITERATURVERWEISE

Church, A.; „An Unsolvable Problem of Elementary Number Theory“, Amer.J.Math. 58 (1936) 345-363

Gardner, M. „MATHEMATICAL GAMES. The fantastic combinations of John Conway’s new solitaire game ‚life’“, Scientific American 223 (October 1970): 120-123.

Turing, A. M. „On Computable Numbers with an Application to the Entscheidungsproblem“, In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).

Wolfram, S., „A New Kind of Science“, Champaigne (IL, USA): Wolfram Media, Inc., 2002

Eine direkte Fortsetzung dieses Beitrags findet sich HIER.

Einen Überblick über alle bisherigen Blockeinträge findet sich hier