Archiv der Kategorie: Externe Welt

Zwischenergebnis Juni 2011: Nochmals zur Fitnessfunktion

  1. Die Überlegungen vom 20.2.2011 ‚Jenseits des Wärmetods‘ stehen weiter im Raum. Auf mehreren Ebenen ist seitdem viel passiert. Ein ‚track‘ ist die andauernde Analyse, wie Wissen in künstlichen Systemen entstehen kann, das ’nützlich‘ ist. Ich untersuche dazu weiterhin beispielhaft und modellhaft sogenannte genetische Algorithmen (GA) und Lernende Classifier Systeme (LCS).

  2. Genetische Algorithmen ‚leben davon‘, dass es eine sogenannte ‚Fitness Funktion‘ gibt, die die Aktionen eines genetischen Systems in einer Welt ‚kommentiert‘. Ohne diese Kommentare ist ein genetisches System ‚blind‘. Solange ein genetisches System ‚lebt‘ kann es interessante Informationen über die umgebende Welt ansammeln (was tatsächlich noch von vielen wichtigen Details abhängt).

  3. Fitness Funktionen stellen aber letztlich selbst eine bestimmte Form von Wissen dar, in dem bestimmten Eigenschaften der umgebenden Welt Wertungen zugeordnet werden, anhand denen sich ein genetisches System ‚orientieren‘ kann.

  4. Im Falle ‚technischer‘ genetischer Systeme sind es die Ingenieure, die ihr Wissen in Fitnessfunktionen ‚verpacken‘ und damit genetische Systeme ermöglichen.

  5. Im Fall ’natürlicher‘ Systeme gibt es keine Ingenieure. Man muss sich fragen, wie hier eine Fitnessfunktion zustande kommt.

  6. Die primäre Fitnessfunktion ist bei natürlichen Systemen das ‚Überleben‘ einer Population (= das genetische System), deren Mitglieder genügend ‚Nachkommen‘ erzeugen, die wiederum bestehen. Dies bedeutet, im Faktum des Überlebens einer Population (die einzelnen Mitglieder sterben, aber die Population überlebt!) manifestiert sich, dass die jeweiligen Mitglieder alle diejenigen ‚Aufgaben‘, die die Welt stellt, ‚hinreichend lösen‘ konnten.

  7. Was so einfach klingt ‚eine Population überlebt‘ stellt bei näherer Betrachtung eine gedankliche Provokation ersten Ranges dar. Wenn man voraussetzt, dass es natürliche Systeme gibt, die ‚leben können‘, erscheint die Aussage ‚trivial‘. Das Problem beginnt aber vorher: wie konnte es dazu kommen, dass sich komplexe natürliche Systeme bilden konnten, ohne dass es ein Team von Ingenieuren gab, die den Molekülen gesagt haben, wie sie sich ‚anordnen‘ sollten (ganz abgesehen von der Frage, wie es zur Bildung jener Moleküle aus Atomen kommen konnte, die heute als grundlegend für die Bildung von natürlichen Systemen angesehen werden. Bislang gibt es dazu noch keine vollständige Antwort!).

  8. Wie wir heute wissen, ist schon eine einzige Zelle von extremer Komplexität. Die Komplexität der aktiven Moleküle ist mathematisch nahezu nicht ausdrückbar. Sowohl zu ihrer Bildung wie auch zu ihrem ‚Erhalt‘ benötigt es beständig Energie. Zur ‚Vererbung‘ all dieser Komplexität werden Molekülstrukturen benutzt, die nicht nur ‚Inhalte‘ kodieren, sondern auch ‚Prozesse‘, wie diese ‚Inhalte unter ‚Verwendung‘ von Molekülen ‚erzeugt werden sollen/ können. Es ist mir nicht bekannt, dass die Wissenschaft heute auch nur ansatzweise eine Vorstellung davon hat, wie es zur Ausbildung dieses komplexen Informationsweitergabelmodells kommen konnte.

  9. Bekanntlich bestehen die meisten Pflanzen und Tiere heute nicht aus einer solchen komplexen Zelle, sondern aus vielen hundert Millionen, vielen hundert Milliarden Zellen, die miteinander ‚kooperieren‘ und ‚kommunizieren‘, ohne dass irgendein Ingenieur dafür auch nur den kleinsten Finger bewegt hat bzw. bewegt.

  10. Ferner besteht das Leben auf der Erde nicht aus nur einem solchen hyperkomplexen Organismus sondern aus vielen Milliarden von ganz unterschiedlichem Zuschnitt, deren Zusammenwirken die Biosphäre ausmacht.

  11. Lernende Classifier Systeme sind einfache Modelle, wie man u.a. die Reaktion eines einzelnen Systems auf die Welt modellieren kann. WENN das System etwas Bestimmtes ‚wahrnimmt‘, DANN soll es in einer bestimmten Weise reagieren. Unter Zuhilfenahme einer Fitnessfunktion kann man auch dieses Wissen ‚dynamisch‘ gestalten und es sich ‚verändern‘ lassen entlang dem ‚Gradienten‘ zum ‚Besseren‘. Auch hier gilt –wie oben –, dass die Fitnessfunktion selbst eine Form von ‚Wissen‘ darstellt, das letztlich die Richtung der möglichen Entwicklung festlegt. Auch hier kann man wieder die Frage stellen, wo dieses Wissen herkommt.

  12. Im Fall von natürlichen Systemen wissen wir, dass diese ab einem bestimmten Punkt der Komplexität ‚intern‘ Bewertungsmechanismen ausgebildet haben, die es ihnen erlauben, bis zu einem gewissen Grad auch schon in der Zeit ‚vor dem Tod‘ erlebbare Situationen zu ’sortieren‘ in solche, die ’nützlich‘ sind und solche, die es ’nicht‘ sind.

  13. Es stellt sich die Frage, wie es möglich ist, dass natürliche Systeme ihre eigenen Strukturen in einer so markanten Weise ‚umbauen‘ können, dass die schon von Anfang an komplexe Strukturen ihre Strukturen ‚weiter ausdehnen’/ ‚erweitern‘, und zwar nicht ‚chaotisch‘, sondern so ‚geordnet‘, dass diese erweiterten Strukturen im Rahmen der gesamten Überlebensaufgabe eine ’sinnvolle Teilaufgabe‘ übernehmen können.

  14. An dieser Stelle auf die bekannten genetischen Mechanismen zu verweisen, würde genau an der eigentlichen Problemstellung vorbei gehen. Abgesehen davon, dass die Entstehung der genetischen Mechanismen selbst mehr oder weniger unklar ist geht es ja um die ‚mittels der genetischen Mechanismen‘ transportierten Informationen über potentielle Prozesse von Wachstum und Selbstorganisation.

  15. Wer jemals selbst versucht hat, künstliche formale Systeme so zu programmieren, dass diese sich in einem analogen Sinne ‚weiter entwickeln‘, und zwar ’sinnvoll‘, dem ist klar, dass die reale Vorgabe der natürlichen Systeme ‚ein Komplexitätsspiel spielt‘, für das uns bislang brauchbare Vorstellungen fehlen.

  16. (Anmerkung: die aktuell bekanntgewordene Forschungsprojekte, in denen man für viel Geld Milliarden von künstlichen Neuronen zusammenschmelzen will und dann — wie von Zauberhand — auf die Entstehung sinnvoller Strukturen hofft, erscheinen mir grotesk und lächerlich. Dass es für diese Projekte keine wirklichen Begründungen gibt, ist verständlich, machen die Projekte dadurch aber nur noch grotesker. Voodoo besitzt mehr Rationalität als diese sogenannte Forschungen.).

Jenseits des Wärmetods?

  1. Ich mache immer wieder die Erfahrung, dass bei unklaren Fragestellungen der Rückgang auf die ‚Klassiker‘ zu Klarheiten verhilft, die die neue und neueste Literatur nicht bieten kann. Die neuere Fachliteratur ist oft schon so fortgeschritten im Detailwissen, dass man sich als ‚Neuling‘ sehr schwer tut, zu verstehen, warum all dieser Aufwand getrieben wird. In den letzten Monaten war es z.B. die Lektüre von Schrödingers ‚What is Life‘ oder Heisenbergs ‚Physics and Philosophy‘ gewesen, die wertvolle Einsichten vermittelt hatten.

  2. Nach einiger Mühe ist es mir gelungen, die ‚Populären Schriften‘ von Ludwig Boltzmann (publiziert 1905) zu bekommen. Allein schon die ersten Beiträge waren sehr erhellend. Wunderbar finde ich seinen Vortrag ‚Der zweite Hauptsatz der mechanischen Wärmetheorie‘, den er 1886 in einer feierlichen Sitzung vor der kaiserlichen Akademie der Wissenschaften vorgetragen hatte. Zu sehr vielen grundlegenden Fragestellungen, die uns noch heute bewegen, erhellt er Grundlegendes; dies aber auf einer Weise formuliert, die von großer Klarheit und Verständlichkeit ist.

  3. Er nimmt sich in diesem Vortrag sogar etwas Zeit, um die besondere Rolle der Naturforschung gegenüber allgemeiner Philosophie und Alltagswissen zu verdeutlichen. Mit Anspielung auf Herbarth lokalisiert er die Rolle des Bewusstsein zwar an der Quelle unseres Weltzuganges (im Sinne dass wir ‚Empfindungen‘ haben), aber der primäre Inhalt dieses Bewusstseins kann uns aus sich heraus nichts darüber sagen, wie sich diese Inhalte zusammensetzen, wie sie entstehen (vgl. S.48f). Und, wie wir heute wissen, sind diese Bewusstseinsinhalte komplexe Produktionen unseres Gehirns, u.a. auf der Basis sensorischer Daten, die sich aus den energetischen Ereignissen der Umwelt speisen. Die Naturforschung kann — und muss wohl — die bewusste Wahrnehmung als Ausgangspunkt nehmen, beginnt ihre eigentliche Arbeit aber dort, wo sie versucht mittels ‚Hypothesen‘ und ‚Messungen‘ hinter diese Phänomene zu schauen.

  4. Eine dieser — mittlerweile komplexen — Hypothesen ist die von der ‚atomistischen‘ Struktur der Materie, aus der sich dann die weitere Hypothese der mechanischen Wärmelehre herleitet, dass nämlich die ‚Elemente der Körperwelt‘ beständig in ‚reger Bewegung begriffen sind‘ (S.32) Hierher gehört der von Robert Mayer begründete erste Hauptsatz von der Erhaltung der Energie, wobei Energie nach Mayer in den drei Formen ’sichtbare Bewegung‘, ‚Wärme‘ oder ‚Arbeit‘ auftreten kann. Währen die Gesamtmenge der Energie in einem geschlossenen System bei Umwandlung einer Energieform in die andere unverändert bleiben soll, so sagt der zweite Hauptsatz, dass zwar Bewegung und Arbeit bedingungslos ineinander und in Wärme übergehen können, Wärme kann aber höchstens partiell in Bewegung oder Arbeit zurückverwandelt werden (vgl. S.33). In dieser Eigenschaft erscheint Wärme ‚dissipativ‘, als ‚degradierte‘ Energie (Unter Verwendung des von Clausius eingeführten Begriffs der ‚Entropie‘ kann man auch sagen, dass mit Zunahme der Degradation nicht nur die Wahrscheinlichkeit des Zustandes zunimmt, sondern auch seine Entropie (vgl. S.37)). Der zweite Hauptsatz induziert damit eine Art Richtung im Prozess, der schlussendlich zu einer völligen Degradierung von Energie führt oder — in der bekannten Formulierung — zum ‚Wärmetod des Universums‘ (vgl. S.33). Letzterer Schluss gilt aber nur, solange die Annahme eines geschlossenen Systems gilt (vgl. S.48).

  5. Das Prinzip hinter dem Prinzip des 1. und 2. Hauptsatzes ist, dass sich Energie grundsätzlich vom unwahrscheinlicheren Zustand in den wahrscheinlicheren Zustand verändert. So ist die höhere Energiekonzentration in der Sonne im Vergleich zur Erde ‚unwahrscheinlicher‘. Auf dem Weg der ‚Degradation‘ gelangt Energie von der Sonne zur Erde und kann auf diesem Weg und auf der Erde unterschiedliche Zwischenzustände durchlaufen, bis sie als Wärme ‚verschwindet‘. Es sind die Pflanzen, die diesen Energiefluss aufgreifen und ihn mittels chemischer Prozesse in solche Energieformen verwandeln, die anderen biologischen Lebensformen als ‚Nahrung‘ dienen können, bevor der Zustand höherer Entropie weiter angenähert wird (vgl. S.40).

  6. Boltzmann wagt einige Spekulationen zur möglichen ‚Erklärung‘ der Lebensformen, des erfahrbaren Geistes, indem er die Hypothese anformuliert, dass sich die komplexen bekannten biologischen Formen eventuell doch aus den allereinfachsten Atomen durch immer komplexere Konfigurationen herausgebildet haben (vgl.S.49). Heute haben wir so viele Indizien sammeln können, dass diese Hypothese zu großen Teilen als ‚gewiss‘ gelten kann, wenngleich noch nicht vollständig.

  7. Vor dem Hintergrund der Hautsätze der Wärmelehre sieht es dann so aus, als ob sich die komplexen biologischen Lebensformen nur gestützt auf den Energiefluss von Seiten der Sonne bilden konnten. Unter Ausnutzung dieser Energieformen konnten sich immer komplexere molekulare Strukturen herausbilden, die schließlich — Zwischenstand 2011 — in der Lage sind, anhand der energetischen Ereignisse in der Welt sich ‚intern‘ in einem Körper ‚Bilder‘, ‚Modelle‘ der ‚Welt da draußen‘ zu generieren, die auch ‚Selbstbilder‘ mit einschließen. Die Allokierung von Energie in Form von biologischen Strukturen ermöglicht das ‚Sichtbarwerden‘ all jener Dynamiken und Strukturen, die den physikalischen Kosmos auszeichnen. Allerdings sind diese biologischen Strukturen grundsätzlich limitiert durch den Bedarf an ‚freier‘ Energie. Versiegt der Strom von Energie in einer Form, die sich ’nutzen‘ lässt, dann verlieren die biologischen Lebensformen ihre ‚Seele‘; sie versinken im ‚Nichts‘ nahe der maximalen Entropie.

  8. Aus dieser allgemeinen Perspektive kann man den Eindruck gewinnen, dass die entscheidende Eigenschaft, die die biologischen Lebensformen in das bekannte Universum einbringen, jene ist, dass sie ’sichtbar machen können‘, dass sie ‚erkennen‘ können, dass sie ein ‚Bewusstsein von‘ den Dingen entwickeln können. Durch die Verfügbarkeit von Wissen innerhalb des Kosmos gewinnt der Kosmos eine eigentümliche ‚Handlungsfähigkeit‘ ’sich selbst gegenüber‘. Mit der Entstehung, Verfügbarkeit und Ausbreitung von ‚Erkenntnis‘ kann der Kosmos im Prinzip ‚zu sich selbst‘ kommen und darin und dadurch seine Strukturen dazu nutzen, ‚etwas‘ ‚zu tun‘. Fragt sich natürlich: was?

  9. Nach den bisherigen Erkenntnissen entsteht in den biologischen Strukturen Wissen durch ‚Verdichtungen’/ ‚Abstraktionen‘, durch das Finden von Beziehungen/ Relationen, durch die die Wechselwirkungen unterschiedlicher Beziehungen (verstehbar als Netzwerk/ Modell/ Theorie), durch unterschiedlichste Assoziationen zwischen Wissensmomenten und allen möglichen Zuständen (auch Bedürfnissen, Emotionen, Gefühlen,…). Ferner haben wir gelernt, dass sich Wissen wesentlich auch nur im Austausch zwischen unterschiedlichen Gehirnen ereignet/ bilden kann. Für solch eine Kommunikation benötigt man symbolische Mittel, Sprachen, speziell formale Sprache wie z.B. die Sprache der Mathematik oder heute die algorithmischen Formen von Computersprachen und Simulationen.

  10. Ein anderer wesentlicher Aspekt ist die Kooperation als Bedingung für Kommunikation. Eine ‚hinreichende‘ Kooperation wiederum benötigt eine ‚hinreichende‘ Öffentlichkeit: ohne funktionierende Öffentlichkeit keine gute Kommunikation, ohne gute Kommunikation nur partielle, schlechte Erkenntnis.

  11. Berücksichtigt man all dies, stellt sich natürlich die Frage nach dem ‚Sinn‘ des Ganzen. Klar ist, dass die Frage wer am meisten Geld hat, die größte politische Macht, wie berühmt jemand ist, wie ’schön‘ usw. relativ bedeutungslos sind gemessen an der globalen Aufgabe, die verfügbare Energie in jenes Wissen zu verwandeln, das den ‚Wärmetod‘ ‚überlebt‘. Militärische Macht kann punktuell und regional eventuell entscheiden, welche Gruppeninteressen sich für eine kurze Zeit ‚durchsetzen‘, doch auch militärische Macht entkommt nicht der globalen Herausforderung, wie das biologische Leben als solches sich angesichts seiner fragilen Lage innerhalb des verfügbaren Zeitfensters auf Dauer den Kosmos so umgestaltet, dass aus der ‚Anfangsübung‘ ‚Leben auf der Erde‘ ‚mehr‘ wird. Vielleicht müssen wir uns auch gar nicht physikalisch behaupten; vielleicht besteht der ‚Sinn‘ dieses Lebens auf der Erde/ in diesem Kosmos nur darin, die ‚Hoffnung auf Mehr‘ zu schmecken, um dann im/ nach dem körperlichen Tod den ‚eigentlichen‘ Zustand zu erleben. Wer kann dies so genau sagen. Ich persönlich halte allerdings den ‚Aufwand‘, der bislang getrieben wurde, um biologisches Leben überhaupt zu ermöglichen und über all die Milliarden Jahre zu immer komplexeren Formen heran zu reifen für so immens, dass es nicht so recht einleuchten will, dass darin kein spezieller ‚Auftrag‘ gegeben ist. Zu sagen, wir sind ’nur‘ Menschen übersieht, dass dieses ’nur‘ genau den Punkt verpasst, der das zentrale Drama der ganzen Erde, des ganzen Sonnensystems auszeichnet. Natürlich wäre es unbequem, zuzugeben, dass der Erfolg dieses Lebens wichtig ist…

Quelle: Ludwig Boltzmann, „Populäre Schriften“, Leipzig: Verlag Johann Ambrosius Barth, 1905

MENSCHENBILD IM WANDEL

Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main

Kurzfassung

Einleitungsmusik

  1. Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.

  2. Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.

  3. Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.

  4. In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.

  5. Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).

  6. Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.

  7. Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.

  8. Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.

  9. Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.

  10. Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.

  11. Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.

  12. Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).

  13. Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.

  14. Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.

Überleitungsmusik Vortrag zu Diskussion

EXPERIMENTELLE HÖRBUCHFASSUNG

Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)

MENSCHENBILD IM WANDEL – Vortrag 24.Nov.2011

In Ergänzung zu diesem Block findet ein öffentlicher Vortrag statt:

Vortragsankündigung

GOTT MISSBRAUCHEN

(1) Insofern es ‚Gott‘ als ‚Erstes‘, ‚Höchstes‘, ‚Lebenswertestes‘ usw. gibt, ist die Art und Weise, wie Menschen über dieses ‚Erste‘, ‚Höchste‘ usw. reden, nicht ganz egal. Es ist eine reale Möglichkeit, dass Menschen über ‚Gott‘ in einer Art und Weise reden, die die Sache ‚Gottes‘  ‚falsch‘ darstellt. Es ist eine reale Möglichkeit, dass Menschen ihre individuellen Bilder  und Interessen haben, die NICHT die Sache Gottes sind, und dass diese Menschen etwas ganz und gar Falsches und Schlechtes als die Sache Gottes vorgeben.

(2) Insofern ‚Gott‘ der ‚Schöpfer‘ von allem ist, kann man das ‚Ganze‘, zu dem zwangsläufig auch das Universum gehört, nicht gegen Gott ausspielen! Wer sich für den REALEN Gott interessiert, der muss sich auch für das REALE Universum interessieren. Das Wissen um das Universum, das Wissen um die REALE Welt, kann in keiner Weise gegen Gott gerichtet sein, sondern ist ein solches Wissen, das das ‚wahre Wesen‘ Gottes in diesem Bereich (der möglicherweise nur ein Teil ist) ‚enthüllt‘.

(3) Wer ‚Gott‘ suchen will, muss sich davor hüten, den ‚falschen‘ Bildern hinterher zu laufen, muss sich vor den ‚falschen‘ (natürlicherweise ’selbsternannten‘) Propheten hüten. Nur weil einer behauptet, ‚über Gott‘ zu sprechen, muss er nicht wirklich ‚im Namen Gottes‘ sprechen; nur weil jemand besonders ‚laut‘ und ‚radikal‘ auftritt, ist er nicht automatisch ein ‚wahrer‘ Verkünder. Salbungsvolle Worte, das Drücken auf die Tränendrüsen, stimmungsvolle Inszenierungen, das Einfordern von Hab und Gut, die Einschränkungen von persönlichen Freiheiten, das Verbieten anderer Denkweisen, der Appell an eine formale Autorität, das Schlecht-Reden anderer Menschen, all dies sind Gegebenheiten, die mehr als nur besondere Aufmerksamkeit fordern.

(4) Natürlich kann es passieren, dass Menschen ‚über Gott‘ sprechen und diese sind subjektiv sogar der Meinung, dass das, was sie sagen, auch ‚wirklich wahr‘ sei (obwohl es tatsächlich falsch ist). Dies ist ein schwieriger Fall. Woran können diese Menschen ‚erkennen‘, dass ihr ‚Bild von Gott‘ falsch ist? Sind Sie sich selbst bewusst, dass Sie sich selbst ‚irren‘ können?

(5) Wir als Menschen sind zwar einerseits ein unauflöslicher Teil des umspannenden Phänomen des Lebens auf dem Planeten Erde, wir weisen aber auch die Besonderheit auf, dass unsere Körper ein Gehirn besitzen, das uns in die Lage versetzt, kontinuierlich (und ‚vollautomatisch‘) ‚Bilder‘ von uns selbst und der umgebenden Welt zu haben. Diese Bilder –soviel wissen wir heute– sind nicht die Welt selbst, sondern –wie das Wort schon sagt– sind ‚Bilder‘, ‚Konstruktionen‘ unseres Gehirns auf der Basis der Ereignisse, die unsere Sinnesorgane von den Ereignissen ‚außerhalb‘   und ‚innerhalb‘ unseres eigenen Körpers liefern. Für einfache Verhaltensweisen (wie z.B. sich richtig bewegen) sind diese Bilder ausreichend geeignet. Für kompliziertere Sachverhalte sind diese Bilder schnell ‚unscharf‘, ‚missverständlich‘, ‚falsch‘.  Wer ernsthaft daran interessiert ist, dass diese seine eigenen Bilder von der Welt (und sich selbst) möglichst wenig ‚falsch‘ sind, ist herausgefordert, sich darum zu kümmern, wie er sich selbst vor der ‚Falschheit seiner eigenen Bilder‘ ’schützt‘.

(6) Die grundlegende Herausforderung besteht darin, dass jeder die ‚automatisch erstellten Bilder‘ ‚in seinem eigenen Kopf‘ auf auch für andere nachvollziebare, transparente Weise mit den Gegebenheiten seines eigenen Körpers und den Gegebenheiten außerhalb seines Körpers  ‚vergleicht‘. In manchen Fällen ist dies einfach (z.B. bei der Frage, ob das Geld für alle eingekauften Lebensmittel ausreichend ist), in anderen Fällen kann dies beliebig schwierig werden (dreht sich die Erde um die Sonne oder die Sonne um die Erde; ist das Elektron eine Welle oder ein Teilchen….). Von daher ist es vielleicht kein Zufall, dass sich das, was wir neuzeitliche Wissenschaft nennen, erst mit dem Jahrhundert Galileis so langsam zu entwickeln begann und es mehrere hundert Jahre gebraucht hat, bis die sogenannten Methoden der empirischen Wissenschaften ansatzweise ‚global‘ bekannt sind und auch angewendet werden. Dass aber selbst mehr als 400 Jahre nach Galilei  mindestens die Hälfte aller Menschen diese Methoden immer noch nicht wirklich kennt und verstanden hat und diese sogar als ‚Bedrohung‘ der eigenen Bilder von der ‚Welt‘ und von ‚Gott‘ empfindet, zeigt, wie schwer wir Menschen uns tun, die Besonderheiten unseres menschlichen Wissens soweit zu verstehen, dass wir verstehen, warum und wie unser aktuelles Wissen immerwährend gefährdet und vom Ansatz her eher falsch als richtig ist (und zwar gerade da und dort, wo es ‚interessant‘ wird).

(7) Dass jemand ‚falsche‘ Bilder in seinem Kopf mit sich herum trägt ist von daher wahrscheinlicher als dass er ‚richtige‘ Bilder hat. Den ‚wahrheitsliebenden‘ Menschen (Philosoph = philos, sophia = Freund der Weisheit) kann man vor diesem Hintergrund daran erkennen, dass er um seine grundsätzliche und andauernde ‚Bedrohung‘ durch ‚falsche‘ Bilder weiß und er grundsätzlich offen dafür ist, sich von anderen ‚Rat‘ zu holen, sich mit anderen abzustimmen, seinen Wissen immer und immer wieder neu bei jeder sich bietenden Gelegenheit zu überprüfen. Ein wahrer Philosoph würde NIEMALS behaupten, er sei im Besitz der Wahrheit!!!, weil er weiß, dass ‚wahre Wahrheit ein kontinuierlicher Prozess der Annäherung der subjektiven Bilder an die Gegebenheiten jenseits des Gehirns ist, und dieser Prozess ist solange unvollendet, als wir Erkenntnissuchende in diesem konkreten Körper mit diesem konkreten Gehirn sind.

(8) Solange Menschen um diese ihre ‚ihnen innewohnende‘ Unvollkommenheit wissen, sich aber gegenseitig wert schätzen und sich wechselseitig helfen, die individuellen Unvollkommenheiten durch gemeinsame Verständigung ‚auszugleichen‘, sind Menschen zu erstaunlichen Erkenntnissen und darauf aufbauenden (komplexen) Handlungen fähig. Das Gebäude der neuzeitlichen Wissenschaft mit der damit verwobenen Technologie und vielfältigsten ökonomischen, sozialen, politischen, kulturellen und sonstigen Leistungen ist atemberaubend (insbesondere, wenn man dies auf einer Zeitachse betrachtet und sieht, wie viele tausende, zehntausende und gar hundert tausende Jahre nichts Vergleichbares stattgefunden hat). Verkennen wir Menschen  aber unsere individuellen Grenzen und Unvollkommenheiten, dann verfestigen sich Fehler, Unvollkommenheiten, Falschheiten, verstärken sich sogar und führend zwangsläufig zu falschen Bildern, nicht selten dann sogar zu Unheil.

(9) Die ‚Liebe zur Wahrheit‘ (wahre Philosophie) verlangt also aufgrund der Art und Weise, wie wir Menschen ‚gebaut‘ sind, dass wir nicht nur um unsere eingebauten Grenzen und Unvollkommenheiten wissen, sondern dass wir auch  mit diesen Grenzen und Unvollkommenheiten in der rechten Weise umgehen. Es gibt KEIN EINZIGES BILD (kein einziger Gedanke) in unserem Kopf, der einfach AUS SICH HERAUS ‚wahr‘ ist. ALLE unsere Bilder (Gedanken) sind Konstruktionen unseres Gehirns, die letztlich (am besten mehrfach, und immer wieder) überprüft werden sollten. In diesem Zusammenhang führt ‚Selbstverliebtheit‘, ‚Eitelkeit‘, ‚Hochmut‘ und dergleichen mehr direkt und unweigerlich in die ‚Nacht der falschen Bilder‘.

(10) Es gab –und gibt– immer wieder Menschen, die an das ‚Wunder der direkten umfassenden Wahrheit‘ glauben. Sie glauben (‚Intuition‘, ‚Genie‘, ‚Offenbarung‘,…), sie könnten den langen beschwerlichen Weg der Erkenntnis, bei dem jeder allen anderen ‚dient‘ (und damit umgekehrt von allen anderen sehr viel bekommt) durch etwas ‚Wundersames‘ umgehen; durch den ‚großen Trick‘, durch das ‚Wunder schlechthin‘, durch ‚Magie‘, durch ‚Zauber‘, usw. Dies alles scheint –nach heutigem Wissen–  falsch zu sein.

(11) ALLE Menschen sind ‚Blüten‘ am ‚Baum‘ des Lebens auf dem Planeten Erde, wo schon die materielle Struktur dieses Lebens das bisherige menschliche Begreifen überfordert und bislang nur Raum für grenzenloses Staunen und Wundern läßt. Das Durchdringen der erkennbaren materiellen Strukturen und ihrer atemberaubenden Dynamik von ’scheinbarer Planlosigkeit‘ hin zu immer komplexeren Strukturen, die jeder mathematischen  ‚Zufälligkeit‘  ‚zuwiderlaufen‘, dieses ‚geistige Durchdringen‘ in Richtung eines ‚tieferen‘ und ‚umfassenderen‘ Verstehens hat bislang kaum begonnen. Viele (die meisten?) Menschen sind noch so sehr mit den ‚alten‘ und ‚falschen‘ Bildern in ihrem Kopf beschäftigt, dass sie die atemberaubende Perspektive eines umfassenden Lebensprozesses noch nicht einmal ansatzweise wahrgenommen haben. Manche reden von ‚Gott‘ als dem ‚Schöpfer‘ von allem, haben sich aber noch nie mit der Schöpfung so beschäftigt, dass Sie zu ahnen beginnen könnten, wie ‚in‘ und ‚hinter‘ dem Allem die ewige Präsenz des wahren Schöpfers spürbar wird, der soweit all unseren kleinlichen und unvollkommenen Bilder des Lebens übersteigt, dass das Reden eines einzelnen Menschen über ‚den‘ Schöpfer zwangsläufig zu einer Karikatur zu werden droht, die mehr ‚falsch‘ als ‚wahr‘ ist.

(12) Es gehört zum Geheimnis des Lebens, dass der einzelne angesichts des großen Ganzen wie ‚Nichts‘ erscheint, dass aber das große Ganze ohne jeden einzelnen tatsächlich Nichts ist…..

(13) Ein weiteres Geheimnis ist, dass niemand gezwungen ist, die Wahrheit zu suchen (eine Form von ‚Freiheit zur Unwahrheit’…); ohne die Wahrheit kann das Leben auf dem Planeten Erde allerdings untergehen….

DIE UNIVERSELLE SEMIOTISCHE MASCHINE

In der letzten Woche hatte ich Gelegenheit, das Buch ‚Information Theory and Evolution‘ von John Avery zu lesen. Eigentlich interessierte mich die Frage, ob und wie man das Verhältnis zwischen der offensichtlichen  ‚Konzentration von Energie‘ im Falle biologischer Systeme mit dem zweiten Hauptsatz der Thermodynamik  plausibel machen kann (eine gute intuitive Formulierung des zweiten Hauptsatzes von Claudius findet sich bei  Enrico Fermi (1937, repr. 1956, S.30): ‚A transformation whose only final result is to transfer heat from a body at a given temperature to a body at a higher temperature is impossible.‘). Die eigentliche Frage konnte ich für mich noch nicht befriedigend beantworten  (siehe meine kurze Buchbesprechung hier: Buchbesprechung Avery), aber das Buch war –und ist– äußerst informativ und anregend. So ergaben sich interessante Hinweise auf eine Reihe von Themen, die im Blog schon öfters angesprochen wurden (siehe auch das beigefügte Diagramm).

(1) Eine intensiv diskutierte Frage seit Jahrhunderten ist die Frage nach der Bedeutung und der Rolle des Selbstbewusstseins.

(2) Von den verschiedenen Analysestandpunkten (introspektiv (1st person), verhaltensbasiert (3rd person), physiologisch (3rd person)) aus ergeben sich unterschiedliche Zugänge.

(3) Avery zieht in seinem Buch eine lange Linie quer durch die gesamte Evolution, die zeigt, daß und und wie sich auf allen Ebenen Informationsprozesse identifizieren lassen, die strukturverändernd wirken, vom Molekül bis hin zur menschlichen Kultur.

(4) Allerdings verwendet Avery für diese verschiedenen Ausprägungen von Kommunikation kein einheitliches theoretisches Modell. Dies verwundert ein wenig, da er im Anhang B auf 2.25 Seiten die Semiotik mit Schwerpunkt Biosemiotik kurz erwähnt. Die Semiotik könnte zumindest eine Variante eines Modells anbieten, das von der ersten Zelle bis hin zu komplexen kulturellen Kommunikationsprozessen in der Lage ist, die entscheidenden Mechanismen zu beschreiben.

(5) Benutzt man das semiotische Zeichenmodell (siehe z.B. Peirce, Morris oder Saussure), dann hat man immer die drei Elemente (i) Zeichenmaterial, (ii) Bezeichnetes sowie (iii) Bedeutungsstiftende Beziehung durch einen Zeichenbenutzer. Der Zeichenbenutzer ist ein ‚System‘, das bei vorhandener Bedeutungsbeziehung beim Auftreten eines Zeichenmaterials das Bezeichnete ‚generiert‘; die ‚Herstellung‘ einer Bedeutungsbeziehung geschieht entweder ’strukturell‘ durch ‚Wachstum‘ oder aber ‚adaptiv‘ durch Lernen. Sofern Bedeutungsbeziehungen vorliegen sind diese mehr oder weniger ‚determiniert‘.

(6)Während der ‚Entwicklungsweg‘ von der Organisationsebene der Atome (die selbst komplex sind) bis hin zu den ersten Zellen im Detail noch immer vielfältigen Forschungen unterliegt ist aber so viel klar, dass die heute auf der Erde bekannten Lebensformen dort beginnen, wo die Fähigkeit zur Selbstreproduktion beginnt. Diese Struktur der Selbstreproduktion kann man als (Primäres) Semiotisches System (PSS) bezeichnen: Als Zeichenmaterial dient die mRNA; dieses wird durch einen ‚geeigneten‘ Molekülkomplex (Zeichenbenutzer) anhand vorgegebener Rahmenbedingungen (Bedeutungsbeziehung) ‚übersetzt‘ in andere ‚geeignete‘ Molekülstrukturen (Bezeichnetes Objekt), die dann zur Bildung jener Strukturen führen, die wiederum reproduktionsfähig sind.

(7) Man könnte diese Art von Zeichenbenutzer ‚primäre‘ semiotische Systeme nennen, doch ist dies ein bischen willkürlich. Denn wenn sich bei einem Vererbungsprozess zwei Molekülketten zu einem neuen Molekül verbinden, könnte man auch sagen, dass der umgebende ‚Molekülraum‘ der Zeichenbenutzer ist, der bei Vorliegen gewisser Randbedingungen (Zeichenmaterial) eine vorgegebene Bedeutungsbeziehung in Form eines definierten chemischen Prozesses aktiviert, der die Randbedingungen in das durch diese Bedeutungsbeziehung definierte Bezeichnete (das neue vereinte Molekül) überführt/ übersetzt/ transformiert. Wandert man auf dem Gradienten des Organisationsniveaus immer weiter ’nach unten‘, dann kann man den Übergang von Atomen zu Molekülen ebenfalls als semiotischen Prozess modellieren. Dann wird der umgebende Raum aller Atome zum Zeichenbenutzer, dessen Bedeutungsbeziehung ansatzweise durch die sogenannten ‚Naturgesetze‘ beschrieben wird. Und noch weiter ’nach unten‘ lässt sich dann auch der Übergang von den subatomaren Teilchen zu den Atomen als semiotischer Prozess modellieren: die subatomaren Teilchen bilden jenes Zeichenmaterial, das der umgebende Raum aller verfügbaren Teilchen als Zeichenbenutzer nach vorgegebenen Zuordnungen zu unterschiedlichen Atomen (das jeweils durch die Zeichenbeziehung Bezeichnete)  ‚formt’/ ‚generiert’…

(8) Diese universelle Anwendbarkeit des semiotischen Modells ist schon ein wenig verblüffend. Es fragt sich aber, ob uns dies irgendwie weiterhilft?

(9) Folgt man dem Gradienten des Organisationsniveaus ‚von unten nach oben‘, dann lässt sich feststellen, dass der Zeichenbenutzer sich von einem ‚Raum von wirkenden Regeln auf der Basis seiner Bestandteile‘ immer mehr hin entwickelt zu konkret fassbaren Strukturen, die sich als ‚materielle Input-Output-Systeme‘ abgrenzen lassen von ihrer ‚Umgebung‘; dies beinhaltet die Konkretisierung der ‚Oberfläche‘ des Systems mit einer zusätzlichen Spezialisierung hin zu rein ’stützenden‘, ’sensitiven‘ und ‚aktiven‘ Komponenten. Bei dieser zunehmenden ‚Konkretisierung‘ einer Organisationsstruktur bleiben  alle anderen semiotischen Ebenen erhalten. Im Falle von Pflanzen und dann insbesondere bei den Tieren kann man dann beobachten, wie die ’strukturellen‘ Zeichenbenutzer zusätzliche Teilstrukturen ausbilden (Nervensystem, explizite Signalsysteme), die die Bindung an eine biologische Struktur überschreiten und die Möglichkeit schaffen, zeichenbasierte Kommunikation auszubilden, bei denen sowohl das Zeichenmaterial wie auch das Bezeichnete bis zum gewissen Grade ‚frei wählbar‘ ist und deren Bedeutungsbeziehungen weitgehend ‚frei definierbar‘ sind. Vielleicht bietet sich hier an, die Unterscheidung einzuführen zwischen einer ’strukturbedingten‘ Semiotik und einer ’strukturfreien‘ Semiotik. Die  ‚Freiheit‘ innerhalb der ’strukturfreien‘ Semiotik ist natürlich nicht im absoluten Sinne zu nehmen, da die körperlichen Randbedingungen klare Grenzen setzen. Mit der Genetik und dem Aufkommen der Informationstechnologie werden diese körperbedingten Randbedingunen aber ’schwimmend‘. Umgekehrt ist die ‚Bedingung‘ in der ’strukturbedingten‘ Semiotik nicht völlig starr, sondern –wie man am Beispiel der genetischen Vererbung sehen kann– umfasst kombinatorische Räume, deren Nutzung unterschiedliche Ergebnisse zulässt.

(10) Ein anderer Gradient neben dem Organisationsniveau ist sicher die ‚Koordinierung‘. Vom subatomaren zum Atomaren, vom Atom zu Molekül, vom Molekül zu Molekülstrukturen hin zu reproduzierenden Strukturen, zu Zellen, zu Vielzellern, usw. besteht die Notwendigkeit, die ‚Bestandteile‘ der jeweils größeren Einheit so zu ‚koordinieren‘, dass die ‚übergeordnete‘ Einheit funktional werden kann (in diesem Zusammenhang gehört vielleicht auch das Reden von der ‚Emergenz‘).  Koordinierung kann aber nur funktionieren, wenn die interagierenden Bestandteile in irgendeiner Weise ‚Austauschprozesse‘ organisieren können, deren unterscheidbaren Bestandteile als Zeichenmaterial funktionieren können, das mithilfe vorhandener Bedeutungsbeziehungen in entsprechende ‚intendierte‘ Veränderungen (das jeweils Bezeichnete) überführt werden können. M.a.W. ‚Koordinierung‘ impliziert ’semiotische‘ Prozesse, die eine hinreichende ‚Kommunikation‘ ermöglichen. Beliebte Beispiele solcher Kommunikation, die Koordinierung ermöglicht, stammen aus dem Bereich der Ameisen und Bienen oder aus dem Jagdverhalten von in Rudeln jagenden Raubtieren. Tatsächlich liegt solch eine Koordinierung ermöglichende Kommunikation aber als ermöglichender Faktor auf allen Organisationsebenen vor. Am komplexesten vielleicht ausgeprägt im Bereich der menschlichen Kultur, die sich seit ca. 12.000 Jahren immer rasanter entwickelt.

(11) Ein weiterer wichtiger Gradient kann die ‚Vorausberechenbarkeit (Planbarkeit)‘ des ‚eigenen‘ Zustands bzw. des Zustands ‚aller beteiligten Systeme‘ sein: um z.B. die verfügbaren begrenzten Ressourcen ‚besser nutzen‘ zu können, wäre es hilfreich, wenn man die möglichen ‚Folgezustände‘ sowohl des eigenen Körpers (Müdigkeit, Hunger, Durst,….) wie auch der jeweiligen Umgebungen weitmöglichst voraus berechnen könnte. Dies setzt voraus, dass sich sowohl Körper- wie auch Umgebungszustände ‚modellhaft‘ innerhalb des agierenden Systems ‚generieren‘ lassen, so dass man mittels dieser ‚Modelle‘ dann deren mögliches ‚Verhalten in der Zukunft‘ ‚ablesen‘ könnte. Je besser diese Modelle wären, um so größer der ‚Vorteil‘ in der Nutzung der knappen Ressourcen.

(12) Vor dem Hintergrund der Vorausberechenbarkeit stellen Nervensysteme, die sowohl die Zustände des eigenen Körpers wie auch wichtige Aspekte der jeweiligen Umgebung ‚modellieren‘ können, eine extreme Verbesserung dar. Dazu gehört auch die Art und Weise der Modelle selbst: welche Aspekte der Umgebung werden wie repräsentiert und wie sind diese Modelle geeignet, das ‚eigene‘ Verhalten bzgl. des eigenen Körpers und der jeweiligen Umwelt so zu ‚leiten‘, dass ‚passende‘ Aktionen erfolgen können, die dem System ‚tatsächlich nützen‘. Vor diesem Hintergrund ist das Phänomen des ‚Selbstbewusstseins‘ möglicherweise interpretierbar als jene Modellierungsleistung des Nervensystems, die dem System ein –notgedrungen stark vereinfachendes–  ‚Modell seiner selbst‘ zur Verfügung stellt. Dies ist eng verknüpft mit einem ‚Modell der Aussenwelt‘ (von dem wir heute auch wissen, dass es nur Teilaspekte der messbaren Umgebung abbildet und diese z.T. stark idealisierend oder gar verzerrt). Nichtsdestotrotz bildet dieses Phänomen der systemimmanenten ‚Modellierung‘ des Systems mit seiner Umgebung einen ungeheuerlichen Schritt dar. Damit können z.B. menschliche Systeme ihre Planungen durch Kommunikation in einer Weise koordinieren, die in wenigen tausend Jahren zu einer absoluten biologischen Explosion auf der Erde geführt hat, die durch die Verfügbarkeit von Computern viele körperbedingte Beschränkungen in der Modellierung weit hinter sich lassen kann. Mit der zusätzlich verfügbar werdenden Gentechnik können parallel auch die heute vorgegebenen körperlichen Begrenzungen in der Zukunft eventuell ‚weiter ausgedehnt‘ werden.

(13) Das ‚Staunen‘ der klassischen Philosophie über das Phänomen des Selbstbewusstseins und die Projizierung der hier vorfindlichen Objekte und Strukturen hinein in ‚metaphysische‘ Modelle von Mensch, Welt und Geist müssen angesichts der sich hier neu eröffnenden Perspektiven einer weitgehenden Revision unterzogen werden. Dies läuft  nach meiner Einschätzung nicht hinaus auf eine ‚Verabschiedung‘ des ‚Geistes‘ sondern auf ein weit umfassenderes und radikaleres Verständnis als je zuvor. Jenseits der unseligen Trennung von ‚klassischen Geist‘ und ‚klassischer Materie‘ gibt es nur noch ‚Geist.Materie‘ , oder wie immer man dieses vielschillernde Etwas nennen will, aus dem sich alles ‚herausentwickelt‘, was wir heute kennen, einschliesslich unserer menschlichen ‚Geistigkeit‘.

(14) Es gibt –wie immer– sehr viele Autoren, die man hier an den einzelnen Stellen zitieren könnte und müßte. Aber, wie schon mehrfach gesagt, es geht hier um meinen persönlichen Versuch, viele Einzelteile und Versatzstücke für mich selbst zu ‚ordnen‘ um mein eigenes Denken zu ‚orientieren‘, ohne dass ich irgendwie den Anspruch auf Originalität erhebe. In der Regel ist jeder Gedanke irgendwann immer schon mal von einem anderen gedacht worden. In den offiziellen Publikationen versuche ich mich denn auch an die üblichen Zitierregeln zu halten. Dies hier ist eine private ‚Spielwiese‘ für Gedanken…..

The Semiotic Dimension

ZUR GRAMMATIK DES SINNS (1)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 23.Oktober 2010
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderungen: 16.Februar 2019 (Verteilung der Worte im Abschnitt angepasst; einzelne Worte korrigiert)

(1) In dem Blogeintrag „Wir  sind nicht Nichts“ wird sichtbar, dass wir allein durch die Tatsache, dass wir aktuell leben, an einem  Geschehen teilhaben, das dessen Tragweite und Tiefe alles übersteigt, was wir normalerweise denken und
 kommunizieren.

(2) Der mögliche ‚Sinn‘ dieses Geschehens, also ein möglicher ‚Zusammenhang‘ zwischen all den vielen ‚Aspekten‘ dieses geradezu kosmischen Prozesses, enthüllt sich für uns Menschen –wenn überhaupt– zunächst nur als individuelles Erleben
 und Verstehen, d.h. als Erleben und Verstehen in einem einzelnen Menschen. Dies heißt NICHT, dass das Erleben und Verstehen eines einzelnen Menschen die ’sinnbegründenden‘ Sachverhalte aller erst ’schafft‘, sondern nur, dass diese
 ’sinnbegründenden‘ Sachverhalte in dem Moment des Erkennens in diesem jeweiligen Erkennen ‚bewusst‘ werden. ‚Bewusst‘ werden kann nur etwas, was schon ‚da‘ ist und in seinem Dasein ’so wirksam‘ ist, dass es ein ‚Bewusst-werden‘ bewirken kann.

(3) Darüber hinaus kann ein Sachverhalt, der eine ‚Bewusstwerdung‘ auslösen kann, diese Bewusstwerdung in mehr als einem einzelnen Menschen zugleich auslösen; ein Sonnenaufgang (oder Untergang) kann von vielen Menschen ‚gleichzeitig‘
wahrgenommen werden, wenn Sie sich ‚im Moment des Geschehens‘ an einem ‚geeigneten Ort‘ befinden.

(4) Schon diese wenigen Gedanken lassen    erkennen, dass sich Bewusstwerdung bei Menschen mit ‚Körperlichkeit‘ paart: unser Erleben setzt eine irgendwie geartete Körperlichkeit voraus, dazu eine ‚Raumstruktur‘, und eine ‚Gerichtetheit‘ von Ereignissen als ‚Jetzt‘ und ‚Vor dem Jetzt‘ (‚vorher‘, ‚vergangen‘ als ‚Erinnerbares‘).

(5) Aufgrund unserer ‚Lebenserfahrung‘ wissen wir,  wie ‚unterschiedlich‘ einzelne Menschen das allgemeine Leben trotz der vielen strukturellen Gemeinsamkeiten mit anderen Menschen erfahren können. Jeder ‚einzelne‘ Mensch nimmt in der
Raumstruktur des Erlebens einen charakteristischen individuellen ‚Ort‘ ein, von dem aus er die ‚umgebende Welt‘ in einer Weise erfährt, die sich absolut von der ‚Erlebnisspur‘ eines anderen Menschen unterscheidet.

(6) Eine ‚individuelle Erlebnisspur‘ enthält ‚externe‘  und ‚interne‘ Anteile: ‚extern‘ insofern ‚etwas‘ auf das individuelle Erleben einwirkt, und ‚intern‘, insofern diese Einwirkungen ‚Wirkungen hervorrufen‘, die den einzelnen Menschen in seinem ‚Erinnern‘ und ‚Fühlen‘ prägen.

(7) ‚Im‘ Erleben des einzelnen Menschen ‚mischen‘ sich die internen und externen Anteile kontinuierlich; je mehr ‚Erfahrung‘ jemand hat, umso mehr beeinflussen die ‚vorhandenen‘  internen Anteile die aktuell einwirkenden Anteile. Dies kann ‚hilfreich‘ sein, wenn ‚bisherige Erfahrung‘ das ‚aktuell Erlebte‘ in ‚geeigneter‘ Weise ‚einordnet‘; dies kann ‚hinderlich‘ sein wenn die bisherigen Erfahrungen irgendwie ‚verzerrt‘ sind und aktuelles Erleben ‚falsch‘ ‚interpretiert‘.

(8) Aufgrund unserer ‚Lebenserfahrung‘ wissen wir ferner, dass es zwischen dem Erleben verschiedener einzelner Menschen eine Art ‚Austausch‘ durch ‚Kommunikation‘ geben kann.

(9) Kommunikation besagt, dass verschiedene Menschen über ein ‚Zeichensystem‘ (‚Sprache‘ L)verfügen, das in der Lage ist, Aspekte des individuellen Erlebens mittels ‚intersubjektivem (= externen) Zeichenmaterial‘ so zu ‚repräsentieren‘, dass ein individuelles Erleben A bestimmte Erlebnisse von A mit einer ‚Zeichenfolge‘ Z so ‚enkodieren‘ kann (enkodieren: A –> Z), dass ein anderes individuelles
Erleben B diese Zeichenfolge Z so ‚dekodieren‘ kann (dekodieren: Z –> B), dass das Erleben in B eine ‚hinreichende Ähnlichkeit‘ mit dem Erleben von A aufweist  SIMILARITY(Z(A),Z(B)).

(10)  Das größte Problem in der zeichenbasierten (= ’sprachlichen‘) Kommunikation ist die Herstellung dieser Ähnlichkeit SIMILARITY() sowie die ’subjektive Vergewisserung‘, dass solch eine Ähnlichkeit in ‚hinreichendem Masse vorliegt.

(11) Da kein einzelner Mensch (unter ’normalen‘ Umständen),  in das Erleben eines anderen Menschen ‚direkt hineinschauen‘ kann, kann sich kein einzelner Mensch so ohne weiteres ’sicher‘ sein, dass der andere Mensch beim Gebrauch eines bestimmten Zeichenmaterials Z  (als Teil einer Sprache L) tatsächlich das ‚Gleiche‘ ‚meint‘ wie ‚er selbst‘.

(12) Zu solch einer ‚Vergewisserung‘ der ‚gemeinsamen Ähnlichkeit‘ SIMILARITY() bedarf es ‚Formen von Interaktion‘, die ‚unabhängig‘ von dem Zeichensystem (von der Sprache L) sind, die aber zugleich  geeignet sind, die ‚Vermutung einer Ähnlichkeit‘ zu ‚unterstützen‘. Dies berührt das Problem der ‚Entstehung von Sprache‘: wie ist es möglich, dass Menschen neues Zeichenmaterial Z als Teil von L so ‚einführen‘, dass sie ’sicher‘ sein können, dass ‚alle Benutzer von L‘ ‚das Gleiche‘ ‚meinen‘?

(13) Im Falle von ‚externen Ereignissen‘, die ‚wiederholbar‘ sind und die von allen Beteiligten ‚hinreichend ähnlich wahrgenommen werden können‘, erscheint die Einführung einer ‚Verbindung‘ von ‚erlebnisauslösendem Ereignis E‘, ‚korrespondierendem Erleben Ph‘ sowie ‚repräsentierendem Zeichen Z‘ ansatzweise ’nachvollziehbar‘. Ein ‚Zeichen‘ SYMB wäre dann diese komplexe Beziehung als ganzer, d.h. ein repräsentierendes Zeichen SYMB(E,Z,Ph) ist eine Beziehung zwischen E und Z und Ph, die als diese Beziehung ‚bewusst‘ ist und als solche ‚erinnert‘ werden kann (diese Überlegungen finden sich u.a. bei den großen Semiotikern Charles S.Peirce und Charles Morris, aber auch schon bei früheren Philosophen der Scholastik und zumindest auch bei griechischen Philosophen).

(14) Man kann ahnen, dass die Realisierung eines solchen Zeichenbegriffs in der Praxis eine sehr komplexe ‚Maschinerie‘ voraussetzt, die hier vorläufig kein Thema sein soll (hier wären all die schönen Dinge einschlägig, die wir aus den Sprachwissenschaften kennen, der Psychologie, der Ethologie, den Neurowissenschaften, der Phonetik, der Anthropologie, der Automatentheorie usw.).

(15) Nehmen wir also an, dass Menschen in der Lage sind, repräsentierende Zeichen SYMB_i(E,Z,Ph) einzuführen, denen jeweils korrespondierende ‚erinnerbare interne Strukturen‘ SYMB_i()_x entsprechen. Das ‚SYMB_i()_x‘ wäre dann das repräsentierende Symbol i, das von dem Individuum x erinnert werden kann. Dann wäre ein Menschen A in der Lage, internes Erleben Ph, zu dem es ein erinnerbares repräsentierendes Symbol SYMB_i(_,Z,Ph)_A gibt, mittels eines kodierenden Zeichenmaterials Z zu ‚äußern‘, und ein anderer Mensch B könnte mittels des Zeichenmaterials Z sein erinnerbares Zeichen SYMB_i(_,Z,Ph)_B ‚erinnern‘. Er würde dann ‚annehmen‘, dass das bei B durch Z induzierte Erleben Ph dem entspricht, was den A veranlasst hat, Z zu äußern.

(16) Schwieriger –bis unmöglich– wird es, wenn Menschen repräsentierende Zeichen für solches Erleben einführen wollen, dem keine direkten ‚intersubjektiven‘ Ereignisse korrespondieren (was aber sehr umfangreich geschieht).

Zwischenergebnis 1:
(i) Individuelles Erleben ist möglich, weil es etwas dem Erleben Externes gibt, was dieses Erleben auslöst
(ii) Sofern die Einführung repräsentierender Zeichen gelingt, können Individuen Teile ihres Erlebens durch solche Zeichen ‚kommunizieren‘

(17) Was immer es an ‚Sinn-relevanten‘ Zusammenhängen in dem für uns relevanten Teil des Kosmos geben mag, werden wir davon nur dann und nur soviel ‚erfahren‘, insoweit diese Zusammenhänge unserem individuellen Erleben und unserer symbolischer Kommunikation  zugänglich werden. Sofern wir ein ‚Fehlen‘ von Sinn in unserem Erleben und Kommunizieren konstatieren würden, würde dies zunächst nicht besagen, dass es keinen Sinn gibt, sondern nur, dass derjenige, der dieses Fehlen konstatiert, bislang nicht in der Lage war, sein Erleben  entsprechenden ‚Sinn-stiftenden‘ Sachverhalten in Berührung zu bringen.

(18) Ergänzend wäre anzumerken, dass der ‚Kontakt‘ mit Sinn-stiftenden Sachverhalten sogar stattgefunden haben kann, dass aber die ‚Art und Weise‘, wie dieses Erleben ‚kognitiv verarbeitet‘ wurde, nicht in der Lage war, die  ‚Sinn-relevanten Anteile‘ zu ‚erkennen‘. Erkennen ist (man lese die entsprechenden Einträge im Blog) kein völlig automatischer immer gleichförmiger Prozess, sondern ein komplexes dynamisches Geschehen, das bei gleicher Wahrnehmungslage zu gänzlich unterschiedlichen Ergebnissen kommen kann, je nachdem, ‚wie‘ jemand ‚aktiv denkt‘.

(19) Eine Feststellung, dass ‚Sinn‘ für uns ’nicht möglich‘ sei, ist unter Voraussetzung dieser Erkenntnislage für uns prinzipiell nicht möglich. Wir können entweder nur feststellen, dass wir ’noch nicht‘ in der Lage sind, einen Sinn explizit zu benennen oder eben, dass uns bestimmte Sachverhalte als für uns ’sinnvoll‘ erscheinen.

(20) Hier wäre jetzt zu klären ob und wieweit wir ‚mögliche sinnvollen Sachverhalte‘ konkret, beispielhaft  identifizieren  können.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

INTELLIGENZ (1)

(1) In der heutigen Welt erleben wir eine Inflation im Gebrauch der Wörter   ‚Intelligenz‘, ‚intelligent‘ und ’smart‘. Im technischen Bereich sind immer mehr Produkte ’smart‘ ohne dass jemand sich auch nur ansatzweise die Mühe macht, diese Sprechweisen zu rechtfertigen; man tut einfach so, als ob dies so sei.

(2) Die Wurzel des Redens über ‚Intelligenz‘ ist aber das Erleben von Menschen, die Art und Weise wie wir als Menschen das Verhalten anderer Menschen im Vergleich zur umgebenden Natur erleben. In nicht wenigen Aspekten hebt sich das Verhalten des Menschen dadurch ab, dass wir einem Menschen ‚Absicht‘ unterstellen, ‚Erinnerungen‘, ‚Denken‘, usw. Bestimmte dieser beobachtbaren Eigenschaften  zusammengenommen unterstellen wir, wenn wir von ‚Intelligenz‘ sprechen.

(3) In dem Masse, wie wir gelernt haben, das eigene menschliche Verhalten besser zu verstehen und in den Gesamtzusammenhang des biologischen Lebens einordnen zu können, haben wir auch begonnen, verschiedenen anderen Lebensformen (Insekten, Säugetiere, …) zumindest Ansätze solcher Eigenschaften wie ‚Wahrnehmung‘, ‚Erinnerung‘, ‚Absicht‘ usw. zu zusprechen.

(4) Abseits vom Verhalten von Menschen haben wir keine ‚Referenzmuster‘ für ‚intelligentes Verhalten‘. Wenn wir eine Maschine (Roboter) bauen und von ihr behaupten, sie sei ‚intelligent‘ dann gewinnt diese Aussage höchstens Bedeutung durch Bezug auf vergleichbares Verhalten von Menschen; aber ohne diesen Bezug macht es keinen Sinn, von ‚Intelligenz‘ zu sprechen. Der Begriff der Intelligenz‘ unabhängig vom Menschen hat zunächst keine Bedeutung.

(5) Es ist vor allem die Psychologie, die sich mit dem beobachtbaren Verhalten von Menschen wissenschaftlich auseinandersetzt (im weiteren Sinne auch die allgemeinere biologische Verhaltensforschung (Ethologie)). Die Psychologie hat seit mindestens Sir Francis Galton  (1822 – 1911) und Alfred Binet (1857 – 1911) versucht, das als ’normal‘ anzusehende Verhalten der Mehrheit der Menschen (eines Jahrgangs) zum Massstab  zu nehmen, um damit das Verhalten eines jeden einzelnen ‚Bezogen auf dieses allgemeine Verhalten‘ ‚einzuordnen‘ (zu ‚messen‘).

(6) Natürlich haftet jeder Auswahl von konkreten Verhaltensweisen etwas ‚Willkürliches‘ an, dennoch stellt eine ‚Zusammenstellung‘ der zu einer bestimmten Zeit in einer bestimmten Gesellschaft ‚üblichen Verhaltensweisen‘ aber auch mehr dar als nur eine ‚bloss zufällige‘ Anordnung.

(7) Seitdem die Psychologen begonnen haben, mit solchen (z.T. schon unterschiedlichen) Zusammenstellungen von Verhaltensweisen (‚Testbatterien‘) gezielt ‚Messungen‘ vorzunehmen hat sich gezeigt, dass die Messergebnisse erstaunliche Konsistenzen aufweisen; ja, es lassen sich Prognosen über ‚Verhaltensweisen und Erfolge in der Zukunft machen‘, die weit jenseits des ‚Zufälligen‘ sind.

(8) Daraus kann man nicht folgern, dass die gewählten Verhaltensweisen die einzig ‚richtigen‘ sind, die mit INTELLIGENZ korrelieren, aber man darf zurecht annehmen, dass die Strukturen, die mittels des beobachtbaren Verhaltens ‚indirekt‘ gemessen werden, offensichtlich eine gewisse ‚Konsistenz‘ aufweisen, die ‚hinter‘ all der beobachtbaren Vielheit ‚am Werke‘ ist.

(9) Wenn die Psychologie also von ‚Intelligenz‘ spricht, dann bezieht sie sich auf kulturell stark repräsentative Verhaltensweisen, die man ‚messen‘ kann und die in ihrer Gesamtheit einen Hinweis liefern, ob ein einzelner Menschen sich so verhält, wie der große ‚Durchschnitt‘ (IQ=100) oder aber davon ‚abweicht‘; entweder durch ‚geringere‘ Leistung (IQ < 100)  oder durch ‚mehr‘ Leistung (IQ > 100).

(10) Wichtig ist, dass die verschiedenen benutzten Verhaltenskataloge (Testbatterien) kein direkt beobachtbares  ‚Objekt‘ Intelligenz definieren, sondern eher eine Art ‚Umschreibung‘ von etwas darstellen, was man nicht direkt sehen, sondern nur indirekt ‚erschließen‘ kann. Der psychologische Begriff der Intelligenz ist ein ‚theoretisches Objekt‘, also ein ‚Begriff‘ (Term), der durch formalen Bezug zu unterschiedlichen Messvorgängen eine ‚operationale‘ Bedeutung besitzt. Was letztlich das beobachtbare (messbare) Verhalten erzeugt, ist damit in keiner Weise klar.

(11) In der Psychologie gab es eine Vielzahl von Deutungsansätzen, wie man das ‚hinter dem Verhalten‘ liegende ‚Etwas‘ denken sollte. Am meisten verbreitet ist jener Ansatz, der zwischen einer ANGEBORENEN und einer ERWORBENEN Struktur unterscheidet: die durch die Erbanlagen weitgehend bestimmte angeborene Struktur definiert eine MASCHINERIE der VERARBEITUNG, deren Qualität sich in der GESCHWINDIGKEIT und FEHLERFREIHEIT zeigt (man spricht hier oft von FLUIDER Intelligenz). Die erworbene Struktur ist jener WISSEN, jene ERFAHRUNG, die sich durch die Anwendung der Maschinerie ERGIBT, so zu sagen das ERGENIS VON VERARBEITUNG (man spricht hier oft von KRISTALLINER Intelligenz). Während die kristalline Intelligenz stark verhaltens- und umweltabhängig ist ist die fluide Intelligenz weitgehend genetisch determiniert.

(12) Ob und wieweit die theoretisch bedingten Spekulationen der Psychologen über die fluide und kristalline Intelligenz zutreffen muss letztlich die Neurowissenschaft, und hier insbesondere die Neuropsychologie, entscheiden. Diese untersuchen die ‚biologische Maschinerie‘ des Gehirns und die Wechselwirkung mit dem Beobachtbaren Verhalten. Allerdings sind die Neurowissenschaften auf die Verhaltenstheorien der Psychologen angewiesen. Ohne die fundierten Untersuchungen des Verhaltens hängen die neurologischen Befunde buchstäblich ‚in der Luft‘: was nützt die Prozessbeschreibung eines Neurons wenn man nicht weiss, auf welches Verhalten dies zu beziehen ist. Und da es beim Menschen auf komplexe Verhaltensweisen ankommt die das gesamte komplexe Gehirn voraussetzen, ist diese Aufgabe nicht ganz einfach zu lösen (aus theoretischen Überlegungen muss man davon ausgehen, dass wir diese Aufgabe mit den heute verfügbaren Gehirnen nicht vollständig werden lösen können).

(13) Intelligenz messen: der Beginn der empirischen Wissenschaften ging einher mit der Einsicht, dass man auf Dauer nur dann zu ‚objektiven‘ Daten kommen kann, wenn man die Messprozeduren auf REFERENZOBJEKTE beziehen kann, die von den subjektiven Zuständen des einzelnen Beobachters UNABHÄNGIG sind. So kam es zur Einführung von Referenzobjekten für die Länge (m), das Gewicht (kg), die Zeit (s) usw. (die im Laufe der Zeit immer wieder durch neue ‚Versionen‘ ersetzt wurden; z.B. die Definition der ‚Sekunde‘ (s) oder der Länge (m)).

(13.1) Die Psychologen hatten im Fall der ‚Intelligenz‘  ‚Referenztestverfahren‘ eingeführt, die zwar unabhängig von den Gefühlen der Beteiligten waren, aber  es gab  kein unabhängiges Referenzobjekt INTELLIGENZ. Man erklärte einfach die MEHRHEIT der gerade lebenden Menschen zum STANDARD und verglich die zu ‚messenden Menschen‘ so gesehen mit ’sich selbst‘. Es war dann nicht wirklich überraschend, dass man im Laufe der Jahrzehnte feststellen musste, dass sich das REFERENZOBJEKT (nämlich die Leistung der ‚Mehrheit‘) nachweisbar ‚verschob‘. Ein IQ=100 war vor 50 –oder noch mehr– Jahren etwas anderes als heute!
(13.2) Das, was das Referenzobjekt INTELLIGENZ ’stabil‘ macht, das ist seine genetische Determiniertheit. Das, was es flexibel/veränderlich macht, das ist die Modifizierbarkeit durch genetische Variabilität und individuelle Lernfähigkeit bzw. die kontinuierliche Veränderung der Umwelt durch den Menschen selbst, die als veränderte sekundäre Welt auf den Menschen zurückwirkt.
(13.3) Bei aller Kritik an den Unzulänglichkeiten der aktuellen Messmethoden sollte man aber festhalten, dass das bisherige Verfahren trotz allem ein Geniestreich war und die Psychologie geradezu revolutioniert hatte.
(13.4) Trotzdem stellt sich die Frage, ob man heute mit neueren Mitteln das Projekt der Erforschung der Intelligenz noch weiterführen könnte?

(14) Für die Psychologen ist es unmöglich, die dem beobachtbaren Verhalten zugrunde liegenden Strukturen ‚als solche‘ direkt zu erforschen. Die Neurowissenschaftler können dies ansatzweise, indem sie reale Gehirne untersuchen, aber nur sehr limitiert; sie können nicht mit einem lebenden Gehirn wirklich Experimente machen (nur mit den Gehirnen von Tieren, und dies ist mehr und mehr ethisch äußerst fragwürdig!)

(15) Mit dem Aufkommen der Informatik entwickelten sich nicht nur theoretische Konzepte der BERECHENBARKEIT, sondern mehr und mehr auch eine TECHNOLOGIE, die es erlaubt, Berechnungsprozesse technisch zu realisieren. Dies wiederum ermöglicht die MODELLIERUNG und SIMULATION von nahezu beliebigen Strukturen und Prozessen, auch solchen, die BIOLOGISCHE Systeme modellieren und simulieren, einschließlich des GEHIRNS. Damit ist es prinzipiell möglich, zu jeder VERHALTENSWEISE, die in sogenannten Intelligenztests im Rahmen von TESTAUFGABEN gemessen werden, KÜNSTLICHE INTELLIGENZ (-STRUKTUREN) (KI := Künstliche Intelligenz, AI := Artificial Intelligence, CI := Computational Intelligence)  zu entwickeln, die in der Lage sind, genau diese Testaufgaben mit einem gewünschten IQ zu lösen. Auf diese Weise würde man eine ganze Kollektion von unterschiedlichen IQ-REFERENZOBJEKTEN erstellen können, die sich nicht mehr verändern und die –so wie das Kilogramm (kg), das Meter (m) oder die Sekunde (s)– dann als WIRKLICHE REFERENZOBJEKTE FÜR INTELLIGENZ dienen könnten. Es wäre dann  möglich, FORMEN VON INTELLIGENZ OBJEKTIV definieren zu können, die VERSCHIEDEN sind von der AKTUELLEN MENSCHLICHEN INTELLIGENZ. Auch könnte man damit den verschiedenen Formen TIERISCHER INTELLIGENZ mehr Rechnung tragen.

Körper – Emergenz – Kognition – Kognitiver Müll

(1) Der Mensch ist durch seinen Körper primär ein animalisches Wesen, ein Körper im Prozess der Körperwerdung als Teil des Biologischen.

(2) Dieser Körper zeigt Eigenschaften, Funktionen, die sich nicht aus den Bestandteilen des Körpers als solchen erklären lassen, sondern nur durch ihr Zusammenwirken (Emergenz) sowohl mit anderen Teilen des Körpers wie auch mit der umgebenden Körperwelt.

(3) Dies bedeutet,dass diese emergenten Eigenschaften und Funktionen eine wirkende Wirklichkeitsebene aufspannen, die als solche kein greifbares Objekt ist sondern nur als Veränderungsprozess (induziert Zeit) aufscheint.

(4) Eine Veränderung (Funktion) als solche ist kein Objekt, aber kann von einem intelligenten Wesen wahrgenommen und als bestimmbare Grösse gespeichert werden.

(5) Als erinnerbare Veränderung kann eine emergente Eigenschaft zu einem kognitiven Objekt in einem einzelnen Körper werden.

(6) Über symbolische Kommunikation kann solch ein kognitives Objekt bedingt kognitiv kopiert und damit verteilt werden.

(7) Die Gesamtheit der kognitiven Objekte (und ihre kommunizierten Kopien) können ein Gesamtbild ergeben von dem, was wir als ‚Welt‘ wahrnehmen, erkennen und kommunizieren.

(8) Das biologische System als kognitiver Agent kann einer Vielzahl von körpereigenen Prozessen unterliegen, die die Speicherung und Erinnerung kognitiver Objekte beeinflussen. Das kognitive Objekt hat von daher immer nur eine begrenzte Ähnlichkeit mit denjenigen emergenten Eigenschaften, die zur seiner Entstehung geführt haben (alltagssprachlich: viele Menschen unterliegen psychologischen Einstellungen wie ‚Eitelkeit‘, ‚Hochmut‘, ‚Arroganz‘, ‚Selbstfixierung‘, ‚Ängsten‘, ‚Minderwertigkeitsgefühlen‘, ‚diversen Süchten‘ usw., die in ihrer psychischen Kraft andere kognitive Wirkungsfaktoren so überlagern können, dass sie nahezu ‚blind‘ werden für das, was wirklich ist. Nach und nach, ohne dass die Betreffenden es  merken, generiert ihre kognitive Maschinerie aufgrund dieser anderen Einflüsse ein ‚Bild von der Welt‘, das  zunehmend ‚verzerrt‘, ‚falsch‘ ist. Die Möglichkeit, diese Verzerrungen ‚aus sich heraus‘ zu erkennen sind sehr ungünstig; wenn nicht starke Ereignisse aus der Umgebung diese Systeme aus ihrer negativen Schleife herausreißen (wie?). Die Systeme selbst finden sich ganz ‚toll‘, aber die kognitive Welt ‚in ihrem Kopf‘ ist nicht die Welt, wie sie sich jenseits ’störender psychologischer Tendenzen‘ zeigen kann und zeigt.

(9) Kognitive Agenten, deren Kommunikation stark verzerrenden Faktoren unterliegt und die innerhalb ihrer individuellen kognitiven Prozesse die Transformierung von Körper- und Aussenweltwahrnehmung ebenfalls verzerren, tendieren dazu, ein pathologisches Bild von sich und der umgebenden Welt aufzubauen, was sich immer mehr –und dann auch immer schneller– in einen verzerrten Zustand hineinbewegt, der dann diesem kognitiven Agenten immer weniger ‚hilft‘ und immer mehr ’schadet‘ (Selbstzerstörung durch verzerrtes Wahrnehmen und Denken).

(10) Aus diesem Blickwinkel erscheint die sogenannte moderne Informationsgesellschaft nicht nur als rein positiver Raum sondern auch potentiell sehr gefährlich, da die Verbreitung von verzerrten kognitiven Objekten leicht ist und die kommerzielle Nutzung von von verzerrten kognitiven Objekten  in der Regel einfacher und gewinnbringender ist als umgekehrt. Daraus würde folgen, dass überwiegend ‚geldorientierte‘ Informationsgesellschaften sich im Laufe der Zeit selbst kognitiv so ‚zumüllen‘, dass die wenigen nichtverzerrten kognitiven Objekte immer weniger auffindbar sein werden. Es entsteht ein Raum mit kognitiven Objekte, der als solcher verzerrt ist,  korrespondierend sind aber auch  alle kognitiven Räume in den Körpern der kognitiven Agenten selbst ‚verzerrt‘. Dieser gesellschaftlich organisierten Dunkelheit zu entkommen ist für ein einzelnes kognitives System schwer bis unmöglich. Wohin immer es seine individuelle Wahrnehmung lenken will, es wird dann fast nur noch verzerrte kognitive Objekte vorfinden. Die Produktion von ‚Müll‘ ist halt so unendlich viel einfacher; man muss sich um nichts kümmern und man denkt und redet einfach so drauflos…..es ist doch sowieso egal…..(sagt sich die ‚Ethik des (kognitiven) Mülls‘). In einer ‚verzerrten Infomationsgesellschaft‘ fühlt sich keiner schuldig, aber alle produzieren faktisch den Müll mit, der sich in der Verzerrung selbst legitimiert.

Wissenschaftliches Denken (2)

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 13.März 2010
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Folgender früherer Beitrag könnte als Vorbereitung dienen: HIER.

(1) Es gibt unterschiedliche Perspektiven, wie man das, was wir als ‚Denken‘ bezeichnen, betrachten kann. Je nachdem, welche dieser Perspektiven wir wählen, ergibt sich ein ganz unterschiedliches Bild von diesem ‚Denken‘.

(2) Neben dem ALLTAGSDENKEN gibt es seit ein paar hundert Jahren auch das sogenannten WISSENSCHAFTLICHE DENKEN. Das wissenschaftliche Denken setzt das alltägliche Denken gewissermassen als primären Bezugspunkt voraus, hebt sich aber dennoch von ihm ab und widerspricht ihm letztlich in vielen Punkten. Dies liegt daran, dass das ALLTAGSDENKEN eine Reihe von ANNAHMEN macht, die FALSCH sind, aber im Alltag meistens sehr NÜTZLICH.

(3) Wie das Alltagsdenken nimmt auch das wissenschaftliche Denken an, dass es eine gemeinsam geteilte EXTERNE WELT gibt, in der vielfältigste EREIGNISSE VORKOMMEN. Im Unterschied zum ALLTAGSDENKEN akzeptiert das WISSENCHAFTLICHE DENKEN aber nur jene DATEN von der externen Welt, die nach klar vereinbarten MESSMETHODEN REPRODUZIERBAR von JEDEM MENSCHEN GEMESSEN werden  können.

 

(4) Zum MESSEN gehört die Einführung einer geeigneten NORM (STANDARD), die für alle, die Messen wollen, an allen Orten und zu jedem Zeitpunkt innerhalb einer bestimmten GENAUIGKEIT GLEICH sein muss (z.B. ‚kg‘, ‚m‘, ’s’…). Diese Stanbdards werden von einer internationalen Behörde verwaltet.

(5) MESSUNGEN sind immer PUNKTUELL an einem BESTIMMTEN ORT zu einer BESTIMMTEN ZEIT, durchgeführt mit einem BESTIMMTEN MESSGERÄT von bestimmten Personen nach einem BESTIMMTEN VERFAHREN unter BESTIMMTEN BEDINGUNGEN. Das ERGEBNIS von MESSUNGEN sind MESSWERTE, nämlich die Angabe der gemessenen NORM (EINHEIT) sowie eine Zahl bezogen auf die Norm (z.B. (3.5, m) oder (4.333, s) usw.).

(6) Messwerte werden in einer geeigneten DATENSPRACHE L_data aufgeschrieben in Form von MESSPROTOKOLLEN. Ein Messwert wird hier auch DATUM genannt und eine Menge von Messerten DATEN.

(7) Nur das, was als reproduzierbarer  Messwert vorliegt gilt als eine Eigenschaft der EXTERNEN (=EMPIRISCHEN) WELT. Alles andere existiert für die Wissenschaft NICHT.

(8) Bevor FORSCHER Messen können müssen Sie natürlich ein VORVERSTÄNDNIS darüber besitzen, was sie überhaupt messen wollen. Sofern es ihnen gelingt, sich solch ein Vorverständnis zu erarbeiten verfügen sie über einen MÖGLICHEN BLICK (VIEW) auf die externe Welt. Unter Voraussetzung eines solchen VORVERSTÄNDNISSES können sie dann überlegen und planen, was sie wie MESSEN wollen. Unter Umständen müssen sie auch erst neue Messverfahren ERFINDEN, um das messen zu können, was sie als WICHTIG VERMUTEN.

(9) Das, WAS MAN MESSEN KANN und das, WAS MAN AUFGRUND EINES VORVERSTÄNDNISSES INS AUGE FASSEN KANN muss NICHT DECKUNGSGLEICH sein. In der Regel kann man immer nur einen Teil von dem messen, was man im Vorverständnis ‚vor Augen hat‘.

(10) DATEN als solche sagen nahezu nichts aus über die externe Welt. Interessant werden Daten erst dann, wenn man sie in ZUSAMMENHÄNGE einordnen kann. Beispiele für solche Zusammenhänge sind ZEITLICHE (TEMPORAL) oder RÄUMLICHE (SPATIAL) MUSTER (PATTERN). Wenn also z.B. bestimmte  Farben immer nur in bestimmten gleichen räumlichen Anordnungen auftreten, dann spricht dies für einen OBJEKTZUSAMMENHANG; gehen andererseits bestimmte Ereignisse zeitlich immer bestimmten anderen Ereignissen voraus, spricht dies für einen KAUSALZUSAMMENHANG. Usw.

(11) Solche ZUSAMMENHÄNGE kann man NICHT DIREKT WAHRNEHMEN, sondern diese müssen SEKUNDÄR KONSTRUIERT werden, um dann AKTIV ZU SCHAUEN, WELCHE DATEN sich in welche ZUSAMMENHÄNGE EINORDNEN lassen. Dies ist eine EXPLORATIVE Tätigkeit.

(12) Um über diese explorative Tätigkeit des Konstruierens von Zusamenhängen und über das tentative Einordnen der Daten in Zusammenhänge SPRECHEN zu können, benötigt man eine geeignete THEORIESPRACHE L_theory. In der Regel benutzt man dafür heute FORMALE SPRACHEN (MATHEMATIK, LOGIK, MENGENLEHRE). Mit solch einer THEORIESPRACHE kann man dann beliebige KÜNSTLICHE MENGEN, BEZIEHUNGEN ZWISCHEN MENGEN sowie PROZESSE mit OBJEKTEN dieser Mengen definieren und mit Hilfe von geeigneten LOGISCHEN FOLGERUNGSBEGRIFFEN BEWEISE (ABLEITUNGEN, PROOFs) konstruieren, die dann zeigen, ob aus einer GEGEBENEN KONSTELLATION sich eine bestimmte FOLGEKONSTELLATION ABLEITEN (BEWEISEN) lässt oder nicht. Im Zeitalter des Computers kann vieles davon auch COMPUTERGESTÜTZT (COMPUTERAIDED) getan werden, z.B. das MODELLIEREN bzw. THORIE FROMULIEREN wie auch das SIMULIEREN (automatisierte Beweise) wie auch das automatische VERIFIZIEREN (Überprüfen bestimmter Eigenschaften im Raum ALLER theoretischen Möglichkeiten mittels z.B. MODEL-CHECKING).

(13) Sofern Messverfahren verfügbar sind und erste theoretische Modelle samt all den formalen Hilfswerkzeugen (Beweisbegriff usw.) kann man mögliche ABLEITUNGEN von möglichen ZUKÜNFTIGEN ZUSTÄNDEN auch dazu benutzen, um gezielt EXPERIMENTE zu machen. Wenn ein theoretisches Modell die PROGNOSE erlaubt, dass bei Vorliegen einer bestimmten KONSTELLATION K ein ganz bestimmter FOLGEZUSTAND F mit einer gewissen Wahrscheinlichkeit P eintritt, dann kann man versuchen, in der realen Welt eine VERSUCHSANORDNUNG aufzubauen, in der man die Konstellation K bewusst HERSTELLT und man dann BEOBACHTET (MISST), welche Daten auftreten. Liegen Daten vor, kann gefragt werden, ob diese im Sinne des theoretisch prognostizierten FOLGEZUSTANDES F interpretiert werden können. Ist dies der Fall, wird dies als BESTÄTIGUNG der Theorie gewertet. Im anderen Fall ist unklar, wie dies zu interpretieren ist: War der Versuchsaufbau falsch? Gelingt es wiederholt nicht, die Prognose zu bestätigen wird das theoretische Modell auf jeden Fall an GLAUBWÜRDIGKEIT verlieren.

(14) Das KONSTRUIEREN VON MODELLEN mittels formaler THEORIESPRACHERN sowie die UNTERSUCHUNG DER EIGENSCHAFTEN dieser formalen Strukturen findet sich so im alltäglichen Denken NICHT; es wäre auch garnicht möglich, da im Alltagsdenken normalerweise nicht immer ganz klar ist, was denn genau die Daten sind. Ferner ist die Alltagssprache in ihrer GRAMMATIK und BEDEUTUNGSSTRUKTUR so unscharf, dass FORMALE LOGISCHE BEWEISE damit nicht geführt werden können. Während der unscharfe Charakter der Alltagssprache und das alltägliche –grundlegend intuitive– Denken für die Zwecke des Alltags sehr gut geeignet ist, ist sie für die Konstruktion wissenschaftlicher Theorien vollständig unzulänglich. Nichtsdestotrotz bildet das alltägliche Denken mit der Alltagssprache die unumgängliche Basis für jedes wissenschaftliches Denken.

(15) WISSENSCHAFTLICHE THEORIEN stellen von daher einerseits einen grossen FORTSCHRITT im Denken dar, zugleich sind sie aber bislang reduziert auf geringe Ausschnitte der insgesamt zur Erklärung anstehenden erfahrbaren Welt. Der menschliche Körper kann in manchen Bereichen partiell sicher mehr von der Welt erfahren als es das wissenschaftliche Messen bislang gestattet (umgekehrt aber auch: in der Wissenschaft kann man sehr viele Eigenschaften messen, die der menschlichen Wahrnehmung völlig unzugänglich sind), aber die Unschärfe der körpereigenen Wahrnehmung sowie die Unschärfe des intuitiven Alltagsdenkens laufen beständig Gefahr, Strukturen zu sehen, die es so garnicht gibt (das subjektive ‚Wohlfühlen‘ im Rahmen bestimmter Denkvorstellungen ist kein Garant dafür, dass diese Vorstellungen ‚wahr‘ sind).

(16) Es sollte auch darauf hingewiesen werden dass es nunmehr zwar schon seit einigen hundert Jahren eine EXPERIMENTELLE (EMPIRISCHE) WISSENSCHAFT gibt, dass es aber bis heute nicht gelungen ist, einen einheitlichen THEORIEBEGRIFF in den verschiedenen wissenschaftlichen Disziplinen zu verankern. Während es bzgl. des MESSENS eine einigermassen Übereinstimmung zu geben scheint findet sich dies im Bereich Modell- bzw. THEORIEBILDUNG eher nicht. Zwar gab es im 20.Jh. interessante Ansätze zu einer einheitlichen WISSENSCHAFTSTHEORIE, doch nach Aufdeckung grundlegender Probleme im Aufbau von Theorien sind diese Ansätze wieder zerfallen. Man begnügt sich jetzt mit vielen HISTORISCHEN Untersuchungen zur Wissenschaftsgeschichte oder mit der Untersuchung SPEZIELLEER FORMALISMEN, aber ein einheitliches THEORIEKONZEPT kann man in den Disziplinen nicht finden. Vielmals  kann man sogar den Eindruck haben, dass ausser einer  Unmenge von Messwerten keinerlei ernsthafte theoretische Ansätze vorliegen (statistische Modelle sind keine vollen Theorien).

Eine Fortsetzung findet sich HIER.

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Vereinfachtes Schaubild Welt - Forscher - Messen - Theorie - Experiment
Vereinfachtes Schaubild Welt – Forscher – Messen – Theorie – Experiment