Archiv der Kategorie: Genotyp

KULTUR BEI NICHT-MENSCHEN? EVOLUTION IN VIER DIMENSIONEN. Nachhall zu Jablonka & Lamb (2017, 2005)

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.-17.Januar 2022, 07:30 h
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (gerd@doeben-henisch.de

VORBEMERKUNG

Dieser Text verstand sich ursprünglich als ein ‚Trigger‘, der auf ein Thema verweist, das von Interesse zu sein scheint, ohne dass die vielen Aspekte des Themas hier voll ausgeleuchtet werden (können). Mittlerweile ist der Text eine Einleitung für eine längere Diskussion mit der Position von Jablonka & Lamb geworden.

KONTEXT

Das Thema ‚Evolution des Lebens‘ ist in diesem Blog schon sehr oft besprochen und diskutiert worden.[2] Dabei nimmt der Autor cagent die Position ein, dass Evolution die Eigenschaft einer Population P ist, die in einer Umgebung U vorkommt, wobei diese Umgebung ‚dynamisch‘ ist, d.h. nicht stationär; sie ändert sich permanent. Um das jeweils ‚aktuelle Format‘ (Genotyp [1f] und Phänotyp [1g]) in der Abfolge der Zustände der Umgebung U ‚am Leben‘ zu erhalten (‚im Spiel zu bleiben‘), müssen die Mitglieder der Population P sowohl ihr Format kontinuierlich ‚anpassen‘ wie auch ihren Verhaltensraum. [2b] Primär geschieht dies über die genetischen Informationen, die ‚Konstruktionsanweisungen‘ enthalten, wie sich ein neuer Organismus entwickeln sollte. Bei der ‚Reproduktion‘ dieser ‚Anweisungen‘ wie auch bei der ‚Umsetzung der Anweisung‘ in einen Konstruktionsprozess (‚Wachstum‘, ‚Ontogenese‘ [1h]), treten mehr oder weniger große ‚Veränderungen‘ auf, die eine Formatänderung bedingen können. Wie neuere Erkenntnisse nahelegen, können die genetischen Informationen auch schon zu Lebzeiten eines individuellen Organismus auf molekularer Ebene verändert werden. Es wird grob eine Interaktion zwischen dem Gesamtsystem und den genetischen Informationen angenommen. [3] Klar ist aber auch, dass solche Lebensformen, die über eine hinreichend differenzierte Wahrnehmung und hinreichende soziale Kommunikation verfügen, unabhängig von den genetischen Informationen durch Änderungen des Verhaltens, eventuell noch ergänzt um individuell unabhängige Artefakte der Umgebung, Veränderungen der Umwelt herbeiführen können, die als Umgebung spezifisch auf die Mitglieder einer Population ‚rückwirken‘ können. Die Möglichkeit der Artefakt-Gesteuerten Verhaltensänderungen bildet einen ‚offenen Raum‘ ab, der von Nicht-Menschen und Menschen besetzt wird. Jenen Teilraum, den wir Menschen als ‚Kultur‘ [4] bezeichnen, von jenem Teilraum abzugrenzen, der nicht als ‚Kultur‘ zu verstehen ist, ist nicht ganz einfach. In der Sicht von Jablonka und Lamb wird zumindest aufgezeigt, dass auch nicht-menschliche Populationen grundlegende Muster aufweisen, die man als ‚Kultur‘ bezeichnen könnte.

ERSTE THESEN AUS DEM BUCH

Erste Thesen zum Buch werden anhand der Zusammenfassung in dem Kurzartikel „Traditionen und kumulierende Evolution: Wie sich ein neuer Lebensstil entwickelt“ [1b] hier vorgestellt. Im Anschluss werden diese Anfangsthesen dann anhand der Deutschen — gegenüber der Englischen Ausgabe erweiterten — Ausgabe von 2017 weiter differenziert.

BILD 1: Infografik zum Kurztext von Jablonka & Lamb [1b]

Die Infografik in Bild 1 zeigt vereinfachend und kondensiert die zentralen Aussagen aus dem Kurztext [1b]. Man kann sie wie folgt zusammenfassen:

  1. Die hier referierten Erkenntnisse entstammen den Forschungen von menschlichen Wissenschaftlerinnen, die wiederum auf eine Vielzahl anderer Wissenschaftler und Wissenschaftlerinnen aufbauen.
  2. Der Forschungsgegenstand sind nicht-menschliche Lebensformen, in diesem Fall Affen, insbesondere japanische Makaken.
  3. Generell werden Populationen einer bestimmten Lebensform betrachtet, die in einer bestimmten Umgebung leben, wobei die Umgebung sich ändern kann.
  4. Wichtig ist, dass die Population für ihre eigenen Mitglieder auch eine Form von Umgebung bildet: der Körper eines biologischen Individuums ist für die jeweils anderen auch Teil der Umgebung.
  5. Neue Umweltreize in der Umgebung können dazu führen, dass sich bei mindestens einem Mitglied der Population eine neue Verhaltensantwort heraus bildet.
  6. Neue Verhaltensantworten eines Mitglieds der Population sind selbst neue Reize, die wiederum andere Mitglieder dazu anregen können, diese neuen Verhaltensantworten zu übernehmen.
  7. Verhaltensantworten können abgewandelt werden sowohl in der Form der Ausführung wie auch in Bezug auf die Handlungssituation.
  8. Jüngere Mitglieder einer Population sind tendenziell eher bereit, etwas Neues zu übernehmen und abzuwandeln als ältere Mitglieder.
  9. Wenn ein neues Verhalten bei den älteren Mitgliedern ‚angekommen‘ ist, dann sind z.B. die ‚Mütter‚ diejenigen, die neues Verhalten an Jüngere ‚weitergeben‘.
  10. Verhalten kann sich — auch ohne Sprache — über mehrere Generationen erhalten.
  11. Es wird beobachtet, dass die Veränderung der Wirkung eines genetischen Programms schon zu Lebzeiten eines Organismus stattfinden kann. Diese Phänomene werden durch den Ausdruck ‚Epigenetik‘ adressiert. [1i]

Dies sind ‚Thesen‘, die man dem Kurztext [1b] entnehmen kann. Es fehlen in dem Kurztext natürlich alle ausführlichen Erläuterungen und Begründungen. Dennoch kann schon diese Kurzform zu verschiedenen Überlegungen Anlass bieten.

ERSTE ÜBERLEGUNGEN

Klar wird schon durch diesen Kurztext, dass wir es bei der Analyse von biologischen Lebensformen mit mindestens den folgenden ‚Dimensionen‘ zu tun haben:

  1. Es gibt eine vorfindliche ‚Natur‘ als eine veränderliche Größe mit ’naturspezifischen‘ Eigenschaften, und
  2. in dieser Natur gibt es als ‚Bestandteil der Natur‘ biologische Populationen, die für ihre eigenen Mitglieder wie auch für andere Populationen selbst als ‚Umwelt‘ erscheinen.
  3. Populationen sind selbst veränderlich.
  4. Die Mitglieder einer biologischen Population sind in der Lage auf Eigenschaften der umgebenden Natur — mit den anderen Mitgliedern der Population als Bestandteil der Umgebung (Selbstbezüglichkeit einer Population) — durch ein spezifisches Verhalten zu reagieren.
  5. Ein Verhalten kann sowohl in seiner Form wie auch bezogen auf einen konkreten Anlass verändert werden.
  6. Aufgrund der Selbstbezüglichkeit einer Population kann eine Population daher
    1. das eigene Verhalten wechselwirkend verändern
    2. durch das veränderte Verhalten mit der Umgebung veränderlich interagieren (und dadurch in gewissem Umfang die Umgebung selbst verändern)
  7. Es zeigt sich, dass Mitglieder einer Population bestimmte Verhaltensweisen in Abhängigkeit von Umgebungseigenschaften auch über längere Zeiträume erinnern können.
  8. Aufgrund der unterschiedlichen Lebenszeiten wie auch durch das Erinnerungsvermögen können neue Verhaltensweisen zwischen Generationen übertragen werden, was eine Tradierung über eine Generation hinaus ermöglicht.
  9. Ferner wird beobachtet, dass sich die Wirkung genetischer Informationen im Kontext der Reproduktion meta-genetisch (epigenetisch) unterschiedlich auswirken können, wobei diese meta-genetische (epigenetische) Veränderungen zu Lebzeiten stattfinden. Die Kombination aus genetischen und epigenetischen Faktoren kann sich auf die Nachkommen auswirken. Die Wirkung solcher epigenetisch beeinflussbaren Änderungen im tatsächlichen Verhalten (Phänotyp) ist nicht linear. [1i]

Die Rolle von ’symbolischer Interaktion‘, in komplexen Formen als ‚Sprache‘, wird aus dem Kurztext [1b] noch nicht klar.

DEFINTIONS-HYPOTHESEN

Für die weitere Diskussion ist es hilfreich, sich schon an dieser Stelle darüber Klarheit zu verschaffen, welches die grundlegenden (Leit-)Begriffe sind, die den weiteren Diskurs prägen. Dies soll in Form ‚tentativer‘ Definitionen erfolgen. Sollten diese sich im weiteren Verlauf als ‚unangemessen‘ erweisen, dann kann man sie entsprechend abändern.

Drei Begriffe erscheinen an dieser Stelle als solche Leitbegriffe eine Rolle zu spielen: ‚Population‘, ‚Kultur‘ und — der Diskussion vorgreifend — ‚Gesellschaft‘.

Def0: Population

Unter Population soll hier minimal eine solche Gruppierung von biologischen Individuen verstanden werden, die eine biologische Fortpflanzungsgemeinschaft bilden.(Dies ist enger als die übliche Verwendung des Begriffs ‚Population‘, siehe [4a])

Def0: Kultur

Im üblichen Sprachgebrauch wird der Begriff ‚Kultur‘ auf die Population von ‚Menschen‘ beschränkt. [4] Hier wird der Vorschlag gemacht, ‚Kultur‘ dort beginnen zu lassen, wo biologische Populationen zu minimaler Traditionsbildung aufgrund ihres Verhaltensraumes fähig sind. Damit erweitert sich der Anwendungsbereich des Begriffs der ‚Kultur‘ über die Population der Menschen hinaus auf viele andere biologische Populationen, aber nicht auf alle.

Def0: Gesellschaft

Der Begriff ‚Gesellschaft‘ gewinnt je nach Betrachtungswinkel (einer Disziplin) ganz unterschiedliche Bedeutungen. (Vgl. [4b]) Hier soll der Begriff mit Bezug auf [4a], [4] minimalistisch dahingehend bestimmt werden, dass biologisch eine ‚Gesellschaft‘ minimal vorliegt, wenn es eine biologische Population gibt [4a], in der auf minimale Weise ‚Kultur‘ [4] vorkommt.

Es soll weiter betrachtet werden, wie diese Prozesse im einzelnen zu verstehen sind und was dies in philosophischer Sicht bedeuten kann.

ANMERKUNGEN

wkp := Wikipedia

[1] Regina Oehler, Petra Gehring, Volker Mosbrugger (Hrsg.), 2017, Reihe: Senckenberg-Buch 78, „Biologie und Ethik: Leben als Projekt. Ein Funkkolleg Lesebuch“, Stuttgart, E. Schweizerbart’sche Verlagsbuchhandlung (Nägele u. Obermiller) und Senckenberg Gesellschaft für Naturforschung

[1b] Eva Jablonka, Marion J. Lamb, 2017, „Traditionen und kumulierende Evolution: Wie sich ein neuer Lebensstil entwickelt“, In: [1], SS.141-146, verweist auf [1c]

[1c] Eva Jablonka, Marion J. Lamb, 2017, „Evolution in vier Dimensionen. Wie Genetik, Epigenetik, Verhalten und Symbole die Geschichte des Lebens prägen“, Stuttgart, S. Hirzel Verlag. Ursprünglich auf English (2005) als „Evolution in Four Dimensions: Genetic, Epigenetic, Behavioral, and Symbolic Variation in the History of Life“ , MIT Press: siehe: https://en.wikipedia.org/wiki/Evolution_in_Four_Dimensions. Auf der Buchseite Hinweise auf einige Review-Artikel. Die Englische Zusammenfassung des Buches auf der MIT Press Webseite lautet wie folgt: „Ideas about heredity and evolution are undergoing a revolutionary change. New findings in molecular biology challenge the gene-centered version of Darwinian theory according to which adaptation occurs only through natural selection of chance DNA variations. In Evolution in Four Dimensions, Eva Jablonka and Marion Lamb argue that there is more to heredity than genes. They trace four „dimensions“ in evolution—four inheritance systems that play a role in evolution: genetic, epigenetic (or non-DNA cellular transmission of traits), behavioral, and symbolic (transmission through language and other forms of symbolic communication). These systems, they argue, can all provide variations on which natural selection can act. Evolution in Four Dimensions offers a richer, more complex view of evolution than the gene-based, one-dimensional view held by many today. The new synthesis advanced by Jablonka and Lamb makes clear that induced and acquired changes also play a role in evolution. After discussing each of the four inheritance systems in detail, Jablonka and Lamb „put Humpty Dumpty together again“ by showing how all of these systems interact. They consider how each may have originated and guided evolutionary history and they discuss the social and philosophical implications of the four-dimensional view of evolution. Each chapter ends with a dialogue in which the authors engage the contrarieties of the fictional (and skeptical) „I.M.,“ or Ifcha Mistabra—Aramaic for „the opposite conjecture“—refining their arguments against I.M.’s vigorous counterarguments. The lucid and accessible text is accompanied by artist-physician Anna Zeligowski’s lively drawings, which humorously and effectively illustrate the authors‘ points.“, siehe: https://mitpress.mit.edu/books/evolution-four-dimensions.“

Die Deutsche Ausgabe von 2017 ist eine überarbeitete, erweiterte Fassung gegenüber den Englischen Fassung. Anhand dieser erweiterten Deutschen Fassung werden die Anfangsthesen dann weiter entwickelt.

[1d] Eva Jablonka in wkp-de: https://de.wikipedia.org/wiki/Eva_Jablonka

[1e] Marion J. Lamb in wkp-ed: https://en.wikipedia.org/wiki/Marion_J._Lamb

[1f] Genotyp in wkp-de: https://de.wikipedia.org/wiki/Genotyp

[1g] Phänotyp in wkp-de: https://de.wikipedia.org/wiki/Ph%C3%A4notyp#Ph%C3%A4notypische_Plastizit%C3%A4t

[1h] Ontogenese in wkp-de: https://de.wikipedia.org/wiki/Ontogenese

[1i] Epigenetik in wkp-de: https://de.wikipedia.org/wiki/Epigenetik

[2] Das Thema ‚Evolution‘ in diesem Blog z.B. hier: https://www.cognitiveagent.org/category/evolution/

[2b] Unter ‚Verhaltensraum‘ wird hier die Menge der möglichen individuellen Verhaltensweisen verstanden, durch die ein Individuum mit der Umgebung interagieren kann. Das gleiche Format (Genotyp & Phänotyp) können ganz verschiedene Verhaltensräume ermöglichen. Dies hängt von der kognitiven Basis des Verhaltens ab. Das genetisch gleiche Gehirn hat eine ungeheuer große Bandbreite an potentiellen Verhaltenssteuerungen.

[3] Zu den Details epigenetischer Veränderungsprozesse siehe einleitend [1i].

[4] Kultur in wkp-de: https://de.wikipedia.org/wiki/Kultur

[4a] Population in der wkp-de: https://de.wikipedia.org/wiki/Population_(Biologie)

[4b] Gesellschaft in der wkp-de: https://de.wikipedia.org/wiki/Gesellschaft

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

GENERATION KRISE ALLEIN ZU HAUS. Nachhall zu einer besonderen Tagung

Letzte Korrekturen: 19.11.2016 – 13:58h

ZUSAMMENKUNFT

  1. Wenn 140 ausgewiesene ExpertenInnen aus ganz Deutschland (und zum Teil aus dem angrenzenden Ausland) zusammen kommen, um miteinander Erfahrungen und Ideen offen und frei auszutauschen, einen Tag lang, dann ist dies etwas Besonderes. Und wenn dann gleich ab Beginn zwei Moderatoren im Rang von Professoren simultan auftreten, die die Ereignisse feinsinnig, humorvoll und kritisch ein- und ausleiten, dann kann man spüren, hier wird etwas sehr ernst genommen.

ABWESENHEIT DER GENERATION ZUKUNFT

  1. Wie im Verlauf des Tages aber sichtbar wurde, indirekt, durch Abwesenheit, hatte diese wunderbare Versammlung eine große Schwäche: obwohl so viele, war sie alleine, alleine in einem wunderbaren Haus, unter sich; die junge Generation, die aktuelle Generation Zukunft, war abwesend. Dies muss keine Schwäche sein, kein Manko, aber wenn es um die Zukunft der Gesellschaft geht, wenn es um das Räsonieren in einer Krise geht, die die ältere Generation empfinden kann, weil sie den Wandel des Vorher und Nachher am eigenen Leib erlebt hat und erlebt, die junge Generation aber im Wandel aufwächst ohne Kenntnis des Vorher, ohne Differenzen und Ängste, eher von Hoffnung, Neugierde und kreativ-konstruktivem täglichem Umgang geprägt, dann ist das Fehlen der Generation Zukunft ein struktureller, fundamentaler Mangel. Die Älteren, die Generation der Krise, ist allein zu Hause, besingt sich gegenseitig im Schmerz, und verliert den Boden der Zukunft aus den Augen… oder doch nicht?

OUVERTÜRE DES SCHRECKENS

  1. Der Auftakt der Veranstaltung glich dem in einer Oper, mit einem dramatischen Vorspiel: zwei ausgewiesene Experten, ein Mann und eine Frau, eröffneten mit einem apokalyptischen Donnerschlag das Geschehen.
  2. In einem Stakkato von Fakten wurde die rasant voranschreitende Umringung und Einkapselung der Menschen mit der modernen digitalen Technologie in den Raum projiziert. Mehr und mehr wird jeder Winkel unseres alltäglichen Daseins erfasst, aufgezeichnet, gesammelt, ausgewertet und per Algorithmen verwendet. Teils geleitet von den Interessen global operierender Konzerne, die sich nationalen Kontrollen entziehen, teils geleitet von nationalen Sicherheitsorganen, die im Namen der Sicherheit jeden zu einem potentiellen Kriminellen machen, vorbeugend. Um ein paar Terroristen zu verhindern werden ganze Völker in digitale Fesseln gelegt und prophylaktisch als potentielle Täter markiert.(In manchen Bundesstaaten der USA werden Richter schon jetzt per Gesetz dazu verpflichtet, das Urteil von Algorithmen über Menschen aufgrund dieser Datensammelwut in ihrem Urteil zu berücksichtigen. Wehe wer schon mal schuldig wurde (auch wegen Bagatellen), er ist im Sinne des Algorithmus schuldig und ist für sein ganzes Leben gebrandmarkt!). Der irrationale Glaube an die Macht der Algorithmen und BigData hat schon jetzt quasi religiöse Züge angenommen. Wissenschaftliche Kritik prallt ab, weil die Betreiber keine Wissenschaftler sind, sondern Praktiker der Macht und Machtausübung. Demokratische Kontrollen sind schon jetzt weitgehend außer Kraft gesetzt, stehen nur noch auf dem Papier.
  3. Innerhalb dieser Algorithmisierung lebt der einzelne in einem Datenraum, den er selbst nur noch zum Teil selbst bestimmt. Die Algorithmen der Konzerne spiegeln ihm seine eigenen Aktivitäten so zurück, das er nur noch die Werbung, die Nachrichten, die Informationen sieht, von denen die Algorithmen annehmen, dass er sie mag. Die Vielfalt der Welt wird weggefiltert, ausgeklammert; jeder sitzt jetzt in einer sehr individuellen Datenglocke, in einer künstlichen digitalen Datenwolke, die alles abhält, was stören könnte. Schalte ein, ich weiß schon was Du willst und ich sage Dir, was Du tun sollst….

WO BITTE GEHT‘S ZUR POLITIK?

  1. Dieser atemberaubenden Ouvertüre folgte ein weiteres Mann-Frau Duo. Hier geriet auch wieder der einzelne Bürger ins Scheinwerferlicht des räsonierenden Verstandes. Der einzelne Bürger, der mit der umgebenden Gesellschaft interagiert und wo die Frage aufgeworfen wurde, ob und wie der Bürger im Kontext der neuen digitalisierten Gesellschaft noch politisch agieren kann. Soziale Netze, online Petitionen, die neue Direktheit vieler Politiker und der Parteien im Netz; eine neue Vielheit von Identitäten, die eine einzelne Person annehmen und im Netz leben kann. Die wachsende Zahl von Web-Bots, die gezielt falsche Informationen streuen, um Meinungen zu manipulieren; die Anonymität, die mehr Fakten erlaubt, aber auch mehr Schmähungen und Hass; Raum für Menschen und Schichten, die vor dem Netzzeitalter keinen Weg in die Öffentlichkeit fanden, weil sie durch die Macher der Medien weggefiltert wurden. Man spricht gerne von Qualitätsjournalismus, aber die Kehrseite der Qualität war die Vernichtung der Realität all der Vielen, mit denen die Journalismuselite sich nicht abgeben wollte. In vielen Staaten mittlerweile eine staatliche Überwachung und Zensur des Netzes; nur nichts öffentlich werden lassen, was die herrschenden Eliten in Frage stellen könnte. ..
  2. Was soll man von dem allen halten: Ist es jetzt der Untergang der Demokratie oder eine neue Chance? Haben wir hier einen weiteren Strukturwandel der Öffentlichkeit im Sinne von Habermas, der nach Cafe-Haus, Zeitung, Radio und Fernsehen heute mit dem Web eine neue Dimension von Interaktion und Kommunikation ermöglicht, eine neue intensive Form, die uns weiter bringen könnte (wohin?) oder die uns in neue Gefangenschaften führt (welche)? Dass wir einen Strukturwandel erleben, ist so handfest, so unübersehbar, dass man gleich zu den Fragen eilen kann, wofür das Gut sein kann bzw. worin das Schlechte besteht, was dadurch begünstigt wird. Haben wir mehr Freiheit, wenn uns auf Schritt und Tritt eine Vielzahl von digitalen Zwängen bei der Nutzung der Technologie aufgezwungen werden? Sind wir durch die Nutzung nicht schon im Ansatz unserer selbst weitgehend enteignet? Sind wir nicht schon längst die neuen digitalen Sklaven? Wieweit beeinflussen diese neuen Umgebungen die Entstehung des Wissens in den Köpfen der Menschen? Welches Wissen? Wozu ist dieses Wissen noch fähig? Züchtet sich das digitale System nicht seine naiven, unkritischen Wissensklone, die nur noch wissen, was das System zulässt, und die nur noch gut finden, was das System will, dass wir es gut finden?

AB INS GESPRÄCH

  1. Die Wucht dieser einleitenden Bilder schwebte über allen Köpfen und bildete das geistige Gepäck, mit dem die Versammlung in die verschiedenen Gesprächskreise entlassen wurde.
  2. Es gab drei aufeinanderfolgende Gesprächsrunden mit jeweils 6 Optionen. Jede Runde war zeitlich sehr eng bemessen und die Optionen waren nicht so klar gekennzeichnet; eine vorweg Auswahl war schwierig. Die Pausen war sehr knapp.
  3. Was man aufgrund dieser Einteilung ahnen kann, war dann auch Realität: die Zeit der Gesprächsrunden war zu knapp, um sich den komplexen Themen gesprächsweise nähern zu können. Es blieb meistens bei isolierten Statements, fragmentarisch; und wenn dann noch Langredner in der Runde saßen, war der Diskurs sehr eng. Eindrücke ja, aber wirklicher Diskurs, nein. Der einzige verwertbaren Ankerpunkt waren immer die Kurzstatements von ExpertenInnen zu Beginn. Natürlich kamen Gedanken trotz der Fragmente in Gang, und wenn man dann mit einzelnen in der Pause weiter sprechen wollte, musste jeder schon wieder weiter zur nächsten Runde. Der Gedanke einer abstrakten Effizienz wurde hier zum Feind des personalen Sinns. Auch die Auswahl unter den Optionen wurde zum Glücksspiel. Aufgrund der Beschreibungen konnte man kaum vorwegnehmen, worum es in der jeweiligen Runde wirklich gehen würde. Dazu kam, dass die 6 Optionen auch als Folge von drei Sitzungen thematisch gedacht waren. Wechsler passten dann nicht in den Ablauf, obgleich dies propagiert worden war. Wer sich also auf eine Wanderung durch verschiedene Optionen einließ, hatte am Ende des Tages dann drei von 18 Gesprächsrunden besuchen können, also sehr selektiv.

JOURNALISMUS UND DIGITALISIERUNG

  1. Der Autor dieser Zeilen fand sich zunächst in einem Kreis wieder, der über den Journalismus im Webzeitalter sprach. Nach neuen Untersuchungen soll die Generation Smartphone nur noch im Netz, auf Portalen, in sozialen Netzen leben. Radio, TV und Zeitungen sind out. Und die Rolle der Journalisten, die schon immer zwischen den kommerziellen Interessen der Herausgeber und den Qualitätsanforderungen der Inhalte in einem schwierigen Spagat gelebt haben, geraten durch die gewaltigen Verschiebungen in der Medienlandschaft und den sich verändernden Geschäftsmodellen weiter unter Druck. Während die einen darin nur einen Untergang von Qualität erkennen können, meinen andere, hier lägen auch Chancen. Auch beim sogenannten Qualitätsjournalismus gab es dunkle Seiten: Ausklammerung ganzer Schichten, Vernachlässigung des Regional-Lokalen, Ausfilterung von Themen, Diktat der Sprache, wenig Selbstkritik bei den Machern. Das Web (vor allem auch youtube) erlaubt die Teilnahme von Allen, neue Formate, neue Inhalte, Vielfalt an Sprachen, aber Mangel an Qualität, wird behauptet.
  2. Betrachtet man das Ganze aus Sicht einer Demokratie, die auf eine funktionierende Öffentlichkeit angewiesen ist, dann scheint das Räderwerk von Wissensarbeitern – hier speziell die Journalisten – als Inhaltsproduzenten, von Inhaltsagenturen, von Verbreitungskanälen mit dem Niedergang der klassischen Zeitungen gefährdet. Parallel leistet sich der Staat eine teure Radio-TV-Landschaft, die ihre Adressaten ans Netz verloren hat. Zugleich finanziert der Staat Schulen und Hochschulen, weil er der Überzeugung ist, dass die Ermöglichung von qualifiziertem Wissen in den Köpfen der jungen Generation wichtig ist. Natürlich drängt sich dann die Frage auf, warum man die Rolle der journalistischen Inhaltserzeuger nicht aus dem zunehmend prekären Verhältnis der kommerzialisierten Presse herausnehmen und in das System staatlicher Förderungen einbetten sollte?

GLOBALE DIGITALE PLAYER

  1. In einem anderen Gesprächskreis wurde das Selbstverständnis der großen globalen digitalen Firmen in den Fokus gerückt. Diese global operierenden, dem nationalen Zugriff scheinbar ganz entzogenen Firmen sehen sich – im Eingangsstatement – in der Tradition der technischen Problemlösung: jedes Problem kann gelöst werden. Es braucht Persönlichkeiten mit unternehmerischen Visionen, keine Politik. Moderne Algorithmen können effizienter sein als Menschen, nachhaltiger. Die Arbeitnehmer werden zu Freelancern, zum ein-Mann-Frau-Franchising Unternehmen, das alles bekommt, was es zur Arbeit braucht, dafür aber maximal abhängig ist vom Kontextgeber. Der einzelne ist nichts mehr, die Firma, die große Idee ist alles.
  2. Mittlerweile ist selbst diesen großen Firmen klar, dass diese Form von globalem Kapitalismus ganze Regionen (und Länder?) zerstören kann, dass nicht mehr alle genügend Arbeit finden können. Man möchte dieses gesellschaftliche Problem an die Politik delegieren, die man ansonsten verachtet und ausgrenzt. Die Politik soll die Versorgung des großen Proletariats der Nicht-Mehr-Arbeit-Habenden versorgen. Grundeinkommen lautet die Parole. Während ein anwesender Vertreter der Gewerkschaften meinte, dass sie das Problem im Griff hätten, sagten drei anwesende Sozialwissenschaftler, dass sie für diese neue Situation noch keinerlei wissenschaftliche Ansatzpunkte haben. Diese Entwicklung sei viel zu schnell über alle gekommen, zu umfassend; hier ist dringender Forschungs- und Theoriebedarf (gerade dort, wo die meisten Geldern von der Politik gekürzt werden).

ENHANCEMENT – GENETIK

  1. Im dritten Gesprächskreis, an dem der Autor dieser Zeilen teilnehmen konnte, ging es um die neuen Möglichkeiten der Gentechnik, ihre Konsequenzen. Während die Gesellschaft es begrüßt, wenn Krankheiten durch Gentechnik abgemildert oder ganz verhindert werden können, wirkt sie irritiert und beunruhigt, wenn die Forschung darüber hinaus experimentiert. Sollen werdende Eltern sich aufklären lassen über die gesundheitliche Zukunft ihres Kindes? Was tun sie, wenn ihnen eine schlechte Prognose gestellt wird aufgrund der genetischen Analyse? Wem gehört überhaupt das Genom (die Erbanlage, die Gene): dem Kind, den Eltern, oder der Gesellschaft?
  2. Noch radikaler waren Fragen nach dem Standpunkt, von dem aus die Gesellschaft auf die neuen Möglichkeiten schaut. Kann und darf man die aktuellen Weltbilder und Normen zum Maßstab für eine Zukunft nehmen, die wir eigentlich nicht kennen? Müssen wir nicht akzeptieren, dass wir nur einen Durchgangspunkt auf einer Entwicklungslinie des Lebens markieren, das nach ganz anderen Gesetzen funktioniert, als wir sie uns gerne zusammen reimen? Sind wir nicht sogar verpflichtet, die experimentellen Möglichkeiten voll auszuschöpfen, da wir die kommende Zukunft ansonsten möglicherweise nicht meistern können? In der begleitenden Ausstellung werden Künstler gezeigt, die versuchen, die sensorische Ausstattung des Menschen über das Ist hinaus auszudehnen, da die aktuelle körperliche Verfassung für eine Zeit günstig war, die seit fast 200.000 Jahren vorbei ist. Was sich hier schmerzlich zeigte, das war die Abwesenheit von Evolutionsbiologen und Kulturanthropologen, um diese Dimension einzubringen. Der einzige, der diese Themen zur Sprache brachte war ein Philosoph; er wirkte mit diesen Ansichten aber fast schon wie ein Fremdkörper in einer sehr ‚in sich ruhenden Gegenwartssicht‘…

PLENUM

  1. Das abschließende Plenum konnte die Farbigkeit der Gesprächskreise nicht wiedergeben. Sperrige Positionen waren weggefiltert, was – sehr verständlich – an den Sichten der jeweiligen BerichterstatterInnen lag.

WAS BLEIBT VON SOLCH EINEM TAG?

  1. Die Unzulänglichkeit der gedanklichen und gesprächsweisen Verarbeitung im Tag selbst wurde schon angesprochen. Wie aber soll es weitergehen? Welche Schlüsse zieht man aus solch einem Tag?
  2. Mir scheint, die Intention hinter dieser Tagung lässt sich nicht mit einem einzigen Tag erreichen. Ein Tag reicht vielleicht aus – wenn man etwas mehr Muße im Tag hätte –, Umrisse eines komplexen Problems sichtbar zu machen, aber ein Tag reicht nicht aus, um dann auch noch mögliche konstruktive Ansatzpunkte für geeignete Antworten zu finden. Dazu bräuchte man unbedingt einen zweiten Tag. Und, wie gerade dieses Thema zeigt, sollte man dazu unbedingt die Generation Zukunft hinzu ziehen. Mann-Frau ist eine Perspektive, aber Alt-Jung ist eine andere, die sich noch viel nachhaltiger auf die Sicht der Dinge auswirkt. Frauen und Männer sind sich letztlich in der Gesamtschau einig, da sie alle in der gleichen Zeit groß geworden sind, aber Alt-Jung sind grundverschieden. Und vielleicht sollte man sogar noch differenzieren nach Generationen: 0-30, 30-60, über 60. Der Austausch zwischen den Generationen ist sehr interessant, wobei 0-30 und über 60 eine besonders spannende Mischung zu sein scheint. Arbeitshypothese: wenn man eine Tagung hätte mit zwei parallelen Strängen A=(0-30 + über 60) und B=(30 – 60), dann würde die Gruppe A die Gruppe B in jeder Hinsicht übertreffen… wer würde solch ein Experiment wagen?
  3. Aber zurück zu Inhalten, was wären mögliche Ansatzpunkte, um sich der Zukunft in der aktuellen Situation zu stellen? Es gibt viele Ansatzpunkte, Hier einige wenige aus der Sicht dieses Blogs und von Autor cagent.

LERNRÄUME

  1. Die zunehmende Umzingelung des einzelnen, die zunehmende digitale Bevormundung war ein durchgängiges Thema in vielen Gesprächen. Dies verweist auf die Frage, wie denn die Generation Zukunft jenes Wissen und jene Kompetenzen erwerben kann, die sie für eine zukunftsfähige Lebensgestaltung braucht. Wir haben ein umfassendes Bildungssystem in Deutschland. Es hat wirkliche Stärken und Qualitäten. Der Realität der Digitalisierung stellt es sich aber bislang kaum. Dies hat viele Gründe. Man könnte sich ja die Frage stellen, warum man nicht in jeder Schule und in jeder Universität eine experimentelle Version der Schule und der Universität einrichtet: in jeder Schule und Universität sollte es die Möglichkeit geben, dass Lernende und Lehrende völlig frei darüber entscheiden können, wie sie die großen Lernziele mit frei wählbaren Methoden und Mittel erreichen können. Man müsste den – rechtlich wie methodischen – Schwachsinn der aktuellen Akkreditierungsagenturen abschaffen und wieder auf die Kompetenzen der Lernenden und Lehrenden selbst vertrauen, dass sie die Wege finden, wie man im digitalen Zeitalter anders lernt, um sich für die Zukunft fit zu machen. Das notorische Misstrauen in die Menschen und in die junge Generation muss ein Ende haben. Ohne Vertrauen und Verantwortung kann es keine neue Zukunft geben.(Anmerkung, im Institut für Neue Medien Frankfurt (INM), bereiten wir gerade ein erstes Experiment in diese Richtung vor, zusammen mit Schulen und Hochschulen).

KÜNSTLICHE INTELLIGENZ

  1. Ein neues Element in der Digitalisierung ist das Erstarken der Rolle der sogenannten Künstlichen Intelligenz. Aktuell ist das, was künstliche Intelligenz genannt wird, zwar noch keine wirkliche voll selbständig lernende Intelligenz, aber es ist nur eine Frage der Zeit, bis sich dies weiter verbessert. Dennoch ist der Faktor da, wirtschaftlich relevant und schon gesellschaftlich wirksam (Stichwort: Zukunft der Arbeit). Was aber überall fehlt, das ist ein Wissen darüber, was künstliche Intelligenz wirklich ist, wie sie funktioniert, was sie kann, wo möglicherweise Grenzen liegen, und, vor allem, ob und wie eine Zukunft des Menschen mit solch einer Künstlichen Intelligenz aussehen kann (der berühmte Qualitätsjournalismus versagt hier vollständig; die Schönheit der Bilder übertönt die Leere der Aussagen). Ist es wirklich so,dass die intelligenten Maschinen den Menschen sehr bald ersetzen werden (was Humanisten und Singularity-Gläubige annehmen), oder gibt es eine alternative, mehr symbiotische Zukunft von Mensch und Maschine?(Anmerkung: diese Frage wird auch im INM untersucht, Beispiel emerging-mind Projekt).

DEMOKRATIE

  1. Noch gibt es reale Demokratien auf dieser Welt. Ihr Zahl nimmt ab, und die Erosion ihrer Prinzipien schreitet voran (auch durch die Politiker selbst; u.a. durch den gravierenden Lobbyismus). Es ist eine dringende Frage, wie die entscheidenden Faktoren einer funktionierenden Demokratie in einer digitalisierten Welt erhalten und gestärkt werden können. Was können und was müssen wir tun? (Anmerkung: … ich sags nicht … :-))

PERFORMANCE

  1. Was nützen die besten Ideen, wenn keiner davon erfährt. Die eine Schiene sind die bekannten Muster von Publikationen. Eine andere ist künstlerische Performance: Sound, Handlungen, Bilder, … Welche Performance widmet sich der künstlerischen Kommunikation von Philosophie und Wissenschaft? Unser subventionierte Kulturbetrieb ist voll von sozialen, psychologischen, personalisierten Stoffen; wer kümmert sich um Weltbilder? (Anmerkung: Ja, das INM versucht sich auch hier, siehe Philosophy-in-Concert.)

EPILOG

  1. Dies sind nur Stichworte, vielleicht anregend. Wir brauchen eine kontinuierlichen Diskurs auf allen Ebenen. Noch haben wir eine Demokratie in Deutschland und Europa. Europa hat sie erfunden; gehen wir mit ihr auch unter?

EPILOG 2

  1. Wer bis hierher gelesen hat, mag vielleicht den Eindruck bekommen haben, dass ich die Tagung in Grund und Boden kritisiere. Das währen ein ganz falscher Eindruck, denn der kritische Tone, der sich über alle Inhalte und Ereignsse legt, setzt voraus, dass es ein Ereignis gab, und zwar ein sehr komplexes Ereignis. Die Tagung war eine fantastische Tagung, veranstaltet von der Schader-Stiftung in Darmstadt; so viele wunderbare Menschen an einem Ort in solch offener Weise zu versammeln; das gibt es nicht so oft. Und trotz der zeitlichen Begrenzungen und der damit einhergehenden Fragmentarität wurde doch das Phänmen des Wandels in vielen Facetten sichtbar, groß, übergroß bisweilen, Schauder hervorrufend. Ohne diesen Schauder angesichts des vielschillernden Phänomens kann es keine gezielten Anstrengungen geben. Von daher muss man den Veranstaltern ein großes Lob aussprechen: sie waren sehr mutig und großzügig, damit dies möglich wurde.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

SIND VISIONEN NUTZLOS?

Letzte Aktualisierung: 23.Okt.2016 (Formeln wegen Lesbarkeit entfernt)

VERTRAUTER ALLTAG

  1. Jeder kennt das aus seinem Alltag: Menschen tun ihre Pflicht, man tut, was man kennt; Gewohnheiten, Vorschriften, Verordnungen, Gesetze weisen einem den Weg.
  2. Dies hat etwas Vertrautes, es stützt Erwartungen, macht das Geschehen ansatzweise überschaubar, gar berechenbar, man kann ansatzweise planen.
  3. Dann gibt es noch die zeitlichen Rhythmen Woche, Monat Jahreszeiten, Jahr; Fixpunkte des Erinnerns, Planens und Erwartens.
  4. Diese Rhythmen, die erkennbaren Regelhaftigkeiten, spannen einen Raum auf für das mögliche Geschehen, ermöglichen die Koordination mit anderen: Treffen, Urlaubsreisen, Feiern, Freizeiten, Umsatzplanung, Produktionszyklen, Finanzierungsmaßnahmen, Marketingaktionen, Einstellungspläne, Kooperationen mit Zulieferern, Wahlkampfpläne, Gesetzesprojekte im Parlament, ….

… WENN ER WANKT

  1. Ohne diesen erkennbaren und erwartbaren Raum gerät alles ins Schwimmen, entsteht Unsicherheit, werden Pläne unmöglich, das Erreichte fängt an zu Wanken: wird es bleiben? Wie wird es weitergehen?
  2. Die normale Reaktion eines homo sapiens (sapiens) in solch einer Situation sind Unruhe, Sorgen, Ängste, wenn man die Bedrohlichkeit der Situation zu realisieren beginnt. Dies kann in Existenzängste übergehen, Suche nach Rettung, nach Alternativen, nach Ursachen, Verursachern. Was hat dazu geführt? Warum ist das so? Was kann ich tun?

BLICK ZURÜCK

  1. Phasen der Stabilität, des Wohlstands gab und gibt es in der Geschichte des homo sapiens (sapiens) immer wieder. Manchmal Jahrzehnte, mal mehrere Generationen, bisweilen mehrere hundert Jahre. Aber noch nie waren solche Phasen ewig.
  2. Diese Phasen relativer Ruhe mit relativem Wohlstand waren nie monoton, gleichförmig: von sehr reich und mächtig bis sehr arm und rechtlos reichte die Bandbreite immer. Die Armen lebten von der Hoffnung auf den möglichen größeren Reichtum, und die Reichen und Mächtigen lebten von ….?
  3. Länger andauernder Wohlstand setzt immer lang andauernde stabile Verhältnisse voraus in denen all jene Tätigkeiten stattfinden können, die Nahrung ermöglichen, Wohnräume jeglicher Art, Handwerk, Verkehr, Technologien, Regeln des Zusammenlebens, Sicherung von Ordnung durch effektive Bestrafung der Abweichler, Sicherung von Ordnung durch effektive Abwehr nach außen, Weitergabe und Entwicklung von Wissen, geeignete Ausbildung von Menschen zum Erhalt der bestehenden Abläufe, notwendige Rohstoffe, geeignete Ökosysteme …..
  4. Je komplexer eine Gesellschaft des homo sapiens (sapiens) war, umso anfälliger wurde sie: Naturkatastrophen gab und gibt es immer wieder: Zu viel Regen, zu wenig Regen, schwere Unwetter mit Blitzen, Feuerereignissen, Vulkanausbrüche, Erdbeben, Tsunamis, Meteoriteneinschläge, Asteroiden; dazu mikrobakterielle Veränderungen, die sich in neuen Krankheiten zeigten, auf die das menschliche Immunsystem nicht sofort eine Antwort fand, …
  5. Auch gab es Ressourcenknappheiten: Erde erschöpft sich, Trinkwasser geht zur Neige, zu wenig Nahrung für die lebenden Menschen (und Tiere), Energiequellen versagen, Arten sterben aus, Verschmutzung der Umwelt macht vieles unbrauchbar, …
  6. Manche Veränderungen sind punktuell in Raum und Zeit, andere dauern an, erstrecken sich über größere Regionen, oder sind periodisch (Überschwemmungen, Brände,…)…

REAKTIONEN AUF VERÄNDERUNGEN

  1. Auf viele lebensfeindliche Ereignisse kann der homo sapiens (sapiens) reagieren, wenn er davon Kenntnis hat und hinreichend viele Menschen sich einig sind, wie sie es verhindern können und sie es auch gemeinsam wollen. Andere sind schwer voraussagbar, sind zu selten und schwer erkennbar; wieder andere setzen sehr viel Wissen, hinreichende Technologien, und hinreichende kulturelle und politische Strukturen voraus, um darauf langfristig und nachhaltig reagieren zu können (Klima, Ressourcenzerstörung, Verhältnis von Ernährung und Bevölkerung, …).

AUFBÄUMEN GEGEN BEDROHUNG(EN)

  1. Auffällig ist, dass aber zu allen Zeiten die Menschen bei Bedrohung, Unglücken, Katastrophen nach Ursachen suchen, nach Verursachern oder nach eigener Schuld. Der Wille zum Leben gibt sich nicht mit dem Ereignis zufrieden. Der Wille zum Überleben sucht nach Anhaltspunkten, wie man Bedrohungen abwehren, sie überwinden kann. Aber welche Chancen hat ein einzelner homo sapiens (sapiens), eine ganze Population von Menschen?
  2. Eines ist ganz klar, was immer ein homo sapiens (sapiens) tun will, er hängt von dem Wissen ab, was sich gerade in seinem Kopf befindet, von den Handlungsmöglichkeiten der aktuellen Situation, und von der Fähigkeit, sich mit anderen zu koordinieren.
  3. Und in ungewöhnlichen Situationen zeigt sich eines sehr deutlich: auch wenn man aktuell nichts wirklich tun kann, wenn man nicht wirklich weiß, was man tun kann, dann tendiert der homo sapiens (sapiens) dazu, irgend etwas zu tun, nur um das Gefühl zu haben, er tue ja etwas. Das Gefühl des Nichtwissens, der Alternativlosigkeit, der darin aufkeimenden Ohnmacht ist so unerträglich, dass der homo sapiens (sapiens) dann irgend etwas tut, nur um nicht Nichts zu tun.
  4. Ist das dumm? Ist das primitiv? Ist das lächerlich? Ist das gefährlich?
  5. Halten wir einen Moment inne und schauen zurück (weil wir heute vieles wissen können, was hunderte, tausende Generationen vor uns nicht wissen konnten).

VOR SEHR LANGER ZEIT (KEIN MÄRCHEN)

  1. In der Zeit vor dem homo sapiens (sapiens) – viele Milliarden Jahre – als es nur einzelne Zellen oder einfache Zellverbände gab, beherrschte das biologische Leben zwar die Kunst, sich selbst zu vermehren (bis heute eines der größten Wunder im Universum und noch immer nicht vollständig aufgehellt!), aber das biologische Leben in Gestalt der Zellen verfügte über keinerlei Möglichkeit, in der aktuellen Situation der Selbstreproduktion im großen Maßstab über Alternativen, Varianten, mögliche Szenarien nachzudenken. Es besaß keinerlei Wissen über die weitere Zukunft. Die Zukunft war eine unfassbar große Wand des Nichtwissens, undurchdringlich. Das einzige, was verfügbar war, das waren genetisch kodierte Informationen über solche Baupläne, die in der zurückliegenden Geschichte überlebt hatten. Überlebt in einer Welt, der Erde, die selbst in beständiger Veränderung war, tiefgreifenden Veränderungen. Alles, was bisher erfolgreich war garantierte in keiner Weise, dass es morgen auch noch erfolgreich sein würde. Das Leben stand vor einer eigentlich unlösbaren Aufgabe: es musste Formen annehmen, die in einer Welt überleben können, die als solche noch nicht bekannt waren.
  2. Zu einem bestimmten Zeitpunkt t definierten die vielen genetisch kodierten möglichen Baupläne G in den Zellen mögliche Lebensformen L, die sich in der Vergangenheit in einer bestimmten Umwelt U bewährt hatten. Diese Umwelt ist aber nicht statisch sondern dynamisch, d.h. von einem Zeitpunkt t zu einem anderen späteren Zeitpunkt verändert sie sich nach bestimmten Regeln V; diese Veränderungsregeln sind dem Leben zum Zeitpunkt t nur partiell bekannt, und nur indirekt, kodiert im genetischen Kode. Heute wissen wir (wir glauben es zu wissen), dass diese Veränderungsregel V ein Bündel von Regeln ist, die unterschiedlich stabil sind, weil eine Veränderung der Umwelt U auch zurück wirkt auf manche Aspekte der Veränderungsregel V. Wir haben also eine Veränderungsregel V, die sich im Laufe der Zeit partiell selbst ändert …
  3. Im Nachhinein betrachtet hatte das biologische Leben extrem schlechte Karten. Keine Bank dieser Welt hätte einem solchen Kandidaten einen Kredit gewährt; keine Versicherung dieser Welt würde das Risiko des Lebens zu den frühen Zeiten versichert haben; kein Investor dieser Welt hätte je in das Projekt des Lebens investiert; keine bekannte politische Bewegung hätte auf dieses Leben gesetzt, keine Religion dieser Welt hat jemals über dieses biologisch Leben geredet …. Ein Grund dafür ist sicher, dass die menschliche Akteure von der Art homo sapiens (sapiens) nur eine vergleichsweise verschwindend geringe Lebenserwartung haben verglichen mit den Zeiträumen, in denen sich das Projekt des Lebens auf der Erde (und damit auch im Universum) in seinem sichtbaren Teil in vielen Milliarden Jahren entwickelt hat.
  4. Rein Mathematisch (soweit wir heute Mathematik entwickelt haben) hatte das biologische Leben vor dem homo sapiens (sapiens) keine wirkliche Chance, und dennoch hat es überlebt, 3.8 Mrd Jahre im sichtbaren Teil. Wie? Warum?

DAS NOTORISCH UNBERECHENBARE AM LEBEN

  1. Das biologische Leben hat bis heute viele unaufgeklärte Geheimnisse. Neben dem Selbstreproduktionsmechanismus, der wertvolle Informationen aus der Vergangenheit enthält, ist der Prozess der Weitergabe von Informationen und deren Umsetzung in eine neue, lebensfähige Struktur, nicht deterministisch, nicht 1-zu-1!
  2. Der Prozess ist aus sich heraus vielfältig, lässt Variationen zu, Abweichungen, schafft neue Kombinationen, so dass die Menge der genetisch kodierten Informationen G in den Zellen eben nicht eine eindeutige Menge L von möglichen Lebensformen kodiert, sondern eine partiell undefinierte Menge L*, die sich aus den Variationen innerhalb des Prozesses herleiten. Diese Menge L* weicht von der Erfahrung der Vergangenheit mehr oder weniger stark ab. Sofern die neue Umwelt U‘, die auf eine aktuelle Umwelt U aufgrund der jeweiligen Weltveränderungsregel V folgt, mit der ursprünglichen Umgebung U hinreichend ähnlich ist, hatte jener Anteil von Lebensformen in den neu realisierten Lebensformen L*, die noch den alten Lebensformen L entsprachen, gute Chancen, zu überleben. Diejenigen Lebensformen in L*, die zu neu waren, möglicherweise nicht. Sofern aber die neue Umwelt U‘ sich von der vorausgehenden Umwelt U in machen Punkten unterscheidet, haben dagegen die Lebensformen, die den vorausgehenden Lebensformen L ähneln, weniger Aussichten auf das Überleben; die Lebensformen aus der neuen Menge von Lebensformen L*, die sich von den alten Lebensformen L hingegen unterscheiden, möglicherweise schon. Vor dem Ereignis von L* in U‘ konnte der Mechanismus der Selbstreproduktion dies nicht wissen; volles Risiko war notwendig! Man kann dies die Urform von Kreativität nennen, von Genietum, von Verrücktheit ….Es ist tief verwurzelt im Kern des geheimnisvollen Lebens…
  3. Normale wahrscheinlichkeitstheoretische Modelle sind nicht in der Lage, diese Prozesse angemessen zu beschreiben. In jeder Phase des Lebens (und es gab ja Millionen von Phasen) sind sie zum Scheitern verurteilt.
  4. Fakt ist nur, dass das Leben mit dieser Methode aus Erinnerung (= genetisch kodierte Informationen aus der Vergangenheit) + voll riskante Variationen (Würfeln gegen die unbekannte Zukunft) es geschafft hat, eine wahrscheinlichkeitstheoretische Unmöglichkeit in ein (bisher) Erfolgsmodell zu verwandeln, das eine Komplexität erreicht hat (z.B. allein der Körper eines einzelnen homo sapiens (sapiens) besitzt etwa 120 Milchstraßen-Galaxien an Zellen, die hochkomplex miteinander interagieren), die unser aktuelles Verstehen noch weitgehend überfordert.

LEHREN AUS DER VERGANGENHEIT?

  1. Was das biologische Leben uns, die wir ein Produkt dieses Lebens sind – und auch nur ein Teil davon – damit sagen kann/ will, ist ziemlich klar. Ein aktuelles Wissen von der Welt und dem Leben auf der Erde (und im Universum) ist niemals vollständig. Die objektiven Grenzen eines aktuellen Wissens zu überwinden kann nur gelingen, wenn man sich nicht in den objektiven Grenzen einmauert, sondern diese Grenzen durch ein ganzes Feuerwerk an Experimenten jenseits des Bekannten zu durchbrechen, zu überwinden sucht. Dies kann man Kreativität nennen, Visionen, Träume, Verrücktheit, Genietum … egal wie wir es nennen, ohne ein hinreichendes Maß an Verrücktheit, Kreativität, Mut zum Risiko hat das Leben keine Zukunft. In einer dynamischen Welt kann das Wissen um die Vergangenheit nicht der alleinige Maßstab für die mögliche Zukunft sein. Hätte das biologische Leben in der Vergangenheit nur das wiederholt, was bislang Erfolg hatte, es wäre schon lange gescheitert. Die Wahrheit des Lebens liegt nicht nur in ihm selbst, sondern in ihm und in Wechselwirkung mit einer dynamischen Umgebung, also mindestens mit dem bekannten Universum.
  2. Jetzt werden manche sagen, dass wir ja heute so viel mehr wissen. Wir können die Entstehung des bekannten Universums sehr weitgehend nachvollziehen und simulieren; wir haben technisches Knowhow, komplexe Maschinen, Gebäude, ganze Städte zu bauen; wir haben neue Informationstechnologien, um mehr Daten zu verwalten, sie zu finden, sie neu zu kombinieren ….
  3. Das ist richtig. Das Leben hat in Gestalt des homo sapiens (sapiens) Handlungsräume ermöglicht, die noch vor 100-200 Jahren unvorstellbar waren.
  4. Wahr ist aber auch, dass wir zunehmend die inhärenten Grenzen der bisherigen Methoden erkennen: der homo sapiens (sapiens) ist dabei, die Lebensgrundlage Erde weitgehend und nachhaltig zu stören oder gar zu zerstören. Die neue Vielfalt an Wissen, Lebensformen, Handlungsmöglichkeiten überfordert das aktuelle Format des Erlebens und Verstehens eines einzelnen homo sapiens (sapiens). Statt Frieden weltweit und Wohlstand für alle produziert der homo sapiens (sapiens) krasse Unterschiede zwischen Reich und Arm, zwischen Ernährung und Wasser im Überfluss in einer Region und Hunger und Wassermangel in einer anderen; statt globaler Friedensgesellschaft mit gemeinsamer Verantwortung (Vision der United Nations) beobachten wir wieder eine Tendenz zum Nationalismus, zur Radikalisierung, zu Fanatismus, zu Vereinfachungen.
  5. Die begrenzte Lebenszeit des homo sapiens (sapiens) und sein biologisch begrenztes Verstehen werden zum Stolperstein, das größere Ganze, den Zusammenhang zwischen allem, die großen Perspektiven wahrzunehmen und danach zu handeln. Die sogenannten nationalen Führer erweisen sich als krasse Zwerge gemessen an den Anforderungen der je größeren Zukunft.
  6. Mathematisch ist die Prognose für den homo sapiens (sapiens) als Teil des Lebens wie schon immer schlecht.
  7. Die Botschaft der Vergangenheit sagt aber, im Phänomen des Lebens steckt mehr als das, was die endlichen Gehirne eines homo sapiens (sapiens) bislang denken.
  8. Die Zukunft wird erzählen, was stimmt. Ganz unbeteiligt sind wir nicht. Visionen sind nicht unbedingt schlecht. Wir alle sind ein Produkt der Visionen von vielen Milliarden Jahren von aberwitzig vielen Experimenten.

Eine Übersicht über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

Eine Übersicht über alle Themen dieses Blogs findet sich HIER.

CONSCIOUSNESS – BEWUSSTSEIN. Review von Nick Lane’s Kap.9 aus ‚Life Ascending‘ (2009)

Nick Lane „Life Ascending“, London: Profile Books Ltd, 2009 (Paperback 2010)

KONTEXT ZU DIESEM EINTRAG

  1. Dieser Blogeintrag beschäftigt sich mit Kap.9 von Nick Lane’s Buch (s.o.) mit dem Thema Consciousness (Bewusstsein). Dieser Besprechung gingen schon drei andere voraus. Diese finden sich hier.
  2. Das Erkenntnisinteresse liegt hier einmal darin, seine Position darzustellen, zum anderen aber auch, um seine Position einzuordnen in den größeren erkenntnistheoretischen und wissenschaftsphilosophischen Kontext der Frage nach der möglichen Rolle von Bewusstseinsdaten im Verhältnis zu den empirischen Verhaltens- und Körperwissenschaften.
  3. Wie man aus den bisherigen Blogeinträgen von cagent leicht entnehmen kann, spielte diese Frage von Anbeginn des Blogs eine wichtige Rolle.

BEWUSSTSEIN IN EINEM KÖRPER

Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)
Notizen Teil 1 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Ausgangspunkt ist die Annahme, dass das Phänomen des menschlichen Bewusstseins normalerweise im Kontext eines Gehirns in einem Körper erfahren wird.
  2. Der Körper entsteht im Rahmen eines Wachstumsprozesses (Ontogenese) aus einer befruchteten Zelle.
  3. Jeder individuelle Körper ist Teil einer umfassenderen Population, die immer das Ergebnis eines evolutionären Entstehungsprozesses ist.
  4. Das Verhalten der Ausgangs-Zelle im Wachstumsprozess wird von Genen gesteuert. Diese bestimmen das entstehende Gehirn in seinen Grundstrukturen (z.B. Größe der Gehirnbereiche, Verhältnis von aktivierenden und hemmenden Neuronen, die quantitativen Mengen der verschiedenen Neurotransmitter, usw.).(vgl. S.247)
  5. Aufgrund des Verhältnisses von ca. 1 Gen zu ca. 8 Mrd. Synapsen (nach Christoph Koch, vgl. S.247) ist klar, dass die Gene nicht die Details der neuronalen Verschaltungen festlegen können. Diese ergibt sich vielmehr aus der Interaktion des Gehirns mit seiner Umgebung (dem Körper). Durch diese Interaktionen (= Lernprozesse) werden manche Verbindungen gestärkt, andere schwächen sich ab; die ungenutzten sterben weg.

DREI WEISEN DER REALITÄT

Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)
Notizen Teil 2 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Interessant ist, dass das Reden über das Phänomen des Bewusstseins mindestens drei Wirklichkeitsbereiche voraussetzt: (i) Es gibt einmal den Körper, in dem physikalische, chemische, Biochemische Prozesse ablaufen, die u.a. körperinterne Zustände und Zustandsänderungen kodieren, repräsentieren und miteinander interagieren lassen.
  2. Dann gibt es (ii) Objekte und Ereignisse außerhalb des Körpers, durch die die Körperprozesse nur insoweit tangiert werden, als diese körperexternen Gegebenheiten sich durch Interaktion mit dem Körper irgendwie als Zustandsänderungen im Körper ZVe niederschlagen. Diese körperinternen Zustandsänderungen ZV sind nicht die verursachenden Objekte selbst!
  3. Insofern die extern verursachten Zustandsänderungen des Körpers wiederum mit Teilen des Gehirns interagieren, kann das Gehirn (nn) unterschiedliche Verrechnungsprozesse starten, die zu unterschiedlichen Ereignisstrukturen (ZVnn) führen (also eine Abbildung der Art nn: ZVe —> ZVnn, oder rekursiv: nn: ZVe x ZVnn —> ZVnn x ZVe).
  4. Dass die vom Gehirn errechneten Repräsentationen ZVnn irgend etwas mit der realen Welt außerhalb des Körpers zu tun haben, ist – im ersten Ansatz gedacht – zunächst eher unwahrscheinlich. Warum sollte es einen Zusammenhang geben? Dem steht die tägliche Erfahrung gegenüber, dass jeder Mensch normalerweise das Gefühl hat, dass das Bild, das sein Gehirn von der Außenwelt erzeugt, genau diese Außenwelt ist. Das ist ein Paradox.
  5. Schließlich gibt es noch (iii) die Erlebnisse aus der ersten Person Perspektive, die individuellen persönlichen (privaten, subjektiven) Erlebnisse, Wahrnehmungen, Gefühle, die zwar jeder hat, aber die von einer anderen Person (dritte Person Perspektive, intersubjektiv, empirisch) nicht direkt wahrgenommen werden können.
  6. Für die wahrnehmende Person sind diese subjektiven Erlebnisse real, unmittelbar erlebbar, eine Vielzahl unterscheidbarer Eigenschaften (Qualitäten, Qualia), die alle zusammen vereint erscheinen, eingebunden in ein erlebbares Ganzes, dabei kontinuierlich fließend, d.h. jede Situation geht unmerklich über in die nächste.
  7. Das zweite Paradox ist, dass dieses subjektive Erleben der Welt aus sich heraus keinerlei Rückschlüsse zulässt über jene (neuronalen, physiologischen) Prozesse im Körper, die in der Tat diesen subjektiven Erlebnisstrom erst ermöglichen.
  8. Während sich die physiologischen und neuronalen Prozesse biochemisch beschreiben lassen, man sie detailliert messen kann, entziehen sich die subjektiven Wahrnehmungen jedem messenden Zugriff. Während einige der neuronalen Prozesse zeitlich mit bewussten Wahrnehmungen korrelieren, gilt dies für die große Masse der neuronalen Prozesse nicht. Deren Ablauf erscheint völlig unkorreliert mit möglichen bewussten Wahrnehmungen. Wann ist ein biochemischer Prozess mit Bewusstsein verknüpft, wann nicht? Dies gilt – nach dem Philosophen David Chalmers – als das sogenannte ‚harte Problem‘ des Bewusstseins. (vgl. S.236)

INTERAKTIONEN GEHIRN UND BEWUSSTSEIN

Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane's Buch 'Life Ascending' (2009)
Notizen Teil 3 zur Lektüre von Kap.9 aus Nick Lane’s Buch ‚Life Ascending‘ (2009)

  1. Obwohl die genaue Natur des Wechselverhältnisses zwischen intersubjektivem (= empirischem) Gehirn (NN) und subjektivem Bewusstsein (PH) bislang nicht aufgeklärt werden konnte, gibt es doch sehr viele konkrete Fälle, durch die man mögliche Hypothesen über die Wechselwirkung zwischen NN und PH aufstellen kann.
  2. Eine Klasse von Fällen beruht auf Verletzungen/ Zerstörungen/ Ausfällen bestimmter physischer Teile des Gehirns (NN*), die mit typischen Veränderungen im Verhalten der betreffenden Personen (SR*) korrelieren bzw. die oft auch von den betreffenden Personen (PH*) verbal kommentiert werden. Also eine Abbildung der Form: CORR(NN*, SR*). Eine andere Klasse von Fällen beruht auf der umgekehrten Wirkrichtung: man erzeugt bewusst bestimmte Verhaltensreize S‘, die dann bei einem bestimmten Gehirn NN zu bestimmten Gehirnaktivitäten (NN(t)) sowie zu bestimmten Antwortreizen R‘ führen. also nn: S‘ x NN —> NN x R‘.
  3. Zu den einzelnen Fällen siehe SS.238ff
  4. Aus all den Experimenten schält sich heraus, dass das bewusste Erleben von der Art der neuronalen Prozesse direkt und reproduzierbar beeinflusst wird, obgleich bis heute unklar ist, was genau die bewussten Erlebnissen sind.
  5. Ferner zeigt sich, dass das subjektive Erleben zwar als eine Einheit von vielen Eigenschaften (Qualia) zugleich erscheint, die korrelierenden neuronalen Prozesse aber über das ganze Gehirn verteilt sein können. Aus diesem Befund wir die Hypothese hergeleitet, dass dass das Gehirn über Mechanismen verfügt, unterschiedliche Prozesse und Bereiche zum richtigen Zeitpunkt und sachlich angemessen zu korrelieren (hier werden genannt Edelman, Crick und Koch, sowie Singer). (vgl. SS.245ff) Dazu gehört auch die verfeinernde Annahme, dass die Vielzahl der Prozesse eine bottom-up Struktur haben, eine implizite Hierarchie, in der viele Details im weiteren Verlauf immer mehr abstrahiert und mit anderen Prozessen korreliert werden. Nur die obersten Stufen dieser Hierarchie (nicht alle) sind gewöhnlich bewusst.
  6. Letztere Annahme macht es zwar einerseits plausibel, warum und wie das Bewusstsein situationsbezogen genau jene groben Strukturen wahrnimmt, um die es gerade geht, ohne all die Milliarden Details im Untergrund, macht es aber noch spannender mit der Frage, wann, wie, und warum bestimmte biochemische Prozesse in solche bewusste Tatbestände umschlagen und andere nicht. Die berühmte Frage nach den neuronalen Korrelaten des Bewusstseins (NKB) (’neurol correlates of consciousness (NCC)‘)(vgl. S.243)

ERSTE LOKALISIERUNG DES BEWUSSTSEINS

  1. Berücksichtigt man all die vorangehenden Fakten und Hypothesen, dann bleibt es immer noch offen, ob man das Bewusstsein doch noch irgendwie weiter einkreisen kann. Lane lässt sich hier u.a. von Wissenschaftlern wie Julian Jaynes, Derik Denton, Steven Rose, Gerald M.Edelman, Antonio Damasio und José Musacchio inspirieren.
  2. Danach ermutigen  zahlreiche Befunde die Hypothese, dass das Bewusstsein primär im alten Teil des Gehirns gründet (Gehirnstamm, Mittelhirn), in dem die vielfältigen Körperzustände repräsentiert und kontrolliert werden. Hier sind auch die primären Emotionen wie Hunger, Durst, Angst, sexuelle Lust und Schmerz verankert, die alle für das Überleben des Organismus von zentraler Bedeutung sind. Diese kommentieren alle Körperzustände automatisch und wirken sich direkt steuernd auf das Verhalten aus. Jüngere Gehirnteile (wie der Neokortex) können zwar das sachliche Weltbild erheblich weiter ausdehnen, differenzieren, setzen aber das primäre Körpermodell mit seinen emotionalen Kommentaren weiterhin voraus.
  3. Nach Lane sieht Damasio das moderne Selbstbewusstsein verortet als eine neue Berechnungsstufe oberhalb des alten Körpermodells und den neuen Sachdimensionen. Das ausgeweitete und differenziertere Bild der Objekte und Ereignisse in der Außenwelt vermittelt durch den Neokortex wird permanent in seinen Wechselwirkungen mit dem Körpermodell abgeglichen. Dieses liefert auch kontinuierlich emotionale Kommentare. Auf der abstrakteren Ebene können die Körperdaten mit den neuen Situationsmodellen verrechnet werden. Sprache bedeutet sowohl eine neue Repräsentationsebene (Laute, Zeichen, Gesten, …= Syntax)) wie auch eine neue Bedeutungsebene (Abbildung von Zeichenrepräsentanten auf Objektrepräsentanten, einschließlich den Emotionen = Semantik, auch Pragmatik). Insofern jeder Mensch eine hinreichend ähnliche neuronale Struktur besitzt ist auf diese Weise begrenzt eine Kommunikation über die jeweils subjektiven Zustände möglich, aber nur soweit, als die beteiligten Personen über hinreichend ähnliche Erfahrungen verfügen.

ONTOLOGISCHER STATUS DES BEWUSSTSEINS

  1. Bleibt noch die Frage, wie man die Phänomene des Bewusstseins ontologisch einordnen kann/ soll.
  2. Für den Wahrnehmenden sind sie subjektiv real. Verglichen mit Prozessen außerhalb des bewussten Wahrnehmungsraumes ist ihr Status völlig offen.
  3. Lane diskutiert auch explizit Hypothesen aus dem Bereich der Quantenphysik. (vgl. SS.252ff) Doch weder lassen sich diese Hypothesen bisher experimentell überprüfen noch sind sie logisch überzeugend. Die Phänomene des Bewusstseins reräsentiern keine Quantenstruktur.(vgl. S.254)

ABSPANN

  1. Dieses Kapitel 9 von Lane (hier nur in Teilen wieder gegeben) liefert inhaltlich mehr Anregungen als so manches komplettes Buch zum Thema Bewusstsein.
  2. Viele Fragen sind weiterhin offen.
  3. Interessant ist die Frage, wie sich die bekannten psychologischen und neuropsychologischen Gedächtnismodelle zu dieser (anfangshaften) Theorie des Bewusstseins verhalten.
  4. Bislang werden diese Gedächtnismodell unabhängig von Fragen der Bewusstseinstheorie oder der Gehirnentwicklung diskutiert. Auch haben die so einflussreichen Emotionen in diesen Theorien keinen rechten Platz.
  5. Ferner ist das methodische Problem einer Theorie des Bewusstseins angesichts der Vielzahl an Disziplinen und Methoden keineswegs geklärt. So rekurrieren die Gehirnforscher oft und gerne auf korrelierendes Verhalten oder auf korrelierende Bewusstseinstatbestände, ohne dass sie aber auf die methodischen Probleme dieser andersartigen Daten explizit eingehen noch dass sie überhaupt explizite verhaltensbasierte oder bewusstseinsbasierte Theorien voraussetzen. Neuropsychologie und Neurophänomenologie sind wirkliche Desiderata, die allerdings sowohl eine theoriefähige Psychologie wie auch eine theoriefähige Phänomenologie voraussetzen.
  6. Zur Frage der ontologischen Geltung würde ich gerne die Hypothese beisteuern, dass möglicherweise die Bewusstseinsdaten emergente Phänomene sind analog wie viele andere Phänomene, wie z.B. auch die Gravitation. Dies bedeutet, dass unsere Materie nicht nur jene Eigenschaften implizit enthält, die sich im Verlauf der biologischen Evolution in immer komplexeren Zusammenhängen gezeigt haben, sondern im synchronisierten Zusammenwirken von Milliarden von Neuronen entsteht ein Ereignisfeld, das genau jene Qualität zeigt, die wir Bewusstsein nennen. Analog ist die Gravitation auch nur erfahrbar in bestimmten Konstellationen von Materie, ohne dass die Gravitation solch ein einzelner Körper wäre.

Eine Überscht über alle bisherigen Blogenträge des Autors cagent nach Titeln findet sich HIER.

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

DAS NEUE MENSCHENBILD – ERSTE SKIZZE

MUSIK ZUR EINSTIMMUNG

Das Stück „Wenn die Worte aus der Dunkelheit aufsteigen wie Sterne“ entstand zunächst als ein reines Instrumentalstück (die erste Hälfte des aktuellen Stücks; diesen Teil hatte ich auch schon mal am 4.April im Blog benutzt). Doch inspirierte die Musik zum ‚Weitermachen‘, zunächst entstand eine Fortsetzung rein instrumental; dann habe ich ab der Mitte spontan einen Text dazu gesprochen. Im Nachhinein betrachtet passt dieser Text sehr gut zum heutigen Blogeintrag (ist kein Dogma … :-))

UNSCHULDIGER ANFANG

1. Als ich am 20.Januar 2007 – also vor 7 Jahren und 3 Monaten – meinen ersten Blogeintrag geschrieben habe, da wusste ich weder genau, was ich mit dem Blog wollte noch konnte ich ahnen, was durch das Niederschreiben von Gedanken alles an ‚kognitiven Bildern‘ von der Welt und dem Menschen entstehen konnte. Langsam schälte sich als Thema – wenngleich nicht messerscharf – ‚Neues Weltbild‘ heraus. Das konnte alles und nichts sein. Aber im gedanklichen Scheinwerferkegel von Theologie, Philosophie, Wissenschaftstheorie, Psychologie, Biologie, Linguistik, Informatik, Neurowissenschaften, Physik gab es Anhaltspunkte, Eckwerte, die den aktuellen Gedanken wie eine Billardkugel von einer Bande zur anderen schickten. Dazu die heutige, aktuelle Lebenserfahrung und die vielen Begegnungen und Gespräche mit anderen Menschen.

2. Die letzten beiden Blogeinträge zum Thema Bewusstsein – Nichtbewusstsein markieren einen Punkt in dieser Entwicklung, ab dem ‚wie von Zauberhand‘ viele einzelnen Gedanken von vorher sich zu einem Gesamtbild ‚zusammen schieben‘, ergänzen.

AUSGANGSPUNKT INDIVIDUELLES BEWUSSTSEIN

3. Akzeptieren wir den Ausgangspunkt des individuellen Bewusstseins B_i als primären Erkenntnisstandpunkt für jeden Menschen, dann besteht die Welt für jeden einzelnen zunächst mal aus dem, was er/ sie im Raume seines eigenen individuellen Bewusstseins erleben/ wahrnehmen kann.

4. Da es aber zur Natur des individuellen Bewusstseins gehört, dass es als solches für ‚andere‘ ‚unsichtbar‘ ist, kann man auch nicht so ohne weiteres über die Inhalte des eigenen Bewusstseins mit anderen reden. Was immer man mit Hilfe eines Ausdrucks A einer Sprache L einem anderen mitteilen möchte, wenn der Ausdruck A als Schallwelle den anderen erreicht, hat er zwar einen Schalleindruck (falls erhören kann), aber er/ sie weiß in dem Moment normalerweise nicht, welcher Inhalt des Bewusstseins des Sprechers damit ‚gemeint‘ sein könnte.

5. Dass wir uns trotzdem ‚unterhalten‘ können liegt daran, dass es offensichtlich einen ‚Trick‘ geben muss, mit dem wir diese unüberwindliche Kluft zwischen unseren verschiedenen Bewusstseinsräumen überwinden können.

KLUFT ZWISCHEN INDIVIDUELLEN BEWUSSTSEINSRÄUMEN ÜBERWINDEN

6. Der ‚Trick‘ beruht darauf, dass der individuelle Bewusstseinsraum einem ‚individuellen Körper‘ zugeordnet ist, dass es in diesen Körper Gehirne gibt, und dass das individuelle Bewusstsein eines Körpers k_i als Ereignis im Gehirn g_i des Körpers k_i zu verorten ist. Das Bewusstsein B_i partizipiert an den Gehirnzuständen des Gehirns, und dieses partizipiert an den Körperzuständen. Wie die Wissenschaft mühsam erarbeitet hat, können bestimmte Außenweltereignisse w über ‚Sinnesorgane‘ in ‚Körperereignisse‘ ‚übersetzt‘ werden‘, die über das Gehirn partiell auch das Bewusstsein erreichen können. Sofern es jetzt Außenweltereignisse w‘ gibt, die verschiedene Körper in ähnlicher Weise ‚erreichen‘ und in diesen Körpern via Gehirn bis zu dem jeweiligen individuellen Bewusstsein gelangen, haben diese verschiedenen individuellen Bewusstseinsräume zwar ‚rein private‘ Bewusstseinszustände, aber ‚gekoppelt‘ über Außenweltzustände w‘ haben die verschiedenen Bewusstseinszustände B_1, …, B_n alle Bewusstseinsereignisse b_i, die als solche ‚privat‘ sind, aber ‚zeitlich gekoppelt‘ sind und sich mit Änderung der Außenweltzustände w‘ auch ’synchron‘ ändern. Die gemeinsam geteilte Außenwelt wird damit zur ‚Brücke‘ zwischen den körperlich getrennten individuellen Bewusstseinsräumen. Diese ‚ gemeinsam geteilte Außenwelt‘ nennt man oft den ‚intersubjektiven‘ Bereich der Welt bzw. dies stellt den Raum der ‚empirischen Welt‘ [Wemp] dar. Aus Sicht des individuellen Bewusstseins ist die empirische Welt eine Arbeitshypothese, die dem individuellen Bewusstsein zugänglich ist über eine spezifische Teilmenge [PHemp] der Bewusstseinszustände [PH].

EMPIRISCHE WELT ALS SONDE INS NICHTBEWUSSTSEIN

7. In der Geschichte des menschlichen Wissens spielt die Entdeckung der empirischen Welt und ihre systematische Untersuchung im Rahmen der modernen empirischen Wissenschaften bislang – nach meiner Meinung – die größte geistige Entdeckung und Revolution dar, die der menschliche Geist vollbracht hat. Auf den ersten Blick wirkt die Beschränkung der empirischen Wissenschaften auf die empirischen Phänomene PHemp wie eine unnötige ‚Einschränkung‘ und ‚Verarmung‘ des Denkens, da ja die Menge der bewussten Ereignisse PH erheblich größer ist als die Menge der empirischen Ereignisse PHemp. Wie der Gang der Geschichte aber gezeigt hat, war es gerade diese bewusste methodische Beschränkung, die uns den Bereich ‚außerhalb des Bewusstseins‘, den Bereich des ‚Nichtbewusstseins‘, Schritt für Schritt ‚erforscht‘ und ‚erklärt‘ hat. Trotz individuell stark eingeschränktem Bewusstsein konnte wir auf diese Weise so viel über die ‚Rahmenbedingungen‘ unseres individuellen Bewusstseins lernen, dass wir nicht mehr wie die früheren Philosophen ‚wie die Fliegen am Licht‘ an den Phänomenen des Bewusstseins kleben müssen, sondern wir können zunehmend Hypothesen darüber entwickeln, wie die verschiedenen Bewusstseinsphänomene (inklusive ihrer Dynamik) durch die Strukturen des Gehirns und des Körpers bestimmt sind. M.a.W. wir stehen vor dem Paradox, dass das individuelle Bewusstsein den Bereich des Nichtbewusstseins dadurch ‚verkleinern‘ kann, dass es durch Ausnutzung der empirischen Phänomene mittels gezielter Experimente und Modellbildung immer mehr Eigenschaften des Nichtbewusstseins innerhalb des individuellen Bewusstseins ’nachkonstruiert‘ und damit ‚bewusst‘ macht. Bedenkt man wie eng und schwierig die Rahmenbedingungen des menschlichen Bewusstseins bis heute sind, gleicht es einem kleinen Wunder, was dieses primitive menschliche Bewusstsein bislang nachkonstruierend erkennen konnte.

8. Von diesem Punkt aus ergeben sich viele Perspektiven.

BIOLOGISCHE EVOLUTION

9. Eine Perspektive ist jene der ‚evolutionären Entwicklungsgeschichte‘: seit gut hundert Jahren sind wir mehr und mehr in der Lage, unsere aktuellen Körper und Gehirne – zusammen mit allen anderen Lebensformen – als einen Gesamtprozess zu begreifen, der mit den ersten Zellen vor ca. 3.8 Milliarden Jahren als biologische Evolution begonnen hat, ein Prozess, der bis heute noch viele Fragen bereit hält, die noch nicht befriedigend beantwortet sind. Und der vor allem auch klar macht, dass wir heute keinen ‚Endpunkt‘ darstellen, sondern ein ‚Durchgangsstadium‘, dessen potentieller Endzustand ebenfalls nicht ganz klar ist.

10. Ein wichtiger Teilaspekt der biologischen Evolution ist, dass der Vererbungsmechanismus im Wechselspiel von Genotyp (ein Molekül als ‚Informationsträger‘ (Chromosom mit Genen)) und Phänotyp (Körper) im Rahmen einer Population eine ‚Strukturentwicklung‘ beinhaltet: die Informationen eines Informationsmoleküls (Chromosom) werden innerhalb des Wachstumsprozesses (Ontogenese) als ‚Bauplan‘ interpretiert, wie man welche Körper konstruiert. Sowohl bei der Erstellung des Informationsmoleküls wie auch bei seiner Übersetzung in einen Wachstumsprozess und dem Wachstumsprozess selbst kann und kommt es zu partiellen ‚Änderungen‘, die dazu führen, dass die resultierenden Phänotypen Änderungen aufweisen können (verschiedene Arten von Sehsystemen, Verdauungssystemen, Knochengerüsten, usw.).

11. Im Gesamtkontext der biologischen Evolution sind diese kontinuierlich stattfindenden partiellen Änderungen lebensentscheidend! Da sich die Erde seit ihrer Entstehung permanent geologisch, klimatisch und im Verbund mit dem Sonnensystem verändert, würden Lebensformen, die sich von sich aus nicht auch ändern würden, schon nach kürzester Zeit aussterben. Dies bedeutet, dass diese Fähigkeit zur permanenten strukturellen Änderung ein wesentliches Merkmal des Lebens auf dieser Erde darstellt. In einer groben Einteilung könnte man sagen, von den jeweils ’neuen‘ Phänotypen einer ‚Generation‘ wird die ‚große Masse‘ mehr oder weniger ‚unverändert‘ erscheinen; ein kleiner Teil wir Veränderungen aufweisen, die es diesen individuellen Systemen ’schwerer‘ macht als anderen, ihre Lebensprozesse zu unterstützen; ein anderer kleiner Teil wird Veränderungen aufweisen, die es ‚leichter‘ machen, die Lebensprozesse zu unterstützen. Letztere werden sich vermutlich proportional ‚mehr vermehren‘ als die beiden anderen Gruppen.

12. Wichtig an dieser Stelle ist, dass zum Zeitpunkt der Änderungen ’niemand‘ weiß bzw. wissen kann, wie sich die ‚Änderung‘ – bzw. auch die Nicht-Änderung! – im weiteren Verlauf auswirken wird. Erst der weitergehende Gesamtprozess wird enthüllen, wie sich die verschiedenen Strukturen von Leben bewähren werden.

LEBENSNOTWENDIGE KREATIVITÄT: WOLLEN WIR SIE EINSPERREN?

13. Übertragen auf unsere heutige Zeit und unser Weltbild bedeutet dies, dass wir dieser Veränderlichkeit der Lebensformen immer Rechnung tragen sollten, um unsere Überlebensfähigkeit zu sichern. Zum Zeitpunkt einer Änderung – also jetzt und hier und heute – weiß niemand, welche dieser Änderungen morgen vielleicht wichtig sein werden, zumal Änderungen sich erst nach vielen Generationen auszuwirken beginnen.

14. Es wäre eine eigene große Untersuchung wert, zu schauen, wie wir heute in der Breite des Lebens mit den stattfindenden Änderungen umgehen. In der Agrarindustrie gibt es starke Tendenzen, die Vielzahl einzugrenzen und wenige Arten so zu monopolisieren, dass einzelne (ein einziger!) Konzern die Kontrolle weltweit über die genetischen Informationen bekommt (was in den USA z.T. schon zur Verödung ganzer Landstriche geführt hat, da das Unkraut sich schneller und effektiver geändert hat als die Laborprodukte dieser Firma).

STRUKTURELLES UND FUNKTIONALES LERNEN

15. Die ‚Struktur‘ des Phänotyps ist aber nur die eine Seite; genauso wenig wie die Hardware alleine einen funktionierenden Computer definiert, so reicht die Anordnung der Zellen als solche nicht aus, um eine funktionierende biologische Lebensform zu definieren. Im Computer ist es die Fähigkeit, die elektrischen Zustände der Hardware kontinuierlich zu verändern, dazu verknüpft mit einer impliziten ‚Schaltlogik‘. Die Menge dieser Veränderungen zeigt sich als ‚funktionaler Zusammenhang‘ phi_c:I —> O, der ‚Inputereignisse‘ [I] mit Outputereignissen [O] verknüpft. Ganz analog verhält es sich mit den Zellen in einem biologischen System. Auch hier gibt es eine implizite ‚Logik‘ nach der sich die Zellen verändern und Zustände ‚kommunizieren‘ können, so dass Zellgruppen, Zellverbände eine Vielzahl von funktionellen Zusammenhängen realisieren. Einige dieser funktionellen Zusammenhänge bezeichnen wir als ‚Lernen‘. Dies bedeutet, es gibt nicht nur die über Generationen laufenden Strukturveränderung, die eine Form von ’strukturellem Lernen‘ im Bereich der ganzen Population darstellen, sondern es gibt dann dieses ‚funktionelle Lernen‘, das sich im Bereich des individuellen Verhaltens innerhalb einer individuellen Lebenszeit ereignet.

WISSEN GARANTIERT KEINE WAHRHEIT

16. Dieses individuelle Lernen führt zum Aufbau ‚individueller Wissensstrukturen‘ mit unterschiedlichen Ausprägungsformen: Erlernen von motorischen Abläufen, von Objektkonzepten, Beziehungen, Sprachen, Verhaltensregeln usw. Wichtig ist dabei, dass diese individuellen Wissensstrukturen im individuellen Bewusstsein und individuellem Unterbewusstsein (ein Teil des Nichtbewusstseins, der im individuellen Körper verortet ist) verankert sind. Hier wirken sie als kontinuierliche ‚Kommentare‘ aus dem Unterbewusstsein in das Bewusstsein bei der ‚Interpretation der Bewusstseinsinhalte‘. Solange diese Kommentare ‚richtig‘ / ‚passend‘ / ‚wahr‘ … sind, solange helfen sie, sich in der unterstellten Außenwelt zurecht zu finden. Sind diese Wissensstrukturen ‚falsch‘ / ‚verzerrt‘ / ‚unangemessen‘ … bewirken sie in ihrer Dauerkommentierung, dass es zu Fehleinschätzungen und zu unangemessenen Entscheidungen kommt. Sofern man als einziger eine ‚unpassende Einschätzung‘ vertritt, fällt dies schnell auf und man hat eine Chance, diese zu ‚korrigieren‘; wird aber eine ‚Fehleinschätzung‘ von einer Mehrheit geteilt, ist es schwer bis unmöglich, diese Fehleinschätzung als einzelner zu bemerken. In einer solchen Situation, wo die Mehrheit eine Fehleinschätzung vertritt, kann ein einzelner, der die ‚richtige‘ Meinung hat (z.B. Galilei und Co. mit der neuen Ansicht zur Bewegung der Sonne; die moderne Wissenschaft und die alten Religionen; das damalige südafrikanische Apartheidsregime und der damalige ANC, der Sowjetkommunismus und die östlichen Friedensbewegungen vor dem Auseinanderfallen der Sowjetunion; die US-Geheimdienste und Snowden; …) als der ‚Fremdartige‘ erscheinen, der die bisherige ‚Ordnung‘ stört und den man deshalb ‚gesellschaftlich neutralisieren‘ muss).

17. Viele Menschen kennen das Phänomen von ‚Phobien‘ (vor Schlangen, vor Spinnen, vor …). Obwohl klar ist, dass eine einzelne Spinne keinerlei Gefahr darstellt, kann diese einen Menschen mit einer Phobie (= Kommentar des individuellen Unterbewusstseins an das Bewusstsein) zu einem Verhalten bewegen, was die meisten anderen als ‚unangemessen‘ bezeichnen würden.

18. Im Falle von psychischen Störungen (die heute statistisch stark zunehmen) kann dies eine Vielzahl von Phänomenen sein, die aus dem Raum des individuellen Unterbewusstseins in das individuelle Bewusstsein ‚hinein reden‘. Für den betroffenen Menschen ist dieses ‚Hineinreden‘ meistens nicht direkt ‚verstehbar‘; es findet einfach statt und kann vielfach kognitiv verwirren und emotional belasten. Diese Art von ‚Fehlkommentierung‘ aus dem individuellen Unterbewusstsein ist – so scheint es – für die meisten Menschen vielfach nur ‚behebbar‘ (therapierbar) mit Hilfe eines Experten und einer geeigneten Umgebung. Während Menschen mit körperlichen Einschränkungen in der Regel trotzdem ein einigermaßen ’normales‘ Leben führen können, können Menschen mit ‚psychischen Störungen‘ dies oft nicht mehr. Das geringe Verständnis einer Gesellschaft für Menschen mit psychischen Störungen ist auffällig.

SPRACHE ALS MEDIUM VON GEDANKEN

19. Seit der Entwicklung der ‚Sprache‘ kann ein individuelles Bewusstsein unter Voraussetzung einer einigermaßen ähnlichen Wahrnehmungs- und Gedächtnisstruktur in den einzelnen Mitgliedern einer Population Bewusstseinsinhalte aufgrund von Gedächtnisstrukturen mit Ausdrücken einer Sprache korrelieren. Sofern diese Korrelierung in hinreichender Abstimmung mit den anderen Sprachteilnehmern geschieht, lassen sich mittels sprachlicher Ausdrücke diese ‚Inhalte‘ (‚Bedeutungen‘) ‚indirekt‘ kommunizieren; nicht der Inhalt selbst wird kommuniziert, sondern der sprachliche Ausdruck als eine Art ‚Kode‘, der im Empfänger über die ‚gelernte Bedeutungszuordnung‘ entsprechende ‚Inhalte des Gedächtnisses‘ ‚aktiviert‘. Dass diese Kodierung überhaupt funktioniert liegt daran, dass die Bedeutungsstrukturen nicht ‚1-zu-1‘ kodiert werden, sondern immer nur über ‚verallgemeinerte Strukturen‘ (Kategorien), die eine gewisse ‚Invarianz‘ gegenüber den Variationen der konstituierenden Bedeutungselemente aufweisen. Dennoch sind die Grenzen sprachlicher Kommunikation immer dann erreicht, wenn Sprecher-Hörer über Bewusstseinstatsachen kommunizieren, die nur einen geringen oder gar keinen Bezug zur empirischen Welt aufweisen. Die Benutzung von Analogien,Metaphern, Bildern, Beispielen usw. lässt noch ‚irgendwie erahnen‘, was jemand ‚meinen könnte‘, aber eine letzte Klärung muss oft ausbleiben. Nichtsdestotrotz kann eine solche ‚andeutende‘ Kommunikation sehr hilfreich, schön, anregend usw. sein; sie ersetzt aber keine Wissenschaft.

20. Während das individuelle Wissen mit dem Tod des Individuums bislang ‚verschwindet‘, können ‚Texte‘ (und vergleichbare Darstellungen) ein individuelles Wissen bis zu einem gewissen Grade überdauern. Moderne Kommunikations- und Speichermittel haben die Sammlung und Verwertung von Wissen in bislang ungeahnte Dimensionen voran getrieben. Während allerdings die Menge dieses sprachbasierten Wissens exponentiell wächst, bleiben die individuellen Wissensverarbeitungskapazitäten annähernd konstant. Damit wächst die Kluft zwischen dem individuell verfügbaren Wissen und dem in Datennetzen verfügbaren Wissen ebenfalls exponentiell an. Es stellt sich die Frage, welchen Beitrag ein Wissen leisten kann, das sich faktisch nicht mehr verarbeiten lässt. Wenn man sieht, dass heute selbst Menschen mit einem abgeschlossenen Studium Ansichten vertreten, die im Lichte des verfügbaren Wissens gravierend falsch sein können, ja, dass das Wesen von Wissenschaft, wissenschaftlichem Wissen selbst bei Studierten (und nicht zuletzt auch bei sogenannten ‚Kulturschaffenden‘) starke Defizite aufweist, dann kann man ins Grübeln kommen, ob unsere heutige Kultur im Umgang mit wissenschaftlichem Wissen die richtigen Formen gefunden hat.

21. Hier wäre jetzt auch noch der ganze Komplex der Bedürfnisse/ Emotionen/ Gefühle/ Stimmungen anzusprechen. Doch das soll weiteren Einträgen vorbehalten bleiben.

Einen Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

M.DONALD: EVOLUTION DES MENSCHLICHEN BEWUSSTSEINS – Kurzbesprechung, Teil 2

Diesem Beitrag ging voraus Teil 1.

1) Das siebte Kapitel ist überschrieben ‚The First Hybrid Minds on Earth‘ (etwa: ‚Die ersten hybriden Geister auf der Erde‘). (S.252)
2) [Anmerkung: Das Problem ist, dass es für den Plural des englischen Begriffs ‚minds‘ in diesem Kontext keine direkte Übersetzung gibt. Die Übersetzung ‚Geister‘ ist eher irreführend, da mit ‚Geister‘ im Deutschen etwas anderes assoziiert wird als mit dem Plural von ‚minds‘. Das liegt daran, dass der deutsche Singular ‚Geist‘ einmal die ‚geistige Kapazität‘ im allgemeinen meinen kann, aber auch ein ontologisch schillerndes Wesen, das als ‚Geist‘ zwar ‚irgendwie‘ da ist, aber nicht so, wie ein reales Wesen. Von der ‚geistigen Kapazität‘ im Singular gibt es im Deutschen aber keinen wirklichen Plural, also die ‚geistige Kapazität‘ in vielfachen Ausprägungen, viele ‚reale‘ Wesen mit einem ‚realen‘ Geist. Die Übersetzung von ‚mind‘ als ‚Verstand‘ oder ‚Vernunft‘ ist nicht ganz falsch, aber auch nicht ganz richtig. Aber auch von ‚Verstand‘ und ‚Vernunft‘ gibt es im Deutschen keinen Plural! Das ist eigentlich interessant. Warum kann man im Deutschen von ‚Geist‘, ‚Verstand‘ und ‚Vernunft‘ nicht im Plural sprechen bzw. denken? Faktisch sind diese Eigenschaften an individuelle Körper gebunden, von denen es viele gibt. Warum kann man im Deutschen dann nicht von ‚den Geistern‘, den ‚Verständen‘, ‚den Vernünften‘ sprechen? Ich denke, hier zeigt sich in der Sprache etwas, das man nicht so einfach hinnehmen sollte.]
3) Das Kapitel startet mit der These, dass die Entwicklung ’symbolischer Fähigkeiten‘ (’symbolic skills‘) nicht durch Beschränkung auf ein isoliertes Gehirn alleine erklärt werden können, da es sich um Phänomene handelt, die ‚inhärent vernetzte Phänomene‘ (‚inherent network phenomena‘) sind.(vgl. S.252)
4) [Anmerkung: Wenn ich einen Körper als Ansammlung von vielen Zellen (ca. 14 Billionen, 14 * 10^12) verstehe, die in ihrer Ausformung von einem genetischen Bauplan und seiner ‚Umsetzung‘ in Form von ‚Wachstum‘ abhängig sind, dann kann ich die genetische und die ontogenetische Maschinerie natürlich bis zu einem gewissen Grad beschreiben, ohne explizit Bezug auf externe Faktoren zu nehmen. Eine solche Beschreibung ist auch nicht ‚falsch‘, da das, was ich beschreibe, ja empirisch aufweisbar ist. Dennoch kann diese empirische nicht falsche Beschreibung in ihrem Verzicht auf korrelierende Kontext-Faktoren möglicherweise entscheidende Faktoren ‚unterschlagen‘ (‚verdrängen‘,…). Dies wäre dann der Fall, wenn sich die ‚körperinternen‘ Faktoren in ihren Veränderungen nur ‚verstehen lassen würden‘, wenn man die korrelierenden Faktoren einbeziehen würde. Verstehen ist aber relativ, kriterienabhängig: welche Eigenschaften erscheinen einem ‚wichtig‘, so dass man sie in eine Erklärung einbeziehen möchte? ]
5) [Anmerkung: In einer empirischen Erklärung gelten nur Phänomene, die notwendig sind, um das Auftreten eines bestimmten Phänomens auch in Form einer Voraussage ‚erklären‘ zu können, etwa: Wenn X gegeben ist, dann wird Y mit einer Wahrscheinlichkeit von p auftreten. Wenn ich mehrere biologische Arten A1, …, Ak habe, die eine Eigenschaft P0 gemeinsam haben, sich aber jeweils in mindestens einer Eigenschaft P1, …, Pk voneinander unterscheiden, dann würde eine Beschränkung auf P0 zwar nicht falsch sein, aber eben nicht alles erklären. Um die Art Ai in ihrer Besonderheit erklären zu können, müsste ich die Eigenschaften P0 + Pi erklären, nicht nur P0 alleine.]
6) [Anmerkung: Wie im Falle biologischer Systeme bekannt, entwickeln sich besondere Arten Ai mit einer Spezialeigenschaft Pi in der Regel immer in Abhängigkeit von einer besonderen Umgebungseigenschaften Ei. Dies bedeutet, man kann das Auftreten der Eigenschaft Pi bei der Art Ai nicht ‚verstehen‘, wenn man die korrelierende Eigenschaft Ei nicht berücksichtigt. Aus diesem Grund betrachtet die moderne Biologie biologische Systeme Ai niemals isoliert, sondern immer nur im Kontext von jeweiligen umgebenden Lebensräumen Ei und die ‚Wechselwirkungen‘ zwischen Umgebung und der Population der Art Ai. Diese Wechselwirkungen setzen sich zusammen aus individuellen Eigenschaften des jeweiligen individuellen biologischen Systems (z.B. spezifische Wahrnehmungsfähigkeit, Verdauungsfähigkeit, Bewegungsform, usw.) und verbunden damit mit der Zahl der Nachkommen während der Lebenszeit. Die individuellen Fähigkeiten erweisen ihre Bedeutung in der Fähigkeit, dass die Population als Ganze in jeder Generation über hinreichend viele und fähige Nachkommen verfügt. Diese Sicht der Dinge war in der Biologie nicht immer schon da; sie musste Schritt für Schritt erarbeitet werden.]
7) [Anmerkung: Die These von Donald , dass man den Kontext einbeziehen muss, ist von daher einerseits nichts grundlegend Neues. Andererseits legt er den Finger auf Kontexteigenschaften, die als solche qualitativ verschieden sind von den vorausgehenden. ‚Symbole‘ sind vieldeutige Werkzeuge, die der Mensch so in der Natur nicht vorgefunden, sondern die er selber geschaffen hat. In dem Maße, wie er sie geschaffen hat, können sie zu einem Teil seiner Umgebung werden, die wie die ’natürliche‘ Umgebung auf ihn ‚einwirken‘ kann. Und hier kommt die nächste Besonderheit: Symbole als Umgebung wirken nicht nur physisch auf den Menschen ein wie die natürliche Natur, sondern sie beeinflussen die gedanklichen Prozesse des Menschen, sie bilden ‚Formen‘, ‚Muster‘, ‚Regeln‘, Strukturen‘, ‚Inhalte‘ usw. der gedanklichen Prozesse, mit Hilfe deren sich der Mensch in seiner Welt ‚orientiert‘. Die Orientierung besteht darin, dass der Mensch ‚im Medium seiner Gedanken‘ seine Wahrnehmungen von der Welt (und sich selbst) ‚interpretiert‘. Anders gesagt: mit den Symbolen als Werkzeug schafft der Mensch eine Umgebung, die auf ihn zurückwirken kann, und mit Hilfe von der er die Welt interpretiert; eine bizarre ‚Rückkopplung‘. Dies ist keine genetisch-ontogenetisch vermittelte Koevolution sondern eine symbolisch vermittelte Koevolution ‚mit sich selbst‘; das ist eine neue Qualität. Der Mensch schafft sich in symbolischen Räumen ein Medium, das als dieses Medium auf sein Denken zurückwirkt und darin permanent sein Medium verändert.]
8) [Anmerkung: Verglichen mit der genetischen basierten Evolution ist diese Art von symbolischer Koevolution um Dimensionen schneller. Durch die ‚Ungleichzeitigkeit‘ von genetischer und symbolischer Koevolution ist ein massiver Konflikt vorprogrammiert: wird die schnellere symbolische Evolution die langsamere genetische Evolution letztlich strukturell verändern können (durch ‚Gentechnik‘) oder wird die symbolische Evolution durch Schaffung eines ‚künstlichen Geistes‘ die genetische Evolution überflüssig machen? ]
9) Diese These bedeutet im Fall der Sprache, dass es – nach Donald — nicht die Fähigkeit zum Sprechen als solche war, die zum Phänomen der Sprache in ihrem vollem Umfang geführt hat, sondern in der Bildung von ‚gedanklichen Gemeinschaften‘ (‚cognitive communities‘). Dies bedeutet, das Zusammensein und das Zusammenwirken von mehreren Menschen als solchen muss gegeben gewesen sein, damit sich aus einem elementaren ‚Sprechen‘ ein ‚Sprache‘ entwickeln konnte. (vgl. SS.252-254)
10) [Anmerkung: So suggestiv diese Formulierungen von Donald klingen mögen, so erscheint mir doch Vorsicht geboten. Wie schon das einfache Beispiel mit den beiden Nervenzellen A und B andeutete, die ein UND oder OR-Gatter realisieren: der einzelnen Zelle kann man dies Eigenschaft nicht ansehen. Noch kann man sagen, dass A sich nur so entwickeln konnte, weil es B gab (oder umgekehrt); in dem Falle reicht es aus, dass sowohl A als auch B bestimmte Grundeigenschaften besitzen, die in Kombination unterschiedliche Funktionen ‚zeigen‘. Das gleiche gilt für Atome; auch wenn man nicht sagt, dass Wasserstoff ‚H‘ sich bilden musste, weil es Sauerstoff ‚O‘ gab (oder umgekehrt), gilt, dass eine Kombination von ‚H‘ und ‚O‘ zu ‚H2O‘ möglich ist und dann in dieser Kombination ’neue‘ Eigenschaften zeigt. M.a.W. das Vorkommen von einzelnen Gehirnen im Rahmen einer Population bedeutet, dass die Gehirne ‚ihre eigene Umgebung‘ sind. Das Besondere wäre nicht die Umgebung als solche, sondern die Tatsache, dass Gehirne spezielle Eigenschaften besitzen, die, wenn sie auf ein anderes Gehirn treffen, ’sichtbar‘ werden. Im Falle der Sprache als einem vernetzten Beziehungssystem von ‚Sprachmaterial‘ (‚token‘) ‚Z‘, möglichem ‚intentionalem Gegenstand‘ ‚O'(‚real‘ oder ‚gedacht‘), ‚gewusster Bedeutungsbeziehung‘ ‚B: Z <---> O‘ und einem ’semiotischen System‘ ‚S‘ als Träger und Realisator dieser Bedeutungsbeziehungen, sind Gehirne in einem Körper – soweit wir sie kennen – die idealen Mediatoren für Sprache: Gehirne können intentionale Gegenstände O ‚repräsentieren‘, sie können Zeichenmaterial Z ‚produzieren‘, sie können beliebige Bedeutungsbeziehungen B realisieren, und sie können diese Fähigkeiten als dynamische Systeme kontinuierlich einsetzen. Dies bedeutet, die Präsenz von mindestens zwei Gehirnen bietet alle Voraussetzungen dafür, dass sich Sprache bilden kann. ]
11) [Anmerkung: Vor diesem Hintergrund erscheint es bemerkenswert, dass die Wissenschaft sich bislang so schwer tut, Sprachbildungsprozesse mit dem Computer nach zu vollziehen. Seit den pionierhaften Talking-Heads Experimenten eines Luc Steels sind wir nicht viel weiter gekommen (siehe Quellen unten) (vergleicht man die Forschungsmittel, die generell ausgegeben werden mit jenen, die für Forschungen zur künstlichen Intelligenz ausgegeben werden, so ist der Betrag für künstliche Intelligenz so niedrig, dass man ihn kaum in Prozenten ausdrücken kann. Aber ich bezweifle, ob es nur am Geld liegt.]
12) Das erste, was Kinder in solchen gedanklichen Gemeinschaften lernen müssen, das ist ein Satz von ‚reziproken Verhaltensmustern‘, in denen man sich wechselseitig der Aufmerksamkeit versichern kann. Dies wiederum geht nur, sofern die Gedächtnisstrukturen hinreichend differenziert sind. Objekte, Relationen, Strukturen, Rollen, Abläufe usw. müssen erinnert werden können; Selbstmodelle und Fremdmodelle, die Metareflexionen voraussetzen. Dies alles impliziert komplexe Lernprozesse, die wiederum Zeit brauchen und entsprechende soziale Umgebungen, die dazu beitragen, dass bestimmte Muster ’sozial einprogrammiert‘ werden. (vgl.SS.254-257)
13) [Anmerkung: Aufgrund des nachweisbaren Zusammenhangs zwischen bestimmten Umgebungseigenschaften Ei und bestimmten Eigenschaften Pi einer bestimmten Art Ai ist die Versuchung groß, diesen Zusammenhang ‚kausal‘ zu interpretieren, also im Sinne ‚weil‘ es Ei gibt, daher bildete sich Pi heraus. Mir scheint, dies ist – wenn überhaupt – höchstens die ‚halbe Wahrheit‘. Bedenkt man die Funktionsweise der genetischen basierten Evolution, so ist die primäre Quelle von möglichen Strukturen das Wechselspiel von Selbstreproduktion des genetischen Codes und der molekularen Übersetzung des Codes in Proteinstrukturen als Ontogenese. Dies bedeutet, dass – egal welche Umgebungseigenschaften jeweils gegeben sind – primär der verfügbare genetische Code und dessen molekulare Übersetzung darüber entscheidet, was sich überhaupt an Strukturen bilden kann. So könnte es grundsätzlich auch so sein, dass die Menge der genetisch bedingten Strukturen grundsätzlich nicht zu den umgebungsmäßig gegebenen Eigenschaften Ei passen würde. In diesem Fall könnten die Umgebungseigenschaften niemals ‚bewirken‘, dass sich ‚geeignete‘ Strukturen bilden. Der Eindruck von möglichen kausalen Zusammenhängen ist ‚beobachterabhängig‘ und eher ein ‚Artefakt des Denkens‘. Dass es zu scheinbaren ‚Anpassungen‘ kommen kann ist zwar ein ‚Auswahlprozesse‘ (Selektion‘), aber nicht in dem Sinne, dass die gegebenen Umgebungseigenschaften Ei aller erst die speziellen genetischen Eigenschaften Gi schaffen, die zu den phänotypischen Eigenschaften Pi führen, sondern weil der genetische und ontogenetische Prozess ‚von sich aus‘ die Eigenschaften Gi bereitstellen kann bzw. sie bereitgestellt hatte können diese dann ’selektiert‘ werden, weil jene Phänotypen, die aus diesen Gi hervorgegangen sind, mehr Nachkommen haben, als jene Phänotypen, die aus einem anderen Genotyp Gj hervorgegangen sind. Die Dramaturgie von geologischem Erdprozess und genetisch basierter Evolution ist damit in keiner Weise aufgeklärt; hier gibt es mehr Fragen als Antworten.‘]
14) Donald ergänzt seine Bemerkungen zum Gedächtnis dahingehend, dass er für das menschliche Gedächtnis postuliert, dass es die beobachtbaren Verhaltensleistungen nur unterstützen kann, wenn es in viele funktional differenzierte Bereich aufgegliedert ist, die parallel arbeiten können. So müssten wir grundsätzlich unterscheiden können zwischen ‚Selbst‘ und ‚Anderer‘, ‚Gegenwart‘, ‚Vergangenheit‘ und ‚Zukunft‘. (vgl. SS.257-259)
15) [Anmerkung: Es ist interessant, wie vage und allgemein die Aussagen zum Gedächtnis sind, obgleich doch gerade das Gedächtnis so zentral sein soll für die symbolisch vermittelte Kultur (ein ähnliches Phänomen war bei Norman zu beobachten. Auch bei ihm waren die Aussagen zum Gedächtnis sehr vage, plakativ, nicht durch harte empirische Modellbildung abgesicherten. Andererseits, wenn man sieht, wie schwer sich selbst die neuesten neurowissenschaftlichen Forschungen zum Raumgedächtnis und episodischen Gedächtnis tun, dann darf man Donald hier nicht zu hart kritisieren. Aber zumindest sollte er dann darauf hinweisen, dass es ziemlich spekulativ ist, was er da sagt…]

LITERATURHINWEISE

Steels, L.; Cooperation between distributed agents through self-organisation, Intelligent Robots and Systems ’90. ‚Towards a New Frontier of Applications‘, Proceedings. IROS ’90. IEEE International Workshop on, pp. 8 – 14 supl, 1990
Steels, Luc (1990) „Components of Expertise“ , AI Magazine Volume 11 Number 2 (1990), pp. 28-49.
Steels, L.; Mathematical analysis of behavior systems, From Perception to Action Conference, 1994., Proceedings, pp. 88 – 95, 1994
Steels, L.; A self-organizing spatial vocabulary, Artificial Life Journal, 2(3), pp. 319-332, 1995
Steels, L.; Language Games for Autonomous Robots, IEEE Intelligent Systems , Volume 16 Issue 5, pp.16 – 22, 2001
Steels, Luc; (2001) Grounding Symbols through Evolutionary Language Games. In: Cangelosi A. and Parisi D. (Eds.) Simulating the Evolution of Language Springer.
Steels, L.; Evolving grounded communication for robots, Trends in Cognitive Science 7(7), July 2003, pp.308 – 312
Steels, L.; Semiotic Dynamics for Embodied Agents, Intelligent Systems, IEEE, Volume: 21 , Issue: 3, pp. 32 – 38, 2006
Steels, L.; The Symbol Grounding Problem has been solved. So What’s Next?, In Glenberg, A.; Graesser, A.; Vega, M. de; (Eds.), Symbols, Embodiment, and Meaning, Oxford University Press, pp. 506-557, 2008
Steels, L.; Work on Symbol Grounding now needs concrete Experimentation, Intern. J. of Signs and Semiotic Systems, 1(1), pp. 57-58, 2011
Steels, Luc (2011) „Design Patterns in Fluid Construction Grammar“ , Amsterdam: John Benjamins Pub.
Steels, Luc (2011) „Modeling the cultural evolution of language.“ Physics of Life Reviews, 8(4) pp. 339-356.

Fortsetzung folgt in Teil 3.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

GEIST-SICHTBARMACHUNGS-EXPERIMENT, Teil 1, Begriffe und theoretischer Rahmen

ZENTRALE BEGRIFFE: GEIST

(1) Für das anvisierte Großprojekt ‚Sichtbarmachung des Geistes‘ (in Frankfurt, der Stadt Goethes, der einen Faust 1+2 geschrieben hat) ist es hilfreich, den zentralen Begriff ‚Geist‘ ein wenig zu lokalisieren. Angesichts der nahezu unerschöpflichen Quellenlage zum Thema ‚Geist‘ mag dies auf den ersten Blick als ein scheinbar hoffnungsloses Unterfangen erscheinen.
(2) Da es hier aber in erster Linie nicht um eine ‚Begriffsgeschichte‘ der Wortmarke ‚Geist‘ gehen soll, sondern um eine systematischen Gebrauch des Begriffs im Kontext einer expliziten Theorie, wird es genügen, die Annahmen dieser Theorie darzustellen.

ZENTRALE BEGRIFFE: GEIST, INTELLIGENZ, BEWUSSTSEIN

(3) Beim aktuellen Stand der Reflexion werden es drei zentrale Begriffe sein, die in der anvisierten Theorie zentral Verwendung finden werden: ‚Geist‘, ‚Intelligenz‘ und ‚Bewusstsein‘. Während hier im Blog eher informell und auf Deutsch über diese Dinge nachgedacht wird, wird die eigentlich Theorie auf Englisch geschrieben in Gestalt verschiedener Vorlesungsskripte (siehe http://www.uffmm.org). Ob aus all dem jemals mal ein ‚Buch‘ im klassischen Sinne werden wird, ist momentan offen. Für potentielle Leser wäre es sicher eine Erleichterung.
(4) Auch wenn man nicht in die Tiefen und Verästelungen einer vollständigen Begriffsgeschichte hinabsteigen möchte, um die den Begriffen ‚Geist‘, ‚Intelligenz‘ und ‚Bewusstsein‘ innewohnende Vieldeutigkeit und damit einhergehende Vagheit zu verdeutlichen, genügt ein kleines Selbstexperiment mit aktuellen Wörterbüchern, um sehr schnell zu merken, auf welch schlüpfrigem Boden man sich begibt, will man diese Begriffe systematisch benutzen (siehe Eintrag unten und Bild).

Differenzen zwischen Deutsch-Englischen Wortfeldern bei Geist, Intelligenz, Bewusstsein
Differenzen zwischen Deutsch-Englischen Wortfeldern bei Geist, Intelligenz, Bewusstsein

5) Wie man im Schaubild ‚Wortverweise zu ‚Geist‘, ‚Intelligenz‘, ‚Vernunft‘, ‚Bewusstsein‘ sehen kann (und in den Einträgen im Anhang), führt ein Hin- und Her Übersetzen selten zum Ausgangswort zurück. Und dies hier nur im Falle von Deutsch und Englisch. Bedenkt man, dass alle diese Begriffe eine mehrhundertjährige Vorgeschichte in der griechischen Kultur haben, die wiederum über das Latein und das Arabische in die modernen Sprachen Deutsch und Englisch transferiert wurden (ohne Berücksichtigung all der vielfältigen Wechselwirkungen mit den anderen umgebenden Kulturen) , so kann man ahnen, dass eine begriffsgeschichtliche Vorgehensweise zwar sehr anregend sein könnte, aber letztlich keinen wirklichen Beitrag zu dem leisten kann, um das es hier geht: die Benutzung bestimmter Termini in einer aktuellen systematischen Theorie mit empirischen Bezug.

ZIEL DES EXPERIMENTES 1

6) In einer informellen Darstellungsweise könnte man sagen, dass es im Geist-Sichtbarmachungs-Experiment (Mind-Visibility-Generation-Experiment) darum geht, zu zeigen, wie unter Berücksichtigung der kosmischen Rahmenbedingungen (im Sinne der Astrobiologie), der evolutionären Prozesshaftigkeit (im Sinne der Evolutionsbiologie), ausgehend vom beobachtbaren Verhalten (im Sinne verhaltensbasierter Wissenschaften) und unter Berücksichtigung struktureller Eigenschaften von Körpern (im Sinne von Anatomie, Neurowissenschaften,…) plausibel gemacht werden kann, wie die anhand von definierten Aufgaben messbare ‚Intelligenz‘ (im Sinne der empirischen Psychologie) mit einem ‚Geist‘ korrespondiert, der für eine bestimmte Menge von Funktionen steht, die den Strukturen eines Körpers eine spezifische Dynamik verleihen. Das mit ‚Bewusstsein‘ Gemeinte wird dabei angenommen als eine Teilfunktion des ‚Geistes‘.

THEORIEVORAUSSETZUNGEN

7) Wie bei jeder Theorie kann man auch hier unterscheiden zwischen der Theorie selbst und ihrer Hervorbringung. Während die Theorie selbst ein irgendwie geartetes formales Gebilde ist, das von den ‚Theoriemachern‘ (Wissenschaftlern, Ingenieuren) mittels Experimenten auf bestimmte Wirklichkeitsausschnitte bezogen wird, müssen die Theoriemacher individuell spezifische Erkenntnisvoraussetzungen mitbringen, ohne die die Formulierung und koordinierte Nutzung einer Theorie nicht möglich ist. Wir nennen diese postulierten notwendigen Erkenntnisvoraussetzungen hier die ‚minimale kognitive Struktur (MKS)‘ (oder Englisch: ‚minimal cognitive structure (MCS)‘ in dem Sinne, dass jedes virtuelle System, das die gleichen minimale kognitive Struktur besitzen würde, in der Lage wäre, die gleiche Theorie zu formulieren und anzuwenden.

ZIEL DES EXPERIMENTES 2

8) Das Hauptziel des ‚Geist-Sichtbarmachungs-Experimentes (GeiSichtExp)‘ ist genau dieses: virtuelle Systeme entstehen zu lassen, die den minimalen kognitiven Strukturen von Tieren und Menschen so entsprechen, dass sie die gleichen Weltmodelle und dazu gehörigen Verhaltensweisen hervorbringen können. Damit würden diese virtuellen Systeme ‚verhaltensidentisch‘ zu Tieren und Menschen und die Frage nach dem Unterschied zwischen der ‚Natur‘ oder dem ‚Wesen‘ des mit ‚Geist Gemeintem‘ beim Tier und Mensch einerseits sowie den virtuellen Systemen andererseits würde darauf hinauslaufen, ob der ‚Material‘, aus dem die jeweiligen Systeme ‚gebaut‘ sind, eine ‚wesentliche‘ Rolle zukommt.

ENTKOPPLUNG VON BIOLOGISCHEN STRUKTUREN

9) Bei biologischen Systemen hat die Struktur des Körpers, speziell auf der Ebene der Zellen, überwiegend mit der Beschaffung und Erhaltung der Energie zu tun, mit der Erhaltung und Weitergabe von Bauinformationen, mit Wachstum und Koordinierung, usw. und nur zum kleineren Teil mit aktueller Informationsverarbeitung. Würde man das ‚Wesen des Geistes‘ auf die Informationsverarbeitung im engeren Sinne beschränken — was hier im ersten Ansatz versuchsweise getan wird –, dann wäre der größere Teil des Körpers für den Geist nicht direkt relevant. Damit verschärft sich die Plausibilität dafür, dass Strukturen zur Ermöglichung von Informationsverarbeitung im Sinne eines ‚Geistes‘ auch mit anderen Mitteln realisiert werden können. Dies wäre ein erstes Argument dafür, dass das ‚Phänomen des Geistes‘ nicht an die typischen biologischen Strukturen gebunden sein muss.

10) Die Sichtbarmachung von ‚Geist‘ in diesem beschränkten Sinne erscheint prinzipiell machbar, wenngleich aufgrund der implizierten Komplexität nicht einfach. Ein ‚Hobbyprogrammierer um die Ecke‘ wird es nicht schaffen (genauso wenig wie die milliardenschweren Neuro-Simulatoren, die allenthalben entstanden sind bzw. entstehen).

NICHT ALLE FRAGEN BEANTWORTET

11) Die tieferliegende Frage nach dem ‚Geist‘ als einer ‚innewohnenden Eigenschaft der Energie‘ als Ausgangspunkt jeglicher Strukturbildung im Universum würde durch das ‚Geist-Sichtbarmachungs-Experiment‘ jedoch noch nicht beantwortet. Allerdings wäre dies ein Schritt in die Richtung einer möglichen Beantwortung, eine mögliche Motivation, um das Fragen und Experimentieren zu intensivieren.

SUBJEKTIVE WIDERSTÄNDE

12) Die meisten Leute, mit denen ich bislang über dieses ‚Geist-Sichtbarmachungs-Experiment‘ sprechen konnte, tun sich bislang aber überhaupt schwer, diesem Experiment einen Sinn ab zu gewinnen. Die ‚Widerstände‘ für ein ‚Mitdenken‘ sind vielfach. Grundsätzlich tun sich Menschen schwer, über sich selbst nach zu denken. Und wenn überhaupt, dann hat man aus der Vergangenheit bestimmte liebgewordene Bilder, die den Menschen als etwas ‚Besonderes‘ gegenüber allem anderen sehen, als ein mit ‚Geist‘ (und möglicherweise noch ‚Seele‘) ausgestattetem Wesen, dessen Bezug zum Ganzen des Universums trotz Wissen um die Evolution irgendwie und irgendwo nicht so richtig gesehen wird. Die unterschiedlich kursierenden religiösen (hinduistisch, buddhistisch, jüdisch, christlich, muslimisch, …) Deutungsmustern tun ihr ihriges, um den Blick nicht frei zu bekommen, für das ’neue Bild‘ eines — möglicherweise — durch und durch geistigen Universums mit einer darin implizierten eigentümlichen ‚Liebe‘ und ‚Verantwortung‘. Nach allem, was bislang bekannt ist, geht es nicht um ‚weniger‘ Religion, sondern eher um ‚mehr‘. Und wie wir wissen, ist der Weg vom Kind zum erwachsenen, verantwortungsvollen Menschen lang und beschwerlich. Und nicht wenige verweigern auf diesem Weg die notwendigen Einsichten und Konsequenzen. Der Preis der Freiheit ist die Möglichkeit der Verweigerung. Freiheit durch ‚Zwang‘ zu ersetzen hilft in der Regel nicht, da damit die notwendige ‚Reife‘ im einzelnen nicht durch einen eigenen Lernprozess entstehen kann. ‚Zwangsgesellschaften‘ erzeugen auf Dauer ihren eigenen Untergang.

Theoretischer Rahmen für das GEIST-SICHTBARMACHUNGS Projektes
Theoretischer Rahmen für das GEIST-SICHTBARMACHUNGS Projektes

THEORIERAHMEN 2

13) Die benutzte Theorie benutzt drei Komponenten: (i) eine Menge von definierten Aufgaben (‚Tasks‘), die eine Art Umgebung (‚environment‘) für lernende Systeme darstellen; (ii) die zu untersuchenden (lernenden) Systeme (‚Systems‘); (iii) die Interaktion dieser Systeme mit den Aufgaben der Umgebung.

AUFGABEN

14) ‚Aufgaben‘ sind theoretisch definierte Mengen von ‚Zuständen‘, die man in mindestens einen ‚Anfangszustand‘ (’start state‘), mindestens einen ‚Zielzustand‘ (‚goal state‘), sowie einer — eventuell leeren — Menge von ‚Zwischenzuständen‘ (‚intermediate states‘) einteilen kann. Von einem Zielzustand muss es mindestens einen ‚Pfad‘ (‚path‘) zu mindestens einem Zielzustand geben. Dieser wird ‚Lösungspfad‘ (’solution path‘) genannt. Interessant sind die ‚kürzest möglichen‘ Lösungspfade. Kann man einen Lösungspfad angeben, so kann man — unter Voraussetzung feststehender Interaktionen (s.u.) — auch die zum Lösungspfad notwendigen Folgen von Interaktionen angeben, die als solche eine ‚idealisierte empirische Verhaltensfunktion‘ (Phi hoch i‘, φi) definieren. Diese idealisierte empirische Verhaltensfunktion φi kann dann als Sollwert (Norm) benutzt werden, um tatsächliche empirische Verhaltensfunktionen damit zu vergleichen (messen).

SYSTEME

15) Die ‚Systeme‘ innerhalb der verwendeten Theorie sind allesamt ‚offene‘ Systeme, d.h. ‚Input-Output-Systeme‘, die über diverse Wahrnehmungen und Aktionen im kontinuierlichen Austausch mit der jeweiligen Umgebung stehen. Unter Bezug auf eine unterstellte Verhaltensfunktion (phi hoch t, φt: I —> O) kann man dann grob unterscheiden zwischen ‚reaktiven‘ und ‚adaptiven‘ Systemen. ‚Reaktive‘ Systeme (φt: I x IS —> O) verfügen zwar über interne Zustände IS, die in das Verhalten einfließen, diese internen Zustände IS können jedoch nicht wesentlich verändert werden. Im Gegensatz dazu können ‚adaptive‘ Systeme (φt: I x IS —> IS x O) ihre internen Zustände IS hinreichend verändern. Die jeweilige Implementierung der internen Zustände IS (mittels z.B. biologischer Zellen, neuronaler Zellen, Classifier, Graphen) spielt keine wesentliche Rolle. Bislang kann man allerdings ‚technische‘ System von ‚biologischen‘ Systemen meistens dadurch unterscheiden, dass biologische Systeme zwischen einem ‚Genotyp‘ und einem ‚Phänotyp‘ unterscheiden. Der Phänotyp entsteht aus einem Genotyp durch einen Wachstumsprozess, bei dem anhand von genetischen Ausgangsinformationen ein interaktiver Prozess angeregt wird, in dessen Verlauf der Phänotyp (salopp: Körper) entsteht. Der Phänotyp trägt über ‚Fortpflanzung‘ zum Erhalt der genetischen Informationen bei. Bei diesem Prozess können die genetischen Informationen mit Zufallseinflüssen verändert werden. Auf diese Weise können genau jene genetischen Informationen selektiv überleben, deren Phänotypen sich in einer bestimmten Umgebung besonders ‚bewähren‘. Bei technischen Systemen fehlt diese genetische Rückkopplung bislang aufgrund der hier anfallenden Komplexität einerseits und des für solche Prozesse notwendigen Zeitbedarfs.

INTERAKTIONEN: STIMULUS (S), RESPONSE (R)

16) Die ‚Interaktion‘ eines Systems mit seiner Umgebung geschieht einmal über solche Umweltereignisse, die das System als ‚Reize’/ ‚Stimuli‘ (S) ‚wahrnehmen‘ kann sowie über solche Veränderungen an der Außenseite (Interface, Schnittstelle) seines Systems, die als ‚Antworten’/ ‚Responses‘ (R) auf die Umgebung ‚einwirken‘ können. Sofern solch eine Reaktion ‚R‘ von einem bestimmen Stimulus ‚S‘ abhängig ist, spricht man auch von einem Stimulus-Response-Paar (s,r) ∈ S x R. Die Menge aller solcher Stimulus-Response Paare, die für ein bestimmtes System als ‚charakteristisch‘ beobachtet werden können, wird hier als ‚empirische Verhaltensfunktion‘ (φe) bezeichnet. Handelt es sich bei dem System unter Beobachtung um eine biologisches System, ist es eine ‚empirisch-empirische‘ Verhaltensfunktion (φe,e), im Falle von technischen Systemen um eine ‚empirisch-technische‘ Verhaltensfunktion (φe,t). Empirische Verhaltensfunktionen kann man mit idealisierten (‚gesollten‘) Verhaltensfunktionen (φi) vergleichen. Stimmen die empirischen Funktionen mit den idealisierten ‚hinreichend überein‘, dann kann man sagen, dass ein System den für eine Aufgabe zu leistenden minimalen Lösungspfad ‚gelernt‘ hat. Zwischen einer vollständigen (100%) und keiner (0%) Übereinstimmung mag es viele charakteristische Varianten geben.
17) Innerhalb des hier skizzierten theoretischen Rahmens lassen sich alle bis heute bekannten reaktiven und adaptiven Systeme behandeln. Im Laufe des Experimentes werden einige dieser Systeme real vorgestellt werden. Alle beobachtbaren Leistungen sind über definierte Aufgaben beschreibbar und dadurch mit dem Verhalten realer biologischer Systeme vergleichbar. Die Einbeziehung des genotypischen Lernens ist angezielt, aber weitgehend abhängig von der Verfügbarkeit geeigneter Ressourcen.

QUELLENNACHWEISE

Abfrageergebnisse in www.leo.org (Abfrage vom 27.Dez.2012)

1) Mind –> Geist, Verstand, Ansicht, Gedanke, Absicht
2) Vernunft –> reason, rationality, sanity
3) Verstand –> mind, apprehension, brain(s), comprehension, discretion, intellect, reason, sanity, sense, understanding, wit(s)
4) Geist –> mind, ghost, spirit, animus, apparition, esprit, genie, intellect, nous, phantom, psyche, specter/ spectre, wit, wraith
5) intelligence –> Einsicht, Intelligenz, Auffassungsvermögen, die Aufklärung, die Information (auch vom Geheimdienst), die Klugheit, die Nachricht, der Verstand, die Wiedergabe, Auskunft, Geheimdienst,
6) Intelligenz –> intelligence, brainpower, brains, intelligentsia, savvy, understanding
7) reason –> Grund, Anlass, Argument, Begründung, Motiv
8) Bewusstsein –>awareness, consciousness
9) consciousness –> Bewusstsein, Bewusstheit, Besinnung
10) awareness –> Bewusstsein, Bewusstheit, Erkenntnis
11) Aufmerksamkeit –> attention, concentration, advertence/ advertency, alertness, attentiveness, heedfulness, mindfulness, notice, regard, thoughtfulness

Eine Übersicht über alle Blog-Einträge bisher nach Titeln findet sich HIER

Treffen Café Siesmayer 15.Dez.2012 – ‚Geist‘-Sichtbarmachungs-Experiment

Cafe-Siesmayer-15Dez2012-500
Der universale Weltprozess, der Geist, und das Experiment

Zur Erinnerung, Auslöser für die Idee mit dem Experiment war das Nachtgespräch im INM……

  1. Am 15.Dez012 11:00h gab es ein denkwürdiges Treffen im Café Siesmayer (Frankfurt, neben dem Palmgarten). Für mich war es das erste Mal dort; ein angenehmer Ort, um zu reden (und natürlich auch, um Kaffee zu trinken).
  2. Die ‚Besetzung‘ ist kurz beschrieben: einer mit Schwerpunkt Soziologie, einer mit Schwerpunkt Physik, einer mit Schwerpunkt Informatik, Psychologie und Erkenntnistheorie.
  3. Nachdem die Gedanken mehrere Kreise, Ellipsen, Achten und diverse Verschlingungen gezogen hatten näherten wir uns dem zentralen Knackpunkt: wie lokalisieren wir den ‚Geist‘ und worin soll das ‚Experiment‘ bestehen?
  4. Der Referenzpunkt der Überlegungen wurde gebildet von der Annahme, dass wir zu Beginn des Universums einen Übergang von ‚Energie‘ zu ‚Materie‘ haben, nicht als das ‚ganz Andere‘, sondern als eine andere ‚Zustandsform‘ von Energie.
  5. Und dann beobachten wir einen weiteren Übergang von Energie in materielle Strukturen‘, nämlich dort, wo die Energie als sogenannte ‚freie Energie‘ den Übergang von einfachen chemischen Verbindungen zu immer komplexeren chemischen Verbindungen begünstigt, zu Zellen, zu mehrzelligen Systemen, bis hin zu den Pflanzen, Tieren und dem homo sapiens sapiens, einer Lebensform, zu der wir ‚als Menschen‘ gehören.
  6. Und es sieht so aus, als ob diese komplexen biologischen Strukturen eine fast ‚triebhafte‘ Tendenz besitzen, die biologische motivierte Strukturbildung beständig zu bestärken, zu beschleunigen, zu intensivieren.
  7. Die beobachtbare Strukturbildung folgt allerdings bestimmten ‚Vorgaben‘: Im Falle biologischer Systeme stammen diese Vorgaben aus den Nervensystemen bzw. genauer den Gehirnen. Allerdings, und dies ist der entscheidende Punkt, es sind nicht die physikalisch-chemischen Eigenschaften der Gehirne als solche, die die Vorgaben ‚kodieren‘, sondern es ist ein Netzwerk von ‚Informationen‘ bzw. ‚Bedeutungen‘ , die zwar mit Hilfe der der physikalisch-chemischen Eigenschaften realisiert werden, die aber nicht aus diesen direkt abgeleitet werden können!!!!!! Die informatorisch-semantische Dimension biologischer Systeme ermöglicht all das, was wir als ‚intelligent‘ bezeichnen bzw. all das, was wir als ‚Ausdruck des Geistes‘ notieren. Für diese informatorisch-semantische (= geistige!?) Dimension gibt es aber — bisher! — keine Begründung in der bekannten physikalischen Welt.
  8. Hat man diesen Faden erst einmal aufgenommen, dann kann man den Weg der Entwicklung weiter zurück gehen und wird feststellen, dass es diese geheimnisvolle informatorisch-semantische Dimension auch schon auf der Ebene der Zelle selbst gibt. Denn die ‚Steuerung‘ der Proteinbildung bis hin zur Ausformung kompletter Phänotypen erfolgt über ein Molekül (DNA (auch RNA und andere)), das als solches zwar komplett über seine physikalischen Eigenschaften beschrieben werden kann, dessen ’steuernde Wirkung‘ aber nicht direkt von diesen physikalischen Eigenschaften abhängt, sondern (wie Paul Davies ganz klar konstatiert), von etwas, was wir ‚Information‘ nennen bzw. was ich als ‚Bedeutung‘ bezeichnen würde, eben jene (semantische) Beziehung zwischen einem Materiekomplex auf der einen Seite und irgendwelchen anderen Materiekomplexen auf der anderen Seite. Und diese semantischen Beziehungen sind ’spezifisch‘. Wo kommen diese her? Die physikalischen Eigenschaften selbst liefern dafür keinerlei Ansatzpunkte!!!!
  9. Interessant ist auf jeden Fall, dass die zentrale Rolle der semantischen Dimension im Bereich entwickelter Nervensysteme sich schon bei der ersten Zelle findet, und zwar an der zentralen Stelle, an der bislang die Wissenschaft das Spezifikum des Biologischen verortet. Strukturell ist die semantische Dimension in beiden Fällen völlig identisch und in beiden Fällen physikalisch bislang unerklärlich.
  10. Nach allem, was wir bis heute wissen, ist das, was wir mit ‚Geist‘ meinen, genau in dieser semantischen Dimension zu verorten. Dies aber bedeutet, der Geist ‚erscheint‘ nicht erst nach ca. 13 Milliarden Jahren nach dem Big Bang, sondern mindestens mit dem Entstehen der ersten Zellen, also vor ca. 3.8 Mrd Jahren.
  11. Betrachtet man die ’semantische Dimension‘ aus einem gewissen ‚gedanklichen Abstand‘, dann kann man auch formulieren, dass das ‚Wesen des Semantischen‘ darin besteht, dass eine Materiestruktur das Verhalten anderer Materiestrukturen ’steuert‘. In gewisser Weise gilt dies letztlich auch für die Wechselwirkungen zwischen Atomen. Fragt sich, wie man die Beziehung zwischen Energie ‚als Energie‘ und Energie ‚als Materie‘ betrachten kann/ muss. Die Ausbildung von immer mehr ‚Differenzen‘ bei der Abkühlung von Energie ist jedenfalls nicht umkehrbar, sondern ‚erzwungen‘, d.h. Energie als Energie induziert Strukturen. Diese Strukturen wiederum sind nicht beliebig sondern induzieren weitere Strukturen, diese wiederum Strukturen bei denen immer mehr ‚zutage‘ tritt, dass die Strukturbildung durch eine semantische Dimension gesteuert wird. Muss man annehmen, dass die ’semantische Struktur‘, die auf diesen verschiedenen Niveaus der Strukturbildung sichtbar wird, letztlich eine fundamentale Eigenschaft der Materie ist? Dies würde implizieren (was ja auch schon nur bei Betrachtung der materiellen Strukturen deutlich wird), dass Energie ‚als Energie‘ nicht neutral ist, sondern eine Form von Beziehungen repräsentiert, die im Heraustreten der Strukturen sichtbar werden.
  12. Sollten alle diese Überlegungen treffen, dann kann man mindestens zwei Hypothesen formulieren: (i) das, was wir mit ‚Geist‘ benennen, das ist kein ’spätes‘ Produkt der Evolution, sondern von allem Anfang das innere treibende Prinzip aller Strukturbildungen im Universum; (ii) das, was wir mit ‚Geist‘ benennen, ist nicht gebunden an die biologischen Körper, sondern benötigt als Vorgabe nur etwas, das die notwendigen ‚Unterschiede‘ repräsentiert.
  13. Der heute bekannte ‚digital elektronisch realisierte Computer‘ ist ein Beispiel, wie man semantische Dimensionen ohne Benutzung biologischer Zellen realisieren kann. Wie viel der bekannten menschlichen Intelligenz (und damit des unterstellten ‚Geistes‘) mit dieser Technologie ’simulierbar‘ ist, ist umstritten. Die Experten der Berechenbarkeit — und dazu zählt auf jeden Fall auch Turing, einer der Väter der modernen Theorie der Berechenbarkeit — vermuten, dass es keine Eigenschaft der bekannten Intelligenz gibt, die sich nicht auch mit einer ‚technologisch basierten‘ Struktur realisieren lässt. Die Schwierigkeiten bei nichtbiologisch basierten Intelligenzen im Vergleich zu biologisch basierten Intelligenzen liegen ‚einzig‘ dort, wo die Besonderheiten des Körpers in die Bereitstellung von Ereignissen und deren spezifische Verknüpfungen eingehen (was direkt nachvollziehbar ist). Diese spezifische Schwierigkeit stellt aber nicht die Arbeitshypothese als solche in Frage.
  14. Die ‚Besonderheiten des biologischen Körpers‘ resultieren aus spezifischen Problemen wie Energiebeschaffung und Energieverarbeitung, Bewegungsapparat, Anpassung an Umgebungsbedingungen, Fortpflanzung, Wachstumsprozesse, der Notwendigkeit des Individuellen Lernens, um einige der Faktoren zu nennen; diese körperlichen Besonderheiten gehen der semantischen Dimension voraus bzw. liegen dieser zugrunde. Die technisch ermöglichte Realisierung von ‚Intelligenz‘ als beobachtbarer Auswirkung der nicht beobachtbaren semantischen Dimension ist als nicht-biologische Intelligenz auf diese Besonderheiten nicht angewiesen. Sofern die nicht-biologische Intelligenz aber mit der biologischen Intelligenz ‚auf menschenähnliche Weise‘ interagieren und kommunizieren soll, muss sie von diesen Besonderheiten ‚wissen‘ und deren Zusammenspiel verstehen.
  15. Das oft zu beobachtende ’sich lächerlich machen‘ über offensichtliche Unzulänglichkeiten heutiger nicht-biologischer Intelligenzen ist zwar als eine Art ‚psychologischer Abwehrreflex‘ verständlich, aber letztlich irreführend und tatsächlich ‚verblendend‘: diese Reaktion verhindert die Einsicht in einen grundlegenden Sachverhalt, der uns wesentliche Dinge über uns selbst sagen könnte.
  16. Zurück zum Gespräch: aus den oben formulierten Hypothesen (i) und (ii) kann man unter anderem folgendes Experiment ableiten: (iii) Wenn (i) und (ii) stimmen, dann ist es möglich, durch Bereitstellung von geeigneten nicht-biologischen Strukturelementen ‚Geist‘ in Form einer ’semantischen Dimension‘ (! nicht zu verwechseln mit sogenannten ’semantischen Netzen‘!) als ’nicht-biologische Form von ‚Geist‘ ’sichtbar und damit ‚lebbar‘ zu machen. Dies soll durch Installierung einer offenen Arbeitsgruppe am INM Frankfurt in Angriff genommen werden. Offizieller Start 2014. Wir brauchen noch einen griffigen Titel.
  17. Anmerkung: ich habe den Eindruck, dass die Verschiebung der Begrifflichkeit (‚Information‘ bei Paul Davies, ’semantische Dimension‘ von mir) letztlich vielleicht sogar noch weiter geführt werden müsste bis zu ’semiotische Dimension‘. Dann hätten wir den Anschluss an eine sehr große Tradition. Zwar haben nur wenige Semiotiker in diesen globalen und universellen Dimensionen gedacht, aber einige schon (z.B. Peirce, Sebeok). Außerdem ist die ‚Semantik‘ von jeher eine Dimension der Semiotik. Den Ausdruck ‚Semiotische Maschine‘ für das ganze Universum hatte ich ja auch schon in früheren Blogeinträgen benutzt (siehe z.B.: http://cognitiveagent.org/2010/10/03/die-universelle-semiotische-maschine/). Allerdings war mir da der Sachverhalt in manchen Punkten einfach noch nicht so klar.
  18. Natürlich geht dies alles weiter. In gewisser Weise fängt es gerade erst an. Ich habe den Eindruck, dass wir in einer Zeitspanne leben, in der gerade der nächste große Evolutionssprung stattfindet. Jeder kann es spüren, aber keiner weiß genau, wie das ausgeht. Klar ist nur, dass wir uns von den Bildern der letzten Jahrtausende verabschieden müssen. Die Worte und Bilder aller großen Religionen müssen ‚von innen heraus‘ dramatisch erneuert werden. Es geht nicht um ‚weniger‘ Religion, sondern um ‚mehr‘. Thora, Bibel und Koran müssen vermutlich neu geschrieben werden. Was kein grundsätzliches Problem sein sollte da wir als Menschen dem, was/wen wir ‚Gott‘ nennen, nicht vorschreiben können, was und wie er etwas mitteilen möchte. Die ‚Wahrheit‘ geht immer jeglichem Denken voraus, ohne diesen Zusammenhang verlöre jegliches Denken seinen ‚Halt‘ und damit sich selbst. Und weil dies so ist, kann man einen alten Ausspruch ruhig weiter zitieren. „Die Wahrheit wird euch frei machen.“

Eine Übersicht über alle bisherigen Blogeinträgen nach Themen findet sich HIER

EIN ABEND MIT DEM SALON SLALOM

Journal: Philosophie Jetzt – Menschenbild, ISSN 2365-5062, 8.Dezember 2012
URL: cognitiveagent.org
Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de

Letzte Änderung: Postscript 23.Febr.2021

Loser Kontakt

Seit dem Frühjahr 2012 habe ich einen losen Kontakt mit dem Salon Slalom (URL: http://salonslalom.wordpress.com/salon-slalom/). Ein Team von aktuell fünf Personen organisiert gemeinsame Veranstaltungen zu allen möglichen Themen, meist aus den Reihen der Salon-Mitglieder. Das Besondere daran ist, dass es keinen festen Ort gibt. Die Veranstaltungen sind je nach Thema irgendwo, teilweise auch draußen. Ich war z.B. einmal bei einer sehr inspirierenden Veranstaltung mit einem Holzkünstler im Taunus. Irgendwann hatte ich auch mal zugesagt, einen Abend zu gestalten. Die Ankündigung findet sich hier:

http://salonslalom.wordpress.com/termine/hinter-dem-phanomen-lauert-das-ich-aber-was-kommt-dann/. Der Ort war also, wie man aus der Ankündigung entnehmen kann, im INM (Institut für Neue Medien, url: http://www.inm.de), da einige Mitglieder explizit das INM mal kennen lernen wollten (in Frankfurt nicht ganz unbekannt).

Wintereinbruch

Durch einen akuten Wintereinbruch mit starkem Schneefall wurde die Anreise für alle TeilnehmerInnen an diesem Abend zu einem kleinen Abenteuer. Dazu noch die Lage des INM im Osthafen, zwischen lauter Logistikunternehmen, im vierten Stock auf dem Dach eines alten Bunkers, ohne Aufzug (die Städte nehmen es in ihren eigenen Gebäuden mit der Barrierefreiheit nicht so genau…). Aber der Raum füllte sich dann doch.

Harakiri?

Angeregt durch die offene Atmosphäre des Salons hatte ich mir vorgenommen, meine aktuellen Gedanken zum neuen Welt- und Menschenbild so zusammen zu stellen, dass man zumindest ahnen konnte, wie das Wissen um den Menschen, die Evolution, und die Computer sich wechselseitig verschränken. Angereichert wurde das Ganze noch durch kurze Schilderungen meiner Radically Unplugged Music Selbstversuche mit Klangbeispielen (Startseite für die RUM-Experimente ist: http://www.doeben-henisch.de/sounds/index.html). Die Stücke, die ich für diesen Abend ausgewählt hatte, stammten von meiner provisorischen ‚Playlist‘: http://www.doeben-henisch.de/sounds/playlist). Natürlich weiß man vorher nie, wie die TeilnehmerInnen auf das alles reagieren.

Nach der Begrüßung und einigen einleitenden Worten habe ich erst mal ein Stück zur Einstimmung gespielt:

Thunderstorm Dancing Ahead of (Version c) Interesting, somehow I was nearly sleeping after a long day, but when I started the recorder and started playing I became awake again….somewhere in the night…

Fügte noch hinzu, dass ich im Sommer 2010 kurz vorher ein kleines Aufnahmegerät gekauft hatte, mit dem ich im Juli einen kleinen Sturm aufgenommen hatte. Den Sound von diesem Sturm hatte ich in diesem Stück als Ausgangspunkt benutzt.

Phänomene und hinter den Phänomenen

Hauptproblem bei allen Vorträgen ist immer, wie fange ich an. Ermutigt durch die positive Resonanz im Münchner Vortrag bei der YPO-Jahresveranstaltung wählte ich die Vielschichtigkeit des Menschen als Ausgangspunkt,

Vielschichtigkeit des Menschen (vier verschiedene Bilder von Wikipedia (en) zusammengesetzt (siehe Quellenangaben unten)

um davon ausgehend deutlich zu machen, dass alle unseren bewussten Bilder von einem Gehirn stammen, das im Körper sitzt und selbst keinen direkten Kontakt mit der Welt hat.

Daraus ergeben sich allerlei Konsequenzen dazu, wie wir mit den Bildern, die unser Gehirn von der Welt produziert, umgehen sollten. So wunderbar unser Gehirn arbeitet, so wenig darf man ihm blindlings trauen. Dazu habe ich ein paar Beispiele erzählt.

Die Philosophen in Europa haben sich mindestens seit der Zeit der griechischen Philosophie beständig damit beschäftigt, wie sie die Erscheinungsformen der Phänomene analysieren und bewerten sollten. Einige der letzten großen Heroen der bewusstseinsbasierten Philosopien waren Descartes, Kant, Hegel, Hume, Locke, Berckeley, Husserl, Hartmann, um nur einige zu nennen. Sie alle erkannten in den Phänomenen des Bewusstseins zwar gewisse Regelhaftigkeiten, sie blieben aber notgedrungen im Bewusstsein ‚gefangen‘. Erst die neuen Erkenntnisse zum Gehirn (ab Beginn 20.Jahrhundert) sowie zur Evolution (ab Ende 19.Jahrhundert) ermöglichten uns, die ‚Rahmenbedingungen der Entstehung der Phänomene‘ neu zu verstehen (was sich u.a. im Aufblühen neuer an den Naturwissenschaften orientierten Erkenntnistheorien manifestiert).

Die neuen naturwissenschaftlichen Erkenntnisse lieferten aber nicht nur einen Schlüssel zum Paradox des Bewusstseins in der Weise, dass wir jetzt die Dynamik unseres Bewusstseins in Beziehung setzen können zur Arbeitsweise des Gehirns , sondern wir bekommen damit einen weiteren Schlüssel dafür, warum wir überhaupt ein so unglaubliches Gehirn in einem nicht weniger unglaublichen Körper haben. Die Evolutionsbiologie kann uns in eindrücklicher Weise aufzeigen, wie dieses unser heutiges Gehirn mit dem Körper sich in einer langen 4 Milliarden Jahre dauernden mühevollen Geschichte herausbilden mussten. Wir Menschen haben eine Geschichte, eine reale Geschichte. Wir haben reale Vorfahren, die in unglaublichen erfinderischen Prozessen mit extrem hohen ‚Verlusten‘ das ermöglicht haben, was wir heute sind. Und wir sind kein Endpunkt, sondern – soweit wir sehen können – eine Durchgangsstation zu einem Zustand, den keiner aktuell genau beschreiben kann (obwohl es Menschen gab wie der französische Jesuit Teilhard de Chardin, der als weltweit geachteter Paläontologe sein von der Theologie und Philosophie inspirierte Visionen über das wahre Wesen des Menschen und des Kosmos in wortgewaltigen Texten niedergeschrieben hat; gegen das Lehramt der katholischen Kirche, mit mehrfachen Verboten mundtod gemacht, aber dann doch durch seine vielen Freunde der Öffentlichkeit gerettet).

Mit diesen neuen Erkenntnissen ergaben sich neue Fragen: wie ist diese atemberaubende ‚Gestaltwerdung‘ im Biologischen möglich?

Am Beispiel der Interaktion zwischen Genotyp und Phänotyp versuchte ich dann deutlich zu machen, wie hier ein lokaler Veränderungsmechanismus, der in sich völlig ‚blind‘ für den Kontext ist, mögliche Gestaltungsräume absucht, die dann über Wachstum und Körper mit der Umgebung Erde in Interaktion treten. Es ist dann die konkrete Erde, die quasi als ‚Schiedsrichter‘ auftritt, welche der versuchten Strukturen ‚es schaffen‘ und welche nicht (die Darwinsche Selektion). Man kann hier auch das fundamentale Wertesystem erkennen (wenn man will), das alles andere übertönt: Erhaltung des Lebens unter den Bedingungen der Erde. Allerdings, und darauf habe ich dann im weiteren Verlauf hingewiesen, hat die Evolution selbst die Bedingungen im späteren Verlauf tiefgreifend verändert.

Massstäbliches Diagramm zur Geschichte des Universums; Hervorhebung wichtiger Meilensteine für die Entstehung des Biologischen

Können diese Überlegungen noch sehr abstrakt wirken, so macht uns der reale Gang der universalen Genese seit dem Big Bang klar, dass wir es mit einem überaus realen Prozess zu tun haben, von dem wir ein Teil sind. Die geradezu dramatische Weise der Entstehung des Lebens seit ca. 4 Mrd.Jahren, die unglaublichen Vorgänge im Rahmen der chemischen Evolution, die zur ersten Zelle führten und die bis heute noch nicht vollständig aufgeklärt sind, dann die ca. 2.8 Milliarden dauernde Zeitspanne (!!!!!!!!), bis es von den einzelligen zu mehrzelligen Lebensformen kam, usw. usw. Wer sich dies bewusst anschaut und nicht in ergriffener Bewunderung endet, dem ist schwer zu helfen.

Bemerkenswert ist, dass nach heutigen Kenntnisstand bis zur Ausdehnung der Sonne noch ca. 1 Mrd Jahre Zeit haben, bis die mit der Aufblähung der Sonne einhergehende Temperaturerhöhung alles Leben auf der Erde unmöglich machen wird. Gemessen an der bisherigen Zeit unseres bekannten Universums von ca. 13.7 Mrd Jahren macht dies etwa 1/15 aus. Gemessen an der Evolution des Lebens von ca. 3.8 – 4 Mrd etwa 1/5. Wenn man sieht, welche ungeheure Beschleunigung die Evolution des Lebens auf der Erde allein in den letzten 100 Jahren genommen hat, können die verbleibenden 1 Mrd Jahre mehr als ausreichend sein, um eine Lösung für die Erhaltung des Lebens zu finden. Vorausgesetzt, wir nutzen unsere Möglichkeiten entsprechend.

Es gab dann einen Einschub mit Gedanken zu meinen Radically Unpluggd Music Selbstversuchen.

Schilderte kurz die Entstehungsgeschichte, die Auflehnung dagegen, nur passiver Konsument zu sein, die Versuchsanordnung, wie ich mit Musik experimentieren kann ohne Noten zu benutzen und ohne vorher üben zu können.

Die klassische Musikproduktion und Rezeption wird heute ergänzt durch eine technische Muskproduktion auf der Basis der Mathematik. Damit dehnen sich die potentiellen Klangräume schier unendlich aus.

Dazu ein paar Gedanken zur Frage, was denn ein ‚Ton‘ ist und wie die Mathematik und die moderne Technik es erlaubt, den klassischen Produktions- und Reproduktionszusammenhang aufzubrechen und in schier unendliche Räume auszuweiten. Der ‚reale‘ menschliche Musiker und Komponist wird dadurch nicht ‚überflüssig‘, aber er kommt in eine neue Rolle. In gewisser Weise eröffnet die Mathematik in Kombination mit der Technik ein Universum an Instrumenten und Klängen und die Frage, was Musik ist, was wir mit ihr tun, stellt sich völlig neu. Auch hier, im Segment der Musik, wirkt sich die fortdauernde Evolution aus.

Es kam dann als nächstes Stück ‚Die Wahrheit spielt vor den schwarzen Riesen (The truth plays before the black giants‘).

The Truth Plays Before the Black Giants I have experimented with some abstract ‚dark‘ sound in the back and a very crisp and clear oboe-sound in the foreground. I am still curious about the many libraries of ableton. But besides this ’sound curiosity‘ I gave some space for inspirations. There was the picture of the ‚(seemingly) tiny truth‘ playing before the large dark giants of the ‚all earth’… The tiny small truth got their hearts and the darkness was rumbling, but in comfort…

Mathematik und Computer

Übersicht über eine formale Theorie und ihre Elemente nach Hilbert und Ackermann

Versuchte deutlich zu machen, dass nahezu alles, was wir heute im Alltag an Technologie benutzen, ohne die Entwicklung der modernen Mathematik unmöglich wäre. Die Mathematik ist das zentrale Instrument des modernen Geistes, um sich in der überwältigenden Vielfalt der Realität zurecht zu finden und es ist geradezu bizarr wie eine Gesellschaft, die nahezu vollständig auf er Mathematik basiert, in ihrem öffentlichen Leben, im öffentlichen Bewusstsein, in den Medien dies nahezu vollständig ausblendet, verdrängt. Dies grenzt an eine kollektive Neurose, die sich wie eine Gehirnwäsche über alles legt und schon die kleinsten Regungen, dass jemand irgendetwas Mathematisches äußert, zeigt, tut sofort negativ abstraft oder ins Lächerliche zieht.

Ich habe dann versucht, deutlich zu machen, dass die Technologie des Computers, die heute nahezu alle Winkel unseres alltäglichen Lebens erobert, durchdringt und damit mitgestaltet, ihren Ausgangspunkt in den Grundlagendiskussionen der Mathematiker kurz vor der Wende zum 20.Jahrhundert wie dann in den ersten Jahrzehnten eben dieses Jahrhunderts hatte.

Nach den ersten großen Formalisierungserfolgen entstand die Idee – insbesondere bei David Hilbert – ob sich nicht alle Fragen mathematischer Theorien völlig ‚automatisch‘ mittels eines endlichen Kalküls entscheiden lassen.

Es dauerte zwar ca. 30 Jahre von den ersten Vermutungen dieser Art bis zum Beweis von Kurt Gödel 1931, aber dafür war das Ergebnis um so schockartiger.

Das Bild zeigt verschiedene frühe Formalisierungsbeiträge zum Thema ‚endliches Verfahren‘

Kurt Gödel konnte beweisen, dass es schon bei den ‚einfachen‘ mathematischen Theorien nicht möglich ist, sowohl ihre ‚Widerspruchsfreiheit‘ als auch ihre ‚Vollständigkeit‘ zu beweisen. Der Beweis von Gödel konnte bis heute nicht widerlegt werden, aber Gödel selbst war mit ihm nicht ganz zufrieden. Ein Beweis bezieht seine Überzeugungskraft ja daher, dass er im Beweis nur solche Mittel benutzt, die ‚aus sich heraus‘ ‚zweifelsfrei‘ sind. Im Konkreten heißt dies, diese Mittel müssen – um der einfachen Struktur des menschlichen Gehirns zu entsprechen – durchweg ‚endlich‘ sein und nach ‚endlich vielen Schritten‘ einen klaren ‚Endzustand‘ erreichen. Was für die meisten Menschen im Alltag eher als Banaliät erscheinen mag (ist doch im Alltag alles sehr deutlich und konkret ‚endlich‘) war für den Bereich mathematischer Beweise offensichtlich nicht so trivial. Es war dann Alan Matthew Turing, ein genialer Engländer, der den Beweis von Gödel quasi mit anderen Mitteln wiederholte und der es auf eine Weise tat, die Gödel begeisterte. Diese Art des Beweises akzeptierte Gödel sofort.

Das Konzept der Turingmaschine (rechts oben im Bild) als Teil eines Theoriebildungsprozesses

Schaut man sich das Verfahren von Turing näher an, ist man zuerst einmal überrascht. Das Verfahren, das Turing beschreibt, sieht so einfach aus, dass man sich im ersten Moment gar nicht vorstellen kann, dass man damit irgend etwas Ernsthaftes machen könnte. Turings Vorbild war ein Büroangestellter, der mit einem Schreibstift auf einem Blatt Papier Zahlen schreibt. Wie sich dann aber in den Jahren nach Turing herausstellte, ist es genau dieses Verfahren, was sich bislang als ‚das‘ Konzept, als der ‚Maßstab‘ für einen ‚endlichen berechenbaren Prozess‘ erwiesen hat, denn von allen anderen Formalisierungsvorschlägen, die nach ihm gemacht wurden (oder zeitgleich oder kurz vorher) konnte bewiesen werden, dass sie höchstens ‚gleichwertig‘ sind oder schwächer. Damit dürfte dieses Konzept von Turing, das später und heute allgemein als ‚Turingmaschine‘ benannt wird, als das fundamentalste philosophische Konzept des 20.Jahrhunderts erscheinen (fragt sich natürlich, welche anderen Bereiche man noch hinzunehmen möchte. Im Bereich Naturwissenschaft gab es im 20.Jahrhundert viele bahnbrechende Erkenntnisse. Eventuell müsste man die dann dazurechnen). Jeder konkrete Computer heute kann nicht mehr als das, was das mathematische Konzept der Turingmaschine verkörpert (leider gibt es immer wieder Leute, die das mathematische Konzept der Turingmaschine als Beschreibung einer konkreten ’sequentiellen‘ Rechnerarchitektur missverstehen. Das führt dann natürlich zu allerlei logischen Ungereimtheiten).

Intelligenz bei Tieren und Computern

Dass das Prinzip der Turingmaschine umgesetzt in der Technologie heutiger Computer extrem vielseitig ist, das erleben wir heute in unserem Alltag (falls man sich überhaupt noch bewusst macht, dass nahezu in jedem Gerät heute mindestens ein Computer steckt (allein in einem einzigen Autositz können z.B. bis zu 7 kleine Computer vor sich hinwerkeln, ohne dass sich jemand dessen bewusst ist). Dennoch kann man die Frage stellen, wieweit die prinzipiellen Fähigkeiten dieser Technologie reichen.

Turing selbst dachte laut darüber nach (und hat dies auch in sehr vergnüglicher Weise beschrieben), dass das Prinzip der Turingmaschine eigentlich so universal ist, dass eine Maschine, die nach diesen Prinzipien gebaut würde (ein Computer, ein Roboter), mit der entsprechenden Ausstattung an Sensoren und bei Teilnahme an allen Lernprozessen, die auch ein Kind durchläuft, in der Lage sein müsste, alles lernen zu können, was auch ein Kind lernt. Turing selbst konnte es nicht erleben, ob dies tatsächlich geht.

Aber spätestens seit ihm wird immer wieder laut darüber nachgedacht, ob ein Computer so intelligent sein kann wie ein Mensch, oder gar noch intelligenter.

Ich habe dann kurz die Entwicklung der wissenschaftlichen Psychologie zu Beginn des 20.Jahrhunderts in den USA eingeblendet. Bekannt unter dem Schlagwort ‚verhaltensbasierte Psychologie‘ (‚Behaviorismus) versuchten in der ersten Hälfte des 20.Jahrhunderts (aufgrund starker Anregungen von europäischen Psychologen) Psychologen zu empirisch begründeten Aussagen über beobachtbares Verhalten zu kommen. Das vorherrschende Versuchsparadigma waren damals Ratten, die in einem Labyrinth nach Futter (oder Wasser) suchen mussten.

Ein Experiment von Tolman (und anderen), das ihm lange Zeit eine gewisse Berühmtheit bescherte, war die Beobachtung, dass nicht nur Ratten (i) die hungrig waren, nach einer Anzahl von Versuchen das Futter immer schneller fanden, sondern (ii) auch Ratten, die viele Versuche ohne Hunger im Labyrinth herumlaufen konnten, ab dem Zeitpunkt, wo sie dann ‚hungrig gemacht wurden‘, ziemlich direkt das Futter ansteuerten. Tolman & Co folgerten daraus, dass die Ratten offensichtlich während der ’nicht-Hunger-Zeit‘ trotzdem ‚gelernt‘ haben, wie das Labyrinth angeordnet ist, so dass sie in dem Moment, wo sie das Futter wirklich brauchten, dieses aufgrund des zuvor ‚erworbenen Wissens‘ direkt ansteuern konnten.

Die Psychologen dieser Zeit versuchten also aus den beobachtbaren Verhaltensdaten auf ‚Regelmäßigkeiten‘ ‚in‘ der Ratte zu schließen. Da man in dieser Zeit noch nicht so richtig in ein Rattengehirn hineinschauen konnte (übrigens auch heute ist das, was die Neurowissenschaften im Kontext von Rattenexperimenten zu Tage fördern, äußerst unbefriedigend!) , war der Interpretationsspielraum recht groß. Die Streitigkeiten zwischen den verschiedenen Interpretationsschulen (z.B. das Lager um Hull mit dem ‚Reward-learning‘ und das Lager um Tolman mit den ‚cognitive maps‘) erscheinen aus heutiger Sicht merkwürdig (zumal man zeigen kann, dass sich cognitive maps mit neuronalen Netzen nachbilden lassen, die ziemlich genau den Annahmen von Hull entsprechen). Entscheidend ist nur, dass man aufgrund des Verhaltens eindeutig ausschließen konnte, dass die Ratten ‚zufällig vorgehen.

Zentrale Komponenten eines minimalen lernenden Classifier Systems (ohne Anzeige des Bedürfnisses Hunger). Mit Hilfe des Fitnesswertes können alle jene Komponenten hervorgehoben werden, die im Zusammenwirken einen Pfad generieren. Fitnessgeber können auch ‚eingebaut‘ sein

Mittlerweile können wir – mittels Computern! – beliebige Typen von ‚virtuellen‘ Ratten simulieren. Das Bild zeigt die Struktur des Programms einer virtuellen Ratte basiert auf dem Konzept der Classifier Systeme, allerdings hier abgewandelt), die das Erlernen eines Weges im Labyrinth zum Futter sehr schnell erledigt. Was dieser einfache Typ aber nicht kann, ist das ‚Umlernen‘, falls das Futter nicht mehr am alten Ort ist, sondern an einem neuen Ort. Durch geringfügige Änderungen kann man dies aber ‚einbauen‘.

Die Frage ist, was man aus diesen Befunden folgern kann bzw. sollte. Hat die virtuelle Ratte die ‚gleiche Intelligenz‘ wie die reale Ratte, wenn die beobachtbaren Verhalten messtechnisch ‚gleich‘ sind (Eine Fragestellung, die in den berühmten Turing-Tests auch beständig diskutiert wird)?

Würde man ‚Ja‘ sagen, dann würde dies bedeuten, dass ‚Intelligenz‘ etwas ist, was nicht an die biologische Struktur als Körper gebunden ist, sondern mit jeder Struktur realisiert werden kann, die die entsprechenden ’strukturellen Eigenschaften‘ aufweist. Zwar ist damit nicht gesagt, dass man damit das Phänomen des biologischen Lebens ‚als solchem‘ reproduziert, aber die Eigenschaft der Intelligenz, die sich uns ursprünglich an, mit und durch die biologischen Strukturen ‚zeigt‘ (‚enthüllt‘, ‚offenbart‘, ‚emergiert’…).

Links im Bild ein Ribosom, das Proteine zusammenbaut, und rechts das Schema einer Turingmaschine

Ich habe dann einen weiteren ‚Schwenk‘ gemacht und versuchte zu verdeutlichen, dass sich die Strukturen der Turingmaschine im Kern des Biologischen selbst finden. Am Beispiel des Übergangs vom Genotyp (die Gene) zum Phänotyp (die Körper) kann man sehen, dass die Prozesse, die hier ablaufen, strukturell identisch sind mit der Arbeitsweise einer Turingmaschine, im Prinzip sogar einer abgeschwächten Turingmaschine. Der molekulare Input für das Ribosom repräsentiert die ‚Bandinhalte‘, die ‚Gelesen‘ werden, und der molekulare Output des Ribosoms repräsentiert den Bandinhalt, der ‚geschrieben‘ wird.

Noch wichtiger aber ist vielleicht der Sachverhalt (von dem der Physiker Paul Davies anmerkte, dass er sich bislang jeder physikalischen Theorie widersetzt), dass der Input von einem Molekül kommt (DNA), dessen ‚Bedeutung‘ nicht durch seine primären physikalischen Eigenschaften gegeben ist, sondern durch einen Informationskode, für den es keinerlei physikalische Notwendigkeit gibt. Überhaupt ist das Auftreten von ‚Information‘ in diesem Kontext geradezu aberwitzig. Jeder Kode setzt das Zusammenspiel von einem Sender und Empfänger voraus. Wenn wir also hier , an der Wurzel des Biologischen unübersehbar einen Kode vorfinden, der Bau- und Wachstumsprozesse steuert, und es keine dritte Instanz gibt, die diesen Kode vereinbart hat (und eine solche Instanz ist nicht bekannt), dann muss die Struktur des Kodes schon im Ausgangsmaterial als physikalische Eigenschaft angelegt sein. Das würde aber bedeuten, dass diese eindeutigen Eigenschaften von Intelligenz und Geist inhärente Eigenschaften der Materie selbst sein müssen. Eine andere Erklärung ist aktuell rein logisch nicht möglich (Plato und die Neuplatoniker haben so etwas beispielsweise auch schon gedacht, allerdings ohne explizites Wissen um die Strukturen des Lebens und der Materie).

Zusammenfassung aller wichtigen Eckdaten zum Biologischen. Im Bild fehlt allerdings der Aspekt der Tendenz zum Aufbau komplexer Strukturen, und zwar tendenziell immer komplexerer Strukturen

versucht man alle bekannten Fakten zusammen zu fassen, dann kann man zu folgendem eindrücklichen Bild kommen: das Phänomen des Biologischen im Universum resultiert zunächst einmal aus der Tatsache, dass sich das Universum laut Aussagen der Physik noch in einem Zustand unterhalb des Maximums der Entropie befindet. Dadurch gibt es noch ‚Energieunterschiede‘ im Universum, die sich in Form ‚frei verfügbarer Energie‘ nutzen lassen. Alle bekannten biologische Phänomene tun genau dies: sie nutzen freie Energie um – im Widerspruch zum Entropiegesetz der Physik!!! – immer komplexere Strukturen hervor zu bringen. Ab einem bestimmten Komplexitätspunkt (Tiere, insbesondere dann wir als homo sapiens sapiens) sind diese Strukturen in der Lage, Modell der Umgebung und von sich selbst zu erstellen, die für das eigene Handeln genutzt werden können. Damit hat sich die Evolution einen erweiterten Handlungsspielraum geschaffen, der die Geschwindigkeit der Lernprozesse um geschätzt den Faktor 10^7 zu beschleunigen (weitere Steigerungen nicht ausgeschlossen). Gleichzeitig gibt es im Konzept der Turingmaschine eine ‚technische Kopie‘ jener Struktureigenschaften, die wir mit Intelligenz verknüpfen. Die Evolution hat sich also neben den ‚intelligenten biologischen Strukturen‘ auch noch einen ‚Intelligenzverstärker‘ geschaffen, der sich unabhängig von den biologischen Strukturen entwickeln und nutzen lässt.

In diesem Zusammenhang fundamental bedeutsam ist auch der Umstand, dass alle biologischen Strukturen ‚wertabhängig‘ sind, d.h. Alle (!!!) Wachstums- und Lernprozesse setzen voraus, dass es messbare ‚Präferenzen‘ (Fitness, Werte) gibt, an denen sich diese Prozesse orientieren. Bislang ist dies die Erde selbst in ihrer Konkretheit. In dem Masse, wie die Evolution aber Strukturen geschaffen hat, die in ihrer Erkenntnisfähigkeit über die Erde ‚hinaus schauen‘ können, wird dies primäre Wertsystem ‚Leben unter den Bedingungen der Erde‘ abgelöst durch ein Wertesystem ‚Leben unter den Bedingungen des Universums‘. Eine solche Erweiterung des Wertesystem ist auch dringend notwendig, da mit den verbleibenden 1 Mrd Jahre bis zum Wärmtod durch die Sonne einiges getan werden muss, um diesem Wärmetod zu entgehen. Hierin deutet sich an, dass das Leben seinen ‚Sinn‘ ‚in sich selbst‘ hat. Dies alles zu verstehen stehen wir vermutlich erst ganz am Anfang.

Es gab dann noch ein paar Bilder und Bemerkungen zur Beschreibung von Vielfalt durch die Mathematik oder den direkten Strukturvergleich zwischen Menschen als selbsmodifizierendem System und der universellen Turingmaschine:

Verhaltensformel Mensch: phi: I x IS —> IS x O

Verhaltensformel UTM: phi: I x IS —> IS x O

Ich habe die Präsentation beendet mit dem Hinweis darauf, dass wir hier in Frankfurt, und zwar genau in diesem INM, wo an diesem Abend der Vortrag stattfand, zusammen mit der FH Frankfurt und der Goethe-Uni Frankfurt und allen, die mitmachen wollen, im Frühjahr 2014 das große ‚Geist-Sichtbarkeitsmachung-Projekt‘ starten wird. Rund um die Uhr, jeden Tag des Jahres, wird man zuschauen können, wie der künstliche Geist unter den Augen der Öffentlichkeit entstehen wird. Die Vorbereitungen dazu laufen schon. Noch im Dezember wird es eine erste Gründungsversammlung mit einer ersten Webseite geben. Wir werden auch Sponsorengelder einsammeln, da wir ganz ohne ein Minimalteam zum Management des Ganzen nicht auskommen werden.

Es folgte abschließend ein weiteres Musikstück, inhaltlich passend zum neuen Welt- und Menschenbild. ‚Du bist die Botschaft des Universums‘, womit jeder gemeint ist; jeder verkörpert – ob er/ sie will oder nicht – eine Botschaft, in der das Ganze des Universums enthalten ist. Wir müssen diese Botschaft nur lesen lernen:

You are the message of the universe (Rap-like…)  Hatte nur so gespielt. Erst ein paar Drum-Clips arrangiert. Dann eine verfremdete Flöte als Hauptmotiv. Dazu dann einen Bass. Als mir dann keine geeignete weitere Stimme mehr einfiel, habe ich mich an einen Text erinnert, den ich vor Monaten schon in einem Musikvideo verarbeitet hatte ‚You are the message of the universe‘. Ich finde, im aktuellen Arrangement passt er ganz gut. Eine Art Anti-Rap Rap….oder auch nicht. Es gibt so unendlich viele Sichten zu jeder Sache. Die immanente Unendlichkeit ist der eigentliche ‚Hit‘, natürlich hervorgebraht vom Gehirn, dieses selbst aber ist eine Hervorbringung aus dem Innern der Materie, und damit aus der Mitte der Energie… diese wiederum ist — physikalisch betrachtet — ‚unsterblich‘. Wir sind alle viel mehr, als wir ahnen, geschweige denn denken können…letztlich ist es egal, was wir denken, bevor wir denken sind wir schon das, was wir sind… das ist unser Glück. Aber natürlich, warum können wir dann überhaupt denken? Wozu? Gute Frage… wer die Antwort findet, braucht sie nicht mehr….Good Luck..

PS: Ursprünglich hatte ich noch einen Abschnittt über die zentrale Rolle von Künstlern zusammen mit Wissenschaftlern; aber der blieb auf der Strecke, es war dann doch zu viel Stoff….

PS2: Es gab noch eine recht intensive Diskussion.

PS3: Am Tag drauf hatte ich eine lange, sehr inspirierende Besprechung mit einem guten Bekannten aus der Szene der experimentellen Musik, wo wir die verschiedenen Aspekte des kommenden Projektes zur ‚Sichtbarmachung von Geist‘ durchsprachen. Von den vielen Punkten, die wir demnächst auch entsprechend kommunizieren werden, war einer für den Zusammenhang hier besonders interessant: da der Begriff ‚Geist‘ (Englisch oft ‚mind‘) extrem vage ist und bis heute in keiner Wissenschaft eine operationale Definition existiert, die diesen Begriffen irgendwie fassbar macht (nur sehr viele blumige Beispiele), sollten wir uns in der Diskussion und Weiterentwicklung zunächst an den Begriff ‚Intelligenz‘ halten. Für diesen Begriff haben die experimentellen Psychologen eine sehr brauchbare operationale Definition entwickelt, die in Gestalt des IQ (Intelligenzquotienten) weit verbreitet ist. Was immer ‚Geist‘ sein mag, insofern er sich im Verhalten manifestiert, das man beobachten und messen kann, kann man die sich ‚im Verhalten zeigende Intelligenz‘ in ihren unterschiedlichen Ausprägungen ‚messen‘, d.h. mit vorgegebenen Standards ‚vergleichen‘. Für diese ‚Messungen‘ spielt es keine Rolle, ob es sich bei dem beobachteten System um eine Pflanze, ein Tier, einen homo sapiens sapiens oder um eine Maschine handelt. Der psychologische Intelligenzbegriff ist insofern ‚invariant‘ bzgl. derjenigen Struktur, die das zu messende Verhalten hervorbringt. Insofern ist dieser Intelligenzbegriff geeignet, ‚Intelligenz‘ so zu messen, dass man all die verschiedenen ‚Hervorbringungsstrukturen‘ vergleichen kann. Präzisierend müsste man von daher vielleicht sagen, dass wir in diesem Experiment zeigen wollen, dass die Entstehung und Anwendung von Intelligenz nicht an eine biologische Trägerstruktur gebunden ist, sondern nur an Strukturmerkmalen, die in nahezu beliebiger materieller Beschaffenheit auftreten können. Der philosophische ‚Druck‘ auf das Selbstverständnis von uns Menschen bleibt damit sehr wohl erhalten: Wer sind wir wirklich? Was soll das Ganze? Sind wir überflüssig? Haben wir eine spezielle Mission? Haben wir trotz allem eine Verantwortung für das Ganze? usw.

PS4: In einem privaten Kreis mit vielen Freunden flammten diese Diskussionen auch wieder auf, da im Kreis außer mir zwei da waren, die auch bei dem Salon waren. Diese Themen bewegen…

Literaturnachweise

Body Surface at http://en.wikipedia.org/wiki/Human_body (letzter Besuch: 12.Nov.2012)
Organs below the Body Surface at http://en.wikipedia.org/wiki/Human_anatomy (letzter Besuch: 12.Nov.2012)
Davis, M. Computability and Unsolvability, New York – Toronto – London: McGraw-Hill Book Company, Inc.,1958
Davis, M. (Ed.). (1965). The Undecidable. Basic Papers On Undecidable Propositions, Unsolvable Problems And Computable Functions. Hewlett (NY): Raven Press.
Doeben-Henisch, G.; Beschreibung TM auf der Seite: http://www.doeben-henisch.de/fh/I-TI04/VL/VL3/i-ti04-vl-vl3.html
Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
Gödel, K. Remarks before the princeton bicentennial conference on problems in mathematics, 1946. In: Martin Davis, 1965: pp.84-87
Hilbert, D.; Ackermann, W. Grundzüge der theoretischen Logik, Berlin. J.Springer, 1928
Hilbert in Wikipedia (en): Hilbert’s problems, URL: http://en.wikipedia.org/wiki/Hilbert%27s_problems (Last access Sept-30, 2012)
Hilbert, D. Mathematische Probleme, Vortrag, gehalten auf dem internationalen Mathematiker-Kongreß zu Paris 1900, Göttinger Nachrichten 1900, S.253-297, URL: http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/rede.html, und http://www.mathematik.uni-bielefeld.de/ kersten/hilbert/ (Last Access Sept-30, 2012)
Holland, J.H. Hidden Order. How adaptation Builds Complexity, New York: USA, Basic Books, 1995
Hull, C.L. Principles of Behavior, New York: Appleton-Century-Crofts, 1943
Hull, C.L. Essentials of Behavior, New Haven: Yale University Press, 1951
Hull, C.L. A behavior system: An introduction to behavior theory concerning the individual organism, New Haven: Yale University Press, 1952
Hull, C.L; Hovland, C.I.; Ross, R.T.; Hall, M.; Perkins, D.T.; Fitch, F.G. Mathematico-deductive theory of rote learning, New Haven: Yale University Press, 1940
Kandel, E.R.; Schwartz, J.H.; Jessell, T.M.; Siegelbaum, S.A.; Hudspeth, A.J.; (Eds.) Principles of Neural Science, 5th.ed., New York et.al: McGrawHill, 2012
Tolman E.C., Purposive behavior in animals and men, New York: Appleton-Century-Crofts, 1932 (repr. 1949 by University of California Press)Tolman, E. C. (1948). Cognitive maps in rats and men, Psychological Review, 55, 189-208 (online version at: http://psychclassics.yorku.ca/Tolman/Maps/maps.htm ; last ascess: 14.Nov.2012)Tolman E.C., Collected Papers in Psychology, Berkeley: University of California Press, 1951
Tolman E.C., Principles of purposive behavior, in: Koch, S. (Ed.), Psychology: A study of a science. Vol.2, New York: McGraw-Hill, 1959 (repr. 1949 by University of California Press)
Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3
Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/e-library/sources/tp2-ie.pdf, last accesss Sept-30, 2012))
Wilson, S.W. ZCS: a zeroth level classifier system, Evolutionary Computation, 2(1), 1-18 (1994)

POSTSCRIPT 23.Februar 2021

8 Jahre und drei Monate später … es hat etwas Berührendes, nach einer so langen Zeit einen eigenen Text samt Musikbeispielen nochmals zu lesen (und zu hören). Alles gesagte würde ich auch heute wieder unterschreiben. Es ist sehr ‚zum Punkt‘; besonders das Rapp-artige Musikstück ‚You are the message of the universe‘ geht mir noch immer ‚unter die Haut‘. Das im Text angekündigte Experiment am INM hatte tatsächlich unter dem Label ‚emerging-mind‚ stattgefunden. Aber es ist wieder versandet… Seit ca. 2018/19 ist ein neues Projekt entstanden, nicht wirklich geplant, aber irgendwie auch nicht planlos, und gewinnt immer mehr Fahrt. Der innere Motor ist der Gedankenkomplex ‚Kollektive Mensch-Maschine Intelligenz. Der treibende Motor ist die Vereinigung von Philosopie, Engineering und Gesellschaft. Ausgang offen, aber die Dynamik ist stark. Das Thema ‚You are the Message of the Universe‘ schwingt in allem weiter …

Eine Übersicht über alle Beiträge anhand der Titel findet sich HIER