IST DIE SELBSTVERSKLAVUNG DER MENSCHEN UNTER DIE MASCHINEN EVOLUTIONÄR UNAUSWEICHLICH?

  1. In diesem Blog gab es in der Vergangenheit schon mehrere Einträge (z.B. den ersten großen Beitrag Kann es doch einen künstlichen Geist geben?), die sich mit der Frage beschäftigt haben, inwieweit Maschinen die Lernfähigkeit und die Intelligenz von Menschen erreichen oder sogar übertreffen können.
  2. In vielen wichtigen Punkten muss man diese Frage offensichtlich bejahen, obgleich es bis heute keine Maschine gibt, die das technische Potential voll ausnutzt.
  3. Umso bemerkenswerter ist es, welche Wirkungen Maschinen (Computer) auf die Gesellschaft erzielen können, obgleich sie noch weitab von ihrem Optimum agieren.
  4. In einem Blogeintrag anlässlich eines Vortrags Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab? hatte ich noch eine grundsätzlich positive Grundstimmung bzgl. dessen, was auf uns zukommt. Ich schrieb damals:
  5. Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!
  6. Mittlerweile beschleicht mich der Verdacht, dass wir aktuellen Menschen die nächste Phase der Evolution möglicherweise unterschätzen.
  7. Auslöser war der persönliche Bericht eines Managers in einem weltweiten IT-Konzern, der – von Natur aus ein Naturwissenschaftler, ‚knochentrocken‘, immer sachlich, effizient – zum ersten Mal nach vielen Jahren Ansätze von Emotionen zeigte, was die Entwicklung seiner Firma angeht. Die Firma (und nicht nur diese Firma, s.u.) entwickelt seit vielen Jahren ein intelligentes Programm, das eine Unzahl von Datenbanken auswerten kann, und zwar so, dass die Anfrage von Menschen ‚interpretiert‘, die Datenbanken daraufhin gezielt abgefragt und dem anfragenden Menschen dann mitgeteilt werden. Das Ganze hat die Form eines passablen Dialogs. Das Verhalten dieses intelligenten Programms ist mittlerweile so gut, dass anfragende Menschen nicht mehr merken, dass sie ’nur‘ mit einer Maschine reden, und dass die Qualität dieser Maschine mittlerweile so gut ist, dass selbst Experten in vielen (den meisten?) Fällen schlechter sind als diese Maschine (z.B. medizinische Diagnose!). Dies führt schon jetzt dazu, dass diese Beratungsleistung nicht nur nach außen als Dienstleistung genutzt wird, sondern mehr und mehr auch in der Firma selbst. D.h. die Firma beginnt, sich von ihrem eigenen Produkt – einem in bestimmtem Umfang ‚intelligenten‘ Programm – ‚beraten‘ (und damit ‚führen‘?) zu lassen.
  8. Wenn man sich in der ‚Szene‘ umhört (man lese nur den erstaunlichen Wikipedia-EN-Eintrag zu deep learning), dann wird man feststellen, dass alle großen global operierenden IT-Firmen (Google, Microsoft, Apple, Facebook, Baidu und andere), mit Hochdruck daran arbeiten, ihre riesigen Datenbestände mit Hilfe von intelligenten Maschinen (im Prinzip intelligenten Algorithmen auf entsprechender Hardware) dahingehend nutzbar zu machen, dass man aus den Nutzerdaten nicht nur möglichst viel vom Verhalten und den Bedürfnissen der Nutzer zu erfahren, sondern dass die Programme auch immer ‚dialogfähiger‘ werden, dass also Nutzer ’natürlich (= menschlich)‘ erscheinende Dialoge mit diesen Maschinen führen können und die Nutzer (= Menschen) dann zufrieden genau die Informationen erhalten, von denen sie ‚glauben‘, dass es die ‚richtigen‘ sind.
  9. Auf den ersten Blick sieht es so aus, als ob die Manager dieser Firmen dank ihrer überlegenen Fähigkeiten die Firmen technologisch aufrüsten und damit zum wirtschaftlichen Erfolg führen.
  10. Tatsache ist aber, dass allein aufgrund der Möglichkeit, dass man ein bestimmtes Informationsverhalten von Menschen (den aktuellen ‚Kunden‘!) mit einer neuen Technologie ‚bedienen‘ könnte, und dass derjenige, der dies zu ‚erschwinglichen Preisen‘ als erster schafft, einen wirtschaftlichen Erfolg erzielen kann (zu Lasten der Konkurrenz), diese rein gedachte Möglichkeit einen Manager zwingt (!!!), von dieser Möglichkeit Gebrauch zu machen. Tut der Manager es nicht läuft er Gefahr, dass die Konkurrenz es tut, und zwar vor ihm, und dass er dadurch möglicherweise auf dem Markt so geschwächt wird, dass die Firma sich davon u.U. nicht mehr erholt. Insofern ist der Manager (und die ganze Firma) ein Getriebener (!!!). Er kann gar nicht anders!
  11. Das, was den Manager ‚treibt‘, das ist die aktuelle technische Möglichkeit, die sich aufgrund der bisherigen technischen Entwicklung ergeben hat. Für die bisherige technische Entwicklung gilt aber für jeden Zeitpunkt die gleiche Logik: als die Dampfmaschine möglich wurde, hatte nur noch Erfolg, wer sie als erster und konsequent eingesetzt hat; als die Elektrizität verfügbar, nicht anders, dann Radio, Fernsehen, Auto, Computer, ….
  12. Die ‚Manager‘ und ‚Unternehmensgründer‘, die wir zurecht bewundern für ihre Fähigkeiten und ihren Mut (nicht immer natürlich), sind trotz all dieser hervorstechenden Eigenschaften und Leistungen dennoch nicht autonom, nicht freiwillig; sie sind und bleiben Getriebene einer umfassenderen Logik, die sich aus der Evolution als Ganzer ergibt: die Evolution basiert auf dem bis heute nicht erklärbaren Prinzip der Entropie-Umkehr, bei dem freie Energie dazu genutzt wird, den kombinatorischen Raum möglicher neuer Zustände möglichst umfassend abzusuchen, und in Form neuer komplexer Strukturen in die Lage zu versetzen, noch mehr, noch schneller, noch effizienter zu suchen und die Strukturen und Dynamiken der vorfindlichen Welt (Universum) darin zu verstehen.
  13. Während wir im Falle von Molekülen und biologischen Zellen dazu tendieren, diese eigentlich ungeheuren Vorgänge eher herunter zu spielen, da sie quasi unter unserer Wahrnehmungsschwelle liegen, wird uns heute vielleicht dann doch erstmalig, ansatzweise, etwas mulmig bei der Beobachtung, dass wir Menschen, die wir uns bislang für so toll halten, dazu ganze riesige globale Firmen, die für Außenstehende beeindruckend wirken und für Firmenmitglieder wie überdimensionale Gefängnisse (? oder Irrenanstalten?), dass wir ‚tollen‘ Menschen also ansatzweise spüren, dass die wahnwitzige Entwicklung zu immer größeren Metropolen und zu immer intelligenteren Maschinen, die uns zunehmen die Welt erklären (weil wir es nicht mehr schaffen!?), uns dies alles tun lassen, weil der einzelne sich machtlos fühlt und die verschiedenen Chefs auf den verschiedenen Hierarchieebenen total Getriebene sind, die ihre Position nur halten können, wenn sie hinreichend effizient sind. Die Effizienz (zumindest in der freien Wirtschaft) wird jeweils neu definiert durch das gerade Machbare.
  14. Politische Systeme haben zwar immer versucht – und versuchen es auch heute – sich ein wenig vor dem Monster der Innovation abzuschotten, aber dies gelingt, wenn überhaupt, in der Konkurrenz der Gesellschaftssysteme nur für begrenzte Zeiten.
  15. Was wir also beobachten ist, dass die immense Informationsflut, die das einzelne Gehirn hoffnungslos überfordert, Lösungen mit intelligente Maschinen auf den Plan ruft, die das Sammeln, Sortieren, Klassifizieren, Aufbereiten usw. übernehmen und uns Menschen dann auf neue Weise servieren. So betrachtet ist es hilfreich für alle, nützlich, praktisch, Lebensfördernd.
  16. Beunruhigend ist einmal die Art und Weise, das Wie: statt dass es wirklich allen hilft, hat man den Eindruck, dass es die globalen Konzerne sind, die einseitig davon Vorteile haben, dass das bisherige Ideal der Privatheit, Freiheit, Selbstbestimmung, Würde usw. aufgelöst wird zugunsten einer völlig gläsernen Gesellschaft, die aber nur für einige wenige gläsern ist. Demokratische Gesellschaften empfinden dies u.U, stärker als nicht-demokratische Gesellschaften.
  17. Beunruhigend ist es auch, weil wir als Menschen erstmalig merken, dass hier ein Prozess in Gang ist, der eine neue Qualität im Verhältnis Mensch – Technik darstellt. In primitiveren Gesellschaften (und auch noch in heutigen Diktaturen) war es üblich , dass wenige Menschen die große Masse aller anderen Menschen quasi ‚versklavt‘ haben. Unter absolutistischen Herrschern hatten alle einem Menschen zu gehorchen, ob der nun Unsinn redete oder Heil verkündete. Nach den verschiedenen demokratischen Revolutionen wurde dieser Schwachsinn entzaubert und man wollte selbst bestimmen, wie das Leben zu gestalten ist.
  18. In der fortschreitenden Komplexität des Alltags merken wir aber, dass das sich selbst Bestimmen immer mehr vom Zugang zu Informationen abhängig ist und von der kommunikativen Abstimmung mit anderen, die ohne erheblichen technischen Aufwand nicht zu leisten sind. Die dazu notwendigen technischen Mittel gewinnen aber im Einsatz, im Gebrauch eine solche dominante Rolle, dass sie immer weniger nur die neutralen Vermittler von Informationen sind, sondern immer mehr ein Eigenleben führen, das sich ansatzweise und dann immer mehr auch von denen abkoppelt, die diese vermittelnden Technologien einsetzen. Kunden und Dienstleister werden werden gleichzeitig abhängig. Wirtschaftlich können die Dienstleister nicht mehr dahinter zurück und lebenspraktisch ist der Verbraucher, der Kunde immer mehr von der Verfügbarkeit dieser Leistung abhängig. Also treiben beide die Entwicklung zu noch größerer Abhängigkeit von den intelligenten Vermittlern voran.
  19. Eine interessante Entwicklung als Teil der übergreifenden Evolution. Wo führt sie uns hin?
  20. Die Frage ist spannend, da die heute bekannten intelligenten Maschinen noch weitab von den Möglichkeiten operieren, die es real gibt. Die Schwelle ist bislang die Abhängigkeit von den begrenzten menschlichen Gehirnen. Unsere Gehirne tun sich schwer mit Komplexität. Wir brauchen Computer, um größere Komplexität bewältigen zu können, was zu noch komplexeren (für uns Menschen) Computern führt, usw. Dabei haben wir noch lange nicht verstanden, wie die etwa 200 Milliarden einzelne Nervenzellen in unserem Gehirn es schaffen, im Millisekundenbereich miteinander so zu reden, dass all die wunderbaren Leistungen der Wahrnehmens, Denkens, Erinnerns, Bewegens usw. möglich sind.
  21. Heutige Computer haben mittlerweile eine begrenzte lokale Lernfähigkeit realisiert, die ihnen den Zugang zu begrenzter Intelligenz erlaubt. Heutige Computer sind aber weder im lokalen wie im strukturellen voll Lernfähig.
  22. Einige meinen, dass die Zukunft im Sinne von technischer-Singularität zu deuten ist, dass die intelligenten Maschinen dann irgendwann alles übernehmen. Ich wäre mir da nicht so sicher. Das Hauptproblem einer vollen Lernfähigkeit ist nicht die Intelligenz, sondern die Abhängigkeit von geeigneten Präferenzsystemen (Werte, Normen, Emotionen, Bedürfnissen, …). Dieses Problem begegnen wir beim Menschen auf Schritt und Tritt. Die vielen Probleme auf dieser Welt resultieren nicht aus einem Mangel an Intelligenz, sondern aus einem Mangel an geeigneten von allen akzeptierten Präferenzsystemen. Dass Computer die gleichen Probleme haben werden ist den meisten (allen?) noch nicht bewusst, da die Lernfähigkeit der bisherigen Computer noch so beschränkt ist, dass das Problem nicht sichtbar wird. Sobald aber die Lernfähigkeit von Computern zunehmen wird, wird sich dieses Problem immer schärfer stellen.
  23. Das einzige wirklich harte Problem ist jetzt schon und wird in der Zukunft das Werteproblem sein. Die bisherigen Religionen haben unsere Blicke mit vielen falschen Bildern vernebelt und uns im Glauben gelassen, das Werteproblem sei ja gelöst, weil man ja an Gott glaubt (jede Religion tat dies auf ihre Weise). Dieser Glaube ist aber letztlich inhaltsleer und nicht geeignet, die realen Wertprobleme zu lösen.
  24. Man kann nur gespannt sein, wie die Menschheit als Teil des umfassenden Lebensphänomens mit einer immer leistungsfähigeren Technik auf Dauer das Werteproblem lösen wird. Die einzige Hoffnung ruht in der Logik des Prozesses selbst. Der Mensch in seiner unfassbaren Komplexität ist ein Produkt der Evolutionslogik; wir selbst sind weit entfernt davon, dass wir etwas Vergleichbares wie uns selbst schaffen könnten. Darf man also darauf vertrauen, dass die in allem Leben innewohnende Logik der Evolution uns Menschen als Werkzeuge benutzt zu noch mehr Komplexität, in der wir alle kleine Rädchen im Ganzen sind (als was erscheint uns  ein einzelner Mensch in einer 30-Millionen Metropole?)

Einen Überblick über alle Einträge von cagent nach Titeln findet sich HIER

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

INFORMATIK & GESELLSCHAFT – Kurzbericht

Änerung: 19.März 2015 (Die Künslergruppe Reul & Härtel hat das Foto mit Ihnen durch ein Bild aus ihr Performance (‚visualexploration‘) ersetzen lassen)
Änderung: 20.Nov.2014 (Einfügung Videoschnappschuss von der Uraufführung des Eingangereignisses)

Wie schon zuvor in diesem Blog darauf hingewiesen gab es am 8.November 2014 in der Frankfurt University of Applied Sciences eine recht interessante Veranstaltung INFORMATIK & GESELLSCHAFT. Computer und Geist. Aspekte einer Standortbestimmung. Im Folgenden ein kurzer Bericht mit einigen Schnappschüssen. Alle Bilder sind von Dominik Wolf, dem es gelungen ist, unter schwierigen Lichtverhältnissen doch das eine oder andere Bild zu schiessen. Die beiden ersten Bilder sind allerdings von Anita Henisch, die dann wegen der schwierigen Lichtverhältnisse aufgegeben hatte. Von Dominik Wolf selbst gibt es leider kein Foto, was schade ist, da er die Hauptlast der Organisation getragen hat.

13.20 Uhr Eingangsereignis Computermediated Sound/Images 1
(cagentArtist & Guido May)

cagentartist im Gespräch mit Guido May vor der Uraufführung von 'Little CRUNCS symphony No.1'

cagentartist im Gespräch mit Guido May vor der Uraufführung von ‚Little CRUNCS symphony No.1‘

Jazz-Schlagzeuger Guido May während der Uraufführung von 'Little CRUNCS symphony No.1'

Jazz-Schlagzeuger Guido May während der Uraufführung von ‚Little CRUNCS symphony No.1‘

Hier ein Video Schnappschuss von Dominik Wolf. Dies war nicht als Dokumentation geplant; aber da der geplante Tonmitschnitt leider nicht verfügbar ist, ist dies nun das einzige Zeugnis der 20 Minuten-Uraufführung.

Das Stück ‚Little CRUNCS symphony No.1‘ wirkte auf den ersten Blick wie sinfonische Musik, war aber vollständig im Computer generiert worden. Sieben verschiedene Eingangsklänge wurden auf unterschiedliche Weise algorithmisch bearbeitet und miteinander verzahnt. Viele Zuhörer sagten anschliessend, dass für sie das Schlagzeugspiel sehr wichtig gewesen sei. Ohne dieses hätten sie sich mit dem reinen Soundtrack schwer getan. So aber war es ein Erlebnis. Auch für den erfahrenen Jazz-Schlagzeuger Guido May war das Stück, wie er sagte, eine besondere Herausforderung. Alle ihm bekannten Muster passten bei diresdem Stück nicht. Er musster sich die Rolle des Schlagzeugs hier speziell erarbeiten.

13.45 Uhr Begrüßungen
(Moderator Prof. Doeben-Henisch, Sprecher ForschungsCampus FC3 & Informatik Cluster Fb2 Prof. Schäfer, Dekan Fb2 Prof. Morkramer, Vizepräsident Wissenschaft Infrastruktur Forschungstransfer der Frankfurt University of Applied Sciences Prof. Schrader)

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Prof.Doeben-Henisch bei der Begrüßung. Es war die erste Veranstaltung dieser Art für die Informatik an der Hochschule. So war es sehr erfreulich, dass so viele sich aktiv und engagiert bei dieser Veranstaltung beteiligt haben.

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Prof. Morkramer,  der Dekan des Fb2, verstand es, am Beispiel seiner eigenen Familie lebendig werden zu lassen, wie schnell die Computer innerhalb von zwei  Generationen aus dem Nichts aufstiegen und heute alles durchdringen. Erst jetzt beginnen wir Menschen scheinbar zu begreifen, welche große Folgen dies für uns alle haben kann, nicht nur positiv, sondern auch negativ.

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung  und Forschung, Prof.Dr. Ulrich Schrader

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung und Forschung, Prof.Dr. Ulrich Schrader

Der Vizepräsident für Weiterbildung, Infrastruktur und Forschung, Prof. Dr. Schrader, griff sich aus den vielfältigen Entwicklungen jenen Bereich heraus, der ihn selbst besonders betrifft, den Bereich neuer Unterrichtstechnologien. So wunderbar diese neue Welt auch erscheint, er machte darauf aufmerksam, dass der Aufwand für eine volle Nutzung dieser neuen technologischen Möglichkeiten, von einer einzelnen Hochschule kaum gestemmt werden kann. Er wagte einen visionären Ausblick dahingehend, ob nicht Hochschule, Behörden und Wirtschaft zusammen ein ‚Leuchtturmprojekt‘ gemeinsamer neuer digitaler interaktiver Lernräume stemmen sollten. Eine Frage, die noch immer weiterhallt, auch nach der Veranstaltung.

14.00 Uhr Geist zum Nulltarif? Philosophische Aspekte zur Herkunft und zur Zukunft der Informatik. Vortrag und Diskussion
(Prof. Dr. phil. Dipl. theol G. Doeben-Henisch)

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Unter dem Titel ‚Geist zum Nulltarif‘ ordnete Prof. Doeben-Henisch   den Menschen mit seiner ‚Geistigkeit‘ ein in die Ideengeschichte (‚Geist‘ in der antiken griechischen Philosophie, hier verankert im Phänomen des ‚Atmens‘ (Verb: ‚pneo‘) erweitert zum Lebensprinzip (Substantiv ‚pneuma‘)) und in die Evolution des Lebendigen (‚Geist‘ als eine inhärente Eigenschaft des Biologischen selbst). Die strukturellen Übereinstimmungen zwischen dem Prinzip Computer und biologischen Zellen bis hin zum Gehirn lassen heute nicht erkennen, warum der Computer den Menschen in seinen Fähigkeiten nicht übertreffen können sollte. Die – besonders in den USA – vertretene Hypothese von der kommenden ‚technologischen Singularität‘ geht schon ganz selbstverständlich davon aus, dass die Tage der Menschen gezählt sind; die ‚intelligenten Maschinen‘ werden ‚übernehmen’…

15.00 Uhr Informatik und Gesellschaft Soziologische und kulturanthropologische Aspekte der neuen Informationstechnologien. Vortrag und Diskussion
(Prof. Dr. habil. Dipl. soz. Manfred Faßler)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Dass diese ‚Anpassbarkeit‘ des Computers an gesellschaftliche Abläufe und psychischen Bedürfnissen massive Rückwirkungen auf das Verhalten der Menschen und viele soziale Strukturen hat, thematisierte Prof. Fassler. Er identifizierte in den beobachtbaren Veränderungen einen großen Forschungsbedarf: wie können wir verhindern, dass die Menschen zu bloßen ‚Anhängsel‘ eines einzigen großen kybernetischen Systems werden, das  einer ’smarten Humanität‘ zuwider läuft? Und in der Tat, der Reflexionsbedarf der heutigen Informatik gerade mit Blick auf Soziologie und Kulturanthropologie ist drängend; wo aber sind die zugehörigen Forschungsgruppen und Forschungsprogramme?

16.00 Uhr Pause Computermediated Sound/Images 2
(Philip Reul & Markus Härtel)

Momentaufnahme von der Performance Haertel-Reul

Momentaufnahme von der Performance Haertel-Reul

Die wunderbaren Bilder von Härtel/ Reul, die auf der digitalen Verarbeitung von analogen Prozessen in verschiedenen Flüssigkeiten beruhten, ließen in der ersten Pause  dann etwas Leichtigkeit aufblitzen, einen Hauch von Schönheit. Zu erwähnen ist, dass Philip Reul auch Absolvent des Bachelor-Studiengangs Informatik der Hochschule ist sowie des interdisziplinären Masterstudiengangs ‚Barrierefreie Systeme‘ (BaSys).

visualexploration-8nov2014

visualexploration-8nov2014 von Härtel & Reul

16.30 Uhr Verkehr von morgen. Total umsorgt, total verkauft? Über Uber, Überwachung, und die neue Mobilität. Vortrag und Diskussion
(Prof. Dr. Jörg Schäfer)

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Prof. Schäfer demonstrierte dann am Beispiel der Mauterfassung, wie das vorhandene Knowhow der Informatik von der Politik nicht genutzt wird, um  die Privatsphäre bei der Mauterfassung zu wahren. Stattdessen wird direkt auf die Privatheit zugegriffen. Am Beispiel des neuen  Fahrgastvermittlungssystem Uber illustrierte Schäfer, wie einige wenige Kapitalgeber mit einer einfachen, billigen Software weltweit hohe Vermittlungsgebühren einziehen können, ohne juristische Verantwortung für das Fahrgastgeschäft selbst zu übernehmen. Er fragte, warum die Bürger dies nicht selbst organisieren, z.B. mit einer  ‚genossenschaftlichen Bürgerplattform‘. Noch weiter gedacht: warum sollten Studierende, Professoren und Bürger nicht solch eine Genossenschaft gründen?

17.30 Uhr Robot-Fabriken. Erhöhung der Produktivität; wo bleibt die Arbeit? Vortrag und Diskussion
( Prof. Dr. Kai-Oliver Schocke)

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Das Thema ‚Automatisierung‘ bzw. ‚Roboter-Fabriken‘ ist in der Öffentlichkeit wegen unterstelltem Arbeitsplatzverlust schon mit Vorbehalten verhaftet. Prof. Schocke verstand es aber, in einem sehr engagierten Vortrag zunächst einmal die Notwenigkeit einer Produktivitätssteigerung durch weiter automatisierte Fabriken zu klären. Der internationale Konkurrenzdruck zwingt Deutschland, hier an vorderster Stelle mit zu halten. Allerdings zeigte die lebhafte Diskussion, dass damit das Problem der oft zitierten Arbeitsplatzvernichtung möglicherweise noch nicht völlig beantwortet ist. In der Diskussion wurde klar, dass hier alle betroffenen gesellschaftlichen Kräfte herausgefordert sind nach Lösungen zu suchen. den Unternehmen alleine kann man dies nicht anlasten.

18.30 Uhr Pause Computermediated Sound/Images 3
(acrylnimbus)

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt, ehemaliger Absolvent der Informatik – noch mit dem klassischen Diplom –, der zugleich seit gut 20 Jahren auch experimentelle Musik produziert, komponiert, performed, zeigte ein eigens Kunstvideo parallel zu einem eigenen Soundtrack, den er live spielte.

19.30 Uhr Video Slam zum Thema Informatik und Gesellschaft (Länge eines Videos maximal 7-Min, künstlerisch oder wissenschaftlich, Publikumspreise für die zwei besten Beiträge)

 Video--Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Video–Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Obgleich die Vorlaufzeit für den Videowettbewerb vergleichsweise sehr kurz war hatte es Einsendungen gegeben und es war möglich, den vom Förderkreis der Hochschule gestifteten Preis an zwei Preisträger zu überreichen. Sowohl Siegfried Härtel wie auch Tom Pluemmer sind profiliert Kunstschaffende. Während Tom Pluemmer seinen Schwerpunkt im Bereich Film hat, hat Siegfried Kärcher in seinem Leben schon eine ganze Bandbreite von künstlerische Aktivitäten aufzuweisen. Darin kommt eine intensive Auseinandersetzung mit Computern in ihren vielschichtigen Einsatzmöglichkeiten ebenso vor wie Lichttechnik, Sounddesign und Videokunst, um nur einiges zu nennen.

Das Cafe1 während der Pausen - Essen, Trinken, Kommunizieren

Das Cafe1 während der Pausen – Essen, Trinken, Kommunizieren

21.30-23.00 Uhr Ausgangsereignis Computermediated Sound/Images 4
(Werkstattgespräch mit den Künstlern; Digital Jam-Session)

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Hier eine Momentaufnahme von der inspirierenden Improvisation Tobias Schmitt & Guido May. Leider viel zu kurz …

Weitere Berichte, Kommentare können möglicherweise noch folgen. Insbesondere sollen noch Links auf die beiden prämierten Videos folgen.

Eine erste Nachreflexion von cagent zur Tagungfindet sich HIER.

Einen Überblick über alle Einträge in diesem Blog nach Titeln findet sich HIER.

REDUKTIONISMUS, EMERGENZ, KREATIVITÄT, GOTT – S.A.Kauffman – Teil 7

Vorheriger Beitrag Teil 6

Letzte Änderungen: 22.April 2013, 08:18h

KAUFFMANS GOTTESBEGRIFF

1. In den folgenden Kapiteln 14-19 spekuliert Kauffman auf der Basis des bislang Gedachten. Das Kapitel ‚Living in Mystery‘ (etwa ‚Leben im Geheimnis‘) SS.230-245 beginnt er mit der zusammenfassenden Feststellung, dass nach den vorausgehenden Untersuchungen die gesamte bisherige – biologische wie auch kulturelle – Geschichte ’selbst-konsistent‘ (’self-consistent‘) sei, ‚ko-konstruierend‘ (‚co-constructing‘), ‚evolvierend‘ (‚evolving‘), ‚emergent‘ und ’nicht voraussagbar‘ (‚unpredictable‘).(vgl. S.231) In allem erkennt er eine fortschreitende ‚Individualisierung‘ (‚individuation‘) von Teilsystemen und Prozessen mit kontinuierlichen Ausprägungen von ’selbst-konsistenten Zusammenfügungen von Gemeinschaften‘. Alle diese Prozesse geschehen ständig, ohne dass wir in der Lage wären, sie mit den bekannten physikalischen Gesetzen hinreichend beschreiben zu können. (vgl. S.231) Für all dieses Geschehen, in dem er eine spezifische ‚Kreativität‘ am Werke sieht, führt er seinen Begriff von ‚Gott‘ (‚god‘) ein als eine Art technischen Begriff für das Ganze. (vgl.S.276) Und unter Voraussetzung dieses seines speziellen Gottesbegriffs führt er dann als weiteren technischen Begriff den Term ‚Heilig(es)‘ (’sacred‘) ein mit der Bemerkung, dass wir mit unserer Entscheidung (‚our choice‘) das ‚Heilige‘ im Universum und seinem Werden hochhalten (‚hold‘). (vgl. S.232,)

KRITISCHE ANMERKUNGEN ZU KAUFFMANS GOTTESBEGRIFF

2. [Anmerkung: Dieses Vorgehen ist schon etwas merkwürdig. Einerseits beteuert Kauffman dass er mit Glauben und Religion nichts zu schaffen habe, andererseits versucht er hier den historisch gewaltig aufgeladenen Begriff ‚Gott‘ in diesem neuen Kontext mit seiner Bedeutung zu etablieren, zusätzlich ergänzt um den nicht weniger aufgeladenen Begriff ‚heilig’/ ‚Heiligkeit‘. Warum tut er das? Wenn ihm die bisherigen Glaubenstraditionen egal wären, gäbe es eigentlich keine Motivation, Begriffe wie ‚Gott‘ bzw. ‚heilig‘ in diesen Kontexten zu erwähnen. Wenn er es aber dennoch tut, scheinen ihm diese Begriffe wichtig zu sein. Irgendwie verbindet sich für ihn mit den Begriffen ‚Gott‘ und ‚heilig‘ etwas, was er mit den für ihn spannendsten Eigenschaften dieser Welt verknüpft sehen will. Ich selbst bin 1990 aus der katholischen Kirche ausgetreten, da ich mit ihrer Art den Glauben an das Ganze zu vermitteln, einfach nicht mehr einhergehen konnte. Andererseits sind für mich die verschiedenen religiösen Traditionen (jüdisch, jüdisch-christlich, jüdisch-christlich-islamisch,…) trotz all ihrer Unvollkommenheiten nicht grundsätzlich etwas ‚Schlechtes‘, transportieren sie doch in ihrer geschichtlichen Konkretheit wertvolle menschliche Erfahrungen, von denen wir alle lernen können, sofern wir unser kritisches Denken dabei nicht ausschalten. Und mit Blick auf diese Traditionen muss man sagen, dass es hier Bilder und Überlegungen zu dem Begriff ‚Gott‘ gibt, die mit den Überlegungen von Kauffman vollständig kompatibel sein können; man könnte die Überlegungen von Kauffman ohne weiteres als eine Art weiterführenden Beitrag zum Thema sehen. Ein christlicher Theologe wie Teilhard de Chardin (1881 – 1955) war – trotz seiner beständigen Unterdrückung durch das kirchliche Lehramt – sehr nahe bei den Sichten, die Kauffman propagiert; in gewisser Weise vielleicht sogar weiter, wenngleich im technischen Detail natürlich – zeitbedingt – nicht so weit wie Kauffman. Kurzum, mir scheint dass Kauffman entweder das Thema ‚Gott‘ aus seinen Überlegungen heraushalten sollte (wenn Religion doch so unwichtig ist) oder aber, wenn er doch historisch so aufgeladene Begriffe wie ‚Gott‘ und ‚heilig‘ benutzt, sich die Mühe machen müsste, seine Art der Verwendung dieser Begriffe mit den in diesen gewachsenen Traditionen gebräuchlichen Verwendungen abzugleichen. Die wissenschaftliche Redlichkeit, um die er sich ansonsten immer bemüht, gebietet dies. Seine seltsam ‚verdrängende‘ Vorgehensweise im Gebrauch der Begriffe ‚Gott‘ und ‚heilig‘ erscheint mir von daher – so stimulierend diese Gedanken sind – wissenschaftlich unredlich und damit der schwächste Teil seines ganzen Buches. Nicht nur das, indem er diese Dimension seines Buches nahezu vollständig ausklammert beraubt er sein Buch einer wichtigen möglichen Wirkkomponente: die große Schwäche der religiösen Traditionen Judentum, jüdisches Christentum, jüdisch-christlicher Islam heute besteht nach meiner Wahrnehmung darin, dass sie die gesamten modernen Entwicklungen mehr oder weniger vollständig ausgeklammert haben. Ein konstruktiver Brückenschlag zwischen Erkenntnissen, wie sie Kauffman kommuniziert und diesen Positionen könnte ‚belebend‘ sein für beide Seiten. Dies setzt allerdings voraus, dass man die religiösen Traditionen nicht als vollständigen Unsinn abtut sondern in ihrem ‚Kern‘ eine empirisch vollziehbare Gottesbeziehung erkennt und für möglich hält, die jedem Lebewesen, ja dem ganzen Universum ‚innewohnt‘. Es ist für mich eine offene Frage, ob es irgend einen offiziellen religiösen Repräsentanten gibt, der in diesem radikalen Sinne ‚an Gott glaubt‘ – oder verbirgt sich hinter der ‚religiösen Fassade‘ letztlich ein abgrundtiefer Unglaube? Wirklich entscheiden werden wir diese Frage nie können. Es bleibt uns letztlich nur eine ‚Vertrauen‘ in den anderen, eine Art von ‚Glauben‘, der natürlich enttäuscht werden kann. Jede Art von Radikalismus ist hier fehl am Platz.]

PRINZIPIELL UNVOLLSTÄNDIGES WISSEN

3. Auf den SS.232-235 folgen dann verschiedene Überlegungen, in denen er unterschiedlichste Autoren zitiert (u.a. T.S.Eliot, Plato, Aristoteles, Newton, Carl Jung, Paul Dirac, Nietzsche) und das ‚Deep Blue‘ Computerprogramm von IBM, das den damaligen Schachweltmeister Gary Kasparow schlagen konnte. Alle diese Stellen sollen illustrieren, dass und wie wir mit einem begrenzten Wissen in einer offenen, sich beständig wandelnden Situation agieren.
4. Es folgt dann ein etwas systematischerer Abschnitt SS.236-245, in dem er anhand einer spieltheoretischen Situation illustriert, wie zwei Spieler sich wechselseitig hochschaukeln können, indem sie nach und nach jeweils ein ‚Modell des Anderen‘ konstruieren, das sie in ihren Entscheidungen leitet. Jede Ereigniskette, die solche Akteure als Produzenten enthält, verliert damit auf Dauer ihren ‚zufälligen‘ Charakter. Andererseits ist es so, dass die Verhaltensweisen solcher ‚lernfähiger‘ Akteure nicht ‚konstant‘ ist, sondern sich aufgrund ihrer aktiven Modellbildungen beständig verändert. D.h. adaptive Rationalität selbst ändert die erfahrbare Rationalität der Wirklichkeit. Und folgerichtig stellt Kauffman die Frage, was es denn heißt, ‚vernünftig‘ (‚wisely‘) zu handeln, wenn wir nicht nur das Ganze noch nicht kennen, sondern durch unser eigenes Verhalten das Ganze beständig verändern? (vgl. S.244) Und er kommt aufgrund wissenschaftlicher Überlegungen zu dem bedenkenswerten Schluss: „Das, was wir brauchen, um unser Leben zu leben, ist Glauben (‚faith‘); bei weitem wichtiger als Wissen (‚knowing‘) oder Erkennen (‚reckoning‘).“ (S.244) Und diese Art zu glauben ist ein biologisches Phänomen, eine inhärente Eigenschaft biologischer Lebensformen, die auf dieser Erde entstanden sind. (vgl. S.245)

DIE ZWEI KULTUREN (und Religion)

5. Auf den folgenden Seiten SS.246-254 variiert Kauffman diese Gedanken weiter anhand der kulturellen Aufspaltung in Wissenschaft und Nicht-Wissenschaft, wie sie Europa – und dann auch andere Teile der Erde – seit dem Aufkommen der modernen empirischen Wissenschaften charakterisiert und prägt. Angesichts der von ihm herausgearbeiteten grundsätzlichen ‚Kreativität‘ des ganzen Universums und des evolutionären Geschehens auf der Erde, hält er diese Aufspaltung für nicht mehr gerechtfertigt. Mit zahlreichen Zitaten von diversen Wissenschaftlern, Philosophen und Künstlern versucht er zu unterstreichen, dass die ‚Kunst‘ letztlich zum inneren Prinzip des kreativ-evolutionären Geschehens gehört. Wie zuvor aufgezeigt stößt die menschliche Vernunft beständig an ihre Grenzen, die sie nur überwinden kann, wenn sie diese Grenzen akzeptiert und sie durch ein geeignetes kreativ-koevolutionäres Verhalten ‚erweitert‘ und so dem Werden des je Unbekannten Raum gibt.
6. Verräterisch ist, wenn Kauffman zu Beginn dieses Kapitels hervorhebt, dass man jetzt mit einem Gottesbegriff leben kann, den ‚wir selber erfunden haben‘ (‚our own invention‘).(S.246) Damit bestätigt er indirekt die oben von mir geäußerte Vermutung, dass er die ‚älteren Verwendungsweisen des Begriffes ‚Gott“ als unangemessen ablehnt. [Anmerkung: Hier baut Kauffman einen Gegensatz auf, der so meines Erachtens nicht nur unnötig, sondern sogar falsch ist. Noch mehr, er vergibt sich die Chance, zu zeigen, dass auch die traditionellen jüdisch-christlich-islamischen Verwendungsweisen des Wortes ‚Gott‘ historisch gewachsen sind, dass sie sich kreativ-koevolutiv im Wechselspiel von menschlichem Leben und umgebender sich ereignender Geschichte ‚entwickelt‘ haben. Und dass gerade diese Entwicklung der verschiedenen Verwendungsweisen des Begriffs ‚Gott‘ in dramatisch wissenschaflich-künstlerischer Weise dokumentieren, wie hier der menschliche Geist damit ringt, trotz seiner konkreten und historischen Begrenztheiten das je Größere zu ahnen, irgendwie doch zu fassen, irgendwie doch das je Größere Absolute Transzendente in die endliche Konkretheiten einer historisch bedingten Körperlichkeit zu ‚übersetzen‘. Wer in den Wörtern der ‚heiligen‘ Texte immer nur die historischen Bedingtheiten, die zeitlich bezogenen Konkretheiten sieht, der verweigert diesen Texten genau die Ehrfurcht, die Weite, die Tiefe, die Großzügigkeit, den Mut, die transzendierende Mystik, die in ihnen ‚lebt‘, sich Ausdruck gesucht hat. Natürlich ist dieser ‚weitere, tiefere‘ Blick nicht logisch zwingend, nicht deduktiv absolut herleitbar (was manche immer wieder glauben), aber Kraft der transzendenten Wahrheit, die in jedem menschlichen Erkennen lebt, kann sie jeder ’sehen‘, wenn er will, und, vor allem, er kann sie mit seinem eigenen Leben ‚ausprobieren‘; dies nennt man dann entweder ‚Künstlersein‘ oder ‚religiös sein‘, gespeist von Kreativität und Glauben, oder beides in einem. Es ist sehr schade, dass Kauffman diesen tieferen und umfassenderen Zusammenhang offensichtlich nicht sieht. Dies kann u.a. daran liegen, dass die offiziellen religiösen Gemeinschaften den tieferen ‚Schatz ihrer eigenen Überlieferung‘ oft nicht voll verstehen und dass die sogenannten ‚geistlichen Führer‘ weniger ‚geistliche‘ Führer sind sondern Machtmenschen und Geschäftsleute, die ihre sehr persönlichen Vorteile in allem suchen. Die innere Freiheit des Geschehens kann solchen Missbrauch nicht verhindern und kann dann zur Abkehr von sehr vielen Menschen von den religiösen Traditionen führen. Schon ein Jesus von Nazareth hatte den Unterschied zwischen ’sich religiös geben‘ und ‚tatsächlich religiös sein‘ sehr klar erkannt und benannt.]

FÄHIG ZUM BÖSEN

7. Auf den SS.255-258 verweist Kauffman auf das Faktum, dass wir Menschen als konkreter Teil einer konkreten Evolution aufgrund unserer limitierten Ausstattung sehr vieles falsch machen können und auch schon falsch gemacht haben. zusätzlich haben wir Bedürfnisse, Emotionen, Motivationen die sehr partikulär sein können, sehr egoistisch und sehr, sehr grausam. Die Technologien der Zerstörung (und des Tötens) gehören immer mit zu den am weitesten entwickelten. Ob und wie wir diese destruktiven limitierenden Kräfte auf Dauer hinreichend konstruktiv einbinden können muss die Zukunft zeigen.

ETHIK

8. Ein Hauptthema des Buches von Kauffman war und ist der Versuch, aufzuzeigen, dass der sogenannte ‚Reduktionismus‘ aller Phänomene auf einen ‚Physikalismus‘ nicht haltbar ist. Ein zentrales Argument innerhalb dieses Aufweises ist die Behauptung, dass die meisten für uns Menschen interessante Phänomene der Evolution ‚emergenter‘ Natur sind, d.h. sich in ihrer Komplexität nicht aus den physikalischen Bestandteilen als solchen erschließen. Innerhalb dieser emergenter Phänomene gibt es das, was Kauffman ‚Agentenschaft‘ (‚agency‘) nennt, und verbunden mit der Agentenschaft, die Fähigkeit, bestimmten Vorkommnissen nicht nur allgemein eine ‚Bedeutung‘ zuzuweisen, sondern sogar eine ausgezeichnete Bedeutung im Sinne eines ‚Wertes‘: ein Vorkommnis x hat einen bestimmten ‚Wert‘ v mit Bezug auf einen ‚lebensrelevanten‘ Faktor L. D.h. innerhalb der biologischen Evolution haben sich Strukturen entwickelt, für die die wahrnehmbare Welt nicht ’neutral‘ ist, sondern ‚wertig‘; es gibt Ereignisse die mit Bezug auf das ‚Überleben‘ der Art ‚relevant‘ sind, ‚bedeutungsvoll‘, ‚wichtig‘.(vgl. S.259)
9. [Anmerkung: Man muss also sagen, dass es zum ‚Auftreten‘ des ‚Lebens‘ auf dieser Erde gehört, dass das Leben ‚als Teil von sich‘ bestimmte Ereignisse/ Eigenschaften dieser Welt als ‚wertvoll‘ erlebt. Oder, anders ausgedrückt, das Leben definiert sich wesentlich dadurch, dass es selbst einen ‚Wert‘ darstellt, der ‚von sich aus‘ ‚erhalten‘ sein will. Das Leben muss nicht künstlich irgendwelche Werte finden, derentwillen es sich lohnt zu leben, sondern das Leben als biologisches Phänomen ‚ist selbst der primäre Wert‘, um den es geht. Es existiert nur, weil es in dieser Form vom ‚Kosmischen Gesamtzusammenhang‘ Erde – Sonnensystem – Milchstraße – Universum in dieser Besonderheit ‚induziert‘ wurde und sich in Form dieser Besonderheit entwickeln konnte. Eine Alternative ist praktisch nicht möglich, da die Alternative vom kosmischen Gesamtzusammenhang her nicht unterstützt wird! Alle Atome, Moleküle, die sich nicht ‚in der Weise verhalten‘, wie es vom kosmischen Gesamtzusammenhang ‚belohnt‘ wird, haben keine Existenzmöglichkeit!!! Damit erscheint das Leben, so, wie es sich im kosmischen Gesamtzusammenhang entwickelt hat, als der einzige ‚fundamentale Wert‘, den wir bis heute kennen!!! Und natürlich liegt der Schluss nahe, dass sich aus diesem fundamentalen Wert (der sich aber nur den ‚im Leben befindlichen Akteuren‘ erschließt) alle anderen Werte ableiten lassen müssen.]
10. Im Lichte dieser fundamentalen Werteposition wundert es nicht, dass Kauffman zwei wichtige Positionen der heutigen Ethik kritisiert: den ‚Deontologismus‘ und den ‚Konsequentialismus‘. (vgl. S.259).
11. Sein Hauptargument besteht darin, dass unser moralisches Empfinden und unser Wertesystem sich erst in der Evolution und der zugehörigen Kultur ‚entwickelt‘ hat und dass von daher die Bezugnahme auf eine höheres, absolutes moralisches Fühlen im Sinne eines Deontologismus (sich verpflichtet fühlen) bzw. eines die Folgen des Handelns Bedenkens im Sinne eines Konsequentialismus ohne die Berücksichtigung der Entstehung und ihres jeweiligen Kontexts keinen Sinn macht. (vgl.S.259f)
12. Kauffman illustriert diese Kernthese mit vielen Zitaten (vgl. SS.260-266) und ergänzt den Entwicklungscharakter der Ethik noch um den Aspekt er formalen Unabgeschlossenheit (Gödels Theorem) jeglichen möglichen ethischen Systems. (vgl. S.266) [Anmerkung: Diese formale Unabgechlossenheit ergibt sich u.a. aus der evolutiven Entstehung des Wertesystems bzw. aus der inneren Struktur des Lebens. Diese innere Struktur besteht prinzipiell im beständig über das Gegebene Hinausgehen mit einem – zum Zeitpunkt des Darüberhinausgehens – unvollständigen Wissen! D.h. das ‚Innovative‘ am Leben ist seine ‚Kreativität‘ und die Fähigkeit, sich selbst permanent ‚transzendieren‘ zu können. Die Struktur des Lebens ist – was viele Philosophen früher auch schon erkannt hatten, ohne den Mechanismus der Evolution zu verstehen – in sich so, dass die ‚Erfüllung‘ des Lebensprozesses nur möglich ist, indem sich die bestehenden Strukturen mit etwas ‚außerhalb ihrer selbst‘ ‚verbinden‘!! Zum Zeitpunkt des Lebens ist dem jeweiligen lebenden System aber nicht vollständig klar, was dies genau ist; es erlebt sich selbst allerdings in einer ‚prinzipiellen Unabgeschlossenheit‘ (eine mögliche Version von ‚Transzendentalität‘), durch die es ‚angetrieben‘ ist, das ’noch Fehlende‘ zu ‚finden‘!!!]
13. Aus diesen Überlegungen folgert Kauffman, dass es nicht ein einzelnes höchstes Gut gibt, sondern eher – entsprechend der Idee eines ‚Pareto Optimums‘ im Kontext der Pareto Effizienz (nicht zu verwechseln mit dem Pareto Prinzip) – viele verschiedene Dinge, die alle zugleich wichtig sein können, damit bestimmte Lebensprozesse funktionieren. Nicht die Luftreinheit alleine oder die Wasserqualität oder die Ressourcenschonung oder …. bilden biologisch relevante Werte, sondern das Zusammenspiel vieler verschiedener Faktoren in einem bestimmten Gleichgewicht. (vgl. S.266f). Es kann also nicht darum gehen einige wenige absolute Werte zu identifizieren und zu isolieren. Nein, die biologische Evolution wird kontinuierlich neue Werteensembles ’sichtbar‘ machen, deren Einhaltung und Zusammenspiel wichtig sind; diese Werte können und werden sich im Laufe der Zeit ändern. (vgl. S.271f)

GLOBALE ETHIK

14. Es liegt nahe, den Gedanken der Ethik in einem globalen Rahmen weiter zu denken. Viele Gedanken aus den vorausgehenden Kapiteln wiederholen sich hier (vgl. SS.273-280). Ausdrücklich genannt wird das Thema Vielfalt und Vermischung von Kulturen, globale Ressourcenknappheit, die Problematik verzerrter (fundamentalistischer) religiöser Richtungen und unser Missbrauch anderer Lebewesen für unsere Ernährung. Und er wiederholt auch das Problem der prinzipiellen Wissensgrenzen zu jedem Zeitpunkt bei gleichzeitiger Notwendigkeit, handeln zu müssen. Dieses wissens-unvollständige Handeln verlangt nach Werten, die nicht ‚partikulär‘ sein können. Wo sollen diese neuen Werte herkommen? Er hofft, dass seine Deutung der natürlichen Entwicklung mit seinem Begriff der ‚Kreativität‘ als ‚Heiligkeit‘ eine Art ’natürlichen Gottesbegriff‘ begründet, der als gemeinsamer Grund für alle dienen kann. (vgl. S.276, 280)
15. [Anmerkung: Hier wird unmissverständlich deutlich, dass Kauffman einen bestimmten globalen Zusammenhang voraussetzt, ganz bestimmte kulturelle Gegebenheiten, die in seinem Verständnis eine neue Weltsicht einschließlich einer neuen Ethik verlangen. Während er glaubt, dass dies möglicherweise durch bloße Einführung eines neuen Begriffs (‚God‘, ‚Sacred‘) gelingt, beschreibt er indirekt, dass sehr viele Menschen noch unter dem Eindruck der ‚alten Bilder und Interpretationen‘ stehen, die durch ihre Begrenztheiten ein ‚angemesseneres‘ Verhalten verhindern. Angesichts des Beharrungsvermögens, das psychische und kognitive Muster an den Tag legen, ist es eher unwahrscheinlich, dass die bloße Einführung einer neuen Deutung von ‚Gott‘ die Gewohnheiten von 2000 – 3000 Jahren einfach so ändern; sie sind im Alltag eingebettet und leben dort u.a. in Form von Gewohnheiten, Gebräuchen, Schriftstücken, und Gesetzen, die sich von alleine nicht ändern. Ihre ‚Faktizität‘ prägt aber täglich das Verhalten und damit das Bewusstsein großer Teile der Bevölkerung. Durch diese Rückkopplung des subjektiven Erlebens und Denkens an objektive, soziale Tatbestände kann eine einschneidende Veränderung des Denkens von Dauer immer nur über eine entsprechende Änderung der realen Lebensverhältnisse führen. Die Geschichte hat Beispiele parat, wann und wie solche Prozesse stattgefunden haben.]

NOCHMALS GOTT

16. Auf den abschließenden Seiten SS.281-288 kulminiert nochmals das Denken von Kauffman in der Verwendung und Motivierung der Begriffe ‚Gott‘ und ‚Heilig‘, wie er sie eingeführt hat. Er nimmt ausdrücklich Bezug auf die jüdisch-christliche Traditionen, auch den Buddhismus, nicht aber auf den jüdisch-christlichen Islam. Er unterstreicht, dass eigentlich nur der Begriff ‚Gott‘ die kulturelle Kraft hat, die tiefsten und wichtigsten Überzeugungen der Menschheit zu repräsentieren. Er spricht von der Notwendigkeit von ‚Spiritualität‘ und auch von ‚Riten‘.
17. [Mit diesen vielfachen Wiederholung immer des gleichen Themas in den letzten Kapiteln manifestiert sich sowohl die Bedeutung, die Kauffman diesen Begriffen beimisst wie auch die Schwierigkeit, dieser Bedeutungschwere den angemessenen Ausdruck zu verleihen. Wenn man Kaufman auf all den Seiten seines Buches gefolgt ist, und schrittweise miterlebt hat, wie er sich seine eigene, neue Sichtweise mühsam gegen vielseitig gewohnte Sehweisen erkämpft hat, dann kann man ansatzweise nachempfinden, wie das Neue nachhallt und sich zugleich immer mehr Perspektiven auftun, neue Ansatzpunkte greifbar werden, wo und wie man diese stimulierenden Gedanken weiterführen und möglicherweise sogar umsetzen kann. Jeder erlebt die Lektüre eines Buches notgedrungen im Lichte seiner eigenen Fragen und seines eigenen Wissens. Für mich war dies Buch eine Art ‚Katalysator‘ für sehr viele wichtige Gedanken und Perspektiven. In der nächsten Zeit werde ich mit Sicherheit darauf zurückkommen. ]

Ende der besprechenden Lektüre von Kauffman’s Buch ‚Reinventing the Sacred‘.

Ein Überblick über alle bisherigen Blogeinträge nach Titeln findet sich HIER

FORMALE THEORIE DES BEWUSSTSEINS oder BEWUSSTSEINSBASIERTE AGENTEN

(1) Nach einer ersten Diskussion von Husserls Pariser Vorlesung(en) von 1929 (siehe diesen Blog CM III, Teil 1-8) folgt nun eine Zwischenphase, in der ich eine erste Version einer formalen Theorie des Bewusstseins im Kontext selbstlernender Software hinschreiben werde. Die vorausgehenden Versuche der letzten Jahre scheiterten immer wieder an schwer fassbaren ‚Denkknäuel‘.

(2) Wer diese formale Theorie selber nachlesen will, der sei auf mein Skript ‚General (Behavior Based) Computational Learning Theory (GBBCLT)‘ verwiesen. Da sich dieses im beständigen Fluss befindet, kann ich nur die allgemeine Adresse (http://www.uffmm.org/gbbclt.html) angeben und auf das Kapitel ‚Consciousness‘ mit diversen Unterabschnitten verweisen. Dazu sollte man vorher den Abschnitt ‚Philosophy of Engineered Intelligent Systems‘ mit den entsprechenden Unterabschnitten lesen, um den Zusammenhang mit den künstlichen lernenden Softwareagenten verstehen zu können.

(3) Der erste Versuch des Aufschreibens erweckt den Eindruck, dass man die scheinbare Komplexität unseres Bewusstseins eventuell auf recht wenige und einfache Strukturen zurückführen kann (die eigentliche Komplexität liegt ja sowieso ‚hinter‘ dem Bewusstsein, in jener ‚Maschinerie‘, die die Leistungen des ‚erlebbaren‘ Bewusstseins quasi ‚zur Verfügung stellt‘). Sicher müssen hier viele Details noch weiter justiert werden. Doch scheint der ‚Grundprozess‘ alle Eigenschaften zu bieten, die man braucht.

(4) Die Diskussion über das phänomenologische Konzept von Husserl ist natürlich in keiner Weise abgeschlossen. Aber aufgrund der knappen Zeit, weiß ich nicht, wann ich an dieser Stelle fortfahren kann. Die Ausarbeitung der formalen Theorie und ihrer Tests hat in den nächsten Wochen –oder gar Monaten– ‚Vorfahrt‘. Außerdem habe ich das starke Gefühl, dass eine Relektüre der ‚Phänomenologie‘ von Hegel eine Menge interessanter Gedanken in diesem Kontext liefern könnte. Es ist auffällig, wie wenig Husserl auf die vorausgehende Philosophie und die umgebenden Wissenschaften eingegangen ist (die Psychologie ausgenommen, hier aber auch nur anscheinend sehr selektiv). Zudem habe ich den Eindruck, dass das Phänomen der Musik philosophisch höchst brisant ist.

ÜBERBLICK: Einen Überblick über alle Beiträge des Blogs nach Titeln findet sich HIER