Archiv der Kategorie: Computer – digitaler

INFORMATIK & GESELLSCHAFT – Kurzbericht

Änerung: 19.März 2015 (Die Künslergruppe Reul & Härtel hat das Foto mit Ihnen durch ein Bild aus ihr Performance (‚visualexploration‘) ersetzen lassen)
Änderung: 20.Nov.2014 (Einfügung Videoschnappschuss von der Uraufführung des Eingangereignisses)

Wie schon zuvor in diesem Blog darauf hingewiesen gab es am 8.November 2014 in der Frankfurt University of Applied Sciences eine recht interessante Veranstaltung INFORMATIK & GESELLSCHAFT. Computer und Geist. Aspekte einer Standortbestimmung. Im Folgenden ein kurzer Bericht mit einigen Schnappschüssen. Alle Bilder sind von Dominik Wolf, dem es gelungen ist, unter schwierigen Lichtverhältnissen doch das eine oder andere Bild zu schiessen. Die beiden ersten Bilder sind allerdings von Anita Henisch, die dann wegen der schwierigen Lichtverhältnisse aufgegeben hatte. Von Dominik Wolf selbst gibt es leider kein Foto, was schade ist, da er die Hauptlast der Organisation getragen hat.

13.20 Uhr Eingangsereignis Computermediated Sound/Images 1
(cagentArtist & Guido May)

cagentartist im Gespräch mit Guido May vor der Uraufführung von 'Little CRUNCS symphony No.1'
cagentartist im Gespräch mit Guido May vor der Uraufführung von ‚Little CRUNCS symphony No.1‘
Jazz-Schlagzeuger Guido May während der Uraufführung von 'Little CRUNCS symphony No.1'
Jazz-Schlagzeuger Guido May während der Uraufführung von ‚Little CRUNCS symphony No.1‘

Hier ein Video Schnappschuss von Dominik Wolf. Dies war nicht als Dokumentation geplant; aber da der geplante Tonmitschnitt leider nicht verfügbar ist, ist dies nun das einzige Zeugnis der 20 Minuten-Uraufführung.

Das Stück ‚Little CRUNCS symphony No.1‘ wirkte auf den ersten Blick wie sinfonische Musik, war aber vollständig im Computer generiert worden. Sieben verschiedene Eingangsklänge wurden auf unterschiedliche Weise algorithmisch bearbeitet und miteinander verzahnt. Viele Zuhörer sagten anschliessend, dass für sie das Schlagzeugspiel sehr wichtig gewesen sei. Ohne dieses hätten sie sich mit dem reinen Soundtrack schwer getan. So aber war es ein Erlebnis. Auch für den erfahrenen Jazz-Schlagzeuger Guido May war das Stück, wie er sagte, eine besondere Herausforderung. Alle ihm bekannten Muster passten bei diresdem Stück nicht. Er musster sich die Rolle des Schlagzeugs hier speziell erarbeiten.

13.45 Uhr Begrüßungen
(Moderator Prof. Doeben-Henisch, Sprecher ForschungsCampus FC3 & Informatik Cluster Fb2 Prof. Schäfer, Dekan Fb2 Prof. Morkramer, Vizepräsident Wissenschaft Infrastruktur Forschungstransfer der Frankfurt University of Applied Sciences Prof. Schrader)

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch
Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Prof.Doeben-Henisch bei der Begrüßung. Es war die erste Veranstaltung dieser Art für die Informatik an der Hochschule. So war es sehr erfreulich, dass so viele sich aktiv und engagiert bei dieser Veranstaltung beteiligt haben.

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer
Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Prof. Morkramer,  der Dekan des Fb2, verstand es, am Beispiel seiner eigenen Familie lebendig werden zu lassen, wie schnell die Computer innerhalb von zwei  Generationen aus dem Nichts aufstiegen und heute alles durchdringen. Erst jetzt beginnen wir Menschen scheinbar zu begreifen, welche große Folgen dies für uns alle haben kann, nicht nur positiv, sondern auch negativ.

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung  und Forschung, Prof.Dr. Ulrich Schrader
Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung und Forschung, Prof.Dr. Ulrich Schrader

Der Vizepräsident für Weiterbildung, Infrastruktur und Forschung, Prof. Dr. Schrader, griff sich aus den vielfältigen Entwicklungen jenen Bereich heraus, der ihn selbst besonders betrifft, den Bereich neuer Unterrichtstechnologien. So wunderbar diese neue Welt auch erscheint, er machte darauf aufmerksam, dass der Aufwand für eine volle Nutzung dieser neuen technologischen Möglichkeiten, von einer einzelnen Hochschule kaum gestemmt werden kann. Er wagte einen visionären Ausblick dahingehend, ob nicht Hochschule, Behörden und Wirtschaft zusammen ein ‚Leuchtturmprojekt‘ gemeinsamer neuer digitaler interaktiver Lernräume stemmen sollten. Eine Frage, die noch immer weiterhallt, auch nach der Veranstaltung.

14.00 Uhr Geist zum Nulltarif? Philosophische Aspekte zur Herkunft und zur Zukunft der Informatik. Vortrag und Diskussion
(Prof. Dr. phil. Dipl. theol G. Doeben-Henisch)

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch
Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Unter dem Titel ‚Geist zum Nulltarif‘ ordnete Prof. Doeben-Henisch   den Menschen mit seiner ‚Geistigkeit‘ ein in die Ideengeschichte (‚Geist‘ in der antiken griechischen Philosophie, hier verankert im Phänomen des ‚Atmens‘ (Verb: ‚pneo‘) erweitert zum Lebensprinzip (Substantiv ‚pneuma‘)) und in die Evolution des Lebendigen (‚Geist‘ als eine inhärente Eigenschaft des Biologischen selbst). Die strukturellen Übereinstimmungen zwischen dem Prinzip Computer und biologischen Zellen bis hin zum Gehirn lassen heute nicht erkennen, warum der Computer den Menschen in seinen Fähigkeiten nicht übertreffen können sollte. Die – besonders in den USA – vertretene Hypothese von der kommenden ‚technologischen Singularität‘ geht schon ganz selbstverständlich davon aus, dass die Tage der Menschen gezählt sind; die ‚intelligenten Maschinen‘ werden ‚übernehmen’…

15.00 Uhr Informatik und Gesellschaft Soziologische und kulturanthropologische Aspekte der neuen Informationstechnologien. Vortrag und Diskussion
(Prof. Dr. habil. Dipl. soz. Manfred Faßler)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)
Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Dass diese ‚Anpassbarkeit‘ des Computers an gesellschaftliche Abläufe und psychischen Bedürfnissen massive Rückwirkungen auf das Verhalten der Menschen und viele soziale Strukturen hat, thematisierte Prof. Fassler. Er identifizierte in den beobachtbaren Veränderungen einen großen Forschungsbedarf: wie können wir verhindern, dass die Menschen zu bloßen ‚Anhängsel‘ eines einzigen großen kybernetischen Systems werden, das  einer ’smarten Humanität‘ zuwider läuft? Und in der Tat, der Reflexionsbedarf der heutigen Informatik gerade mit Blick auf Soziologie und Kulturanthropologie ist drängend; wo aber sind die zugehörigen Forschungsgruppen und Forschungsprogramme?

16.00 Uhr Pause Computermediated Sound/Images 2
(Philip Reul & Markus Härtel)

Momentaufnahme von der Performance Haertel-Reul
Momentaufnahme von der Performance Haertel-Reul

Die wunderbaren Bilder von Härtel/ Reul, die auf der digitalen Verarbeitung von analogen Prozessen in verschiedenen Flüssigkeiten beruhten, ließen in der ersten Pause  dann etwas Leichtigkeit aufblitzen, einen Hauch von Schönheit. Zu erwähnen ist, dass Philip Reul auch Absolvent des Bachelor-Studiengangs Informatik der Hochschule ist sowie des interdisziplinären Masterstudiengangs ‚Barrierefreie Systeme‘ (BaSys).

visualexploration-8nov2014
visualexploration-8nov2014 von Härtel & Reul

16.30 Uhr Verkehr von morgen. Total umsorgt, total verkauft? Über Uber, Überwachung, und die neue Mobilität. Vortrag und Diskussion
(Prof. Dr. Jörg Schäfer)

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre
Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Prof. Schäfer demonstrierte dann am Beispiel der Mauterfassung, wie das vorhandene Knowhow der Informatik von der Politik nicht genutzt wird, um  die Privatsphäre bei der Mauterfassung zu wahren. Stattdessen wird direkt auf die Privatheit zugegriffen. Am Beispiel des neuen  Fahrgastvermittlungssystem Uber illustrierte Schäfer, wie einige wenige Kapitalgeber mit einer einfachen, billigen Software weltweit hohe Vermittlungsgebühren einziehen können, ohne juristische Verantwortung für das Fahrgastgeschäft selbst zu übernehmen. Er fragte, warum die Bürger dies nicht selbst organisieren, z.B. mit einer  ‚genossenschaftlichen Bürgerplattform‘. Noch weiter gedacht: warum sollten Studierende, Professoren und Bürger nicht solch eine Genossenschaft gründen?

17.30 Uhr Robot-Fabriken. Erhöhung der Produktivität; wo bleibt die Arbeit? Vortrag und Diskussion
( Prof. Dr. Kai-Oliver Schocke)

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung
Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Das Thema ‚Automatisierung‘ bzw. ‚Roboter-Fabriken‘ ist in der Öffentlichkeit wegen unterstelltem Arbeitsplatzverlust schon mit Vorbehalten verhaftet. Prof. Schocke verstand es aber, in einem sehr engagierten Vortrag zunächst einmal die Notwenigkeit einer Produktivitätssteigerung durch weiter automatisierte Fabriken zu klären. Der internationale Konkurrenzdruck zwingt Deutschland, hier an vorderster Stelle mit zu halten. Allerdings zeigte die lebhafte Diskussion, dass damit das Problem der oft zitierten Arbeitsplatzvernichtung möglicherweise noch nicht völlig beantwortet ist. In der Diskussion wurde klar, dass hier alle betroffenen gesellschaftlichen Kräfte herausgefordert sind nach Lösungen zu suchen. den Unternehmen alleine kann man dies nicht anlasten.

18.30 Uhr Pause Computermediated Sound/Images 3
(acrylnimbus)

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin
Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt, ehemaliger Absolvent der Informatik – noch mit dem klassischen Diplom –, der zugleich seit gut 20 Jahren auch experimentelle Musik produziert, komponiert, performed, zeigte ein eigens Kunstvideo parallel zu einem eigenen Soundtrack, den er live spielte.

19.30 Uhr Video Slam zum Thema Informatik und Gesellschaft (Länge eines Videos maximal 7-Min, künstlerisch oder wissenschaftlich, Publikumspreise für die zwei besten Beiträge)

 Video--Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer
Video–Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Obgleich die Vorlaufzeit für den Videowettbewerb vergleichsweise sehr kurz war hatte es Einsendungen gegeben und es war möglich, den vom Förderkreis der Hochschule gestifteten Preis an zwei Preisträger zu überreichen. Sowohl Siegfried Härtel wie auch Tom Pluemmer sind profiliert Kunstschaffende. Während Tom Pluemmer seinen Schwerpunkt im Bereich Film hat, hat Siegfried Kärcher in seinem Leben schon eine ganze Bandbreite von künstlerische Aktivitäten aufzuweisen. Darin kommt eine intensive Auseinandersetzung mit Computern in ihren vielschichtigen Einsatzmöglichkeiten ebenso vor wie Lichttechnik, Sounddesign und Videokunst, um nur einiges zu nennen.

Das Cafe1 während der Pausen - Essen, Trinken, Kommunizieren
Das Cafe1 während der Pausen – Essen, Trinken, Kommunizieren

21.30-23.00 Uhr Ausgangsereignis Computermediated Sound/Images 4
(Werkstattgespräch mit den Künstlern; Digital Jam-Session)

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam
Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Hier eine Momentaufnahme von der inspirierenden Improvisation Tobias Schmitt & Guido May. Leider viel zu kurz …

Weitere Berichte, Kommentare können möglicherweise noch folgen. Insbesondere sollen noch Links auf die beiden prämierten Videos folgen.

Eine erste Nachreflexion von cagent zur Tagungfindet sich HIER.

Einen Überblick über alle Einträge in diesem Blog nach Titeln findet sich HIER.

EMERGING MIND – Mögliche Konsequenzen

Letzte Änderung: 9.April 2015, 12:10h – Minimale Korrekturen; Lesbarkeit verbessert durch Abstände; Zwischenüberschriften

1) Die ganzen Überlegungen zum ‚Emerging Mind‘ sind noch sehr anfangshaft, spekulativ. Andererseits, angesichts der vielen ungelösten Fragen, ohne diese Arbeitshypothese und die interessanten Zusammenhänge mit dieser Arbeitshypothese ist es eigentlich unmöglich, diese Arbeitshypothese nicht weiter zu denken. Fehler zeigten sich ja im allgemeinen am ehesten dann, wenn man versucht, eine Hypothese konsequent anzuwenden und sie auf diese Weise immer mehr ‚Überprüfungen‘ unterzieht.

EMPIRISCHES UNIVERSUM ALS FOLGE VON STRUKTUREN

2) Bisheriger Ausgangspunkt ist ja die Annahme einer Prozesskette S*(t+n) = f(S(t)) mit ‚t‘ als einem Zeitpunkt, ‚S‘ als einer identifizierbaren Struktur zu diesem Zeitpunkt und ‚f‘ als eines funktionalen Zusammenhanges, der die Struktur ‚S‘ in die Struktur ‚S*‘ überführt.

3) In vorausgehenden Einträgen hatte ich exemplarisch mögliche Strukturen identifiziert beginnend mit dem Energieausbruch E des BigBang, der dann in der nachfolgenden Abkühlung immer mehr Strukturen ‚hervorgebracht‘ (=f?) hat: Quanten [Q], Atome [At], Moleküle [Mol], usw. Man bekommt dann eine Prozesskette der Art EMPIRISCHER-KOSMOS = S_Q(t+n1) = f(S_E(0)), S_At(t+n1+n2) = f(S_Q(t+n1) ), usw. wobei die Energie eine Art ‚Nullstruktur‘ ist verglichen mit den folgenden Strukturausprägungen.

4) Bedenkt man ferner, dass jede Funktion ‚f‘ in der ‚Realität‘ eine ‚reale Abbildung‘ sein muss, d.h. eine ‚Operation‘, die ‚real etwas bewirkt‘, dann bedeutet dies, dass man parallel zu den Strukturen S_i(), die man zu verschiedenen Zeitpunkten unterscheiden kann, für die Veränderungsoperation ‚f‘ (von der noch unklar ist, ob es immer die ‚gleiche‘ ist), einen ‚Träger‘ annehmen muss, ein ‚Medium‘, das diese Ausführung ermöglicht. In der klassischen Makrophysik gibt es neben den unterscheidbaren Makrostrukturen ’nichts Konkretes‘, was als Träger in Frage kommt ausser den ‚beobachtbaren Kräften‘, die wir durch ihre spezifischen ‚Manifestationen‘ ‚indirekt‘ erkennen und die wir hypothetisch in Form von ‚Gesetzen‘ benennen und damit ‚dingfest‘ machen. Im Licht der Quantenphysik (was sich bislang vielleicht eher noch als ein ‚Halbdunkel‘ darstellt, das wir noch kaum verstehen…) muss man annehmen, dass die Wahrscheinlichkeitsfelder ihre Kohärenz immer wieder durch ‚Kräfte‘ verlieren, die dann zu den tatsächlich beobachtbaren Makroereignissen führen. Diese in der Quantenfeld lokalisierten hypothetischen Kräfte bieten sich als Kandidaten für den Operator ‚f‘ an, der die unterschiedlichen Strukturbildungen E → S_Q → S_At → … ermöglicht.

ENERGIE: EINMAL UND IMMER WIEDER

5) Neben vielen interessanten Aspekten ist bemerkenswert, dass diese Prozesskette EMPIRISCHER-KOSMOS bis zur Strukturform der Moleküle durch eine einmalige Energiezufuhr (’statisch‘) diese Strukturen erhält; jenseits der Moleküle S_Mol, ab der Strukturform ‚Zelle‘ S_Cell, benötigen diese komplexe Strukturen kontinuierlich eine beständige Zufuhr von Energie (‚dynamisch‘) in Form von chemisch gebundener Energie, die dann mittels Metabolismus ‚freigesetzt‘ und für verschiedene energieintensive Prozesse genutzt wird. Mit fortschreitender Komplexität der Strukturformen (Pflanzen, Tiere, Hominiden, …) wird der Aufwand immer grösser und die Formen von Energiegewinnung, -transport, -speicherung, -verwertung immer komplexer.

ENTSTEHUNG VON ZEICHEN INNERHALB DER MATERIE

6) Ferner ist bemerkenswert, dass bei fortschreitender Komplexität der Strukturformen sich solche molekular basierte Strukturen bilden können, die dann Repräsentationen auf einer höheren Ebene realisieren können, chemische Ereignisse, die als Zeichen funktionieren, die Bedeutungsbeziehungen realisieren können (= semiotischer Raum, Semiose, Zeichenprozesse). Damit ist es möglich, sich von der Konkretheit molekularer Strukturen in gewisser Weise zu befreien und im semiotischen Raum abstrakte Strukturen aufzubauen, die für beliebige Strukturen stehen können. Nicht nur lassen sich damit die vorfindlichen molekularen Strukturen ‚abbilden‘, ‚modellieren‘, sondern man kann mit ihnen ‚herumspielen‘, sie beliebig ‚variieren‘, ‚kombinieren‘, und damit den realen Augenblick ‚transzendieren‘. Im semiotischen Raum kann die reale Gegenwart durch eine erinnerbare Vergangenheit und eine potentielle Zukunft erweitert werden. Dieser Prozess ist schleichend und gewinnt in den höheren Säugetieren, bei den Hominiden und speziell beim homo sapiens sapiens einen vorläufigen Höhepunkt.

BESCHLEUNIGUNG DER KOMMUNIKATION

7) Seit der Verfügbarkeit des semiotischen Raumes innerhalb eines Systems kann man eine dramatische Beschleunigung in der Kommunikation und Koordinierung zwischen den Teilnehmern beobachten, Explosion an Werkzeug, Verfahren, Regeln, Organisation usw.

FLEXIBILISIERUNG DER ENERGIEZUFUHR

8) Die nächste grosse Revolution findet statt, als es gelingt, die molekül-basierten semiotischen Räume mit Hilfe von atomar-basierten Technologien in den wesentlichen Signal- und Zeicheneigenschaften zu kopieren (= Computer), so dass nun die Bildung von ‚künstlichen (technischen) semiotischen Räumen‘ möglich wurde, in Kombination mit einer globalen Vernetzung (= Computernetzwerke, Internet, WWW). Während molekül-basierte semiotische Räume chemisch gebundene Energie zu ihrem ‚Betrieb‘ benötigen, benötigen die atomar-basierten semiotischen Räume Energie in Form von technisch manipulierbaren Potentialunterschieden (= Elektrizität). Diese Form ist universeller und flexibler.

STEIGERUNG DER KOMPLEXITÄT

9) Seit der Verfügbarkeit von künstlichen — auf elektrischer Energie basierenden — semiotischen Räumen konnte die Komplexitätsentwicklung sowohl in ihrer inhärenten Komplexität wie auch in der Geschwindigkeit ihrer Entwicklungen weiter gesteigert werden.

MODIFIKATIONEN DES VERÄNDERUNGSOPERATORS

10) Interessant ist, dass der Veränderungsoperator ‚f‘ nun deutlich unterschieden werden kann. Während der Übergang von der Struktur ‚vor dem HS (‚homo sapiens‘)‘ – also etwa S_PreHs(t) – zur Struktur S_Hs(t+n) noch mit dem Operator ‚f‘ geschrieben werden kann S_Hs(t+n) = f(S_PreHs(t)) ist der Übergang von der Struktur S_Hs zu der neuen Struktur S_NetComp(t) von S_Hs vorgenommen worden, also S_NetComp(t+n) = f_hs(S_Hs(t+n)). Dies ist möglich, weil die impliziten semiotischen Räume von Hs die Definition von Operatoren ermöglichen, die dann ‚umgesetzt‘ werden können. Allerdings wird man wohl annehmen müssen, dass in diese Umsetzung f_hs wohl auch das allgemeine ‚f‘ mit eingeht, also genauer S_NetComp(t+n) = f_hs u f(S_Hs(t+n)).

11) Aktuell sind die künstlichen technischen Strukturen S_NetComp noch nicht in der Lage, sich selber zu vervielfältigen. Grundsätzlich ist nicht zu sehen, warum dies nicht eines Tages möglich sein sollte.

12) Klar ist allerdings, dass der Veränderungsoperator ‚f‘ nun als zusätzliche Teilkomponente f_NetComp enthält, also S_Future(t+n) = f u f_NetComp(S_Past(t)).

PROJEKTION IN DIE ZUKUNFT

13) So mächtig die Kombination ‚f u f_NetComp‘ wirkt, so fragil ist das Ganze. Würde aus irgendwelchen Gründen mal kein Strom verfügbar sein, dann würde S_NetComp vollständig ausfallen und damit würden schon heute weite Bereiche der ‚Zivilisation‘ weitgehend zusammenbrechen.

14) Ein weiterer Aspekt deutet sich an: aufgrund der heute verfügbaren Daten wissen wir, dass der aktuelle Körper des Menschen nur ein ‚Durchgangsstadium‘ markiert. Viele Millionen Jahre vorher sah dieser Körper anders aus und gehen wir weiter zurück, dann verlieren sich die heute bekannten Strukturen in immer fremdartigeren Formen, die kaum noch etwas mit der heutigen Gestalt zu tun haben. Umgekehrt müssen wir also davon ausgehen, dass sich – auch ohne unser Zutun – die aktuelle Körperform weiter verändern wird.

15) Dazu kommt der Aspekt, dass wir mittels des impliziten semiotischen Raumes wie auch durch die heute extern verfügbaren künstlichen semiotischen Räume samt hochentwickelter Werkzeuge den Umbau der aktuellen Körperformen aktiv betreiben könnten (und möglicherweise auch sollten?).

16a) Andererseits stellt sich aber die Grundsatzfrage, ob die Linie der molekülbasierten Körper überhaupt weiterverfolgt werden sollte. Die künstlichen semiotischen Räume mit der Energieversorgung durch flexiblen Strom bieten u.U. auf Dauer bessere Chancen, sich im Universum zu behaupten. Dies rührt dann aber an der Grundsatzfrage, ob die materielle Hülle einer Struktur (im Falle des HS sein molekülbasierter Körper) tatsächlich wichtig ist.

VERORTUNG DES GEISTES

16b) Wenn die Arbeitshypothese stimmt, dass die entscheidenden Operatoren ‚f‘ letztlich von den realisierten Strukturen unabhängig sind, sondern sich nur unter Verfügbarkeit solcher materieller Strukturen ‚zeigen‘, dann würde es für diese(n) Operator ‚f‘ egal sein, ob das ‚Medium‘ chemische Moleküle sind oder atombasierte Strukturen. Nicht das Medium repräsentiert den Geist, sondern der Geist wird anlässlich verfügbarer Strukturen ’sichtbar‘. Die Annahme wäre also etwa die, dass ‚Geist‘ subset E und ‚f‘ in ‚Geist‘ als dem vorab gegebenem ‚Medium‘ gründet; innerhalb von diesem Geist können Veränderungsoperatoren angewendet werden.

17) Der ‚Geist‘ wäre in diesem Sinne das (für uns) vorweg schon immer Gegebene, das quasi ‚Untötbare‘, und nur in dem Maße, wie es hinreichend geeignete Strukturen (welcher Art auch immer) gibt, kann sich dieser Geist durch seine ‚Wirkungen‘ (= Manifestationen, Ereignisse, Wirkungen, Phänomene) zeigen (für uns, die wir aktuell eine spezifische Struktur haben und mit dieser spezifischen Struktur nur ganz bestimmte Dinge erkennen können!!!).

18) Damit wäre jede bekannte Lebensform eine Form von ‚Geistesmanifestation‘, nur unterschiedlich differenziert. Niemand hätte einem anderen irgendetwas voraus.

19) Bizarre Ethiken, die aus dem darwinischen Evolutionsbegriff irgendwelche ‚Vorteile‘ herauszurechnen versuchten, würden sich – falls diese neue Arbeitshypothese stimmen würde – als sehr kurzsichtig erweisen. In der Evolution geht es nicht um das ‚Recht des Stärkeren‘, sondern um den Aufbau solcher komplexer Strukturen, die immer mehr von dem ‚Geist‘ sichtbar machen, der schon immer da ist und von dem jede partielle individuelle Struktur immer nur ein kleines Zipfelchen sichtbar machen kann. Klar ist in diesem Szenario auch, dass der einzelne als solcher keine grundlegende Bedeutung besitzt, höchstens in dem Sinne, dass er dazu beiträgt, das gemeinsame Ganze voran zu bringen. Der Kult um persönlichen Besitz, persönliche Macht, individuelle Schönheit und ‚Ruhm‘ hat hier keinen Platz. Er wirkt seltsam bizarr, fremdartig, lächerlich. Die Zukunft wird den symbiotischen Gemeinschaften gehören, wo die Fähigkeiten von jedem maximal entwickelt und in ein gemeinsames Ziel eingebunden werden können. Insofern bleibt Individualität wichtig, aber nur als Teil eines gemeinsamen Ganzen.

Siehe auch die neue Emerging Mind Webseite!

Einen Überblick über alle bisherigen Beiträge nach Titeln findet sich HIER.

EMERGENTE PHÄNOMENE, BEOBACHTER, GEIST

  1. In dem anregenden Buch von Kaufmann ‚Reinventing the Sacred‘ (dessen Besprechung in diesem Blog noch immer nicht beendet ist….) wird sehr oft und in vielfältiger Weise über solche Phänomene der beobachtbaren Welt gesprochen, die ‚da‘ sind, die ‚auftreten‘, die aber in ihrer erfahrbaren Form nicht aus den bekannten Eigenschaften ihrer ‚Bestandteile‘ erklärbar sind. Für solche Phänomene hat sich der Begriff ‚emergente‘ Phänomene eingebürgert.
  2. Insgesamt gesehen ist das Reden über emergente Phänomene nichts Neues. Möglicherweise kann man sogar das Reden über das Phänomen ‚Geist‘ hier subsumieren (sieht man mal von der generellen Problematik ab, dass die Wortmarke ‚Geist‘ allein schon im europäischen Kulturkreis mindestens seit den Griechen und Semiten (nous, pneuma, psyche, ruach, ruh,…) in so vielfältiger Weise auftritt, dass eine klare Bedeutungszuordnung ausgeschlossen erscheint): der Mensch kann an sich und am ‚anderen‘ Menschen so viele Phänomene des ‚Ausdrucks‘, der ‚Mitteilung‘, des ‚absichtsvollen Handelns‘ usw. erfahren, die allesamt nicht ‚erklärbar‘ sind, versucht man sie auf die beteiligten Bestandteile wie körperliche Organe, Muskeln, Knochen, Gehirnzellen usw. zurück zu führen. Jeglicher Reduktionismus in der Art einer solchen ‚Rückführung‘ ist im Ansatz schon so lächerlich, dass es verwundern kann, warum dann — im Umkehrschluss — heute nicht viel mehr selbstreflektierende Wissenschaftler die erkenntnismäßige Provokation solcher ‚emergenter‘ Phänomene konstatieren.
  3. In meinen letzten drei öffentlichen Vorträgen (YPO Nov.12, Salon Slalom Nov.12, Interdisz.Arbeitsgruppe der Universität Unicamp (Campinas, Brasilien) Febr.13) habe ich auf diese Problematik am Beispiel des Selbstreproduktionsmechanismusses der biologischen Zellen hingewiesen. Vereinfachend: ein Molekül (Ribosom) bekommt als Input andere Moleküle (mRNA, tRNA), die von einem weiteren Molekül (DNA) ‚gesteuert‘ werden, und dieser Input wird vom Ribosom-Molekül ‚abgebildet‘ auf eine Menge anderer Moleküle (Proteine). Dieser hochkomplexe Abbildungsprozess lässt sich nicht durch Rekurs auf die beteiligten Moleküle und deren physikalische Eigenschaften erklären (was schon viele andere festgestellt haben).
  4. Ich versuche das Problem immer so zu erklären: nahezu jeder benutzt heute Computer (mindestens in der Form eines Smartphones). Jeder weiß, dass die möglichen ‚Verhaltensweisen‘ seines Computers von der ‚Software‘ abhängt, die die Hardware steuert (und natürlich auch von der Hardware selbst insoweit diese festlegt, was durch eine Software alles gesteuert werden kann). Mit einer geeigneten ‚App‘ (= Stück Software) kann ich ein Android Smartphone in einen ‚Kompass‘ verwandeln, kann eine Klanganalyse machen lassen, um Instrumente zu stimmen, kann eine ‚Wasserwaage‘ simulieren, ein Musikinstrument, usw. Würde man jetzt jemanden die Aufgabe stellen, zu analysieren, warum ein Computer solche bestimmten (‚emergenten‘!) Verhaltensweise zeigt und dieser ‚Beobachter‘ dürfte nur die erzeugende Hardware anhand ihrer physikalischen Eigenschaften untersuchen, er wäre nicht in der Lage, die verursachenden komplexen Funktionen zu entdecken. Denn das, was wir die ‚Software‘ nennen, ist für uns zwar als ein ‚Text‘ vorstellbar, aber die Software, die im Computer wirksam ist, existiert im Computer nur in Form von tausenden, Millionen, Milliarden usw. von Ladungszuständen, die über die Chips verteilt sind. Ohne Kenntnis der logischen Architektur dieser Hardware ist eine Rekonstruktion dieser komplexen Funktionen ‚in der Hardware‘ nur aufgrund der physikalischen Eigenschaften grundsätzlich unmöglich (Laut Turing ist diese Kenntnis sogar unmöglich, wenn man alle logischen Informationen über die Struktur hätte; Halteproblem). Das lernt jeder Informatikstudent in den ersten Semestern. Dennoch glauben wir, dass wir im Falle komplexer (= ‚emergenter‘?) Phänome in der materiellen Struktur der uns umgebenden Welt alle ‚wichtigen‘ Eigenschaften erkennen könnten nur durch Beschränkung auf die physikalischen Eigenschaften der beteiligten ‚materiellen Komponenten‘.
  5. Eine philosophische Konsequenz aus diesem Sachverhalt ist, dass wir unsere Rolle als ‚Beobachter der Natur‘ kritisch überdenken müssen (Heisenberg war einer von vielen, die dies schon zu seinen Zeiten angesichts der neuen Erkenntnisse der Physik laut gedacht hatte). Im Analogieschluss von der Unmöglichkeit des Erkennens einer komplexen Funktion, die sich zu ihrer Ausführung tausender, Milliarden usw. materieller Einzelzustände ‚bedient‘ müssten wir bereit sein, die Arbeitshypothese zu bilden, dass das Erkennen von sogenannten ‚emergenten‘ Phänomenen unter Umständen von uns genau dies verlangt: die Annahme von komplexen Funktionen, die ‚hinter‘ den vielen materiellen ‚Einzelteilen‘ ‚operieren‘. Dies wirft natürlich die frage nach dem ‚Medium‘ auf, in dem sie operieren. Im Falle der Computerhardware wissen wir, dass es Eigenschaften der Hardware selbst sind, die die ‚Umsetzung, Realisierung‘ der ‚inhärenten‘ komplexen Funktionen erlaubt. Warum also nicht als Arbeitshypothese annehmen, dass die uns — allzuwenig — bekannte Materie möglicherweise inhärente Eigenschaften besitzt, die erst im Zusammenwirken vieler Komponenten ’sichtbar‘ werden.
  6. Natürlich wirkt solch eine Annahme auf so manche im ersten Moment ‚erschreckend‘, da damit die von sehr vielen (den meisten?) als ziemlich ‚tod‘ erklärte Materie mit einem Mal zum Ort ungeahnter komplexer Eigenschaften wird, von denen die komplexen biologischen Phänomene möglicherweise nur eine kleine Kostprobe sind. Das Faszinosum ‚Geist‘ wäre dann möglicherweise auch nichts Besonderes mehr, wäre es doch nur das ‚Aufscheinen‘ der inhärenten funktionalen Eigenschaften der Materie.
  7. Sollten diese Spekulationen zutreffen, dann würde die Physik nahtlos in die Philosophie (und möglicherweise sogar Theologie) übergehen, und umgekehrt. Die schon immer äußerst bizarre Aufsplitterung der einen Welt in eine Vielzahl von miteinander unvermittelten Kategorien wäre dann als ein reiner Artefakt unseres unbeholfenen Denkens diagnostiziert.
  8. Bleibt die eher psychologische (oder gar ’spirituelle‘) Frage, warum wir Menschen so dauerhaft krampfhaft an unsinnigen Konzepten festzuhalten versuchen, wenn die Phänomene selbst unser Denken doch so ‚alt‘ aussehen lassen…-:)?

Eine fortsetzung zu diesem Beitrag findet sich HIER

Eine Übersicht über alle bisherigen Blogeinträge nach Themen findet sich HIER