EINE BUCHMESSE FÜR PROGRAMMIERER?

eJournal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 15.Okt. 2017
https://www.cognitiveagent.org
cagent
cagent@cognitiveagent.org

PDF

THEMA

Im Fieberzustand der Frankfurter Buchmesse geht leicht verloren, worum es wirklich geht: Mit Worten die Welt zu verändern. Zwischen Mythos, Wunsch und Wirklichkeit.

ES IST BUCHMESSE

Wenn die Frankfurter Zeitungen mit dicken Zusatzbeilagen erscheinen, Hotels und Restaurants tagelang ausgebucht sind, in den Messehallen Lärm und Getriebe die Grenze zum Unerträglichen erreichen, dann findet Buchmesse statt, in Frankfurt. Die, die Geld verdienen wollen, die, die Öffentlichkeit suchen, die, …. ein kleiner Kosmos versammelt sich in den Hallen und Umgebung. Erregung liegt in der Luft, in den Gesichtern….

VERUSACHER: WORTE

Der Anlass für all dies sind Worte, schwarze Zeichen auf weißem Papier, auf Bildschirmen, als Smartphone-Textereignisse… Menschen, die so etwas wahrnehmen, lesen, aufnehmen, sich angeregt fühlen, nachdenken, Gefühle entwickeln, Erinnern, Fantasieren, betroffen sind, die dafür Geld ausgeben, um es sehen zu können.

Worte, aneinandergereiht, zusammengefügt, aus hunderten verschiedener Sprachen dieser Welt, manche kaum noch verstehbar, von gestern, von vor-vorgestern, von …

MENSCHEN MACHEN DAS

In die Welt gebracht von Menschen, die sich hingesetzt haben, stunden-, tage-, wochen-, monatelang, und länger, um irgend etwas aus ihrem Inneren nach Außen zu schaffen, auszudrücken, zu artikulieren, zu äußern, lesbar zu denken, zu manifestieren, zu bekennen, zu dokumentieren… oder vielleicht einfach, um mit Worten so zu spielen, dass sie Menschen mit ihren Ängsten, Sehnsüchten, Fantasien, ihrem Unterhaltungsbedürfnis in den Bann ziehen wollen, zu jedem Preis, zum Preis von Wahrheit?, für persönlichen Ruhm und Ehre … und Geld?

ROBOTER-AUTOREN

Heute muss man allerdings aufpassen. In Zeiten der Digitalisierung gibt es schon Computerprogramme, die Worte aufsammeln, Sprachfetzen, diese unter bestimmten Kriterien neu zusammensetzen und als Meldungen, kurze Artikel in die Welt setzen. Eine neue Art von Mimikry, die kaum als solche zu erkennen ist, nicht auf den ersten Blick. Und dies greift um sich. Viele der Texte, die Menschen in die Sprache bringen sind so, dass sie sich von Maschinen imitieren lassen, ohne dass es auffällt. Es entsteht eine Grauzone, eine Übergangsphase, ein Mensch-Maschine Waberland. Wer sind wir, wenn uns Maschinen imitieren können?

DIE WAHRE GELDBRINGER

Aus der Sicht der Wirtschaft sind es auch nicht unbedingt die Romane, die Lyrik, die Poesie, die das große Geld bringen. Es sind die schnellen und die praktischen Bücher: Bücher mit schönen Fotos, Kochbücher, Reiseberichte, Adressbücher, praktische Anleitungen, …. Dinge zum schnellen schenken oder die man braucht. Dann die vielen Unterhaltungsbücher einschließlich Krimis; das Bedienen von Emotionen, Spannungen, Ablenkungen… Sachbücher, Schulbücher, Lehrbücher, technische Standards …. irgendwo dann die, die sich Schriftsteller nennen, Dichter…. sie stehen für das Große, das Unaussprechliche, das Mystische, das Erhabene, für … für Sprache, Sprachkunst? Wer definiert dies eigentlich? Die Sprache gehört ja bekanntlich niemandem, sie schwebt über allem, sie ist in allem, findet in jedem und überall gleichzeitig statt…

SCHMUDDELKINDER

Die Schreibenden, sie alle benutzen Worte, Wortreihen, Wortmuster, Wortgebilde, mit so unterschiedlichen Interessen, so unterschiedlichen Situationen, so unterschiedlichen Themen…

Und dann gibt es die sprachlichen Schmuddelkinder, die Grenzgänger, die nicht so ins erhabenen Schema passen, die auch reden, die auch schreiben, die Sprache mit Bildern verknüpfen, die die Bedeutung durch Bilder voranstellen, und die Worte nur noch wie Anhängsel benutzen, minimalistische Kommentare eines Geschehens, das sich vor den Augen bildhaft abspielt. Das Grauen aller Sprachkünstler, der Abscheu aller Wortgewaltigen, der Schrecken der Wortmeister und Sprachmagier…

WELCHE MASS-STÄBE?

Aber, was reden wir hier über Literatur, wenn wir über Wortkunst reden?

Wonach bemessen wir die Bedeutung von aneinander gefügten Worten in einer Gesellschaft?

Sprechen wir nicht über die Digitalisierung der Gesellschaft, die alles überrollt, durchdringt, bis in die kleinsten und tiefsten Poren unseres Alltags eindringt, eingedrungen ist? Ist es denn nicht wahr, dass die digitalen Technologien uns nahezu vollständig umrundet und umzingelt haben? Benutzen nicht auch die klassischen Verlage mittlerweile alle Computer, Datenbanken, Netzwerke, Drucken-On-Demand, ebooks, eReader …. ?

Sind es nicht die Software-Firmen dieser Welt, die zu den wirtschaftlichen Giganten zählen, zu den internationalen Geldmonstern? Deren Datenpaläste alles in sich versammelt haben, was irgendwie gesagt wurde, gesagt wird, gesagt werden kann?

Und womit haben sie dies alles ermöglicht?

WORT-MASCHINEN

Irreführender Weise sprechen wir hier von ‚Software‘, von ‚Programmen‘, von ‚Sourcecode‘, von ‚Algorithmen‘, die auf den Computern Arbeit verrichten und all dies möglich machen. ‚Programme‘ sagen wir beiläufig, alltäglich verniedlichend, sehr abstrakt, dabei kaschieren wir einen Umstand, der wesentlich ist, der uns — je nach Gemütslage — begeistern oder schwer beunruhigen kann.

Diese sogenannten Computerprogramme sind letztlich auch Texte, Aneinanderreihungen von Wortmustern, nach bestimmten grammatischen und semantischen Regeln.

Wenn ich einen Kriminalroman lese, dann erzeugen die aneinandergereihten Worte Bilder von Menschen in bestimmten Situationen, die Verhalten zeigen, Gefühle haben, die ein Geschehen am Laufen halten.

Ein Programm-Text tut nichts anderes. Er lässt Bilder von Welten entstehen, mit Objekten, Eigenschaften, Akteuren. Diese haben Wünsche, Pläne, Erinnerungen, handeln konkret, verändern die Welt, die Objekte in der Welt, sich selbst. Die Worte eines Programmtextes beschreiben Wort-Maschinen, Wort-Welten, ganze Universen, die passieren können, die sich ereignen können, die sich mit uns lebenden realen Menschen zusammen ereignen können, die mit uns reden, die Geräusche, Sounds erzeugen können, Lieder, bewegte Bilder, super-realistisch, die Menschen als Sexroboterinnen in deren männlichen Einsamkeiten beglücken, als Pflege-Haustier-Roboter einsamen, älteren Menschen einen Hauch von sozialer Realität verschaffen, die als Operationsroboter und genetische Superrechner unseren Krankheiten zu Leibe rücken, die ….

WORTMEISTER ALS DUNKELMÄNNER

Während wir die klassischen Wortmeister feiern (für was?) führen die modernen Wortmeister der Wort-Maschinen ein Schattendasein. Diese sind es, die unsere Flugzeuge fliegen lassen, die unsere Städte am Leben erhalten, die eine Tourismusbranche möglich machen, die …

Wer kennt diese? Auf welcher Buchmesse werden sie gefeiert? Wer versteht überhaupt ihre Sprache? An den Schulen unseres Landes wird dies weitgehend nicht unterrichtet. An den Universitäten sind es höchsten die Informatiker, die sich damit beschäftigen, aber auch diese tun es nur sehr begrenzt, eher altmodisch, technisch verkürzt. Dabei sind sie die Wortmeister der Zukunft, die Wortmeister der digitalen Kultur, die Wortmeister unseres Alltags … es sagt ihnen aber niemand, sie bekommen keine Kulturpreise … von welcher Kultur eigentlich? Sind die Feuilletons der Zeitungen, die Spielstätten der Theater und Opern nicht letztlich Reflexe einer Minderheit, die sich von der Welt partiell verabschieden und sich einer Ereigniszone hingeben, die nurmehr noch entrückt und vergessen macht, aber vor der stattfindenden digitalen Kultur kapituliert hat, schon von Anfang an?

NEUE SPRACHEN FÜR NEUES DENKEN?

Das Bild zeigt die ersten Zeilen eines sehr einfachen Programm-Textes, tatsächlich eine erste Schreibübung, in der eine Ereigniswelt beschrieben (und damit erschaffen!) wird, die real stattfinden kann, die real eine Welt entstehen lassen kann mit Akteuren, Bedürfnissen, Nahrungsangeboten, Geboren werden und Sterben … die mit realen Menschen interagieren kann, die sich darin wiederfinden können …Die Sprache dieses Programms heißt nicht Englisch, Deutsch, oder Französisch, sondern ‚python‘, eine Kunstsprache, speziell geschaffen um Wort-Maschinen bauen zu können, ablaufbare Wort-Universen, die neuen Bücher, Filme, und Theaterstücke zugleich.

PTextfragment aus einer Wortmachine für künstliche Welten mit Akteuren

Textfragment aus einer Wortmachine für künstliche Welten mit Akteuren

Man muss sich fragen, wie weit die sogenannte ‚Wahrheit‘ der alten, sprich ‚vor-digitalen‘, Kunst letztlich nur in ihrer Selbstbezüglichkeit findet, in ihrer hermetischen Abwiegelung von real stattfindender Welt, eingesperrt in ihren klassischen Sprachkäfigen, in denen nur bestimmte Werte gelten, nur bestimmte Menschen- und Handlungsmuster vorkommen, nicht die unfassbaren Potentiale des Lebens, nicht das universale Lebensgeschehen, sondern das, was sich in alten Sprachgespinsten sagen lässt, idealistisch-romantisch, hart am Abgrund menschlicher Tragödien, die endlichen Selbstbezüglichkeit, die vielen Fixierungen auf den menschlichen Körper, Klassengesellschaften der Vorzeit, ohne mögliche kosmischen ….

HOMO SAPIENS ALLEIN ZU HAUS

Das alles sind wir, der homo sapiens, der seit ca. 200.000 bis 300.000 tausend Jahren seine Weg sucht auf diesem Planeten… nicht zufällig da, sondern Gewordener von Milliarden Jahren stattfindenden Prozessen von einer Komplexität, die unser Denken bis heute überfordert…

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

PHILOSOPHIEWERKSTATT – WAHRE AUSSAGEN – Memo vom 8.Okt.2017

PDF

 

ÜBERSICHT

Kurzer Bericht zur Philosophiewerkstatt vom 8.Okt.2017 im INM (Frankfurt). Die Einladung zur Sitzung findet sich HIER

ARBEITSWEISE DER PHILOSOPHIEWERKSTATT

Die Philosophiewerkstatt folgt nicht dem klassischen Schema, dass einer viel erzählt und andere zuhören, sondern stellt eine Aufgabenstellung an den Anfang und alle Teilnehmer sind eingeladen, zusammen die Aufgabenstellung durch ihre Beiträge zu erhellen. Da die Teilnehmergruppe in der Regel sehr bunt gemischt ist, führt dies zu sehr vielen interessanten Aspekten, die ein Thema vielseitig zum Leuchten bringen können. Ferner zeigt jede Sitzung immer wieder, wie wenig wir im Alltag gewohnt sind, zusammen mit anderen (jeder ist gleichberechtigt!) eine gemeinsame Sicht zu erarbeiten. Je profilierter die Teilnehmer sind, um so herausfordernder wird die Erarbeitung einer gemeinsamen Sicht. Das gemeinsame Ringen um ein Verständnis wird aber belohnt durch die Bereicherung des eigenen Standpunktes durch Sichten, die einem vorher unbekannt waren. Niemand geht nach Hause, ohne nicht viel dazu gelernt zu haben (das gilt auch für den Moderator der Sitzungen!).

AUFGABENSTELLUNG AM 8.OKT.2017

Die Anregung zu diesem Thema kam dieses Mal aus dem Blog selbst, und zwar von dem Teil 1 des Essays ‚Die Wiederentdeckung …‘. Der Teil 1 beschäftigt sich mit der Frage der Wahrheit. Da das Thema ‚Wahrheit‘ sowohl in der Philosophie wie auch in der gesamten Kulturgeschichte seit mehr als 2000 Jahren sehr prominent ist, gibt es dazu eine große Menge an Anschauungen und Texten. Um sich hier nicht schon gleich zu Beginn zu verzetteln bestand die Aufgabe darin, im eigenen Erfahrungsbereich nach solchen Situationen Ausschau zu halten, in denen jemand eine sprachliche Äußerung macht, und alle Beteiligten diese sprachliche Äußerung ’normalerweise‘ als ‚wahr‘ zu klassifizieren. Nachdem einige Beispiele gefunden wurden, sollten diese gemeinsam weiter untersucht werden (Warum klassifiziert man diese als ‚wahr‘? Was sind die Bedingungen dafür? usw.).

Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM

Bild Nr.1: Gedankenskizze von der Philosophiewerkstatt am 8.Okt.2017 im INM

ZITATE

Überraschenderweise fiel es allen schwer, überhaupt solche Beispiele vorzustellen. Als erstes poppten allerlei Zitate auf, die dem einen oder der anderen in den Sinn kamen (siehe das Schaubild Nr.1).

Erst die beharrlichen Erinnerungen des Moderators an die Aufgabenstellung förderte dann langsam, häppchenweise, Beispiele zutage. Dieser Prozess zog sich fast über die gesamte Sitzung hin.

BEISPIELE

Folgende Beispiele erblickten das Licht der Welt (Reihenfolge nicht unbedingt chronologisch):

  • Äußerungssituation Arzt mit Patient; Äußerung Arzt sagt „Dieses Medikament ist wirksam (für Problem X), weil es in einer randomisierten Doppelblind-Studie signifikant war.“
  • Äußerungssituation FreundeInnen untereinander; einer hat ein Problem X; eine spricht zum anderen Äußerung „Du must Wadenwickeln nehmen.“
  • Äußerungssituation Küche mit Herdplatte; jemand berührt  eine heiße Platte, ruft: Äußerung „Oh Scheiße, das Ding ist heiß“ (und zieht blitzartig seine Hand zurück)
  • Äußerungssituation Biblischer Text, fiktive Situation, Pilatus und Jesus von Nazareth. Pilatus fragt „Bist du der König der Juden“, und Jesus antwortet: Äußerung „Du sagst es“.
  • Äußerungssituation Jemand verkauft einen sächsischen Thaler heute als echt an einen Sammler und sagt: Äußerung „Dies ist ein echter sächsischer Thaler (aus dem Jahr X)“.
  • Äußerungssituation Jemand gibt als Pfand für eine Geldschuld heute ein Bild an eine Bank und sagt: Äußerung „Dies ist ein echter XYZ“.
  • Äußerungssituation Im Gespräch zwischen Freunden sagt jemand: Äußerung „Die Erde ist rund“.
  • Äußerungssituation Das Lehramt der katholischen Kirche hat in der Vergangenheit verkündet: Äußerung Maria, die Mutter Jesu, war bei ihrer Empfängnis Jungfrau.

KONZEPTUALISIERUNG ÄUSSERUNG

Die Frage, wann man denn eine einzelne Äußerung als ‚wahr‘ klassifizieren würde, wurde erst nach und nach schrittweise beantwortet. Diese Erklärung führte mehrere Begriffe, Konzepte zueinander, die einen Zusammenhang aufleuchten ließen. Diesen Vorgang kann man ‚Konzeptualisierung‘ nennen oder ‚Modellbildung‘ oder ‚Theoriebildung‘.

Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungsstuation mit Wahrheitsanspruch

Bild Nr.2: Ansatz zur Konzeptualisierung (Theoriebildung) einer Äußerungssituation mit Wahrheitsanspruch

Am Beispiel mit der heißen Herdplatte sei die Konzeptualisierung zum Begriff der ‚wahren einzelnen Äußerung‘ erläutert (siehe Schaubild Nr.2):

Vorausgesetzt wird, dass es mindestens zwei Sprecher-Hörer einer Sprache L gibt, die eine reale Situation S teilen.

Im konkreten Fall sind die beiden Sprecher-Hörer in einem Raum mit einer Herdplatte.

Der eine — nennen wir ihn A — berührt die Herdplatte und zieht blitzartig die Hand wieder zurück und äußert dabei „Oh Scheiße, das Ding ist heiß“.

Der andere — nennen wir ihn B — sieht die Bewegung und hört die Äußerung.

Nehmen wir an, dass B in seiner visuellen Wahrnehmung gesehen hat, wie A die Herdplatte berührt und die Hand schnell wieder zurückzieht (Perception_B.vis(visuelle-Reize) = ‚Handbewegung-A‘), und in seiner akustischen Wahrnehmung hat er die Äußerung gehört (Perception_B.akust(akustische-Reize) = ‚Oh Scheiße, das Ding ist heiß‘).

Es wird ferner angenommen, dass eine Person, die eine Sprache L ‚gelernt‘ hat, mit einer sprachlichen Äußerung in dieser Sprache L (z.B. mit Deutsch, nicht aber mit Chinesisch) bestimmte ‚Bedeutungen‘ verbindet, die sich im Gehirn als spezifische Erregungsmuster nachweisen lassen. Also, wenn jemand eine Äußerung e hört, dann ist die akustische Wahrnehmung Perception_X.akust(e) = ‚Oh Scheiße, das Ding ist heiß‘) verknüpft mit internen, subjektiven Bedeutungsstrukturen (Meaning(‚Oh Scheiße, das Ding ist heiß‘) = InternVon(‚Oh Scheiße, das Ding ist heiß‘)), die beim Hören ‚aktiviert‘ werden.

Insofern diese internen Bedeutungen in realen Situationen gelernt wurden, gibt es eine Korrespondenz/ Ähnlichkeit zwischen diesen internen Bedeutungsstrukturen und bestimmten Formen der aktuellen Wahrnehmung. Also SIMILARITY(P_X.akust(e), Meaning(P_X.akust))).

Unter Voraussetzung solch einer Ähnlichkeit, die in der Wahrnehmung von B verfügbar ist, kann B feststellen, dass für ihn die Äußerung von A ‚Oh Scheiße, das Ding ist heiß‘ in dieser Situation für ihn B ‚wahr‘ ist. Die Aussage von A ‚Oh Scheiße, das Ding ist heiß‘ (die B wahrgenommen hat) und die bei B eine bestimmte Bedeutung InternVon(‚Oh Scheiße, das Ding ist heiß‘) assoziiert hat, korreliert bei B mit der visuellen Wahrnehmung der Situation in hinreichender Weise.

Schon an diesem einfachen Beispiel kann man sehen, wie viele Voraussetzungen erfüllt sein müssen, damit man von einer ‚wahren Äußerung im Alltag‘ sprechen kann.

KONZEPTUALISIERUNG KOMPLEXE ÄUSSERUNGSMENGEN (THEORIEN)

Im Alltag haben wir es oft mit komplexen Sachverhalten zu tun. Genannt wurden Börsengeschäfte, medizinische Prognosen, physikalische Theorien, wirtschaftliche Vorgänge, biologische Phänomene am Beispiel von Insektenstaaten, und Wetterprognosen.

In all diesen Fällen geht es um einzelne Äußerungen (z.B. „In zwei Tagen wird es am Ort X mit einer Wahrscheinlichkeit von 80 % regnen“, oder „Der Kurs der Aktie X wird in den nächsten Monaten um Y% steigen“, oder „Diese Ameise reagiert in dieser Situation so, weil Y“, usw.), die einen unterstellten ‚kausalen Zusammenhang‘ voraussetzen

Kausale Zusammenhänge treten als explizite ‚Modelle‘ und ‚Theorien‘ auf (siehe Bild Nr.3).

Aussagenmengen als Theorien

Bild Nr.3: Aussagenmenge als Theorie (stark vereinfacht)

So können Wettervoraussagen gemacht werden, weil es eine Computersimulation gibt, die auf einem mathematischen Modell beruht, in dem aktuelle Messwerte zum Zeitpunkt t und zu vielen Zeitpunkten ‚vor t‘ (historische Daten) so verrechnet werden können, dass eine ‚Voraussage’/ ‚Prognose‘ für einen späteren Zeitpunkt t+c gemacht werden kann.

Modelle in Form von Computerprogrammen repräsentieren Funktionen. Eine Funktion als solche ist weder wahr noch falsch. Wenn aber jemand sagt, dass die Funktion f bei einem bestimmten Eingabewert X, der einem realen Sachverhalt X-real in der realen Welt entspricht, den Ausgabewert Y berechnen wird, und dieser Ausgabewert Y entspricht dem Sachverhalt Y-real in der realen Welt, dann entsteht eine Aussage, die man überprüfen kann. Dann kann die Aussage ‚wahr‘ werden, weil bei Auftreten des Sacherhalts X-real nach Voraussage der Sachverhalt Y-real auftreten wird. Falls nicht, ist die Aussage nicht wahr.

Eine Theorie unterscheidet sich von einem Modell, da eine Theorie eine Menge von Aussagen repräsentiert, die als Aussagen wahr oder falsch werden können. Funktionen können Elemente innerhalb von Aussagen sein. Im Prinzip kann man jedes Modell in eine Theorie umschreiben.

Im Fall des Börsengeschehens kann man die verschiedenen Einzelaussagen über Firmen und Märkte in einen Zusammenhang einordnen, aufgrund dessen dann Beobachtungen (einzelne Aussagen) mit einer Prognose verknüpft werden können (einzelne Aussage). Wenn z.B. eine Firma A im letzten halben Jahr nur Verluste produziert hat (einzelne Aussagen), und kein Faktor bekannt ist, der diesen Verlusten gegensteuern könnte (einzelne Aussagen), dann könnte man mit Bezug auf einen erkannten ‚Zusammenhang‘ (Regel, Axiom, Gesetz) ‚folgern‘, dass diese Firma ein Kandidat für eine Übernahme oder gar für eine  Insolvenz ist.

Im Falle von Modellen und Theorien benötigt man also neben den ganzen Rahmenbedingungen für wahre einzelne Äußerungen zusätzlich ein Konzept, wie man (i) allgemeine Zusammenhänge zwischen Aussagen formulieren kann (‚Axiome‘, ‚Regeln‘ …) und (ii) wie man angenommene Zusammenhänge dazu benutzen kann, bei Vorliegen von einzelnen Aussagen zur Gegenwart auf Aussagen in der Zukunft schließen kann. Dies ist das Gebiet der ‚Logik‘.

NACHWORT

Wenn man sieht, wie heute Begriffe wie ‚künstliche Intelligenz‘ und in diesem Zusammenhang ‚Intelligenz‘ geradezu inflationär gebraucht werden, andererseits aber das Allgemeinwissen zu Theorien und Logik eher gegen Null tendiert, dann kann man sich fragen, wer hier eigentlich noch was versteht.

Statt in bundesweiten Initiativen allen Schülern Computer hinstellen zu wollen (sie haben alle ihre Smartphones), wäre es möglicherweise eine bessere Strategie, ihnen zu erklären was Funktionen, Modelle, Theorien und Logik sind, damit sie verstehen würden, was sie in diese Computer rein stecken müssen, damit diese dann vielleicht irgend etwas Sinnvolles tun. Dabei würden sie (wie furchtbar) vielleicht sogar verstehen lernen, wie sie selber denken (welch Katastrophe, sie könnten ja dann möglicherweise die überhitzten Marketingblasen durchschauen…).

KONTEXTE

Einen Überblick über alle Einträge zur Philosophiewerkstatt nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs finden sich HIER.

„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

Science-Fiction-Visionen von intelligenten oder gar superintelligenten Maschinen haben eine lange Historie. Besonders in der Hype-Phase der so genannten „Künstlichen Intelligenz (KI)“ in den 1960-1980er Jahren waren Behauptungen en vogue, dass Computeranwendungen die Menschheit in Bezug auf ihre Intelligenz bald einholen oder gar überholen werden – mit unabsehbaren Folgen und Bedrohungen für die Menschheit. “Once the computers got control, we might never get it back. We would survive at their sufferance. If we’re lucky, they might decide to keep us as pets”, meinte z.B. Marvin Minsky im Jahr 1970.

Als Zeithorizont für solche technische Superintelligenzen werden gerne ca. 10-30 Jahre angegeben – egal wann so etwas behauptet wurde. Dieser Zeitrahmen ist anscheinend nah genug, um genug Aufmerksamkeit zu erregen und weit genug weg, um für die Gültigkeit der Behauptungen nicht mehr gerade stehen zu müssen.

Ich habe den Eindruck, dass Behauptungen über technische Superintelligenzen aktuell wieder eine Hochzeit erleben. Dabei werden sie nicht nur von Hollywood, sondern auch von Wissenschaftsjournalisten dankbar aufgegriffen und verwertet. Dass sich frühere Prognosen dieser Art als falsch herausgestellt haben, spielt dabei keine Rolle. Gerne wird auf „Experten“ verwiesen, die sich diesbezüglich (alle) längst einig seien und nur im exakten Zeitpunkt noch nicht ganz sicher seien.

Durch die Frage wann es so weit sei, wird die Diskussion um das „ob“ meiner Meinung nach völlig vernachlässigt. Ich bin Informatiker. Ich beschäftige mich seit über 30 Jahren mit KI, entwickle seit mehreren Jahren KI-Anwendungen für den Unternehmenseinsatz und veröffentliche darüber Artikel und Bücher. Demnach halte ich mich für einen KI-Experten. Und nach meiner Meinung sind Behauptungen von technischen Superintelligenzen absurd.

Derzeit arbeite ich in einem KI-Projekt, in dem wir Software für Ärzte entwickeln, die Krebspatienten behandeln. Ein schöner Nebeneffekt der Arbeit an diesem Projekt ist, dass ich mein Schulwissen in Biologie und insbesondere Genetik auffrischen durfte. Während das früher für mich trockener Schulstoff war, kann ich jetzt nachvollziehen, warum die Ursprünge des Lebens Menschen faszinieren. Ich hatte einige Aha-Effekte, was sie Vielschichtigkeit, Vernetzung und Dynamik von Prozessen des natürlichen Lebens betrifft. Ich möchte diese laienhaft kurz mitteilen, um sie anschließend KI-Anwendungen gegenüberzustellen.

Es gibt chemische und physikalische Grundsätze, nach denen sich Atome zu Molekülen bzw. Molekülketten zusammensetzen – quasi mechanisch nach festen, einfachen Regeln. Und diese einfachen Molekülketten verhalten sich wie kleine Maschinen, die spezielle Aufgaben verrichten. Da gibt es Maschinen, die schneiden die DNA in der Mitte auf; dann gibt es welche, die kopieren die DNA-Information auf RNA; es gibt welche, die prüfen, ob es Kopierfehler gegeben hat und korrigieren diese (aber nicht alle Fehler – es soll ja noch Raum für Mutation bleiben); dann gibt es Maschinen, die lesen RNA, interpretieren sie nach dem genetischen Code und bauen daraus neue Molekülketten: Proteine, aus denen Zellen zusammengesetzt werden.

Wenn ich diese physikalisch-biologischen Vorgänge betrachte frage mich: findet hier gerade der Übergang von toter Materie zum Leben statt? Wo genau?

Und nun geht es weiter: Die Proteine bilden Zellen – kleine Maschinen, die ganz unterschiedliche Aufgaben erfüllen. Manche transportieren Sauerstoff; Manche andere stürzen sich auf Schädlinge und bekämpfen diese; Wiederum andere bauen feste Knochen. Und weiter geht es: Zellen zusammen bilden Organe mit klaren Aufgaben. Eines verdaut unser Essen, eines pumpt Blut und ein Organ vollführt erstaunliche Denkleistungen. Und alle Organe zusammen formen einen Menschen. Dieser wird gezeugt, geboren (jeder der eigene Kinder hat, weiß von der Faszination der Geburt), wächst, lernt, handelt intelligent und stirbt wieder. Viele Menschen zusammen bilden Kulturen, die entstehen, Wissen und Fähigkeiten entwickeln, und wieder vergehen. Diese Kulturen werden von einer intelligenten Spezies, genannt Homo sapiens, geformt. Diese einzelne Spezies entstand durch Evolutionsprozesse, denen sie kontinuierlich unterworfen ist. Wie die meisten Spezies wird sie irgendwann vergehen. Alle Spezies zusammen bilden das Leben auf dieser Erde. Und die Erde ist nur ein einziger Planet eines Sonnensystems einer Galaxie des Universums, über dessen mögliche andere intelligente Lebensformen wir nichts wissen.

Alle diese Ebenen, die ich laienhaft angedeutet habe, sind in sich hoch komplexe Systeme, die alle miteinander verwoben sind. Und vermutlich gibt es genauso viele Ebenen im submolekularen Bereich. Niemand kann ernsthaft behaupten, das komplexe Zusammenspiel über all diese miteinander vernetzten Ebenen auch nur annähernd, geschweige denn vollständig zu begreifen. Was wir heute zu wissen glauben, wird morgen als überholt erkannt und wirft viele neue Fragen für übermorgen auf. Im Ernst zu glauben, dass die unfassbare Komplexität des Lebens, sowie der Intelligenz als einer Ausdrucksform des Lebens, durch Computeranwendungen abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik zu sein.

Schauen wir uns doch einmal KI-Anwendungen im Detail an. KI-Anwendungen werden stets zu einem speziellen Zweck entwickelt. So kann z.B. IBMs Deep Blue Schach spielen und Googles AlphaGo kann Go spielen. Beide Systeme übertreffen dabei die menschlichen Welt- und Großmeister. IBM Watson kann Fragen des allgemeinen Lebens beantworten – selbst wenn sie knifflig und mit Wortwitz gestellt sind – und schlägt alle menschlichen Champions der Quizshow Jeopardy! Selbstfahrende Autos erreichen ihre Ziele unter korrekter Berücksichtigung der Verkehrsregeln – vermutlich bereits in naher Zukunft sicherer als menschliche Fahrer.

All dies sind faszinierende Beispiele für mächtige KI-Anwendungen, die ich persönlich vor 20 Jahren nicht für möglich gehalten hätte. Aber sicher ist auch: Deep Blue wird niemals von sich aus anfangen, Go zu spielen, oder Quizfragen zu beantworten. IBM Watson kann nicht Schachspielen und wird es auch nicht lernen, egal in wie viel Quizshows die Anwendung eingesetzt wird. Und das selbstfahrende Auto wird nicht plötzlich auf die Idee kommen, sich für das Präsidentenamt zu bewerben, die Wahl gewinnen, anschließend die Demokratie und schlussendlich die Menschheit abschaffen. Das ist einfach absurd und gehört in den Bereich der Fiktion.

Alle diese KI-Anwendungen wurden von Informatikern und anderen Ingenieuren entwickelt. Intern werden u.A. Techniken des Machine Learning (ML) eingesetzt, meist das sogenannte „Supervised Learning“. Dabei werden Beispieldaten verwendet. So werden z.B. viele unterschiedliche Bilder von Stoppschildern, inklusive der Information, dass es sich jeweils um ein Stoppschild handelt, geladen. Mithilfe statistischer Methoden werden Modelle entwickelt, die es erlauben, bei neuen Bildern mit einer großen Wahrscheinlichkeit korrekt zu erkennen, ob ein Stoppschild abgebildet ist oder nicht. Dies kann dann in selbstfahrenden Autos für Fahrentscheidungen genutzt werden.

Also: die Anwendung lernt nicht von selbst, sondern mittels Eingabe von Beispielen durch Ingenieure („Supervisor“ im Supervised Learning). Wenn die Erkennungsraten nicht gut genug sind, ändern die Ingenieure entsprechende Parameter und starten das Lernverfahren erneut. Mit menschlichem Lernen kann das kaum verglichen werden.

Eine KI-Technik, die etwas mehr Ähnlichkeit zum Lernen eines Menschen hat, ist das sogenannte „Reinforcement Learning“. Dabei wird eine Umgebung eingesetzt, in der die Computeranwendung selbst Beispiele erzeugen und ausprobieren kann. Somit ist es möglich, ein Modell zu erzeugen, ohne dass dafür ein menschlicher Supervisor nötig ist. Zum Beispiel kann man ein Schachprogramm immer wieder gegen sich selbst (bzw. gegen ein anderes Schachprogramm) spielen lassen und die Machine Learning Verfahren auf die Verläufe und Ergebnisse dieser Spiele anwenden. Was jedoch Ingenieure vorgeben müssen, ist eine sogenannte Nutzenfunktion, z.B. „es ist positiv, ein Schachspiel zu gewinnen und es ist negativ, eines zu verlieren“. Würde man aus Spaß das Vorzeichen der Nutzenfunktion vertauschen, so würde die KI-Anwendung trainiert, Schachspiele möglichst schnell zu verlieren. Für die Anwendung wäre das überhaupt kein Problem. Sie spürt ja gar nichts, auch nicht die Auswirkungen eines verlorenen Schachspiels. Den Anreiz, eine Anwendung zu entwickeln, die Schachspiele auch gewinnt, haben die Ingenieure. Sie geben alles Notwendige von außen vor – nicht die KI-Anwendung aus sich heraus.

Im Gegensatz zur KI-Anwendung haben Menschen jedoch einen Körper. Babys verspüren Hunger und lernen von sich aus, sich so zu verhalten, dass sie etwas zu essen bekommen (Schreien hilft meist). Kinder brauchen den Zuspruch und die Zuneigung der Eltern und lernen sich so zu verhalten, dass sie Zuspruch und Zuneigung auch erhalten. Jugendliche und junge Erwachsene lernen, wie sie sich in ihrer Gesellschaft zu verhalten haben, um zu überleben – so unterschiedlich Gesellschaften auch sein können. Sie lernen aus sich heraus, weil sie Körper und Geist haben und wirklich in ihrer Umgebung leben – quasi die Resultate ihres Handelns hautnah spüren. KI-Anwendungen werden im Gegensatz dazu ausschließlich von außen durch Ingenieure gestaltet, auch wenn Techniken des Machine Learning eingesetzt werden.

KI-Anwendungen laufen auf Computer-Hardware. Wie die Anwendungen ist auch die Hardware von Ingenieuren entwickelt worden. Auch wenn wir die Metapher der „Generationen“ verwenden (wir reden z.B. von einer „neuen Prozessorgeneration“), hat dies selbstverständlich nichts mit Fortpflanzung in der Natur zu tun. Ein Prozessor kommt nicht auf die Idee, einen neuen Prozessor zu entwickeln und er zeugt auch keinen Prozessor, der mittels Evolution plötzlich besser ist als sein Vater.

Vergleichen wir nun KI-Anwendungen mit biologischem, intelligentem Leben: Auf der einen Seite beobachten wir ein unfassbar komplexes, vielschichtiges, dynamisches, selbstorganisierendes System – die vielen Schichten bzw. Ebenen habe ich laienhaft oben angedeutet. Auf der anderen Seite haben wir ein menschengemachtes, zweischichtiges System, bestehend aus KI-Anwendung und Computer-Hardware. Beide Schichten sind in sich starr und nicht selbstorganisierend. Die Dynamik (neue Hardwaregenerationen, bessere Algorithmen etc.) kommt von außen durch menschliche Ingenieursleistung. Wie kann man nun nüchtern betrachtet zur Behauptung kommen, dass dieses starre, menschengemachte System irgendwie plötzlich und von selbst dynamisch, selbstorganisierend, lebendig und intelligent wird: eine technische Superintelligenz, welche die Menschheit bedrohen kann? Ich kann beim besten Willen nicht den allerkleinsten Ansatz dafür sehen.

Bleibt die Frage, warum es immer wieder (einzelne) Fachexperten wie Marvin Minsky gibt, die solche, aus meiner Sicht absurden, Behauptungen aufstellen. Ist es ihr Ziel, Aufmerksamkeit zu erzeugen? Können sie eventuell daraus finanziellen Nutzen zu ziehen, z.B. in Form von Fördergeldern (das hat in den 1980er Jahren prima funktioniert)? Glauben sie wirklich daran und sorgen sie sich um die Menschheit? Sind solche ernst gemeinten Behauptungen vielleicht der Ausdruck einer schon fast ideologischen Wissenschafts- und Technikgläubigkeit? Ich weiß es nicht.

Dabei sind die Fortschritte der KI, vor allem in den letzten 20 Jahren, in der Tat höchst beeindruckend. Und tatsächlich bergen sie neben zahlreichen Chancen auch größte Risiken, wenn die Techniken blauäugig angewendet werden. In der Ausgabe 2/2017 der Communications of the ACM schreibt Alan Bundy in seinem Viewpoint sehr pointiert und aus meiner Sicht richtig: „Smart machines are not a threat to humanity. Worrying about machines that are too smart distracts us from the real and present threat from machines that are too dumb“.

Menschen überlassen KI-Anwendungen zunehmend wichtige Entscheidungen, obwohl selbstverständlich keine Anwendung perfekt ist. Bei selbstfahrenden Autos mag das durchaus sinnvoll sein, sobald diese nachweislich sicherer fahren als Menschen. Aber wirklich gefährlich wird es bei Entscheidungen, deren Auswirkungen kein Mensch mehr überblicken kann. Ein viel diskutiertes Gebiet ist der Hochfrequenzhandel, bei dem KI-Anwendungen Kauf- und Verkaufsentscheidungen autonom treffen, ohne dass heute die Auswirkungen auf das gesamte Wirtschaftssystem überblickt werden können. Noch deutlicher wird das im militärischen Bereich, wenn KI-Anwendungen prognostizieren sollen, ob ein Angriffsfall vorliegt und im Extremfall in Sekundenbruchteilen autonom über einen (möglicherweise nuklearen) Gegenschlag entscheiden sollen. Über solche KI-Anwendungen wurde bereits 1983 im Rahmen der Strategic Defense Initiative (SDI) intensiv diskutiert (bezeichnenderweise während der Hochzeit des KI-Hypes); und solche Diskussionen kommen leider immer wieder auf die Tagesordnung.

Wenn eine überhöhte Technik- und Wissenschaftsgläubigkeit nur dazu führt, absurde Behauptungen über technische Superintelligenzen aufzustellen, so ist das nicht weiter schlimm – sie provozieren nur harmlose akademische Diskussionen oder inspirieren amüsante Science Fiction Filme. Wenn wir aber als Gesellschaft – und besonders die politischen und wirtschaftlichen Entscheider – die Grenzen von Wissenschaft und Technik nicht klar sehen und folglich KI-Anwendungen Entscheidungen überlassen, die zwingend von verantwortlichen Menschen getroffen werden müssen, so kann dies fatale Folgen für unsere Gesellschaft haben.

Anmerkung:

Im Anschluss an diesen Artikel gab es eine Vortragsveranstaltung in der Reihe Philosophie Jetzt im Gespräch am 28.September 2017

DIE SELBSTABSCHALTUNG – UND NOCH EIN PAAR BETRACHTUNGEN ZUR PSYCHOLOGIE DES MENSCHEN

  1. Im Laufe seines Lebens trifft man auf sehr viele unterschiedliche Menschen. Über Körperformen, Geruchsprofile, Spracheigenschaften, Hautfarben, Verhaltensbesonderheiten, Art des Lachens oder Weinens, Essgewohnheiten, Musikvorlieben, und vielem mehr, gibt es eine große Bandbreite. Viele neigen dazu, äußerliche Besonderheiten sofort aufzugreifen, sie hoch zu stilisieren als abgrenzende Besonderheiten, als besondere Menschenklasse, als der bzw. die Anderen. Dabei sind es nur die ganz gewöhnlichen Varianten, die im biologischen Programm der Menschwerdung möglich und vorgesehen sind. Der/ die/ das Andere erweckt in vielen Menschen zudem oft spontane Ängste, weil sie instinktiv spüren, dass sie selbst, so, wie sie sind, nichts Absolutes sind, nicht die einzige Wahrheit; das sie selbst angesichts des Anderen sich auch als etwas Besonderes spüren, etwas Veränderliches, möglicherweise etwas Zufälliges, das am Selbstverständnis nagen kann: wer bin ich, wenn ich auch nur etwas Anderes für Andere bin? Wer bin ich, wenn ich auch nur etwas Zufälliges für andere bin, eine Variante?
  2. Es ist offensichtlich, dass Menschen, von Innen getrieben, nach Fixpunkten suchen, nach Wahrheiten, nach Gewissheiten, nach Anerkennung, nach einem positiven Selbstgefühl. Menschen halten es nicht gut aus, sie mögen es nicht, wenn ihr Selbstgefühl leidet. Und selbst in schweren Formen der Erniedrigung (z.B. in der leider viel zu häufigen Realität, wenn Frauen von Männern misshandelt werden), suchen Menschen noch in der Erniedrigung eine Form der Wertschätzung heraus zu lesen: Ja, der andere quält mich, aber noch in dieser Form der Qual nimmt der andere mich doch ernst, nimmt er mich wahr, verbringt er Zeit mit mir, usw. Dieses letzte Flackern des Lebenswillens reicht zwar aus, sich über der Nulllinie zu halten, nicht aber, um das zu verändern, was Leid und Zerstörung mit sich bringt.
  3. Dass Männer so oft Frauen misshandeln, weil Männer sich Frauen gegenüber aus vielfachen Gründen unterlegen fühlen, erscheint aber nur als eine Spielart von vielen anderen: Wenn Mitglieder einer politischen Partei wie besinnungslos auf Mitglieder anderer politischer Parteien mit Worten (und bisweilen auch Fäusten) einschlagen, dabei gebetsmühlenartig ihre Slogans wiederholen ohne dass irgend jemand näher überprüft hat, ob und wie man die Dinge auch anders sehen könnte, dann ist dies letztlich nichts anderes. Die andere Gesinnung als solche wird zum ab- und ausgrenzenden Merkmal, der Andere erscheint als direkte in Fragestellung der eigenen Position. Egal welche Parteien, ich habe noch nie erlebt, dass man mit einem aktiven Mitglied einer Partei (ob in Deutschland, Frankreich, England, den USA oder wo auch immer) bei einer Veranstaltung, wo verschiedene Vertreter präsent sind, einfach normal über mögliche Alternativen reden konnte.
  4. Bei Religionsgemeinschaften – zumindest in ihren fundamentalistischen Teilen – ist dies nicht anders (Juden, Christen, Muslime, Buddhisten, Hindus, …). Sie alle treten auf wie Marionetten eines Einpeitschers, der nicht außen steht, sondern sich in ihr eigenes Gehirn eingenistet hat und von dort aus alles terrorisiert. Das Furchtbare, das Erschreckende daran ist eben dieses: der Einpeitscher sitzt in ihrem eigenen Gehirn und er erlaubt diesen Menschen nicht, dass sie Fragen stellen, Fragen zu sich selbst, Fragen zu ihren eigenen Anschauungen, Fragen über die Welt, Fragen dazu, wie denn das alles gekommen ist, usw. Der Einpeitscher in ihren Gehirnen ist wie ein Computervirus, der dieses Gehirn gekapert hat, es so umprogrammiert hat, dass es gegen jegliche Beeinflussung von außen immunisiert wurde. Manche gehen damit bis in ihren eigenen Tod, wie jene Ameisen, die von einem bestimmten Pilz befallen wurden, der dann mit chemischen Stoffen über das Blut das Gehirn dieser Ameise so steuert, dass sie sich Vögeln zum Fraß anbieten, damit der Pilz in diese Vögel gelangen kann. Nicht anders funktionieren die fremde Einpeitscher-Slogans im eigenen Gehirn: sie schalten diese Menschen quasi ab, machen sie zu willenlosen Werkzeugen ihres Gedankenvirus. Man erkennt diese Menschen daran, dass sie im Gespräch immer nur Slogans wiederholen und nicht mehr selbst denken können.
  5. Wer glaubt, dass dies nur bei dummen Menschen funktioniert, der lebt in einer gefährlichen Täuschung. Der Virus der Selbstabschaltung findet sich auch bei intelligenten Menschen, und zwar nicht weniger häufig als bei sogenannten dummen Menschen (ich benutze die Begriffe ‚dumm‘ und ‚intelligent‘ normalerweise nicht, weil sie sehr oft zur Abgrenzung und Abwertung benutzt werden, aber in diesem Fall tue ich es, um genau diese Instrumentalisierung von Eigenschaften als Waffe gegen Menschen anzusprechen). Da die Welt sehr kompliziert ist und die allerwenigsten Menschen genügen Zeit haben, allen Dingen selbst soweit auf den Grund zu gehen, dass sie sich ernsthaft eine eigene Meinung bilden können, sind viele Menschen – ob sie wollen oder nicht – auf die Meinung anderer angewiesen. Davor sind auch intelligente Menschen nicht befreit. Da auch sogenannte intelligente Menschen die ganze Bandbreite menschlicher Triebe, Bedürfnisse, Emotionen, Gefühle in sich tragen (auch Eitelkeit, Machthunger usw.), angereichert mit ebenso vielen sublimen Ängsten, ist ihre Intelligenz nicht im luftleeren Raum, nicht beziehungslos, sondern steht auch permanent unter dem Andruck all dieser – vielfach unbewussten – Ängste, Triebe und Emotionen. Und, jeder einzelne, wie im Bilderbuch, nutzt seine Intelligenz um all diese unbewältigten Ängste, Triebe und Emotionen maximal zu bedienen. Wer seine Ängste, Triebe und Emotionen nicht in den Griff bekommt (Wer kennt jemanden, der dies vollständig kann?), erfindet wunderbare Geschichten (Psychologen nennen dies Rationalisieren), warum man eher das tut als etwas anderes; warum man nicht kommen konnte, weil; warum man unbedingt dorthin fahren muss, weil; warum dieser Mensch blöd ist, weil; usw. um damit  die wahren Motive unangetastet zu lassen.  Die große Masse der intellektuell verkleideten Geschichten ist in dieser Sicht möglicherweise Schrott, in der Politik, in der Religion, im menschlichen Zwischeneinander, in der Wirtschaft ….
  6. In einem der vielen Gespräche, die man so führt, stand mir einmal jemand gegenüber, der ohne Zweifel hochintelligent war und sehr viel wusste. Leitmotiv seiner vielen Äußerungen war, dass die meisten Menschen dumm sind und innerlich abgeschaltet sind. Daher lohne es sich nicht, sich mit Ihnen zu beschäftigen. Dabei fand er nichts dabei, dass er selbst immer wieder die gleichen Argumentationsfiguren wiederholte und bei Nachfrage, nach seinen Voraussetzungen tatsächlich erregt wurde, weil seine Kronzeugen nicht anzugreifen waren; seine eigenen Kronzeugen waren eben einfach wahr. Wer war hier abgeschaltet? War dies auch eine Strategie, um sich von der Vielfalt des Lebens mit Begründung abschotten zu können? Im Gespräch ging es fast nur um die Unterwerfung unter seine Prämissen; ein neugieriges Hinhören oder spielerisches Umgehen mit Varianten war im Ansatz trotz vielfacher Angebote meinerseits ausgeschlossen. Dieses Verhalten wirkte auf mich wie eine massive Selbstabschaltung vor der Vielfalt und dem Reichtum des Lebens, insbesondere auch als eine massive Selbstabschaltung vor den eigenen Abgründen und Möglichkeiten.
  7. Dieses sehr verbreitete Phänomen der Selbstabschaltung der Menschen von der Welt, von den anderen Menschen, vor sich selbst, ist gepaart mit einerseits einer unkritischen Überhöhung jener Positionen, die man (wie intelligent man auch sein mag) als für sich als wahr übernommen hat, und zugleich einer fast fanatischen Verteuflung von allem anderen. Wie eine Menschheit, die am Virus der Selbstabschaltung leidet, die sich nähernde Zukunft meistern soll, ist schwer zu sehen. Bislang haben die impliziten Kräfte der biologischen Evolution lebensunfähige Strukturen aussortiert. Das hat oft viele Millionen Jahre, wenn nicht hunderte von Millionen Jahren gedauert. Durch die Transformierung der Realität in das symbolische Denken von Gehirnen, erweitert um Kulturtechniken des Wissens, zuletzt durch Computer, Netzwerke und Datenbanken, hat es der homo sapiens geschafft, sich von diesem sehr langsamen Gang der bisherigen Form der Evolution zu befreien. Im Prinzip kann die Menschheit mit ihren Wissenstechniken die Erde, das Weltall, die Evolution denkerisch nachempfinden, nach analysieren, selber mögliche Zukünfte durchspielen und dann versuchen, durch eigenes Verhalten zu beschleunigen. Wenn nun aber dieses Denken eingebettet ist in eine unbewältigte Struktur von Ängsten, Trieben und Emotionen aus der Frühzeit des Lebens, ohne dass genau dafür neue leistungsfähige Kulturtechniken gefunden wurden, dann wirken all diese neuen analytischen Errungenschaften wie ein Panzer, der von einem kleinen Baby gesteuert wird mitten in einer belebten Stadt. Dies wirkt nicht wie ein Erfolgsrezept.
  8. Da das Universum ohne unsere Zutun entstanden ist, unsere Milchstraße, unser Sonnensystem, unsere Erde, das biologische Leben, wir alle, besteht vielleicht ein wenig Hoffnung, das in diesem – für uns nur schwer zu durchschauenden – Chaos Elemente vorhanden sind, implizite Dynamiken, die wir (dank unseres Selbstabschaltungsvirus?) bislang noch nicht entdeckt haben. Leider ist das, was viele offizielle Religionen als Lösungsmuster propagieren, offensichtlich nicht das, was uns hilft. Die meisten institutionalisierten Religionen erscheinen selbst als Teil des Problems.
  9. Man darf gespannt sein. Ich bin es. Höchstwahrscheinlich werde ich in meinem Leben nicht mehr erleben können, ob und wie die Menschheit ihre eigene Selbstabschaltung in den Griff bekommt.

Einen Überblick zu allen Beträgen in diesem Blog von cagent nach Titeln findet sich HIER.

ERKENNTNISSCHICHTEN – PHILOSOPHISCHE LEVEL. Erste Notizen

VORBEMERKUNG

Vor fast genau drei Jahren hatte ich schon einmal einen Blogeintrag geschrieben, in dem das Wort ‚Level‘ im Kontext eines Computerspiels erwähnt wurde (siehe: SCHAFFEN WIR DEN NÄCHSTEN LEVEL? Oder ÜBERWINDEN WIR DEN STATUS DER MONADEN?
). Dort jedoch wurde die Idee des Computerspiels und der Level in einem ganz anderen Zusammenhang diskutiert. Im folgenden Text geht es tatsächlich um den Versuch, konkret verschiedene Ebenen des Denkens (Level) zu unterscheiden. Als ‚Ordnungsprinzip‘ in all dem wird einmal die zeitliche Abfolge benutzt, in der diese Level auftreten können, und eine ‚implizite Architektur‘ unseres Denkens, die sich nur ‚indirekt‘ beschreiben lässt.

DER BEGRIFF ‚LEVEL‘

1. Wer heutzutage Computerspiele spielt, der kennt das: man bewegt sich immer auf einem bestimmten ‚LEVEL‘, d.h. auf einer bestimmten Spielebene. Jede Spielebene hat eigene Regeln, eine eigene spezifische Schwierigkeit. Erst wenn man genügend Aufgaben gelöst hat, wenn man hinreichend viel Punkte erworben hat, dann darf man auf den nächsten Level. Diese Idee der Spielebene, des Level, kann man auch auf den Alltag übertragen.

FUNKTIONIEREN IM ALLTAG

2. Im Alltag stehen wir in beständiger Interaktion mit unserer alltäglichen Umgebung (Level 1). Wir nehmen wahr, wir identifizieren Objekte mit Eigenschaften, Beziehungen zwischen diesen im Raum, zeitliche Abfolgen, und wir selbst verhalten uns nach bestimmten Regeln, die uns der Alltag aufdrängt oder aufgedrängt hat: wir lernen, dass Dinge fallen können; dass es Tag und Nacht gibt; dass Menschen unterschiedlich reagieren können; dass Menschen Rollen haben können, unterschiedliche Verpflichtungen; dass es Regeln gibt, Vorschriften, Gesetze, Erwartungen anderer, Gewohnheiten, Sitten, Gebräuche. Wir lernen mit der Zeit, dass Unterschiede gemacht werden bezüglich Herkunft, Sprache, wirtschaftlicher Stellung, Glaubens- oder Weltanschauungsansicht, usw.

3. Wenn alles ‚gut‘ läuft, dann FUNKTIONIEREN wir; wir tun, was erwartet wird, wir tun, was die Spielregeln sagen; wir tun, was wir gewohnt sind; wir bekommen unsere Leistungspunkte, unsere Anerkennungen …. oder auch nicht.

4. Wenn man uns fragt, wer wir sind, dann zählen wir für gewöhnlich auf, was wir so tun, welche Rollen wir spielen, welche Berufsbezeichnungen wir tragen.

DURCH NACHDENKEN ZUM PHILOSOPHIEREN

5. Sobald man nicht mehr nur FUNKTIONIERT, sondern anfängt, über sein Funktionieren NACHZUDENKEN, in dem Moment beginnt man, zu PHILOSOPHIEREN. Man beginnt dann mit einer BEWUSSTWERDUNG: man tut etwas und zugleich wird einem bewusst, DASS man es tut. Damit beginnt Level 2.

6. Beginn man mit einer solchen bewussten Wahrnehmung des DASS, des Unterscheidbaren, des sich Ereignenden, dann wird man nicht umhin kommen, zu unterscheiden zwischen jenen Phänomenen, Ereignissen, Objekten, die ‚zwischen‘ verschiedenen Menschen – also ‚intersubjektiv‘, ‚empirisch‘, ‚objektiv‘ – verfügbar sind und jenen, die ‚rein subjektive‘ Tatbestände darstellen. Über den ‚Apfel dort auf dem Tisch‘ kann man sich mit anderen verständigen, über die eigenen Zahnschmerzen, die eigenen Gefühle, die eigenen Erinnerungen usw. nicht so ohne weiteres. Jeder kann bis zu einem gewissen Grad ‚IN SEIN BEWUSSTSEINS HINEINSCHAUEN‘ – ’subjektiv‘, ‚introspektiv‘,’phänomenologisch‘– und solche Phänomene wahrnehmen, die NICHT INTERSUBJEKTIV sind, sondern REIN SUBJEKTIV. Diese OJEKTE DER INNENWELT sind für das eigene Erleben genauso real wie die Objekte der Außenwelt, aber sie sind nicht zugleich auch von anderen Menschen wahrnehmbar. Diese bewusste Unterscheidung zwischen AUSSEN und INNEN innerhalb des Level 2 soll hier als Level 3 bezeichnet werden. Die Menge der Inhalte, die innerhalb von Level 2 und 3 bewusst wahrgenommen werden, sollen hier einfach PHÄNOMENE genannt werden mit der anfangshaften Unterscheidung von intersubjektiven Phänomenen auch als EMPIRISCHE PHÄNOMENE und rein subjektive Phänomene als NICHTEMPIRISCHE PHÄNOMENE

WELT NEU ERZÄHLEN

7. Mit dem Bewusstwerden von Level 2 und Level 3 kann eine neue Form von BESCHREIBUNG beginnen, die hier LEVEL 4 heißen soll. Dieser Level 4 stellt eine Art META-LEVEL dar; man spricht auf einem Meta-Level über einen anderen Level. Dies ist vergleichbar einem Linguisten, der die Eigenschaften einer Sprache (z.B. des Deutschen) in seiner Fachsprache beschreiben muss. So könnte es sein, dass ein Satz wie ‚Das Haus hat einen Eingang‘ auf der linguistischen Metaebene eine Beschreibung bekäme wie ‚(‚Das‘: Bestimmter Artikel)(‚Haus‘: Substantiv)(‚hat‘: Verb)(‚einen‘: unbestimmter Artikel)(‚Eingang‘: Substantiv)‘; diese Beschreibung könnte viele weitere Elemente enthalten.

8. Eine Meta-Beschreibung kann innerlich weiter strukturiert sein. Auf Level 4.0 BENENNT man nur, was man im DASS unterscheiden kann: Objekte, Eigenschaften, Beziehungen. Auf Level 4.1 kann man ABFOLGEN von benannten Phänomenen identifizieren, speziell solche, die REGELHAFT erscheinen. Aus der Gesamtheit von Benennungen und Abfolgen kann man auf Level 4.2 ein MODELL konstruieren, mittels dem eine Teilmenge von Phänomenen und deren Abfolgen FUNKTIONAL ERKLÄRT werden soll. Mit einer zusätzlichen LOGIK auf Level 4.3 kann man dann mit einem Modell FOLGERUNGEN konstruieren, die wie VORHERSAGEN benutzt werden können, die sich ÜBRPRÜFEN lassen.

9. Beschränkt man sich auf dem Level 4 auf die empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die EMPIRISCHEN WISSENSCHAFTEN nennen. Man benennt = beschreibt die Dinge dann in einer eigenen Fachsprache (Chemie, Psychologie, Physik, Linguistik, …); man definiert Messverfahren, wie man Eigenschaften reproduzierbar messen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren.

10. Beschränkt man sich auf dem Level 4 hingegen auf die nicht-empirischen Phänomene, dann bilden die Level 4.0 – 4.3 das, was wir die SUBJEKTIVE WISSENSCHAFT nennen könnten. Auch hier würde man die Dinge mit einer eigenen Fachsprache benennen = beschreiben; man definiert Verfahren, wie man möglicherweise Eigenschaften reproduzierbar erzeugen kann; und man benutzt die Mathematik und die formale Logik, um Modelle (THEORIEN) zu konstruieren. Eine Verständigung über Theorien der subjektiven Wissenschaft wären aufgrund der subjektiven Wahrnehmungsbasen ungleich schwieriger als im Falle von empirischen Theorien, aber niht völlig augeschlossen.

KREATIVITÄT

11. Hat man das ‚automatische‘ Verhalten überwunden (so wie es alle tun, so wie man es gelernt hat), und ist sich stattdessen bewusst geworden, dass man so und so handelt, und hat man angefangen das Automatische bewusst zu rekonstruieren, dann kann man jetzt auch bewusst Alternativen durch Variationen erzeugen [Anmerkung: natürlich kann man auch ohne Reflexion ’spontan‘ Dinge anders tun, als man sie vorher getan hat, aber dies ist dann ‚überwiegend zufällig‘, während ein Kreativität in einem reflektierten Kontext sowohl ‚gerichtet‘ ist aufgrund des verfügbaren Wissens, zugleich aber auch ‚zufällig‘, jedoch in einem viel größeren Umfang; nicht nur ‚punktuell‘]. Man kann jetzt sehr bewusst fragen, ‚warum‘ muss ich dies so tun? Warum will ich dies so? Was sind die Voraussetzungen? Was sind die Motive? Was sind die Ziele? Was will man erreichen? Usw.

12. Ein Ergebnis dieser Infragestellungen kann sein, dass man bestimmte Abläufe ändert, einfach, um mal heraus zu finden, was passiert, wenn man es anders macht. Häufige Fälle: jemand hat nie Gedichte geschrieben, weil niemand ihn vorher dazu angeregt hat, Gedichte zu schreiben; oder jemand hat nie Musik gemacht, weil sie sich immer eingeredet hat, sie sei unmusikalisch. Jemand hat nie vor anderen Menschen geredet, weil er immer Angst hatte, sich zu blamieren. Usw. Kurzum bei Erreichen von Level 4 beginnt man zu ahnen, dass alles anders sein könnte, als man es bislang gewohnt war und praktiziert hatte. Nennen wir diese neu gewonnene kreative Freiheit den LEVEL 5.

Fortsetzung folgt

ENDSPIEL, ENDKAMPF, ODER NEUER EVOLUTIONSSCHUB?

(Letzte Änderungen: 23.Nov.2014, 14:46h)

1. Während der Begriff ‚Endspiel‘ durch seine sportliche Konnotationen noch keinen letzten Schrecken verbreiten muss, klingt ‚Endkampf‘ biblisch-apokalyptisch: Endzeitstimmung; das Böse kämpft gegen das Gute; alles steht auf dem Spiel. ‚Evolutionsschub‘ deutet die Perspektive der Naturwissenschaften an, eine methodische Objektivität eines ‚Strukturwandels‘, der sich ’natürlich‘ aus der ‚Vorgeschichte‘ ergibt. Obwohl ich grundsätzlich der naturwissenschaftlichen Sicht zuneige als Grundlage aller Argumentationen über unsere empirisch erfahrbare Welt und damit bei weitreichenden Veränderungen eher einen ’natürlichen Strukturwandel‘ unterstelle, haben wir es bei dem aktuellen Strukturwandel mit Phänomenen zu tun, in die ’subjektive Anteile‘ von beteiligten Menschen, Gruppierungen, Parteien, Firmen usw. mit eingehen. Die ‚Natur‘ hat zwar aufgrund der Gesamtheit aller beteiligten physikalischen Eigenschaften ‚von sich aus‘ eine — möglicherweise ’spezifische‘ — ‚Tendenz‘ sich zu verändern, aber der weltweite Einfluss biologischer Systeme auf den weiteren Gang mit der ‚biologischen Eigendynamik, die – wir wir wissen – gegen grundlegende physikalische Gesetze (z.B. 2.Hauptsatz der Thermodynamik) gerichtet zu sein scheint, erscheint mittlerweile so stark, dass der biologische Faktor neben den physikalischen Prinzipien ein Gewicht gewonnen hat, welches es verbietet, rein ‚technisch‘ von einem Evolutionsschub als ‚ausrechenbarem Strukturwandel‘ zu sprechen.

2. In diesem globalen Kontext erscheint ein Thema wie Informatik & Gesellschaft auf den ersten Blick eher speziell; auf den zweiten Blick zeigt sich aber gerade in diesem Thema eine der globalen Verwerfungslinien zwischen dem ‚Zustand bisher‘ und dem ‚Zustand, der neu beginnt‘. Das Thema ‚Informatik‘ bzw. ‚Computertechnologie‘ galt eher als Teil der Technologie, die nicht eigentlich der ‚Natur‘ zugeordnet wurde. Wie überhaupt seit Aufkommen der ‚Maschinen‘ die Maschinen als Leitmuster der Technologie immer als Gegensatz zur ‚chemischen und biologischen Evolution‘ gesehen wurden. Neben vielen kulturellen Denkmustern, die solch eine ‚Trennung‘ begünstigten, war es sicher auch die mindestens von der antiken Philosophie herrührenden Trennung von ‚unbelebt‘ (die ‚Stoffe‘, ‚Subtsanzen‘, die ‚Materie‘ als solche sind ‚unbelebt‘) und ‚belebt‘ (‚atmend‘ (pneo), Atem als universelles Lebensprinzip (pneuma)), das seinen Ausdruck im ‚Geist‘ (pneuma‘) findet. Da dieser Gegensatz von ‚unbelebt‘ und ‚belebt‘ mehr als 2000 Jahre nicht wirklich aufgelöst werden konnte, konnte sich eine Art ‚Dualismus‘ ausbilden und durchhalten, der wie eine unsichtbare Trennlinie durch die gesamte Wirklichkeit verlief: alles, was nicht ‚atmete‘ war unbelebt, materiell, un-geistig; alles was atmete, belebt war, befand sich in einer Nähe zum universellen Geistigen, ohne dass man eigentlich näher beschreiben konnte, was ‚Geist‘ denn nun genau war. Nicht verwunderlich, dass sich alle großen Religionen wie ‚Hinduismus‘, ‚Judentum‘, ‚Buddhismus‘, ‚Christentum‘, ‚Islam‘ (trotz z.T. erheblicher Differenzen in den Details), diesem Dualismus ’nachbarschaftlich verbunden fühlten‘. Der intellektuell-begriffliche ‚Ringkampf‘ der christlichen Theologie und Philosophie (und streckenweise des Islam, Avicenna und andere!) mit diesem dualistischen Erbe hat jedenfalls tiefe Spuren in allen theologischen Systemen hinterlassen, ohne allerdings dieses ‚Rätsel des Geistes‘ auch nur ansatzweise aufzulösen.

3. Diesen historischen Kontext muss man sich bewusst machen, um zu verstehen, warum für viele (die meisten? Alle?) die plötzliche ‚Nähe‘ der Technologie im alltäglichen Leben, eine sich immer mehr ‚anschmiegende‘ und zugleich ‚verdrängende‘ Technologie an diesem im Alltagsdenken ‚historisch eingebrannten‘ Dualismus‘ zu kratzen beginnt, zu wachsenden Irritationen führt (andere Technologien wie Nanotechnologie und Gentechnik gehören auch in diesen Kontext, wenn auch anders).

4. Im Ankündigungstext zur erwähnten Veranstaltung Informatik & Gesellschaft (siehe auch den Kurzbericht) wurde bewusst herausgestellt, dass seit den ersten Computern eines Konrad Zuse und dem Eniac-Computer von John Presper Eckert und John William Mauchly (1946) die Computertechnologie mittlerweile nahezu alle Bereiche der Gesellschaft in einer Weise durchdrungen hat, wie wohl bislang keine andere Technologie; dass diese Technologie realer Teil unseres Alltags geworden ist, sowohl im Arbeitsleben wie auch in der Freizeit. Man kann sogar sagen, dass diese Technologie die menschliche Lebensweise schon jetzt (nach ca. 60 Jahren) real und nachhaltig verändert hat. Neue Formen der Kommunikation wurden ermöglicht, Veränderungen der Mobilität, automatisierte flexible Produktion, Computermusik, computergenerierte Bildwelten…

5. Aber diese Durchdringung von nahezu allem – was heißt das? Die neue historische Qualität dieser Technologie besteht darin, dass diese Technologie – bislang immer noch klar erkennbar als ‚Maschinen‘, bislang nicht als ‚biologische‘ Strukturen – ‚Verhaltensweisen‘ zeigt, die denen der Menschen als Prototypen von ‚geistigen‘ Wesen ähneln. Aufgrund dieser ‚Ähnlichkeit‘ werden sie Teil von ‚typisch menschlichen‘ Handlungsabläufen (Kommunizieren, Wissen verwalten, Sport und Kunst machen, Spielen, komplexe Modelle und Prozesse entwerfen und simulieren, dann auch steuern, usw.). Seit den 80iger Jahren des 20.Jahrhunderts – also nach nicht mal ca. 30-40 Jahren — hat sich diese Technologie so mit dem menschlichen Alltag verwoben, dass eine moderne industrielle Gesellschaft komplett zusammenbrechen würde, würde man diese Technologie von jetzt auf gleich abschalten.

6. Befürworter eines noch intensiveren Einsatz dieser neuen Computertechnologien z.B. im Bereich der Industrie unter dem Schlagwort ‚Industrie 4.0‘ (so z.B. Prof. Schocke in seinem Beitrag auf der Veranstaltung Informatik & Gesellschaft – Kurzbericht oder die Autoren Thomas Klein und Daniel Schleidt in der gleichnamigen FAZ Beilage vom 18.Nov.2014 auf den Seiten V2 (Klein) und V6 (Schleidt)) sehen vor allem das Potential zu noch mehr Produktionssteigerungen bei gleichzeitiger Verbesserung der Qualität und besserer Ressourcennutzung. Gleichzeitig betonen die drei Autoren die Notwendigkeit von mehr Computertechnologie in der Industrie wegen des internationalen Wettbewerbs. Von den drei genannten Autoren spricht einzig Thomas Klein auch die Kehrseite des vermehrt ‚menschenähnlichen‘ Einsatzes dieser Maschinen im Kontext von Industrie 4.0 an: das damit möglicherweise auch viele Arbeitsplätze wegfallen werden, die bislang für Menschen Arbeitsmöglichkeiten geboten haben. Klein zitiert Untersuchungen, nach denen 47% der bisherigen Arbeitsplätze in den USA in den nächsten 10 Jahren Kandidaten für eine Substitution durch Computergestützte Technologien sind. Dies sind massive Zahlen. Dalia Marin, Professorin für Volkswirtschaft, versucht diese kommende Arbeitsmarktproblematik weiter zu differenzieren. Ausgehend von der Annahme, dass mehr Automatisierung kommen wird, sieht sie neben dem Rückzug von Hochtechnologieproduktionen in die angestammten Industrieländer dort aber die grundsätzliche Entwicklung zur Vergrößerung der Kapitalquote und zur Verringerung der Lohnquote. Diese Verringerung soll vor allem den Akademikersektor treffen; teure menschliche Arbeitskräfte werden bevorzugt von billigen computerbasierten Technologien ersetzt (FAZ 21.Nov.2014, S.16). Sowohl Klein wie auch Marin betonen aber auch, dass solche Zukunftseinschätzungen problematisch sind; der Prozess ist zu komplex, als dass man ihn einfach hochrechnen könnte.

7. Was bei allen vier genannten Autoren auffällt – auch bei den Autoren der Beilage ‚Innovation‘ (FAZ 20.Nov.2014) – ist, dass sie die ‚intelligente‘ und ’smarte‘ Technologie überwiegend aus einer ‚Außensicht‘ behandeln. Sie lassen die Wirkmechanismen dieser neuen Technologien, ihre maschinelle Logik, das, was sie so leistungsfähig macht, mehr oder weniger im Dunkeln. Smarte, intelligente Technologie erscheint dadurch – ich pointiere jetzt ein wenig — wie ein Naturereignis, das geradezu mystisch über uns hereinbricht, das einfach passiert, das so ist wie es ist, das man einfach hinnehmen muss. Auch fehlt eine historische Einordnung dieser Prozesse in das große Ganze einer Evolution des Lebens im Universum. Die sehr differenzierten Sichten von Daniel Schleidt enthalten zwar ein eigenes Schaubild zur industriellen Entwicklung, aber dieses greift – nach meiner Einschätzung – zu kurz. Es zementiert nur eher den opaken Blick auf das Phänomen, macht es begrifflich unzugänglich, schottet es für die Reflexion ab. Auch die volkswirtschaftliche Ausweitung des Blicks durch Marin geht – nach meiner Einschätzung – nicht weit genug. Sie betrachtet das Problem einer möglichen und wahrscheinlichen Substitution von menschlicher Arbeit durch computerbasierte Technologien in gegebenen historischen Kontexten und hier auch nur in einer kurzen Zeitspanne. Sie thematisiert aber nicht die gesellschaftlichen Rahmenbedingungen als solche. Sehr wohl kann man die Frage nach dem aktuellen Gesellschaftsmodell stellen. Sehr wohl kann man die Frage aufwerfen, ob es ein gutes Modell ist, wenn einige wenige GFinanz- und Machteliten mit dem Rest der Menschheit nach Belieben spielen. In der Frankfurter Rundschau wird seit vielen Wochen das Thema ‚Gerechtigkeit‘ diskutiert (siehe zuletzt z.B. Mohssen Massarat, Prof. für Wirtschaft und Politik mit seiner Übersicht verschiedener Gerechtigkeitsmodelle, FR 15./16.Nov.2014, S.9) und die Lektüre eines Buches wie ‚Die Abwicklung‘ von George Packer zeigt, dass eine reflexionsfreie oligopolistische Gesellschaft wie die US-Amerikanische mehr Fragen aufwirft als sie befriedigende Antworten liefert.

8. Sieht man nur die bisherigen Diskussionsbeiträge, dann kann einen schon die klamme Frage beschleichen, warum so viele Autoren in den Spiegeln der Gegenwart immer nur noch ‚das Andere‘ sehen, die ‚Maschine‘, während der ‚Mensch‘, die ‚Menschheit‘ als Hervorbringer dieser Technologien in diesem Sichtfeld gar nicht mehr vorkommt. Es ist wie ein intellektueller blinder Fleck, der die leisesten Zuckungen von Maschinen wie eine Neugeburt feiert während das ungeheuerliche Wunder der Entstehung komplexer Lebensstrukturen auf der Erde (das bis heute in keiner Weise wirklich verstanden ist!) nicht einmal eine Randnotiz wert ist. Fokussierung auf spezifische Fragestellung hat seinen Sinn und ist und war ein Erfolgsrezept, aber in einer Zeit, in der disziplinenübergreifend komplexe Phänomene alles mit allem verzahnen, in einer solchen Zeit erscheint diese selbstgenügsame Tugend nicht mehr nur nicht angebracht, sondern geradezu kontraproduktiv zu sein. Eine falsche Fokussierung führt bei komplexen Phänomenen notwendigerweise zu Verzerrungen, zu Verfälschungen, zu falschen Bildern von der Gegenwart und einer sich daraus ergebenden Zukunft (es sei auch an die lange Diskussion in der FAZ erinnert zu den Schwachstellen moderner Betriebs- und Volkswirtschaftstheorien, die nicht nur die letzten Finanzkatastrophen nicht vorhergesehen haben, sondern auch mit ihrem Paradigma des ‚homo oeconomicus‘ empirisch weitgehend gescheitert sind.)

9. Wenn nun also Menschen selbst das Andere ihrer selbst anpreisen und sich selbst dabei ‚wegschweigen‘, ist damit die Geschichte des biologischen Lebens im Universum automatisch zu Ende oder unterliegen wir als menschlich Denkende hier nicht wieder einmal einem grundlegenden Denkfehler über die Wirklichkeit, wie andere Generationen vor uns auch schon in anderen Fragen?

10. Die Verabschiedung der UN-Menschenrechtskonvention von 1948, damals als ein Lichtblick angesichts der systematischen Greueltaten gegen die Juden (aber aber nicht nur dieser!) und der Beginn vieler anderer daran anknüpfenden Erklärungen und Initiativen erscheint vor den aktuellen gesellschaftlichen Prozessen weltweit fast schon seltsam. Dass ein totalitäres Regime wie das chinesische die Menschenrechte grundsätzlich nicht anerkennt (wohl aber chinesische Bürger, siehe die Charta 2008) ist offiziell gewollt, dass aber selbst demokratische Länder – allen voran die USA – mit den Menschenrechten scheinbar ’nach Belieben‘ umgehen, sozusagen, wie es ihnen gerade passt, dass wirkt wenig ermutigend und gibt Nahrung für Spekulationen, ob die Menschenrechte und die Mitgliedschaft in der UN nur davon ablenken sollen, was die Finanz- und Machteliten tatsächlich wollen. Die Zerstörung ganzer Gesellschaftsbereiche, die Marginalisierung großer Teile der Bevölkerung, die unbeschränkte Aufhebung der Privatsphäre ohne alle Kontrollen, die globale Ausbeutung der Schwachen durch Handelsabkommen … nur wenige Beispiele die eine andere Sprache sprechen, als jene, die in den Menschenrechten vorgezeichnet ist.

11. Noch einmal, was auffällt, ist die ‚Oberflächlichkeit‘ all dieser Bilder im wahrsten Sinn des Wortes: die schier unfassbare Geschichte der Evolution des Lebens im Universum existiert eigentlich nicht; das Wunder des Geistes inmitten materiell erscheinender Strukturen ist weitgehend unsichtbar oder ist eingesperrt in eine gesellschaftliche Enklave genannt ‚Kultur‘, die nahezu kontaktlos ist mit dem Rest des Wirtschaftens, Produzierens und Denkens; eine ‚Kultur der Sonntagsreden‘ und der ‚Belustigungen‘, ein Medium für die Eitelkeit der Reichen und der Unterhaltungsindustrie.

12. Innovation entsteht nie nur aus der Wiederholung des Alten, sondern immer auch aus der Veränderung des Alten, entsteht aus dem gezielt herbeigeführten ‚Risiko‘ von etwas ‚tatsächlich Neuem‘, dessen Eigenschaften und Wirkungen per se nicht vollständig vorher bekannt sein können.

13. Die, die aktuell neue Technologien hervorbringen und einsetzen wollen, erscheinen ‚innovativ‘ darin, dass sie diese hervorbringen, aber in der Art und Weise, wie sie das biologische Leben – speziell die Menschen – damit ‚arrangieren‘, wirken die meisten sehr ‚alt‘, ‚rückwärtsgewandt‘, …. Innovationen für das Menschliche stehen ersichtlich auf keiner Tagesordnung. Das Menschliche wird offiziell ‚konserviert‘ oder schlicht wegrationalisiert, weggeworfen, ‚entsorgt‘; hier manifestiert sich ein seltsamer Zug dazu, sich selbst zu entsorgen, sich selbst zu vernichten. Die Quelle aller Innovationen, das biologische Leben, hat in Gestalt der Menschheit einen ‚blinden Fleck‘: sie selbst als Quelle.

14. Der Mangel an Wissen war zu allen Zeiten ein Riesenproblem und Quelle vieler Notlagen und Gräueltaten. Dennoch hat die Menschheit trotz massiver Beschränkungen im Wissen neues Wissen und neue Strukturen entwickelt, die mehr Teilhabe ermöglichen, mehr Einsichten vermitteln, mehr Technologie hervorgebracht haben, ohne dass ein ‚externer Lehrer‘ gesagt hat, was zu tun ist… wie ja auch alle Kinder nicht lernen, weil wir auf sie einreden, sondern weil sie durch den bisherigen Gang der Evolution für ein kontinuierliches Lernen ausgestattet sind. … Der Geist geht dem Denken voraus, die Logik der Entwicklung liegt ‚in‘ der Materie-Energie.

15. So großartig Innovationen sein können, das größte Mirakel bleibt die Quelle selbst. Wunderbar und unheimlich zugleich.

QUELLEN

George Packer (3.Aufl. 2014), Die Abwicklung. Eine innere Geschichte des neuen Amerika. Frankfurt am Main: S.Fischer Verlag GmbH (die engl. Originalausgabe erschien 2013 unter dem Titel ‚The Unwinding. An Inner History of the New America‘. New York: Farrar, Strauss and Giroux).

Einen Überblic über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

INFORMATIK & GESELLSCHAFT – Kurzbericht

Änerung: 19.März 2015 (Die Künslergruppe Reul & Härtel hat das Foto mit Ihnen durch ein Bild aus ihr Performance (‚visualexploration‘) ersetzen lassen)
Änderung: 20.Nov.2014 (Einfügung Videoschnappschuss von der Uraufführung des Eingangereignisses)

Wie schon zuvor in diesem Blog darauf hingewiesen gab es am 8.November 2014 in der Frankfurt University of Applied Sciences eine recht interessante Veranstaltung INFORMATIK & GESELLSCHAFT. Computer und Geist. Aspekte einer Standortbestimmung. Im Folgenden ein kurzer Bericht mit einigen Schnappschüssen. Alle Bilder sind von Dominik Wolf, dem es gelungen ist, unter schwierigen Lichtverhältnissen doch das eine oder andere Bild zu schiessen. Die beiden ersten Bilder sind allerdings von Anita Henisch, die dann wegen der schwierigen Lichtverhältnisse aufgegeben hatte. Von Dominik Wolf selbst gibt es leider kein Foto, was schade ist, da er die Hauptlast der Organisation getragen hat.

13.20 Uhr Eingangsereignis Computermediated Sound/Images 1
(cagentArtist & Guido May)

cagentartist im Gespräch mit Guido May vor der Uraufführung von 'Little CRUNCS symphony No.1'

cagentartist im Gespräch mit Guido May vor der Uraufführung von ‚Little CRUNCS symphony No.1‘

Jazz-Schlagzeuger Guido May während der Uraufführung von 'Little CRUNCS symphony No.1'

Jazz-Schlagzeuger Guido May während der Uraufführung von ‚Little CRUNCS symphony No.1‘

Hier ein Video Schnappschuss von Dominik Wolf. Dies war nicht als Dokumentation geplant; aber da der geplante Tonmitschnitt leider nicht verfügbar ist, ist dies nun das einzige Zeugnis der 20 Minuten-Uraufführung.

Das Stück ‚Little CRUNCS symphony No.1‘ wirkte auf den ersten Blick wie sinfonische Musik, war aber vollständig im Computer generiert worden. Sieben verschiedene Eingangsklänge wurden auf unterschiedliche Weise algorithmisch bearbeitet und miteinander verzahnt. Viele Zuhörer sagten anschliessend, dass für sie das Schlagzeugspiel sehr wichtig gewesen sei. Ohne dieses hätten sie sich mit dem reinen Soundtrack schwer getan. So aber war es ein Erlebnis. Auch für den erfahrenen Jazz-Schlagzeuger Guido May war das Stück, wie er sagte, eine besondere Herausforderung. Alle ihm bekannten Muster passten bei diresdem Stück nicht. Er musster sich die Rolle des Schlagzeugs hier speziell erarbeiten.

13.45 Uhr Begrüßungen
(Moderator Prof. Doeben-Henisch, Sprecher ForschungsCampus FC3 & Informatik Cluster Fb2 Prof. Schäfer, Dekan Fb2 Prof. Morkramer, Vizepräsident Wissenschaft Infrastruktur Forschungstransfer der Frankfurt University of Applied Sciences Prof. Schrader)

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Prof.Doeben-Henisch bei der Begrüßung. Es war die erste Veranstaltung dieser Art für die Informatik an der Hochschule. So war es sehr erfreulich, dass so viele sich aktiv und engagiert bei dieser Veranstaltung beteiligt haben.

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Prof. Morkramer,  der Dekan des Fb2, verstand es, am Beispiel seiner eigenen Familie lebendig werden zu lassen, wie schnell die Computer innerhalb von zwei  Generationen aus dem Nichts aufstiegen und heute alles durchdringen. Erst jetzt beginnen wir Menschen scheinbar zu begreifen, welche große Folgen dies für uns alle haben kann, nicht nur positiv, sondern auch negativ.

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung  und Forschung, Prof.Dr. Ulrich Schrader

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung und Forschung, Prof.Dr. Ulrich Schrader

Der Vizepräsident für Weiterbildung, Infrastruktur und Forschung, Prof. Dr. Schrader, griff sich aus den vielfältigen Entwicklungen jenen Bereich heraus, der ihn selbst besonders betrifft, den Bereich neuer Unterrichtstechnologien. So wunderbar diese neue Welt auch erscheint, er machte darauf aufmerksam, dass der Aufwand für eine volle Nutzung dieser neuen technologischen Möglichkeiten, von einer einzelnen Hochschule kaum gestemmt werden kann. Er wagte einen visionären Ausblick dahingehend, ob nicht Hochschule, Behörden und Wirtschaft zusammen ein ‚Leuchtturmprojekt‘ gemeinsamer neuer digitaler interaktiver Lernräume stemmen sollten. Eine Frage, die noch immer weiterhallt, auch nach der Veranstaltung.

14.00 Uhr Geist zum Nulltarif? Philosophische Aspekte zur Herkunft und zur Zukunft der Informatik. Vortrag und Diskussion
(Prof. Dr. phil. Dipl. theol G. Doeben-Henisch)

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Unter dem Titel ‚Geist zum Nulltarif‘ ordnete Prof. Doeben-Henisch   den Menschen mit seiner ‚Geistigkeit‘ ein in die Ideengeschichte (‚Geist‘ in der antiken griechischen Philosophie, hier verankert im Phänomen des ‚Atmens‘ (Verb: ‚pneo‘) erweitert zum Lebensprinzip (Substantiv ‚pneuma‘)) und in die Evolution des Lebendigen (‚Geist‘ als eine inhärente Eigenschaft des Biologischen selbst). Die strukturellen Übereinstimmungen zwischen dem Prinzip Computer und biologischen Zellen bis hin zum Gehirn lassen heute nicht erkennen, warum der Computer den Menschen in seinen Fähigkeiten nicht übertreffen können sollte. Die – besonders in den USA – vertretene Hypothese von der kommenden ‚technologischen Singularität‘ geht schon ganz selbstverständlich davon aus, dass die Tage der Menschen gezählt sind; die ‚intelligenten Maschinen‘ werden ‚übernehmen’…

15.00 Uhr Informatik und Gesellschaft Soziologische und kulturanthropologische Aspekte der neuen Informationstechnologien. Vortrag und Diskussion
(Prof. Dr. habil. Dipl. soz. Manfred Faßler)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Dass diese ‚Anpassbarkeit‘ des Computers an gesellschaftliche Abläufe und psychischen Bedürfnissen massive Rückwirkungen auf das Verhalten der Menschen und viele soziale Strukturen hat, thematisierte Prof. Fassler. Er identifizierte in den beobachtbaren Veränderungen einen großen Forschungsbedarf: wie können wir verhindern, dass die Menschen zu bloßen ‚Anhängsel‘ eines einzigen großen kybernetischen Systems werden, das  einer ’smarten Humanität‘ zuwider läuft? Und in der Tat, der Reflexionsbedarf der heutigen Informatik gerade mit Blick auf Soziologie und Kulturanthropologie ist drängend; wo aber sind die zugehörigen Forschungsgruppen und Forschungsprogramme?

16.00 Uhr Pause Computermediated Sound/Images 2
(Philip Reul & Markus Härtel)

Momentaufnahme von der Performance Haertel-Reul

Momentaufnahme von der Performance Haertel-Reul

Die wunderbaren Bilder von Härtel/ Reul, die auf der digitalen Verarbeitung von analogen Prozessen in verschiedenen Flüssigkeiten beruhten, ließen in der ersten Pause  dann etwas Leichtigkeit aufblitzen, einen Hauch von Schönheit. Zu erwähnen ist, dass Philip Reul auch Absolvent des Bachelor-Studiengangs Informatik der Hochschule ist sowie des interdisziplinären Masterstudiengangs ‚Barrierefreie Systeme‘ (BaSys).

visualexploration-8nov2014

visualexploration-8nov2014 von Härtel & Reul

16.30 Uhr Verkehr von morgen. Total umsorgt, total verkauft? Über Uber, Überwachung, und die neue Mobilität. Vortrag und Diskussion
(Prof. Dr. Jörg Schäfer)

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Prof. Schäfer demonstrierte dann am Beispiel der Mauterfassung, wie das vorhandene Knowhow der Informatik von der Politik nicht genutzt wird, um  die Privatsphäre bei der Mauterfassung zu wahren. Stattdessen wird direkt auf die Privatheit zugegriffen. Am Beispiel des neuen  Fahrgastvermittlungssystem Uber illustrierte Schäfer, wie einige wenige Kapitalgeber mit einer einfachen, billigen Software weltweit hohe Vermittlungsgebühren einziehen können, ohne juristische Verantwortung für das Fahrgastgeschäft selbst zu übernehmen. Er fragte, warum die Bürger dies nicht selbst organisieren, z.B. mit einer  ‚genossenschaftlichen Bürgerplattform‘. Noch weiter gedacht: warum sollten Studierende, Professoren und Bürger nicht solch eine Genossenschaft gründen?

17.30 Uhr Robot-Fabriken. Erhöhung der Produktivität; wo bleibt die Arbeit? Vortrag und Diskussion
( Prof. Dr. Kai-Oliver Schocke)

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Das Thema ‚Automatisierung‘ bzw. ‚Roboter-Fabriken‘ ist in der Öffentlichkeit wegen unterstelltem Arbeitsplatzverlust schon mit Vorbehalten verhaftet. Prof. Schocke verstand es aber, in einem sehr engagierten Vortrag zunächst einmal die Notwenigkeit einer Produktivitätssteigerung durch weiter automatisierte Fabriken zu klären. Der internationale Konkurrenzdruck zwingt Deutschland, hier an vorderster Stelle mit zu halten. Allerdings zeigte die lebhafte Diskussion, dass damit das Problem der oft zitierten Arbeitsplatzvernichtung möglicherweise noch nicht völlig beantwortet ist. In der Diskussion wurde klar, dass hier alle betroffenen gesellschaftlichen Kräfte herausgefordert sind nach Lösungen zu suchen. den Unternehmen alleine kann man dies nicht anlasten.

18.30 Uhr Pause Computermediated Sound/Images 3
(acrylnimbus)

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt, ehemaliger Absolvent der Informatik – noch mit dem klassischen Diplom –, der zugleich seit gut 20 Jahren auch experimentelle Musik produziert, komponiert, performed, zeigte ein eigens Kunstvideo parallel zu einem eigenen Soundtrack, den er live spielte.

19.30 Uhr Video Slam zum Thema Informatik und Gesellschaft (Länge eines Videos maximal 7-Min, künstlerisch oder wissenschaftlich, Publikumspreise für die zwei besten Beiträge)

 Video--Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Video–Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Obgleich die Vorlaufzeit für den Videowettbewerb vergleichsweise sehr kurz war hatte es Einsendungen gegeben und es war möglich, den vom Förderkreis der Hochschule gestifteten Preis an zwei Preisträger zu überreichen. Sowohl Siegfried Härtel wie auch Tom Pluemmer sind profiliert Kunstschaffende. Während Tom Pluemmer seinen Schwerpunkt im Bereich Film hat, hat Siegfried Kärcher in seinem Leben schon eine ganze Bandbreite von künstlerische Aktivitäten aufzuweisen. Darin kommt eine intensive Auseinandersetzung mit Computern in ihren vielschichtigen Einsatzmöglichkeiten ebenso vor wie Lichttechnik, Sounddesign und Videokunst, um nur einiges zu nennen.

Das Cafe1 während der Pausen - Essen, Trinken, Kommunizieren

Das Cafe1 während der Pausen – Essen, Trinken, Kommunizieren

21.30-23.00 Uhr Ausgangsereignis Computermediated Sound/Images 4
(Werkstattgespräch mit den Künstlern; Digital Jam-Session)

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Hier eine Momentaufnahme von der inspirierenden Improvisation Tobias Schmitt & Guido May. Leider viel zu kurz …

Weitere Berichte, Kommentare können möglicherweise noch folgen. Insbesondere sollen noch Links auf die beiden prämierten Videos folgen.

Eine erste Nachreflexion von cagent zur Tagungfindet sich HIER.

Einen Überblick über alle Einträge in diesem Blog nach Titeln findet sich HIER.

INFORMATIK & GESELLSCHAFT – Samstag 8.Nov.2014 – Veranstaltungshinweis in eigener Sache

1. Wer die Einträge in diesem Blog verfolgt, wird bemerkt haben, dass für den Autor dieses Blogs die vielfältigen Erscheinungsweisen des Computers keine ‚rein technischen Phänome‘ repräsentieren, sondern ein tieferliegendes Prinzip sichtbar machen, das mit der ‚Geistigkeit des Menschen‘ und der ‚Lebendigkeit‘ des ‚Biologischen‘ in einem wichtigen Zusammenhang steht.

2. In dem Maße wie das ‚Prinzip Computer‘ in seinen technischen Realisierungen immer mehr unseren Alltag durchdringt, Fähigkeiten und Eigenschaften des Menschen ‚kopiert‘, Menschen in Teilbereichen ersetzt, wird es immer wichtiger, dass wir uns ‚als Menschen‘ bewusst werden, was hier geschieht.

3. Ein ungebremster, auf reinen individuellen Profit ausgerichteter Kapitalismus, der in globalen Dimensionen operiert — verknüpft mit diesem mächtigen Prinzip des Computers — (und in Zusammenarbeit mit einer unkontrollierten Gentechnik, die schon jetzt jährlich allein in Deutschland viele Millionen Tiere gentechnisch verstümmelt, in die Abfalltonne wirft, um ‚patentierte Tiere‘ zu bekommen, die dann bestimmten Firmen als ‚Eigentum‘ gehören), kann immanent nur das Ziel haben, durch eine immer weiter voranschreitende Automatisierung und Datensammlung möglichst viel von der Welt unter seine Kontrolle zu bringen. Kurzfristig maximiert dies die individuellen Gewinne über alle bekannten Maßen.

4. Auf die Zukunft hochgerechnet versinkt der Rest der Gesellschaft in Bedeutungslosigkeit, wird zu einer Randbemerkung, eine Heerschar von Lobbyisten dient in Anbetung vor dem globalen Egoismus, Ausverkauf der Politik in Raten.

5. Wenn immer mehr arbeitslos werden und verarmen, dann wird der Mensch in einem ungeregelten Kapitalismus zur Belastung, zum Störfaktor, der Ressourcen verbraucht, aber scheinbar keine neuen erzeugt.

6. Man kann sich fragen, wer dann noch die Produkte der automatisierten Fabriken und die gentechnischen Biokreaturen ‚kaufen‘ soll/ will/ kann, wenn niemand mehr Geld hat außer denen, die egoistisch global produzieren; aber diese Frage scheint sich niemand zu stellen.

7. In dieses Szenario eines egoistischen globalen ‚menschenfreien‘ Kapitalismus fügt sich die Position der radikalen ‚Transhumanisten‘ wunderbar ein: sie gehen davon aus, dass die ‚Maschinen‘ das Prinzip des Computers irgendwann ‚von selbst‘ in die Hand nehmen und sich schneller und besser als die Menschen entwickeln werden. Die Frage nach dem ‚Wert‘ und dem ‚Sinn‘ des Menschlichen und dem Biologischen stellt sich für diese Position nicht mehr. Die Evolution wird sich künftig ohne Menschen (und überhaupt ohne biologisches Leben?) weiter entwickeln.

8. In der Vergangenheit haben sich Menschen immer wieder aufgelehnt, wenn die Ungleichheiten zwischen ‚egoistischem und kurzsichtigem Kapital‘ einerseits und den ‚Bürgern‘ zu groß wurden. Das kann sich prinzipiell jederzeit wiederholen. In sogenannten Demokratien sollte das Problem prinzipiell nicht auftreten. Aber die modernen Kommunikations- und Überwachungstechniken, die Kontrolle der Medien, die Unterwanderung der Politik durch Lobbyismus, die Militarisierung der Polizei (z.B. in den USA!) — um nur einige Punkte zu nennen – nimmt ein Ausmaß an, dass sich sogenannte ‚demokratische‘ Staaten und sogenannte ‚Diktaturen‘ immer weniger unterscheiden.

9. Im Zentrum steht die Frage, ob wir Menschen – bislang als Teil des Biologischen das einzig bekannte ‚Wunder‘ im gesamten bekannten Universum – für uns selbst ein Verständnis, eine Wertschätzung, einen Sinn, eine Zukunftsperspektive finden, die uns ‚Wert genug‘ erscheint, um uns gegenseitig hinreichend Wert zu schätzen und die uns hilft, gemeinsam eine Zukunft zu gestalten, in der Menschen mehr sind als bloße ‚Ressourcenverbaucher‘, als bloße ‚Konsumenten‘, als bloße ‚billige Arbeitskräfte‘, als bloßer ‚Kostenfaktor‘.

10. Eine Rückbesinnung auf die ‚klassischen Religionen‘ in ihrem ‚klassischen Format‘ reicht nach meiner Einschätzung für eine solche Zukunft in keiner Weise aus. Die ‚klassischen Religionen‘ sind nicht wahr genug, nicht offen genug, lassen es letztlich zu, Menschen, die anders sind, zu töten, einfach so, weil es jemandem gerade mal gefällt. Wie kann jemand an Gott glauben, wenn er es zulässt, dass es das wunderbarste, was das bekannte Universum bislang hervorgebracht hat, das ‚Leben‘, einfach so zu unterdrücken, zu zerstören und zu töten?

11. Die Veranstaltung INFORMATIK & GESELLSCHAFT, Sa 8.Nov.2014 (Hier ausführliche Informationen zu den Beiträgen, den Referenten und Künstlern:  IuG-Zusatzinformationen-1-10-2014-1Okt2014) kann natürlich nur einen winzigen Bruchteil von diesem Spektrum thematisieren, sie kann nur ein weiterer kleiner Baustein sein, um uns gegenseitig zu helfen, uns unserer Verantwortung für das Leben bewusst zu werden. Vorträge mit ausführlichen Diskussionen, musikalische Experimente und ein Videowettbewerb bieten Raum, um mit zu machen. Alle sind eingeladen, diese Veranstaltung zu unterstützen. Es muss ja nicht die letzte dieser Art sein …

12. Hier ein Kurzbericht zur Veranstaltung INFORMATIK & GESELLSCHAFT vom 8.November 2014.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

SPEZIALISIERUNG und INTERDISZIPLINARITÄT – Ein seltsames Paar

Anmerkung: Die folgenden Gedanken wurden angeregt durch ein Gespräch mit einem Kollegen am Mo, 14.Oktober 2013, mittags im Relax,in Frankfurt.

KOMPLEXITÄT UM UNS HERUM

1) Eine entwickelte Gesellschaft ist ein sehr vielschichtiges Gebilde. Ein einzelnes Haus verlangt zu seinem Bau verschiedene Spezialisten; bei großen Bürogebäuden und Wolkenkratzern ist es eine ganze Armada von Spezialisten. Ähnliches gilt für Fahrzeuge, Verkehrsverbindungen, Kanalsysteme, überhaupt Infrastrukturen, für das Management großer Institutionen und Firmen, für die Produktion wissensintensiver Produkte, usw.

MENSCHEN HANDELN MIT WISSEN

2) Doch, wie komplex eine Gesellschaft auch sein mag, die Handlungsknotenpunkte werden bislang noch von Menschen gebildet; Menschen die wahrnehmen, die interpretieren, die planen, die entscheiden, die Ziele formulieren usw. Nennen wir die Gesamtheit der ‚internen Faktoren‘ der handelnden Menschen vereinfachend ihr ‚Wissen‘.

BEGRENZTE KAPAZITÄTEN

3) Obwohl dieses Wissen sich im Laufe des Lebens ‚verändern‘ kann, ist die jeweils ‚aktuelle Verarbeitung‘ sehr begrenzt, endlich. Man kann pro Zeiteinheit nicht beliebig viel an Ereignissen aufnehmen und verarbeiten. Will man dennoch ‚mehr‘ Informationen verarbeiten als der vorhandene Wissensmechanismus (das darunter liegender Gehirn) zulässt, dann kann die Technik des Chunking begrenzt helfen: man führt eine Vielzahl von irgendwie zusammenhängenden Elementen unter einem neuen ‚Namen‘ zusammen. Der Name verbraucht weniger Verarbeitungskapazität, verweist aber auf seine ‚assoziierten Elemente‘.
4) Hierzu wäre sehr, sehr viel im einzelnen zu sagen. Für den aktuellen Zusammenhang ist nur wichtig, dass die Verarbeitungskapazität der Menschen sich im Laufe von Jahrhunderten bislang nur geringfügig — wenn überhaupt — verändert hat. In dem Maße also, in dem sich das ‚Wissen verfeinert‘ und zugleich die Komplexität der erfahrbaren Gesellschaft zunimmt (immer mehr Menschen, immer mehr verschiedene Objekte, immer mehr Abläufe, immer mehr Publikationen, … und das Ganze auch immer schneller) werden die endlichen Verarbeitungskapazitäten der Menschen ‚überlastet‘; er verliert den Überblick bzw. den ‚Zusammenhang‘: es wird immer unklarer, wie die einzelnen Dinge mit den anderen im Zusammenhang stehen.

SPEZIALISIERUNG ALS AUSWEG

5) Will man einem Ideal von ‚Vollständigkeit‘ und ‚Korrektheit‘ (welchem genau? Wie ist es definiert?) genügen, bleibt nur ein Ausweg: ‚Spezialisierung‘ durch Einschränkung auf Teilbereiche. Damit gewinnt man wieder etwas mehr Kontrolle über die Elemente des eingeschränkten Bereiches; andererseits gibt es dann aber auf jeden Fall auch Bereiche, die ‚außen vor‘ bleiben, es sei denn, man vermehrt die Anzahl der Spezialisten. Nehmen wir mal idealisierend an, dass eine menschliche Gesellschaft, in dem Maße, wie sie einschränkt, die Anzahl der Spezialisten vermehrt, so dass kein Bereich außerhalb der Kontrolle verbleibt.
6) Im Grenzfall haben wir dann Spezialisten für einen Bereich A mit Methoden M(A) und einen Bereich B mit Methoden M(B). Per definitionem wissen die Spezialisten von A nichts vom Bereich B und kennen auch nicht die Methoden, und umgekehrt.
7) Aus dem Alltag wissen wir auch, dass wir zunehmend Aufgaben lösen müssen, in denen sich Bereiche A, B, C, … mischen, nicht einfach nur ’nebeneinander‘, sondern in vielfältigsten Wechselwirkungen R1(A,C), R2(B,A), R3(R1(A,C), R2(B,A)) usw. Wenn man jetzt nicht will — und es wäre auch unrealistisch — dass jeder Alles kennenlernt (das war ja vor der Spezialisierung), muss ein Weg gefunden werden, wie die verschiedenen Spezialisten trotz ihrer Spezialisierung irgendwie ‚miteinander‘ kommunizieren und planen können. In einer formalen Theorie zieht man dann eine neue ‚Metaebene‘ ein, in der die Elemente von A und von B jeweils in neuer Form ‚abstrahiert‘ als ‚abstrahierte Elemente‘ vorkommen und man dann auf diese Weise quasi ‚über sich‘ sprechen kann, ohne die Details des anderen Bereiches voll verstehen zu müssen (und verstehen zu können).

INTERDISZIPLINARITÄT IST GEFORDERT

8) Eine solche gemeinsame Metaebene zu M(A) und M(B) gibt es aber nicht automatisch. Sie muss von allen Beteiligten konstruktiv ‚erarbeitet‘ werden. Das moderne Systemsengineering ist ein Beispiel für solch ein Vorgehen. Im Systemsengineering wurden allgemeine Prozessmodelle erarbeitet, in denen es unterschiedliche Rollen für Akteure gibt, bestimmte Interaktionsmuster, die nicht auf die Besonderheiten eines Bereichs eingehen, sondern nur auf die Art und Weise, wie Spezialisten miteinander interagieren sollten, damit sie gemeinsam eine Lösung finden können unter Befolgung allgemeiner Richtlinien.
9) Da wir seid Hilbert, Goedel und Turing wissen, dass es selbst im Bereich der rein formalen Systeme keine völlig abschließbaren Systeme gibt — geschweige denn im Bereich des Biologischen oder des Gesamtphysikalischen –, ist der Bezug auf eine einzelwissenschaftliche Domäne sowieso ein Kompromiss mit der Wirklichkeit, der nur durch gleichzeitige Bejahung des je größeren Ganzen akzeptiert werden kann.

INTERDISZIPLINARITÄT IST KEIN AUTOMATISMUS

10) Die Alltagserfahrung zeigt, dass die Fähigkeit zum interdisziplinären Arbeiten sich NICHT automatisch ergibt. Interdisziplinär zu arbeiten erfordert neben den fachlichen Kenntnissen ein hohes Maß an Selbstreflexion, Empathie und psychologische Balance und muss genauso mühsam gelernt werden wie alle anderen Fähigkeiten auch. Und wie generell das Vorkommen jeder Fähigkeit in einer Gesellschaft einer Normalverteilung (‚Glockenkurve‘) unterliegt, so gibt es auch nur wenige Menschen, die genügend Fähigkeiten besitzen, solche komplexen interdisziplinären Aufgaben wahrnehmen zu können.
11) Es deutet sich an, dass die Zunahme an Spezialisierung nur dann nicht in eine moderne Form von gesellschaftlicher Agonie führt, wenn parallel dazu die Fähigkeit interdisziplinär zu arbeiten verbunden mit der Entwicklung geeigneter interdisziplinärer Methoden im notwendigen Umfang mit entwickelt und ausgebaut wird. Ich habe selbst schon erlebt wie mit summa cum laude Promovierte im Rahmen von Teams und Aufgaben weitgehend versagt haben. Sie waren nicht in der Lage, ihre eigene Position als Teil eines Netzwerkes von Positionen zu erkennen, zu reflektieren und konstruktiv einzubringen; das Ergebnis war Paralyse, Stillstand, emotionaler Stress, Mobbing, Scheitern.

NOCH MEHR KOMPLEXITÄT

12) Die Entwicklung von mehr und leistungsfähigeren interdisziplinären Vorgehensmodellen verbessert einerseits die Problemlösungskapazität einer Gesellschaft, zugleich erhöht sich aber auch unweigerlich die Komplexität. Es stellt sich die Frage, wie weit kommen wir als Menschen mit unseren aktuellen Wissensstrukturen? Vermutung: wenn wir unsere menschlichen Wissensstrukturen (Gehirn, Körper) nicht substantiell ändern können (Genetisch, durch Prothesen, …) dann gibt es sehr bald eine endliche obere Schranke von Prozessen, die wir noch einigermaßen fehlerfrei managen können. Jenseits dieser realen endlichen Grenze erzeugen wir mehr Fehler als Lösungen. Gemessen an der universellen Aufgabe, das ‚Leben‘ auf der Erde über den absehbaren Wärmetod durch die Aufblähung der Sonne hinaus zu bewahren dürfte die aktuelle Leistungsfähigkeit möglicherweise zu gering sein.
13) Kulturtechnisch gibt es ja seit den 40iger Jahren des 20.Jahrhunderts programmierbare (und prinzipiell selbst lernende) Maschinen, die rechnen können (Computer). Angeregt durch die potentiellen Möglichkeiten von Computer bildete sich eine Arbeitshypothese heraus, dass die Computer irgendwann die Menschen ersetzen können und werden (Singularity Hpothese, Transhumanismus)(Dazu gab es auch einen früheren Blogeintrag) . Dies ist eine interessante Arbeitshypothese, doch sind viele wichtige Begriffe in diesen Überlegungen noch nicht hinreichend geklärt.

COMPUTER, TRANSHUMANISMUS

14) Ich persönlich sehe das ‚biologische Leben‘, den ‚Geist in allem‘ sowie die ‚Computer‘ als Produkte des Biologischen Lebens weniger gegenläufig sondern als drei verschiedene Momente einer einzigen Wirklichkeit, die sich emergent entfaltet. So großartig die Leistungen der biologischen Wissenschaften einschließlich Molekularbiologie, Genetik, Biochemie usw. im einzelnen bislang waren, so wenig ist es ihnen bislang gelungen, die Gesamtzusammenhänge als Eigenschaften eines quantenphysikalischen Raumes sichtbar zu machen, der wiederum über sich selbst hinaus weist. Die Summe ist immer mehr als ihre Teile; aber dazu braucht man eine geeignete Sprache, die man mühsam ‚erfinden‘ muss; von alleine ist sie nicht da. Und das schiere ‚einfach nicht darüber Nachdenken‘ — als eine Form von Denkverweigerung — ist kein fruchtbarer Boden für neue Erkenntnisse.

Eine Übersicht über alle bisherigen Blogbeiträge nach Titeln findet sich HIER