„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

Science-Fiction-Visionen von intelligenten oder gar superintelligenten Maschinen haben eine lange Historie. Besonders in der Hype-Phase der so genannten „Künstlichen Intelligenz (KI)“ in den 1960-1980er Jahren waren Behauptungen en vogue, dass Computeranwendungen die Menschheit in Bezug auf ihre Intelligenz bald einholen oder gar überholen werden – mit unabsehbaren Folgen und Bedrohungen für die Menschheit. “Once the computers got control, we might never get it back. We would survive at their sufferance. If we’re lucky, they might decide to keep us as pets”, meinte z.B. Marvin Minsky im Jahr 1970.

Als Zeithorizont für solche technische Superintelligenzen werden gerne ca. 10-30 Jahre angegeben – egal wann so etwas behauptet wurde. Dieser Zeitrahmen ist anscheinend nah genug, um genug Aufmerksamkeit zu erregen und weit genug weg, um für die Gültigkeit der Behauptungen nicht mehr gerade stehen zu müssen.

Ich habe den Eindruck, dass Behauptungen über technische Superintelligenzen aktuell wieder eine Hochzeit erleben. Dabei werden sie nicht nur von Hollywood, sondern auch von Wissenschaftsjournalisten dankbar aufgegriffen und verwertet. Dass sich frühere Prognosen dieser Art als falsch herausgestellt haben, spielt dabei keine Rolle. Gerne wird auf „Experten“ verwiesen, die sich diesbezüglich (alle) längst einig seien und nur im exakten Zeitpunkt noch nicht ganz sicher seien.

Durch die Frage wann es so weit sei, wird die Diskussion um das „ob“ meiner Meinung nach völlig vernachlässigt. Ich bin Informatiker. Ich beschäftige mich seit über 30 Jahren mit KI, entwickle seit mehreren Jahren KI-Anwendungen für den Unternehmenseinsatz und veröffentliche darüber Artikel und Bücher. Demnach halte ich mich für einen KI-Experten. Und nach meiner Meinung sind Behauptungen von technischen Superintelligenzen absurd.

Derzeit arbeite ich in einem KI-Projekt, in dem wir Software für Ärzte entwickeln, die Krebspatienten behandeln. Ein schöner Nebeneffekt der Arbeit an diesem Projekt ist, dass ich mein Schulwissen in Biologie und insbesondere Genetik auffrischen durfte. Während das früher für mich trockener Schulstoff war, kann ich jetzt nachvollziehen, warum die Ursprünge des Lebens Menschen faszinieren. Ich hatte einige Aha-Effekte, was sie Vielschichtigkeit, Vernetzung und Dynamik von Prozessen des natürlichen Lebens betrifft. Ich möchte diese laienhaft kurz mitteilen, um sie anschließend KI-Anwendungen gegenüberzustellen.

Es gibt chemische und physikalische Grundsätze, nach denen sich Atome zu Molekülen bzw. Molekülketten zusammensetzen – quasi mechanisch nach festen, einfachen Regeln. Und diese einfachen Molekülketten verhalten sich wie kleine Maschinen, die spezielle Aufgaben verrichten. Da gibt es Maschinen, die schneiden die DNA in der Mitte auf; dann gibt es welche, die kopieren die DNA-Information auf RNA; es gibt welche, die prüfen, ob es Kopierfehler gegeben hat und korrigieren diese (aber nicht alle Fehler – es soll ja noch Raum für Mutation bleiben); dann gibt es Maschinen, die lesen RNA, interpretieren sie nach dem genetischen Code und bauen daraus neue Molekülketten: Proteine, aus denen Zellen zusammengesetzt werden.

Wenn ich diese physikalisch-biologischen Vorgänge betrachte frage mich: findet hier gerade der Übergang von toter Materie zum Leben statt? Wo genau?

Und nun geht es weiter: Die Proteine bilden Zellen – kleine Maschinen, die ganz unterschiedliche Aufgaben erfüllen. Manche transportieren Sauerstoff; Manche andere stürzen sich auf Schädlinge und bekämpfen diese; Wiederum andere bauen feste Knochen. Und weiter geht es: Zellen zusammen bilden Organe mit klaren Aufgaben. Eines verdaut unser Essen, eines pumpt Blut und ein Organ vollführt erstaunliche Denkleistungen. Und alle Organe zusammen formen einen Menschen. Dieser wird gezeugt, geboren (jeder der eigene Kinder hat, weiß von der Faszination der Geburt), wächst, lernt, handelt intelligent und stirbt wieder. Viele Menschen zusammen bilden Kulturen, die entstehen, Wissen und Fähigkeiten entwickeln, und wieder vergehen. Diese Kulturen werden von einer intelligenten Spezies, genannt Homo sapiens, geformt. Diese einzelne Spezies entstand durch Evolutionsprozesse, denen sie kontinuierlich unterworfen ist. Wie die meisten Spezies wird sie irgendwann vergehen. Alle Spezies zusammen bilden das Leben auf dieser Erde. Und die Erde ist nur ein einziger Planet eines Sonnensystems einer Galaxie des Universums, über dessen mögliche andere intelligente Lebensformen wir nichts wissen.

Alle diese Ebenen, die ich laienhaft angedeutet habe, sind in sich hoch komplexe Systeme, die alle miteinander verwoben sind. Und vermutlich gibt es genauso viele Ebenen im submolekularen Bereich. Niemand kann ernsthaft behaupten, das komplexe Zusammenspiel über all diese miteinander vernetzten Ebenen auch nur annähernd, geschweige denn vollständig zu begreifen. Was wir heute zu wissen glauben, wird morgen als überholt erkannt und wirft viele neue Fragen für übermorgen auf. Im Ernst zu glauben, dass die unfassbare Komplexität des Lebens, sowie der Intelligenz als einer Ausdrucksform des Lebens, durch Computeranwendungen abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik zu sein.

Schauen wir uns doch einmal KI-Anwendungen im Detail an. KI-Anwendungen werden stets zu einem speziellen Zweck entwickelt. So kann z.B. IBMs Deep Blue Schach spielen und Googles AlphaGo kann Go spielen. Beide Systeme übertreffen dabei die menschlichen Welt- und Großmeister. IBM Watson kann Fragen des allgemeinen Lebens beantworten – selbst wenn sie knifflig und mit Wortwitz gestellt sind – und schlägt alle menschlichen Champions der Quizshow Jeopardy! Selbstfahrende Autos erreichen ihre Ziele unter korrekter Berücksichtigung der Verkehrsregeln – vermutlich bereits in naher Zukunft sicherer als menschliche Fahrer.

All dies sind faszinierende Beispiele für mächtige KI-Anwendungen, die ich persönlich vor 20 Jahren nicht für möglich gehalten hätte. Aber sicher ist auch: Deep Blue wird niemals von sich aus anfangen, Go zu spielen, oder Quizfragen zu beantworten. IBM Watson kann nicht Schachspielen und wird es auch nicht lernen, egal in wie viel Quizshows die Anwendung eingesetzt wird. Und das selbstfahrende Auto wird nicht plötzlich auf die Idee kommen, sich für das Präsidentenamt zu bewerben, die Wahl gewinnen, anschließend die Demokratie und schlussendlich die Menschheit abschaffen. Das ist einfach absurd und gehört in den Bereich der Fiktion.

Alle diese KI-Anwendungen wurden von Informatikern und anderen Ingenieuren entwickelt. Intern werden u.A. Techniken des Machine Learning (ML) eingesetzt, meist das sogenannte „Supervised Learning“. Dabei werden Beispieldaten verwendet. So werden z.B. viele unterschiedliche Bilder von Stoppschildern, inklusive der Information, dass es sich jeweils um ein Stoppschild handelt, geladen. Mithilfe statistischer Methoden werden Modelle entwickelt, die es erlauben, bei neuen Bildern mit einer großen Wahrscheinlichkeit korrekt zu erkennen, ob ein Stoppschild abgebildet ist oder nicht. Dies kann dann in selbstfahrenden Autos für Fahrentscheidungen genutzt werden.

Also: die Anwendung lernt nicht von selbst, sondern mittels Eingabe von Beispielen durch Ingenieure („Supervisor“ im Supervised Learning). Wenn die Erkennungsraten nicht gut genug sind, ändern die Ingenieure entsprechende Parameter und starten das Lernverfahren erneut. Mit menschlichem Lernen kann das kaum verglichen werden.

Eine KI-Technik, die etwas mehr Ähnlichkeit zum Lernen eines Menschen hat, ist das sogenannte „Reinforcement Learning“. Dabei wird eine Umgebung eingesetzt, in der die Computeranwendung selbst Beispiele erzeugen und ausprobieren kann. Somit ist es möglich, ein Modell zu erzeugen, ohne dass dafür ein menschlicher Supervisor nötig ist. Zum Beispiel kann man ein Schachprogramm immer wieder gegen sich selbst (bzw. gegen ein anderes Schachprogramm) spielen lassen und die Machine Learning Verfahren auf die Verläufe und Ergebnisse dieser Spiele anwenden. Was jedoch Ingenieure vorgeben müssen, ist eine sogenannte Nutzenfunktion, z.B. „es ist positiv, ein Schachspiel zu gewinnen und es ist negativ, eines zu verlieren“. Würde man aus Spaß das Vorzeichen der Nutzenfunktion vertauschen, so würde die KI-Anwendung trainiert, Schachspiele möglichst schnell zu verlieren. Für die Anwendung wäre das überhaupt kein Problem. Sie spürt ja gar nichts, auch nicht die Auswirkungen eines verlorenen Schachspiels. Den Anreiz, eine Anwendung zu entwickeln, die Schachspiele auch gewinnt, haben die Ingenieure. Sie geben alles Notwendige von außen vor – nicht die KI-Anwendung aus sich heraus.

Im Gegensatz zur KI-Anwendung haben Menschen jedoch einen Körper. Babys verspüren Hunger und lernen von sich aus, sich so zu verhalten, dass sie etwas zu essen bekommen (Schreien hilft meist). Kinder brauchen den Zuspruch und die Zuneigung der Eltern und lernen sich so zu verhalten, dass sie Zuspruch und Zuneigung auch erhalten. Jugendliche und junge Erwachsene lernen, wie sie sich in ihrer Gesellschaft zu verhalten haben, um zu überleben – so unterschiedlich Gesellschaften auch sein können. Sie lernen aus sich heraus, weil sie Körper und Geist haben und wirklich in ihrer Umgebung leben – quasi die Resultate ihres Handelns hautnah spüren. KI-Anwendungen werden im Gegensatz dazu ausschließlich von außen durch Ingenieure gestaltet, auch wenn Techniken des Machine Learning eingesetzt werden.

KI-Anwendungen laufen auf Computer-Hardware. Wie die Anwendungen ist auch die Hardware von Ingenieuren entwickelt worden. Auch wenn wir die Metapher der „Generationen“ verwenden (wir reden z.B. von einer „neuen Prozessorgeneration“), hat dies selbstverständlich nichts mit Fortpflanzung in der Natur zu tun. Ein Prozessor kommt nicht auf die Idee, einen neuen Prozessor zu entwickeln und er zeugt auch keinen Prozessor, der mittels Evolution plötzlich besser ist als sein Vater.

Vergleichen wir nun KI-Anwendungen mit biologischem, intelligentem Leben: Auf der einen Seite beobachten wir ein unfassbar komplexes, vielschichtiges, dynamisches, selbstorganisierendes System – die vielen Schichten bzw. Ebenen habe ich laienhaft oben angedeutet. Auf der anderen Seite haben wir ein menschengemachtes, zweischichtiges System, bestehend aus KI-Anwendung und Computer-Hardware. Beide Schichten sind in sich starr und nicht selbstorganisierend. Die Dynamik (neue Hardwaregenerationen, bessere Algorithmen etc.) kommt von außen durch menschliche Ingenieursleistung. Wie kann man nun nüchtern betrachtet zur Behauptung kommen, dass dieses starre, menschengemachte System irgendwie plötzlich und von selbst dynamisch, selbstorganisierend, lebendig und intelligent wird: eine technische Superintelligenz, welche die Menschheit bedrohen kann? Ich kann beim besten Willen nicht den allerkleinsten Ansatz dafür sehen.

Bleibt die Frage, warum es immer wieder (einzelne) Fachexperten wie Marvin Minsky gibt, die solche, aus meiner Sicht absurden, Behauptungen aufstellen. Ist es ihr Ziel, Aufmerksamkeit zu erzeugen? Können sie eventuell daraus finanziellen Nutzen zu ziehen, z.B. in Form von Fördergeldern (das hat in den 1980er Jahren prima funktioniert)? Glauben sie wirklich daran und sorgen sie sich um die Menschheit? Sind solche ernst gemeinten Behauptungen vielleicht der Ausdruck einer schon fast ideologischen Wissenschafts- und Technikgläubigkeit? Ich weiß es nicht.

Dabei sind die Fortschritte der KI, vor allem in den letzten 20 Jahren, in der Tat höchst beeindruckend. Und tatsächlich bergen sie neben zahlreichen Chancen auch größte Risiken, wenn die Techniken blauäugig angewendet werden. In der Ausgabe 2/2017 der Communications of the ACM schreibt Alan Bundy in seinem Viewpoint sehr pointiert und aus meiner Sicht richtig: „Smart machines are not a threat to humanity. Worrying about machines that are too smart distracts us from the real and present threat from machines that are too dumb“.

Menschen überlassen KI-Anwendungen zunehmend wichtige Entscheidungen, obwohl selbstverständlich keine Anwendung perfekt ist. Bei selbstfahrenden Autos mag das durchaus sinnvoll sein, sobald diese nachweislich sicherer fahren als Menschen. Aber wirklich gefährlich wird es bei Entscheidungen, deren Auswirkungen kein Mensch mehr überblicken kann. Ein viel diskutiertes Gebiet ist der Hochfrequenzhandel, bei dem KI-Anwendungen Kauf- und Verkaufsentscheidungen autonom treffen, ohne dass heute die Auswirkungen auf das gesamte Wirtschaftssystem überblickt werden können. Noch deutlicher wird das im militärischen Bereich, wenn KI-Anwendungen prognostizieren sollen, ob ein Angriffsfall vorliegt und im Extremfall in Sekundenbruchteilen autonom über einen (möglicherweise nuklearen) Gegenschlag entscheiden sollen. Über solche KI-Anwendungen wurde bereits 1983 im Rahmen der Strategic Defense Initiative (SDI) intensiv diskutiert (bezeichnenderweise während der Hochzeit des KI-Hypes); und solche Diskussionen kommen leider immer wieder auf die Tagesordnung.

Wenn eine überhöhte Technik- und Wissenschaftsgläubigkeit nur dazu führt, absurde Behauptungen über technische Superintelligenzen aufzustellen, so ist das nicht weiter schlimm – sie provozieren nur harmlose akademische Diskussionen oder inspirieren amüsante Science Fiction Filme. Wenn wir aber als Gesellschaft – und besonders die politischen und wirtschaftlichen Entscheider – die Grenzen von Wissenschaft und Technik nicht klar sehen und folglich KI-Anwendungen Entscheidungen überlassen, die zwingend von verantwortlichen Menschen getroffen werden müssen, so kann dies fatale Folgen für unsere Gesellschaft haben.

Anmerkung:

Im Anschluss an diesen Artikel gab es eine Vortragsveranstaltung in der Reihe Philosophie Jetzt im Gespräch am 28.September 2017

(MASCHINELLES) BEWUSSTSEIN – ALLTAGSERKENNEN – ZURÜCK AUF START

(A shorter version in English can be found HERE)

KONTEXT: WELT DER INGENIEURE

  1. Seit letztem Sommer arbeite ich bei einem Buchprojekt mit, bei dem es eigentlich um die Welt der Ingenieure geht: Wie löst ein Ingenieur ein Problem? Sozusagen vom ‚Problem‘ zum ‚fertigen Produkt‘. Zu diesem Thema gibt es viele dicke Bücher und internationale Standards, viele hundert Artikel. Dennoch gibt es hier viele offene Fragen, z.B. auch die nach den Erkenntnisprozessen, die in Ingenieuren ablaufen müssen, damit sie ein Problem in eine funktionierende Lösung transformieren können. Unter welchen Voraussetzungen kann eine Kommunikation zwischen Ingenieuren gelingen? Gibt es eine innere Logik in diesem Prozess? Und was ist mit den intelligenten Programmen und Maschinen, die immer mehr Teil dieses Prozesses sind und sein werden? Was ist eigentlich ‚Künstliche Intelligenz‘? Was kann sie wirklich? Könnte eine Maschine menschlich kommunizieren? Kann eine Maschine ein maschinelles Bewusstsein haben, das eine Kooperation mit Menschen im menschlichen Stil ermöglicht?

MASCHINELLES BEWUSSTEIN

  1. Dies sind einige der Fragen. Die Frage nach einem maschinellen Bewusstsein wurde in diesem Blog bisweilen schon angerissen. Damit zusammenhängend stellt sich – zumindest methodisch – sofort die Frage, was wir denn unter dem Begriff ‚Bewusstsein‘ verstehen können oder sollen? Macht es Sinn, von einem ‚maschinellen Bewusstsein‘ zu sprechen, wenn wir doch gar nicht wissen, was ein ‚Bewusstsein‘ sein soll? Hier stellen sich viele spannende Fragen; einige davon wurden in diesem Blog auch schon diskutiert.

BEWUSSTSEIN UND NEURONALE KORRELATE

  1. Speziell die Frage nach dem menschlichen Bewusstsein hat schon immer Philosophen beschäftigt, später, in der Neuzeit, auch Psychologen, und dann, noch später, seit einigen Jahrzehnten zunehmend die Neurowissenschaften bzw. die Neuropsychologie. Der Begriff der ’neuronalen Korrelate des Bewusstseins‘ ist mittlerweile weit verbreitet. Ganz allgemein werden damit Gehirnaktivitäten gemeint, die mit Bewusstseinsprozessen einhergehen sollen. Die Zahl der Publikationen zu diesem Thema geht in die Hunderte. Dennoch wird man sich schwer tun, in irgendeiner dieser Publikationen eine brauchbare Definition von ‚Bewusstsein‘ zu finden, die unabhängig von neurowissenschaftlichen Tatbeständen ist. Von daher bewegen sich diese Publikationen weitgehend in einem hermeneutischen Zirkel: sie versuchen neuronale Korrelate des Bewusstseins zu definieren, ohne dass sie den Begriff ‚Bewusstsein‘ unabhängig von Gehirnaktivitäten definieren. Vereinfacht wird ein Bündel von Gehirnaktivitäten genommen und erklärt, dass immer dann, wenn diese auftreten, bewusste Aktivitäten vorliegen, ohne dass diese bewussten Aktivitäten in einem selbständigen theoretischen Modell erklärt werden bzw. unabhängig von den neuronalen Aktivitäten gemessen werden.
  2. Die Methodendiskussionen im Kontext der Neurowissenschaften – auch unter Einbeziehung der Neuropsychologie – erscheinen von daher bislang eher unbefriedigend.

MACHINELLES BEWUSSTSEIN – KI

  1. Hier gibt es einen interessanten Nebenkriegsschauplatz, von dem man sich auf den ersten Blick vielleicht kaum Erkenntnisse für die Frage ‚Bewusstsein – Gehirn‘ erhofft. Das Gebiet des maschinellen Bewusstseins, einem Teilgebiet der künstlichen Intelligenz (Anmerkung: der heute oft anzutreffende Begriff der ‚Maschinellen Intelligenz‘ ist – wenn man sich an den veröffentlichten Texten orientiert – nur ein kleiner Teilbereich des weiten Gebietes der ‚Künstlichen Intelligenz‘. Allerdings ist der Sprachgebrauch von ‚Künstlicher Intelligenz‘, ‚Maschineller Intelligenz‘, ‚Computational Intelligence‘, ‚Cognitive Computation‘ usw. zur Zeit nicht sehr einheitlich.) fragt sich sehr speziell, ob und wie man das Phänomen des menschlichen Bewusstseins mittels einer Maschine soweit nachbauen könnte, dass sich alle Eigenschaften des menschlichen Bewusstseins damit reproduzieren lassen. Wie man dieses maschinelle Bewusstsein technisch realisiert ist bei dieser Fragestellung eigentlich offen, faktisch versucht aber die große Mehrheit der hier aktiven Forscher Anleihen bei der Gehirnwissenschaft und der Psychologie zu holen, weil nun mal der Prototyp eines menschlichen Bewusstseins in realen Menschen real vorliegt und es für viele einfacher erscheint, sich hier etwas abzugucken als alles aus dem Nichts neu zu erfinden.
  2. Einen der besten Überblicke, den ich zu diesem Forschungsgebiet kenne, stammt von James A.Reggia aus dem Jahr 2013 mit dem Titel „The rise of machine consciousness: Studying consciousness with computational models“ (erschienen in der Zeitschrift ‚Neural Networks‘ von Elsevier (URL: https://pdfs.semanticscholar.org/8333/603ff38df5fb8277f0ef945b3d4c6ccd672e.pdf ). In einem späteren Artikel aus 2017 hat er die grundlegende methodische Problematik unter dem Titel „Exploring the Computational Explanatory Gap‚ zusammen mit anderen nochmals weiter ausformuliert (in der Zeitschrift ‚Philosophies‘ (URL: doi:10.3390/philosophies2010005 ). Reggia zeigt viele der methodischen Schwachstellen der Rede von den neuronalen Korrelaten des Bewusstseins auf (auch sehr grundlegende Einwände) und kommt letztlich zum Ergebnis, dass die Forschung nicht wirklich weiter kommt, solange sie sich nicht dem Phänomen des ‚Bewusstseins‘ direkt stellt ohne den Umweg über Verhalten (Psychologie) oder Gehirnaktivität (Neurowissenschaft).

WIE DIE FRAGE STELLEN?

  1. Damit stellt sich die Frage, welche Chancen wir denn haben, uns direkt mit dem Bewusstsein zu beschäftigen. Die vielfachen Versuche der Philosophen aus mehr als 2000 Jahren, die der Psychologen seit ca. 150 Jahren bieten eine kaum überschaubare Fülle von Vorgehensweisen, von denen sich aber bislang keine wirklich durchsetzen konnte. Am meisten vielleicht noch (meine subjektive Einschätzungen) die Ansätze einer phänomenologischen Philosophie (Husserl, Heidegger, Merleau-Ponty…), aber so richtig durchsetzen konnten diese sich bislang auch nicht. Seit den 90iger Jahren gab es eine neue Welle von philosophischen Untersuchungen. Den Namen Thomas Metzinger kennen seitdem viele, die Zeitschrift ‚Journal of Consciousness Studies‘ bildete einen starken Impuls, in der Einbeziehung der Gehirnforschung sahen viele eine neue Option. In dem Maße aber, wie sich die Daten der Gehirnforschung mathematisch fassen und in neuartige Experimente umsetzen lassen, wird sichtbar, dass die Gehirnforschung als solche nicht automatisch jene Erkenntnisse liefert, nach denen wir fragen. Was also tun?

SYSTEMS ENGINEERING

  1. Mehr durch Zufall bin ich vor ca. 18 Jahren mit Menschen zusammen getroffen —  speziell mit einem –, die sich Ingenieure nennen, genauer, ‚Systems Engineers‘. Dies sind Menschen, die ein umfangreiches Training vorwiegend in Technologie, Mathematik und Management genommen haben, meist mindestens 20 – 25 Jahre, bis sie dann Raketen und Flugzeige planen und bauen können, Atomreaktoren mit Extremsicherheitsanforderungen, den Verkehrsfluss in Städten, die Grenzsicherung eines Landes, das Gesundheitssystem eines Landes, und vieles mehr. Systems Engineers sind gewohnt, komplex zu denken, in Prozessen, unter Einbeziehung des Faktors Mensch, und immer sehr konkret, überprüfbar, messbar, mit vielen mathematischen Modellen, unter Einbeziehung von hochentwickelten Softwarewerkzeugen.
  2. An dieser Stelle kann man mal die Frage aufwerfen, wie müsste eine Theorie des menschlichen Bewusstseins aussehen, so dass ein Systems Engineer sie real und praktisch benutzen könnte, um seine komplexen Aufgaben damit besser lösen zu können? Die meisten Publikationen zum Thema Bewusstsein reden in gewisser Weise ‚über‘ das Phänomen, eingebettet in viele spezielle Begriffe, deren Bedeutung nicht so ohne weiteres klar ist, ohne dass sich daraus ableiten lässt, wie man aus diesem Reden ‚über‘ das Bewusstsein zu konkreten Anleitungen und zu konkreten Methoden kommen kann, die geeignet sind, das reale Verhalten von Akteuren mit Bewusstsein sowohl zu beschreiben wie auch – soweit es die internen Freiheitsgrade von Akteuren erlauben – gewisse Prognosen über ihr Verhalten abzugeben. Für Ingenieure besonders wichtig sind brauchbare Erkenntnisse über die Wechselwirkung zwischen den Situationsgegebenheiten und den inneren Zuständen des Akteurs. Eine verhaltensorientierte Psychologie kann hier in der Regel von großer Hilfe sein, ersetzt aber keine ‚Theorie des Bewusstseins‘ im engeren Sinne.

ZURÜCK AUF START

  1. Die obigen Überlegungen im Hinterkopf, z.T. schon viele Jahrzehnte, habe ich mich jetzt entschlossen, die Frage nach einer geeigneten Theorie des Bewusstseins, die sich in Ingenieurkontexten praktisch nutzen lässt, nochmals neu anzugehen. Dieses Mal bewusst im Rahmen des methodischen Paradigmas des Systems Engineerings.
  2. Dabei trat die Notwendigkeit auf, die pragmatischen Umschreibungen und Handhabungen des Begriffs ‚Systems Engineering‘ im Modell einer ‚Empirischen Wissenschaft‘ mit einer ‚formalen Theorie‘ zu reformulieren und in diesem Kontext dann die Frage nach dem Bewusstsein empirisch und theoretisch zu verfolgen. Obgleich man davon ausgehen kann, dass die Ergebnisse der empirischen Psychologie, der empirischen Neurowissenschaften und einer empirischen Neuropsychologie wertvolle Korrelationen liefern können, so muss man methodisch festhalten, dass sie dies nur dann können, wenn es unabhängig vom Verhalten und den Gehirnaktivitäten eine brauchbare Theorie des Bewusstseins gibt, die sich korrelieren lässt. Ohne solch eine eigenständige Theorie des Bewusstseins bewegen sich Psychologie und Gehirnwissenschaft in einem hermeneutischen Zirkel, aus dem es keinen Notausgang gibt.
  3. Ein Ziel zu haben ist eines, den Weg zum Ziel zu finden etwas anderes.

START IM ALLTAG

  1. Nach zahllosen Versuchen in den letzten Jahren und den intensiven Diskussionen in der Fachliteratur habe ich mich entschieden, den Start der Untersuchung in den Alltag zu verlegen, in den Kontext jener Abläufe und Handlungen, die wir täglich vornehmen, die wir mehr oder weniger gemeinsam haben, und über die zwar nicht unbedingt theoretisch explizit aber dennoch pragmatisch unausgesprochen eine gewisse Einigkeit besteht.

KÖRPER ALS APRIORI

  1. Es besteht eine gewisse Wahrscheinlichkeit, dass jene Verhaltensweisen, die wir praktizieren, ohne darüber groß zu diskutieren, jene sind, die in der Dynamik und Struktur unseres Körpers, unseres Gehirns und unseres Bewusstsein biologisch angelegt sind, jene Plattform des Wahrnehmens, Fühlens, Erinnerns, Vorstellens, Entscheidens usw. bieten, mit der wir unser alltägliches Leben bestreiten, auch wenn wir über keinerlei theoretische Erkenntnisse verfügen, wie man dies alles genau verstehen kann bzw. sollte (So können Kinder lernen, sich zu bewegen und zu sprechen, ohne theoretische Kenntnisse).
  2. In der formalen Logik gibt es den Grundsatz, dass man nur jene Sachverhalte ‚beweisen‘ kann, die schon in den Voraussetzungen einer Theorie drin stecken. Im Fall unseres Alltagsverhaltens wäre dann das Alltagsverhalten zu verstehen als eine fortdauernde Manifestation von Voraussetzungen, die biologisch in unserem Körper angelegt sind. Die eigentliche theoretische Arbeit bestünde dann darin, jene Voraussetzungen sichtbar zu machen, die in unserem Körper so angelegt sind, dass wir genau zu dem beobachtbaren Verhalten fähig sind. Schwierig wird es dann nur, wenn wir in unserem beobachtbaren Verhalten nur einen Bruchteil von dem Potential ausnutzen, was ‚in uns‘ steckt. Wie wollen wir dann wissen, ‚wer‘ wir sind, wenn sich unsere potentielle Person – aus den unterschiedlichsten Gründen – nicht ‚zeigt‘? Die Geschichte der Menschheit ist voll von Beispielen, wie kulturelle Muster das Verhalten von Menschen unnötiger Weise in bestimmte Muster gepresst haben (und immer noch pressen), die die Entfaltung von Menschen behindern; umgekehrt haben immer wieder Menschen und Situationen neue Verhaltensweisen hervorgebracht, von denen man sich vorher gar nicht vorstellen konnte, dass es sie geben könnte.

BARRIEREN IM SELBST-ERKENNEN

  1. Dies zeigt, dass das ‚Erkennen unserer selbst‘ selbst wiederum in einem hermeneutischen Zirkel stattfindet, in dem wir möglicherweise nur deswegen vieles nicht erkennen, weil wir uns schlicht nicht vorstellen können,   dass es möglich ist, bzw.  dass wir als Menschen auch ganz anders sein könnten (die Art und Weise, wie noch heute in vielen Kulturen z.B. Kinder und Frauen gesehen und behandelt werden, zeigt überdeutlich, wie schwer sich der homo sapiens tut, seine Verhaltensmodelle zu ändern, und auszuweiten).

Fortsetzung folgt

 

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

INFORMATIK & GESELLSCHAFT – Kurzbericht

Änerung: 19.März 2015 (Die Künslergruppe Reul & Härtel hat das Foto mit Ihnen durch ein Bild aus ihr Performance (‚visualexploration‘) ersetzen lassen)
Änderung: 20.Nov.2014 (Einfügung Videoschnappschuss von der Uraufführung des Eingangereignisses)

Wie schon zuvor in diesem Blog darauf hingewiesen gab es am 8.November 2014 in der Frankfurt University of Applied Sciences eine recht interessante Veranstaltung INFORMATIK & GESELLSCHAFT. Computer und Geist. Aspekte einer Standortbestimmung. Im Folgenden ein kurzer Bericht mit einigen Schnappschüssen. Alle Bilder sind von Dominik Wolf, dem es gelungen ist, unter schwierigen Lichtverhältnissen doch das eine oder andere Bild zu schiessen. Die beiden ersten Bilder sind allerdings von Anita Henisch, die dann wegen der schwierigen Lichtverhältnisse aufgegeben hatte. Von Dominik Wolf selbst gibt es leider kein Foto, was schade ist, da er die Hauptlast der Organisation getragen hat.

13.20 Uhr Eingangsereignis Computermediated Sound/Images 1
(cagentArtist & Guido May)

cagentartist im Gespräch mit Guido May vor der Uraufführung von 'Little CRUNCS symphony No.1'

cagentartist im Gespräch mit Guido May vor der Uraufführung von ‚Little CRUNCS symphony No.1‘

Jazz-Schlagzeuger Guido May während der Uraufführung von 'Little CRUNCS symphony No.1'

Jazz-Schlagzeuger Guido May während der Uraufführung von ‚Little CRUNCS symphony No.1‘

Hier ein Video Schnappschuss von Dominik Wolf. Dies war nicht als Dokumentation geplant; aber da der geplante Tonmitschnitt leider nicht verfügbar ist, ist dies nun das einzige Zeugnis der 20 Minuten-Uraufführung.

Das Stück ‚Little CRUNCS symphony No.1‘ wirkte auf den ersten Blick wie sinfonische Musik, war aber vollständig im Computer generiert worden. Sieben verschiedene Eingangsklänge wurden auf unterschiedliche Weise algorithmisch bearbeitet und miteinander verzahnt. Viele Zuhörer sagten anschliessend, dass für sie das Schlagzeugspiel sehr wichtig gewesen sei. Ohne dieses hätten sie sich mit dem reinen Soundtrack schwer getan. So aber war es ein Erlebnis. Auch für den erfahrenen Jazz-Schlagzeuger Guido May war das Stück, wie er sagte, eine besondere Herausforderung. Alle ihm bekannten Muster passten bei diresdem Stück nicht. Er musster sich die Rolle des Schlagzeugs hier speziell erarbeiten.

13.45 Uhr Begrüßungen
(Moderator Prof. Doeben-Henisch, Sprecher ForschungsCampus FC3 & Informatik Cluster Fb2 Prof. Schäfer, Dekan Fb2 Prof. Morkramer, Vizepräsident Wissenschaft Infrastruktur Forschungstransfer der Frankfurt University of Applied Sciences Prof. Schrader)

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Prof.Doeben-Henisch bei der Begrüßung. Es war die erste Veranstaltung dieser Art für die Informatik an der Hochschule. So war es sehr erfreulich, dass so viele sich aktiv und engagiert bei dieser Veranstaltung beteiligt haben.

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Prof. Morkramer,  der Dekan des Fb2, verstand es, am Beispiel seiner eigenen Familie lebendig werden zu lassen, wie schnell die Computer innerhalb von zwei  Generationen aus dem Nichts aufstiegen und heute alles durchdringen. Erst jetzt beginnen wir Menschen scheinbar zu begreifen, welche große Folgen dies für uns alle haben kann, nicht nur positiv, sondern auch negativ.

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung  und Forschung, Prof.Dr. Ulrich Schrader

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung und Forschung, Prof.Dr. Ulrich Schrader

Der Vizepräsident für Weiterbildung, Infrastruktur und Forschung, Prof. Dr. Schrader, griff sich aus den vielfältigen Entwicklungen jenen Bereich heraus, der ihn selbst besonders betrifft, den Bereich neuer Unterrichtstechnologien. So wunderbar diese neue Welt auch erscheint, er machte darauf aufmerksam, dass der Aufwand für eine volle Nutzung dieser neuen technologischen Möglichkeiten, von einer einzelnen Hochschule kaum gestemmt werden kann. Er wagte einen visionären Ausblick dahingehend, ob nicht Hochschule, Behörden und Wirtschaft zusammen ein ‚Leuchtturmprojekt‘ gemeinsamer neuer digitaler interaktiver Lernräume stemmen sollten. Eine Frage, die noch immer weiterhallt, auch nach der Veranstaltung.

14.00 Uhr Geist zum Nulltarif? Philosophische Aspekte zur Herkunft und zur Zukunft der Informatik. Vortrag und Diskussion
(Prof. Dr. phil. Dipl. theol G. Doeben-Henisch)

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Unter dem Titel ‚Geist zum Nulltarif‘ ordnete Prof. Doeben-Henisch   den Menschen mit seiner ‚Geistigkeit‘ ein in die Ideengeschichte (‚Geist‘ in der antiken griechischen Philosophie, hier verankert im Phänomen des ‚Atmens‘ (Verb: ‚pneo‘) erweitert zum Lebensprinzip (Substantiv ‚pneuma‘)) und in die Evolution des Lebendigen (‚Geist‘ als eine inhärente Eigenschaft des Biologischen selbst). Die strukturellen Übereinstimmungen zwischen dem Prinzip Computer und biologischen Zellen bis hin zum Gehirn lassen heute nicht erkennen, warum der Computer den Menschen in seinen Fähigkeiten nicht übertreffen können sollte. Die – besonders in den USA – vertretene Hypothese von der kommenden ‚technologischen Singularität‘ geht schon ganz selbstverständlich davon aus, dass die Tage der Menschen gezählt sind; die ‚intelligenten Maschinen‘ werden ‚übernehmen’…

15.00 Uhr Informatik und Gesellschaft Soziologische und kulturanthropologische Aspekte der neuen Informationstechnologien. Vortrag und Diskussion
(Prof. Dr. habil. Dipl. soz. Manfred Faßler)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Dass diese ‚Anpassbarkeit‘ des Computers an gesellschaftliche Abläufe und psychischen Bedürfnissen massive Rückwirkungen auf das Verhalten der Menschen und viele soziale Strukturen hat, thematisierte Prof. Fassler. Er identifizierte in den beobachtbaren Veränderungen einen großen Forschungsbedarf: wie können wir verhindern, dass die Menschen zu bloßen ‚Anhängsel‘ eines einzigen großen kybernetischen Systems werden, das  einer ’smarten Humanität‘ zuwider läuft? Und in der Tat, der Reflexionsbedarf der heutigen Informatik gerade mit Blick auf Soziologie und Kulturanthropologie ist drängend; wo aber sind die zugehörigen Forschungsgruppen und Forschungsprogramme?

16.00 Uhr Pause Computermediated Sound/Images 2
(Philip Reul & Markus Härtel)

Momentaufnahme von der Performance Haertel-Reul

Momentaufnahme von der Performance Haertel-Reul

Die wunderbaren Bilder von Härtel/ Reul, die auf der digitalen Verarbeitung von analogen Prozessen in verschiedenen Flüssigkeiten beruhten, ließen in der ersten Pause  dann etwas Leichtigkeit aufblitzen, einen Hauch von Schönheit. Zu erwähnen ist, dass Philip Reul auch Absolvent des Bachelor-Studiengangs Informatik der Hochschule ist sowie des interdisziplinären Masterstudiengangs ‚Barrierefreie Systeme‘ (BaSys).

visualexploration-8nov2014

visualexploration-8nov2014 von Härtel & Reul

16.30 Uhr Verkehr von morgen. Total umsorgt, total verkauft? Über Uber, Überwachung, und die neue Mobilität. Vortrag und Diskussion
(Prof. Dr. Jörg Schäfer)

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Prof. Schäfer demonstrierte dann am Beispiel der Mauterfassung, wie das vorhandene Knowhow der Informatik von der Politik nicht genutzt wird, um  die Privatsphäre bei der Mauterfassung zu wahren. Stattdessen wird direkt auf die Privatheit zugegriffen. Am Beispiel des neuen  Fahrgastvermittlungssystem Uber illustrierte Schäfer, wie einige wenige Kapitalgeber mit einer einfachen, billigen Software weltweit hohe Vermittlungsgebühren einziehen können, ohne juristische Verantwortung für das Fahrgastgeschäft selbst zu übernehmen. Er fragte, warum die Bürger dies nicht selbst organisieren, z.B. mit einer  ‚genossenschaftlichen Bürgerplattform‘. Noch weiter gedacht: warum sollten Studierende, Professoren und Bürger nicht solch eine Genossenschaft gründen?

17.30 Uhr Robot-Fabriken. Erhöhung der Produktivität; wo bleibt die Arbeit? Vortrag und Diskussion
( Prof. Dr. Kai-Oliver Schocke)

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Das Thema ‚Automatisierung‘ bzw. ‚Roboter-Fabriken‘ ist in der Öffentlichkeit wegen unterstelltem Arbeitsplatzverlust schon mit Vorbehalten verhaftet. Prof. Schocke verstand es aber, in einem sehr engagierten Vortrag zunächst einmal die Notwenigkeit einer Produktivitätssteigerung durch weiter automatisierte Fabriken zu klären. Der internationale Konkurrenzdruck zwingt Deutschland, hier an vorderster Stelle mit zu halten. Allerdings zeigte die lebhafte Diskussion, dass damit das Problem der oft zitierten Arbeitsplatzvernichtung möglicherweise noch nicht völlig beantwortet ist. In der Diskussion wurde klar, dass hier alle betroffenen gesellschaftlichen Kräfte herausgefordert sind nach Lösungen zu suchen. den Unternehmen alleine kann man dies nicht anlasten.

18.30 Uhr Pause Computermediated Sound/Images 3
(acrylnimbus)

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt, ehemaliger Absolvent der Informatik – noch mit dem klassischen Diplom –, der zugleich seit gut 20 Jahren auch experimentelle Musik produziert, komponiert, performed, zeigte ein eigens Kunstvideo parallel zu einem eigenen Soundtrack, den er live spielte.

19.30 Uhr Video Slam zum Thema Informatik und Gesellschaft (Länge eines Videos maximal 7-Min, künstlerisch oder wissenschaftlich, Publikumspreise für die zwei besten Beiträge)

 Video--Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Video–Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Obgleich die Vorlaufzeit für den Videowettbewerb vergleichsweise sehr kurz war hatte es Einsendungen gegeben und es war möglich, den vom Förderkreis der Hochschule gestifteten Preis an zwei Preisträger zu überreichen. Sowohl Siegfried Härtel wie auch Tom Pluemmer sind profiliert Kunstschaffende. Während Tom Pluemmer seinen Schwerpunkt im Bereich Film hat, hat Siegfried Kärcher in seinem Leben schon eine ganze Bandbreite von künstlerische Aktivitäten aufzuweisen. Darin kommt eine intensive Auseinandersetzung mit Computern in ihren vielschichtigen Einsatzmöglichkeiten ebenso vor wie Lichttechnik, Sounddesign und Videokunst, um nur einiges zu nennen.

Das Cafe1 während der Pausen - Essen, Trinken, Kommunizieren

Das Cafe1 während der Pausen – Essen, Trinken, Kommunizieren

21.30-23.00 Uhr Ausgangsereignis Computermediated Sound/Images 4
(Werkstattgespräch mit den Künstlern; Digital Jam-Session)

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Hier eine Momentaufnahme von der inspirierenden Improvisation Tobias Schmitt & Guido May. Leider viel zu kurz …

Weitere Berichte, Kommentare können möglicherweise noch folgen. Insbesondere sollen noch Links auf die beiden prämierten Videos folgen.

Eine erste Nachreflexion von cagent zur Tagungfindet sich HIER.

Einen Überblick über alle Einträge in diesem Blog nach Titeln findet sich HIER.

Philosophie Jetzt: Veranstaltung am 2.Okt.2011

Hier eine Ankündigung in eigener Sache:

Am 2.Okt.2011 beginne ich mit einer ersten Veranstaltung im Rahmen des Projektes ‚Philosophie Jetzt‘ mit dem aktuellen Titel ‚Unterwegs Wohin?‘

Grundidee ist, die Diskussion aus dem Blog auch in der Öffentlichkeit zu führen und damit  das Umdenken vieler gewohnter Alltagsbegriffe weiter zu unterstützen. Die Veranstaltung findet im

Bistro des Restautant ‚Schnittlik‘ statt

61137 Schöneck

Platz der Republik 2

16:00 – 19:00h

Gedacht ist an einer lockeren Form  von Vortrag, Gespräch, aufgelockert mit eigener experimenteller Musik. Denkbar, dass in Zukunft auch andere aktiv mitwirken durch Texte und Musik. Dies ist jedenfalls ein Anfang. Philosophie ist für uns alle wichtig, nicht nur für ‚Hinterstubendenker’……

Herzliche Grüße,

cagent

PS:  Es deutet alles darauf hin, dass es mir zum ersten Mal gelingt, einen Zusammenhang von ‚Urknall‘ über kosmische Evolution, biologische Evolution 1, biologische Evolution 2 (=Kultur, Technologie) bis hin zu Grundstrukturen von Wissen, Lernen und Werten zu zeichnen. Hätte dies nie für möglich gehalten. Im Nachhinein erscheint es so einfach und man versteht gar nicht, warum man sich nahezu 63 Jahre quälen muss, bis man dahin kommt (kleiner Trost. den anderen geht es auch nicht besser…). Die neue Perspektive hat allerdings etwas ‚Berauschendes‘; die philosophisch-theologischen Kategorien der Vergangenheit wirken da wie ein ’schlechter Traum‘. Andererseits war dies irgendwie als ‚Durchgangsphase‘ unumgänglich. Erkennen funktioniert nur über Blindversuch, Fehler, Korrektur, neuer Versuch… irgendwann hat man dann das Gefühl, jetzt scheint es ‚besser‘ zu sein…bis zur nächsten ‚Verbesserung’…Ohne diese gelegentlichen Blog-Einträge — so einfach und erratisch sie auch im einzelnen sein mögen — wäre dies nie passiert….

PS2: Ja, die Veranstaltung hat stattgefunden. Trotz strahlendem Sommerwetter war der Raum gefüllt und die drei Stunden erwiesen sich als viel zu kurz….Das ruft nach mehr….

Zusammenfassung des Vortrags

 

(1) Der Vortrag wählte als Ausgangspunkt die Position des Dualismus, der fast 2000 Jahre die europäische Philosophie — und auch das übrige Denken — geprägt hatte und selbst heute noch in vielen Kreisen präsent ist: die Gegenübersetzung von Geist und Materie.

 

(2) Es wurde dann in mehreren Schritten gezeigt, wie diese Gegenübersetzung im Lichte des heutigen Wissens nicht nur ‚in sich zusammenfällt‘ sondern mehr noch, einen völlig neuen Denkansatz ermöglicht.

 

(3) Über die Stationen Erde – Sonnensystem – Milchstraße – Universum wurde nicht nur deutlich, dass wir in einer der wenigen ‚bewohnbaren‘ (habitablen) Zonen leben, sondern dass alle bekannte ‚Materie‘ letztlich nichts anderes ist als eine ‚Zustandsform von Energie‘.

 

(4) Anhand der unterschiedlichen komplexen Strukturen wie subatomar Quanten, Atome, Moleküle wurde deutlich, wie es eine Brücke gibt von der Energie zu den kleinsten Bauelementen biologischer Lebensformen im Rahmen der chemischen Evolution. Zwar sind hier bis heute noch nicht alle Abläufe vollständig aufgeklärt, aber der Weg vom Molekül zur Zelle ist zumindest prinzipiell nachvollziehbar.

 

(5) Es wurden grob jene Prozess skizziert, die bei der Selbstreproduktion involviert sind (DNA, mRNA, tRNA, Ribosomenkomplexe….). Sämtliche Prozesse dieser chemischen Informationsmaschinerie basieren ausschließlich auf Molekülen.

 

(6) Die biologische Evolution von den ersten Zellen bis zum homo sapiens wurde stark verkürzend skizziert. Die Rolle des Gehirns in der Steuerung, für das Verhalten, für die Sprache. Die mittlerweile allgemein akzeptierte Out-of-Africa Hypothese, die Abstammung aller heute lebenden Menschen von einer Gruppe von homo sapiens Menschen, die von Ostafrika aus vor ca. -70.000 über Arabien, Persien, Indien Australien bevölkerten, Asien und ab ca. -45000 Europa. Später auch Nord- und Südamerika.

 

(7) Es wurde kurz erklärt wie der ‚Wissensmechanismus‘ hinter der biologischen Evolution funktioniert, die — obgleich vollständig ‚blind‘ — innerhalb von ca. 3.7 Mrd. Jahren hochkomplexe Organismen hervorgebracht hat. Die ‚Logik‘ dahinter ist ein gigantischer Suchprozess über die möglichen ökologischen Nischen, deren Feedbackmechanismus ausschließlich im Modus des ‚Überlebens‘ gegeben war. Das konnte nur funktionieren, weil beständig Milliarden von ‚Experimenten‘ gleichzeitig ausgeführt wurden. Evolution heißt ‚aktiv mit dem Unbekannten spielen‘ mit dem Risiko, unter zu gehen; aber dieses Risiko war — und ist — die einzige ‚Versicherung‘, letztlich doch zu überleben.

 

(8) Es wurde dann die Besonderheit des Gehirns erläutert, warum und wie Gehirnzellen in der Lage sind, Signale zu verarbeiten. Es wurden die chemischen Prozesse geschildert, die diesen Prozessen zugrunde liegen und dann, wie sich diese komplexen chemischen Prozesse heute technisch viel einfacher realisieren lassen. Es wurde ferner erklärt, warum ein Computer das Verhalten eines Gehirns simulieren kann. Zugleich wurde aber auch deutlich gemacht, dass die Simulation mittels eines Computers keine vollständige Berechenbarkeit impliziert, im Gegenteil, wir wissen, dass ein Gehirn — real oder simuliert — grundsätzlich nicht entscheidbar ist (Goedel, Turing).

 

(9) Es wurde weiter erläutert, wie sich die Informationsverarbeitung eines Gehirns von der DNA-basierten Informationstechnologie unterscheidet. Neben Details wie Gedächtnisstrukturen, Bewusstsein – Unbewusstsein, Sprache, Abstraktionen, Planen, usw. wurde deutlich gemacht, dass die Informationseinheiten eines Gehirns (Meme) permanent durch das Verhalten eines Organismus modifiziert werden können. Im Zusammenwirken von Gehirn und Sprache ist das biologische Leben nun im Stande, komplexe Modelle des Lebens versuchsweise zu entwickeln, die in Verbindung mit Genetik den Entwicklungsprozess biologischer Strukturen extrem beschleunigen könnten. Mit Blick auf die drohenden Faktoren der Lebenszerstörung wie Sonnenerwärmung, Zusammenstoß mit der Galaxie Andromeda in ca. 2-4 Mrd Jahren — um nur einige Faktoren zu nennen — kann diese Beschleunigung des Entwicklungsprozesses von Leben von Interesse sein.

 

(10) Hier endete die Sitzung mit dem vielfachen Wunsch, den Diskurs fort zu setzen, speziell mit Blick auf die sich neu stellenden ethischen und praktischen Lebensfragen.

Ich glaube an Gott, was brauch ich dann die (komplizierten) Wissenschaften?

(1) Während einer Geburtstagsfeier mit vielen Gästen (wo sonst…) nahmen die Gespräche zur fortgeschrittenen Stunde immer intensivere Verläufe. An einer Stelle sagte dann eine engagierte Frau, dass Sie an Gott glaube, an die Welt als Schöpfung; das gäbe ihr Kraft und Sinn; und so lebe sie es auch. Die Wissenschaft brauche sie dazu nicht; die sei eher verwirrend.

 

 

(2) Mit solch einem ‚Bekenntnis‘ ist das Wissen zunächst einmal ’neutralisiert‘; was immer Wissen uns über den Menschen und seine Welt sagen könnte, es findet nicht statt, es gibt kein Wissen mehr. Mögliche Differenzierungen sind wirkungslos, mögliche Gründe unwichtig; mögliche Infragestellungen, gedankliche Herausforderungen können nicht greifen; damit verbundene mögliche Spannungen, Erregungen können nicht stattfinden. Die Welt ist ‚wie sie ist‘, d.h. wie das aktuelle Wissen des so Glaubenden sie zeichnet. Alles hat seine Ordnung, eine Ordnung die sich nicht beeinflussen lässt durch Wissenschaft.

 

 

(3) In gewisser Weise hört nach einem solchen Bekenntnis jedes Gespräch auf. Man kann zwar noch weiter Reden, aber inhaltlich kann man sich nur noch auf wechselseitige Bestätigungen beschränken: Ja, ich sehe das auch so; ja, ich glaube das auch; ja, ich finde das gut;…. abweichende Meinungen haben streng genommen keinen Platz in diesem Gefüge…weil sie einfach ausgeblendet werden (Menschen mit mehr Aggressionspotential gehen dann allerdings zum ‚Angriff‘ über und versuchen, die ‚abweichende‘ Meinung nieder zu machen). Aber auch das ‚einfache Ausblenden‘ einer anderen Meinung, zu sagen, dass man abweichende Meinungen nicht hören will, ist eine Form der ‚Entmündigung‘ und damit eine Form von ‚Missachtung‘. Wahrheit ist dann nicht mehr möglich.

 

 

(4) Mich hat diese Einstellung geschockt. Wenn man weiß, auf welch schwankendem Boden jegliche Form von Wissen über uns, die Welt und Gott steht und wenn man weiß, wie viel Unheil über Menschen im Namen des Glaubens gekommen ist, weil die Gläubigen zu wissen glaubten, was wahr ist und in diesem Glauben tausende andere unterdrückt, verfolgt, gefoltert und getötet haben, weil sie auch glaubten, dass ihre Form des Glaubens über alle anderen Erkenntnisse und Wahrheiten ‚erhaben‘ sei, dann ist jegliche Form der Ablehnung von Wissen (ob durch Verweis auf Gott (Wer kennt ihn wirklich), durch Verweis auf eine politische Ideologie, durch Verweis auf ethnische Besonderheiten, durch Verweis auf ‚besonderes Blut‘, usw.) letztlich in einem identisch: die bewusste willentliche Entscheidung, sein eigenes Bild von der Welt auf keinen Fall zu verändern; was immer die Wissenschaften über uns und die Welt herausfinden, das wird als ‚irrelevant‘ neutralisiert.

 

 

(5) Allerdings zeigt sich am Beispiel solcher ‚alltäglicher‘ Konflikte auch sehr unmittelbar, dass entwickelte (wissenschaftliche) Formen von Wissen alles andere als selbstverständlich sind. Es hat nicht nur viele tausend Jahre gebraucht, bis die Menschen mit komplexeren Wissensformen umgehen konnten, es ist heute, in unserer Gegenwart so, dass man sich des Eindrucks nicht erwehren kann, dass nicht nur viele derjenigen, die nicht studiert haben, ein gebrochenes Verhältnis zu wissenschaftlichem Wissen haben, sondern dass ebenso viele derjenigen, die akademische Abschlüsse vorweisen können (mehr als 50%?), das ‚Wesen von wissenschaftlichem Wissen‘   nicht verstanden zu haben scheinen und Anschauungen über uns Menschen und die Welt für ‚wahr‘ halten, die — nach meinem Kenntnisstand — ziemlich abstrus und willkürlich sind (so eine Art ‚Voodoo‘ unter dem Deckmantel von Wissenschaft und Aufklärung).

 

 

(6) Es macht wenig Sinn, über diesen Sachverhalt zu ‚moralisieren‘. Es ist die Realität, in der wir leben. Da unser Handeln von unserem Wissen — oder von der Meinung anderer, denen wir einfach folgen — geleitet ist, haben solche Auffassungen ihre alltäglichen Wirkungen.

 

 

(7) Wenn man also versucht Wissen ernst zu nehmen; wenn man Fragen zulässt und sie versucht ernsthaft zu beantworten; wenn man sogenannte Selbstverständlichkeiten immer wieder mal hinterfragt, um sich zu vergewissern, dass man keine falschen Voraussetzungen mit sich herum trägt; wenn man versucht, aus den vielen Detailerkenntnissen größere Zusammenhänge zu konstruieren und auch wieder zu verwerfen; wenn man versucht, Sachverhalte zu Ende zu denken, obgleich wenig Zeit ist, man erschöpft ist, und keiner davon etwas hören will, dann darf man dafür kein Lob erwarten, keine Ermutigung, kaum Zustimmung, sondern eher Ablehnung, Angst, Abwehr oder Bemerkungen wie ‚Was Du da wieder denkst‘, ‚Das braucht doch kein Mensch‘, ‚Hast Du nichts Besseres zu tun‘, ‚Das nervt einfach‘, ‚Mir ist das alles zu kompliziert‘,….

 

 

(8) Sich auf Dauer ernsthaft mit ‚wahrem‘ Wissen zu beschäftigen (nicht mit Modetrends, Buzz Words, usw.) liegt quer im Alltag, darf auf keine Unterstützung hoffen. Die meisten Menschen suchen nicht die ‚Wahrheit‘, sondern eher Bestätigungen für ihre aktuelle Unwahrheit; Bestätigungen fühlen sich einfach besser an als Infragestellungen durch Erkenntnisse, die dazu zwingen, das eigene Bild von der Welt zu verändern.

 

 

(9) Jedes Wissen hat ‚Ränder des Wissens‘, jene Bereiche, die vom bisherigen Wissen noch nicht erschlossen sind bzw. die durch aktuelles Wissen ‚verstellt‘ werden, d.h. ich werde im Wissen erst weiter kommen, wenn ich dieses ‚verstellende‘ Wissen als ‚falsch‘ bzw. ‚unzureichend‘ erkannt habe. Wie soll dies geschehen? Menschen, die hauptsächlich nur Bestätigungen suchen, haben praktisch keine Chance, die ‚Falschheit‘ ihres Wissens zu entdecken. Sie sind in ihrem aktuellen Wissen quasi gefangen wie in einem Käfig. Da sie ihren Käfig nicht sehen, ihn ja sogar für ‚richtig‘ halten, wird sich der Käfig im Normalfall immer nur noch weiter verfestigen.

 

 

(10) Das biologische Leben, von dem wir Menschen ein winziger Teil sind, hat die Jahrmilliarden dadurch gemeistert, dass es nicht einer bestimmten vorgegebenen Ideologie gefolgt ist, sondern dass es ‚alles, was möglich wahr, einfach probiert hat‘. Man kann dies ‚Zufall‘ nennen oder ‚Kreativität‘ oder ‚Spiel‘; letztlich ist es so, dass Zufall/ Kreativität/ Spontaneität/ Spiel jeglicher fester Form auf Dauer haushoch überlegen ist, da feste Formen von Wissen Spezialisierungen darstellen für bestimmte Aspekte von Welt, meistens dazu sehr statisch, und solche Formen sind sehr schnell sehr falsch. Besser zu sein als ‚zufallsgesteuertes Wissen‘ ist eine sehr hohe Messlatte, und biologische Systeme wirken nur deshalb gegenüber reinem Zufall überlegen, weil sie die Erfahrungswerte von 3 Milliarden Jahren ’spielerischer Evolution‘ in sich angesammelt haben. Mehr als drei Milliarden Jahre Experimente mit hunderten Milliarden Beteiligten pro Jahr sind eine Erfahrungsbasis, die in sich ein Wunder darstellt, das zu begreifen nicht leicht fällt. Wir, die wir von diesem ‚angesammelten Wissen‘ profitieren können, ohne dass wir auch nur irgendetwas selbst dazu beigetragen haben, haben meistens kein gutes Gefühl dafür, welch ungeheure Leistung es bedeutet, das bisherige Weltwissen auch nur ein kleines Stück zu erweitern. Wer sich die Mühe machen würde, beispielhaft  — von vielen möglichen spannenden Geschichten — die Geschichte des mathematischen Denkens zu verfolgen, das zum Herzstück von jeglichem komplexen Wissen gehört, kann sehen, wie sich die besten Köpfe über 3000 und mehr Jahre bemühen mussten, bis die Mathematik eine ‚Reife‘ erlangt hat, die erste einfache Wissenschaft möglich macht. Zugleich gilt, dass in unseren Zeiten, die mehr denn je von Technologie abhängen, das Wissen um Mathematik bei den meisten Menschen schlechter ist als bei den Denkern der Antike. Es ist eben nicht so, dass ein Wissensbereich, der über Jahrtausende mühsam aufgebaut wurde, dann automatisch in der gesamten nachfolgenden Kultur verfügbar ist; ein solches Wissen kann auch wieder verfallen; ganze Generationen können in der ‚Aneignung von Wissen‘ so versagen, dass ‚errungenes Wissen‘ auch wieder ‚verschwindet‘. Wissen in einer Datenbank nützt nichts, wenn es nicht reale Menschen mit realen Gehirnen gibt, die dieses Wissen auch tatsächliche ‚denken‘ und damit anwenden können. Immer größere Datenbanken und immer schnellere Netze nützen nichts, wenn das reale Wissen in den realen Köpfen wegen biologischer Kapazitätsgrenzen einfach nicht ‚mithalten‘ kann…

 

 

(11) Unsere heutige Kultur ist in der Tat an einer Art Scheideweg: unsere Technologie entwickelt sich immer schneller, aber die biologischen Strukturen unserer Körper sind bislang annähernd konstant. Bedeutet dies, dass (i) die Ära der Menschen vorbei ist und jetzt die Zeit der Supercomputer kommt, die den weiteren Gang der Dinge übernehmen? oder (ii) haben wir einen Wendepunkt der Entwicklung erreicht, so dass ab jetzt aufgrund der biologischen Begrenztheit der Menschen es nicht mehr nur um ’schneller‘ und ‚mehr‘ geht sondern um ‚menschengemäßere künstliche Intelligenz‘, die ein Bindeglied darstellt zwischen dem kapazitätsmäßig begrenztem menschlichem Denken einerseits und einer immer leistungsfähigeren Technologie? oder (iii) Beginnt jetzt die Ära der angewandten Gentechnologie, die uns in die Lage versetzt, unseren Körper schrittweise so umzubauen, dass wir die Erfordernisse eines biologischen Lebens auf der Erde besser meistern könne als bisher? Die Alltagserfahrung legt vielleicht (i) nahe, die bisherige historische Entwicklung deutet aber auf (ii) und (iii) hin. Denn — und das übersieht man leicht — der Weg des Lebens in den letzten ca. 3.2 Milliarden Jahren hat permanent Probleme lösen müssen, die verglichen mit den uns bekannten Problemen um ein vielfaches größer waren. Und das Prinzip des Lebens hat dies alles gemeistert, ohne dass wir auch nur einen Millimeter dazu beigetragen haben. Wenn wir uns also weniger an unsere vielfältigen kleinkarierten Ideologien klammern würden und stattdessen stärker auf die ‚innere Logik des Lebens‘ achten, dann sind die potentiellen Lösungen in gewisser Weise ’schon immer da‘. Dies ist nicht als ‚Determinismus‘ oder ‚Vorsehung‘ misszuverstehen. Nein, die Struktur der Materie enthält als solche alle diese Strukturen als Potential. Unsere gesamtes heutiges Wissen (von dem unsere Körper mit ihren Gehirnen ein kleiner Teil sind) ist letztlich nichts anderes als das versammelte Echo der Milliarden von Experimenten, in denen wachsende biologische Strukturen in einem permanenten Dialog mit dem vorfindlichen Universum Aspekte dieses Universums ’sichtbar‘ gemacht haben; wahres Wissen zeigt in dem Sinne nichts ‚Neues‘ sondern macht ’sichtbar‘, was schon immer da war bevor es dieses Wissen explizit gab. ‚Wissen schaffen‘ heißt im Wesentlichen ‚in Dialog treten‘, d.h. ‚Interagieren‘, d.h. ‚ein Experiment durchführen‘ und die Ereignisse im Umfeld der Dialoge ‚geeignet zusammenführen‘ (Bilder, Modelle, Theorien…). Was ‚Denken‘ wirklich ist wissen wir bislang eigentlich immer noch nicht wirklich, was unsere Gehirne aber nicht daran hindert, kontinuierlich Denkarbeit zu leisten. Unsere Gehirne denken für uns. Wir sind quasi ‚Konsumenten‘ dieser wundersamen Gebilde. Dass unsere Gehirne nicht ‚beliebig gut‘ denken sondern so ihren ‚eigenen Stil‘ pflegen, das merkt man erst nach vielen Jahren, wenn man sich intensiv mit der Arbeitsweise des Gehirns beschäftigt. Wenn wir über die ‚Welt‘ reden dann reden wir nicht über die Welt ‚wie sie um uns herum ohne uns ist‘, sondern über die Welt, ‚wie sie unsere Gehirne für uns aufbereiten‘. Unsere Gehirne arbeiten so perfekt, dass uns dieser fundamentale Unterschied lange Zeit — vielen Menschen vielleicht zeit ihres Lebens nie — nicht auffällt.

 

 

(12) Wir sind Teil dieses gigantischen Geschehens. Wir finden uns darin vor. Leben ist mehr als die Worte, die man darüber formulieren kann. Einen Sinn gibt es natürlich; er hängt nicht davon ab, ob wir ihn sehen oder nicht sehen, glauben oder nicht glauben. Der wahre Sinn durchdringt alles von Anbeginn. Wir können versuchen, uns ihm gegenüber zu verschließen, aber wir selbst mit unserem Körper als Teil des Ganzen, enthalten so viel von diesem Sinn, dass wir geradezu ‚voll gepumpt‘ sind mit diesem Sinn. Vor allem Erkennen kann man es auch fühlen.

 

 

(13) Was ‚Gott‘ mit allem zu tun hat? Ich bin mir nicht sicher, ob wir als Menschen diese Frage überhaupt verstehen können.

 

 

MENSCHENBILD IM WANDEL

Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main

Kurzfassung

Einleitungsmusik

  1. Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.

  2. Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.

  3. Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.

  4. In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.

  5. Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).

  6. Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.

  7. Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.

  8. Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.

  9. Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.

  10. Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.

  11. Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.

  12. Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).

  13. Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.

  14. Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.

Überleitungsmusik Vortrag zu Diskussion

EXPERIMENTELLE HÖRBUCHFASSUNG

Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)

MENSCHENBILD IM WANDEL – Vortrag 24.Nov.2011

In Ergänzung zu diesem Block findet ein öffentlicher Vortrag statt:

Vortragsankündigung

INTELLIGENZ (1)

(1) In der heutigen Welt erleben wir eine Inflation im Gebrauch der Wörter   ‚Intelligenz‘, ‚intelligent‘ und ’smart‘. Im technischen Bereich sind immer mehr Produkte ’smart‘ ohne dass jemand sich auch nur ansatzweise die Mühe macht, diese Sprechweisen zu rechtfertigen; man tut einfach so, als ob dies so sei.

(2) Die Wurzel des Redens über ‚Intelligenz‘ ist aber das Erleben von Menschen, die Art und Weise wie wir als Menschen das Verhalten anderer Menschen im Vergleich zur umgebenden Natur erleben. In nicht wenigen Aspekten hebt sich das Verhalten des Menschen dadurch ab, dass wir einem Menschen ‚Absicht‘ unterstellen, ‚Erinnerungen‘, ‚Denken‘, usw. Bestimmte dieser beobachtbaren Eigenschaften  zusammengenommen unterstellen wir, wenn wir von ‚Intelligenz‘ sprechen.

(3) In dem Masse, wie wir gelernt haben, das eigene menschliche Verhalten besser zu verstehen und in den Gesamtzusammenhang des biologischen Lebens einordnen zu können, haben wir auch begonnen, verschiedenen anderen Lebensformen (Insekten, Säugetiere, …) zumindest Ansätze solcher Eigenschaften wie ‚Wahrnehmung‘, ‚Erinnerung‘, ‚Absicht‘ usw. zu zusprechen.

(4) Abseits vom Verhalten von Menschen haben wir keine ‚Referenzmuster‘ für ‚intelligentes Verhalten‘. Wenn wir eine Maschine (Roboter) bauen und von ihr behaupten, sie sei ‚intelligent‘ dann gewinnt diese Aussage höchstens Bedeutung durch Bezug auf vergleichbares Verhalten von Menschen; aber ohne diesen Bezug macht es keinen Sinn, von ‚Intelligenz‘ zu sprechen. Der Begriff der Intelligenz‘ unabhängig vom Menschen hat zunächst keine Bedeutung.

(5) Es ist vor allem die Psychologie, die sich mit dem beobachtbaren Verhalten von Menschen wissenschaftlich auseinandersetzt (im weiteren Sinne auch die allgemeinere biologische Verhaltensforschung (Ethologie)). Die Psychologie hat seit mindestens Sir Francis Galton  (1822 – 1911) und Alfred Binet (1857 – 1911) versucht, das als ’normal‘ anzusehende Verhalten der Mehrheit der Menschen (eines Jahrgangs) zum Massstab  zu nehmen, um damit das Verhalten eines jeden einzelnen ‚Bezogen auf dieses allgemeine Verhalten‘ ‚einzuordnen‘ (zu ‚messen‘).

(6) Natürlich haftet jeder Auswahl von konkreten Verhaltensweisen etwas ‚Willkürliches‘ an, dennoch stellt eine ‚Zusammenstellung‘ der zu einer bestimmten Zeit in einer bestimmten Gesellschaft ‚üblichen Verhaltensweisen‘ aber auch mehr dar als nur eine ‚bloss zufällige‘ Anordnung.

(7) Seitdem die Psychologen begonnen haben, mit solchen (z.T. schon unterschiedlichen) Zusammenstellungen von Verhaltensweisen (‚Testbatterien‘) gezielt ‚Messungen‘ vorzunehmen hat sich gezeigt, dass die Messergebnisse erstaunliche Konsistenzen aufweisen; ja, es lassen sich Prognosen über ‚Verhaltensweisen und Erfolge in der Zukunft machen‘, die weit jenseits des ‚Zufälligen‘ sind.

(8) Daraus kann man nicht folgern, dass die gewählten Verhaltensweisen die einzig ‚richtigen‘ sind, die mit INTELLIGENZ korrelieren, aber man darf zurecht annehmen, dass die Strukturen, die mittels des beobachtbaren Verhaltens ‚indirekt‘ gemessen werden, offensichtlich eine gewisse ‚Konsistenz‘ aufweisen, die ‚hinter‘ all der beobachtbaren Vielheit ‚am Werke‘ ist.

(9) Wenn die Psychologie also von ‚Intelligenz‘ spricht, dann bezieht sie sich auf kulturell stark repräsentative Verhaltensweisen, die man ‚messen‘ kann und die in ihrer Gesamtheit einen Hinweis liefern, ob ein einzelner Menschen sich so verhält, wie der große ‚Durchschnitt‘ (IQ=100) oder aber davon ‚abweicht‘; entweder durch ‚geringere‘ Leistung (IQ < 100)  oder durch ‚mehr‘ Leistung (IQ > 100).

(10) Wichtig ist, dass die verschiedenen benutzten Verhaltenskataloge (Testbatterien) kein direkt beobachtbares  ‚Objekt‘ Intelligenz definieren, sondern eher eine Art ‚Umschreibung‘ von etwas darstellen, was man nicht direkt sehen, sondern nur indirekt ‚erschließen‘ kann. Der psychologische Begriff der Intelligenz ist ein ‚theoretisches Objekt‘, also ein ‚Begriff‘ (Term), der durch formalen Bezug zu unterschiedlichen Messvorgängen eine ‚operationale‘ Bedeutung besitzt. Was letztlich das beobachtbare (messbare) Verhalten erzeugt, ist damit in keiner Weise klar.

(11) In der Psychologie gab es eine Vielzahl von Deutungsansätzen, wie man das ‚hinter dem Verhalten‘ liegende ‚Etwas‘ denken sollte. Am meisten verbreitet ist jener Ansatz, der zwischen einer ANGEBORENEN und einer ERWORBENEN Struktur unterscheidet: die durch die Erbanlagen weitgehend bestimmte angeborene Struktur definiert eine MASCHINERIE der VERARBEITUNG, deren Qualität sich in der GESCHWINDIGKEIT und FEHLERFREIHEIT zeigt (man spricht hier oft von FLUIDER Intelligenz). Die erworbene Struktur ist jener WISSEN, jene ERFAHRUNG, die sich durch die Anwendung der Maschinerie ERGIBT, so zu sagen das ERGENIS VON VERARBEITUNG (man spricht hier oft von KRISTALLINER Intelligenz). Während die kristalline Intelligenz stark verhaltens- und umweltabhängig ist ist die fluide Intelligenz weitgehend genetisch determiniert.

(12) Ob und wieweit die theoretisch bedingten Spekulationen der Psychologen über die fluide und kristalline Intelligenz zutreffen muss letztlich die Neurowissenschaft, und hier insbesondere die Neuropsychologie, entscheiden. Diese untersuchen die ‚biologische Maschinerie‘ des Gehirns und die Wechselwirkung mit dem Beobachtbaren Verhalten. Allerdings sind die Neurowissenschaften auf die Verhaltenstheorien der Psychologen angewiesen. Ohne die fundierten Untersuchungen des Verhaltens hängen die neurologischen Befunde buchstäblich ‚in der Luft‘: was nützt die Prozessbeschreibung eines Neurons wenn man nicht weiss, auf welches Verhalten dies zu beziehen ist. Und da es beim Menschen auf komplexe Verhaltensweisen ankommt die das gesamte komplexe Gehirn voraussetzen, ist diese Aufgabe nicht ganz einfach zu lösen (aus theoretischen Überlegungen muss man davon ausgehen, dass wir diese Aufgabe mit den heute verfügbaren Gehirnen nicht vollständig werden lösen können).

(13) Intelligenz messen: der Beginn der empirischen Wissenschaften ging einher mit der Einsicht, dass man auf Dauer nur dann zu ‚objektiven‘ Daten kommen kann, wenn man die Messprozeduren auf REFERENZOBJEKTE beziehen kann, die von den subjektiven Zuständen des einzelnen Beobachters UNABHÄNGIG sind. So kam es zur Einführung von Referenzobjekten für die Länge (m), das Gewicht (kg), die Zeit (s) usw. (die im Laufe der Zeit immer wieder durch neue ‚Versionen‘ ersetzt wurden; z.B. die Definition der ‚Sekunde‘ (s) oder der Länge (m)).

(13.1) Die Psychologen hatten im Fall der ‚Intelligenz‘  ‚Referenztestverfahren‘ eingeführt, die zwar unabhängig von den Gefühlen der Beteiligten waren, aber  es gab  kein unabhängiges Referenzobjekt INTELLIGENZ. Man erklärte einfach die MEHRHEIT der gerade lebenden Menschen zum STANDARD und verglich die zu ‚messenden Menschen‘ so gesehen mit ’sich selbst‘. Es war dann nicht wirklich überraschend, dass man im Laufe der Jahrzehnte feststellen musste, dass sich das REFERENZOBJEKT (nämlich die Leistung der ‚Mehrheit‘) nachweisbar ‚verschob‘. Ein IQ=100 war vor 50 –oder noch mehr– Jahren etwas anderes als heute!
(13.2) Das, was das Referenzobjekt INTELLIGENZ ’stabil‘ macht, das ist seine genetische Determiniertheit. Das, was es flexibel/veränderlich macht, das ist die Modifizierbarkeit durch genetische Variabilität und individuelle Lernfähigkeit bzw. die kontinuierliche Veränderung der Umwelt durch den Menschen selbst, die als veränderte sekundäre Welt auf den Menschen zurückwirkt.
(13.3) Bei aller Kritik an den Unzulänglichkeiten der aktuellen Messmethoden sollte man aber festhalten, dass das bisherige Verfahren trotz allem ein Geniestreich war und die Psychologie geradezu revolutioniert hatte.
(13.4) Trotzdem stellt sich die Frage, ob man heute mit neueren Mitteln das Projekt der Erforschung der Intelligenz noch weiterführen könnte?

(14) Für die Psychologen ist es unmöglich, die dem beobachtbaren Verhalten zugrunde liegenden Strukturen ‚als solche‘ direkt zu erforschen. Die Neurowissenschaftler können dies ansatzweise, indem sie reale Gehirne untersuchen, aber nur sehr limitiert; sie können nicht mit einem lebenden Gehirn wirklich Experimente machen (nur mit den Gehirnen von Tieren, und dies ist mehr und mehr ethisch äußerst fragwürdig!)

(15) Mit dem Aufkommen der Informatik entwickelten sich nicht nur theoretische Konzepte der BERECHENBARKEIT, sondern mehr und mehr auch eine TECHNOLOGIE, die es erlaubt, Berechnungsprozesse technisch zu realisieren. Dies wiederum ermöglicht die MODELLIERUNG und SIMULATION von nahezu beliebigen Strukturen und Prozessen, auch solchen, die BIOLOGISCHE Systeme modellieren und simulieren, einschließlich des GEHIRNS. Damit ist es prinzipiell möglich, zu jeder VERHALTENSWEISE, die in sogenannten Intelligenztests im Rahmen von TESTAUFGABEN gemessen werden, KÜNSTLICHE INTELLIGENZ (-STRUKTUREN) (KI := Künstliche Intelligenz, AI := Artificial Intelligence, CI := Computational Intelligence)  zu entwickeln, die in der Lage sind, genau diese Testaufgaben mit einem gewünschten IQ zu lösen. Auf diese Weise würde man eine ganze Kollektion von unterschiedlichen IQ-REFERENZOBJEKTEN erstellen können, die sich nicht mehr verändern und die –so wie das Kilogramm (kg), das Meter (m) oder die Sekunde (s)– dann als WIRKLICHE REFERENZOBJEKTE FÜR INTELLIGENZ dienen könnten. Es wäre dann  möglich, FORMEN VON INTELLIGENZ OBJEKTIV definieren zu können, die VERSCHIEDEN sind von der AKTUELLEN MENSCHLICHEN INTELLIGENZ. Auch könnte man damit den verschiedenen Formen TIERISCHER INTELLIGENZ mehr Rechnung tragen.