Archiv der Kategorie: Künstlicher Geist

„Technische Superintelligenzen werden die Menschheit bedrohen“ – Wie kann man eine so absurde Behauptung aufstellen?

Science-Fiction-Visionen von intelligenten oder gar superintelligenten Maschinen haben eine lange Historie. Besonders in der Hype-Phase der so genannten „Künstlichen Intelligenz (KI)“ in den 1960-1980er Jahren waren Behauptungen en vogue, dass Computeranwendungen die Menschheit in Bezug auf ihre Intelligenz bald einholen oder gar überholen werden – mit unabsehbaren Folgen und Bedrohungen für die Menschheit. “Once the computers got control, we might never get it back. We would survive at their sufferance. If we’re lucky, they might decide to keep us as pets”, meinte z.B. Marvin Minsky im Jahr 1970.

Als Zeithorizont für solche technische Superintelligenzen werden gerne ca. 10-30 Jahre angegeben – egal wann so etwas behauptet wurde. Dieser Zeitrahmen ist anscheinend nah genug, um genug Aufmerksamkeit zu erregen und weit genug weg, um für die Gültigkeit der Behauptungen nicht mehr gerade stehen zu müssen.

Ich habe den Eindruck, dass Behauptungen über technische Superintelligenzen aktuell wieder eine Hochzeit erleben. Dabei werden sie nicht nur von Hollywood, sondern auch von Wissenschaftsjournalisten dankbar aufgegriffen und verwertet. Dass sich frühere Prognosen dieser Art als falsch herausgestellt haben, spielt dabei keine Rolle. Gerne wird auf „Experten“ verwiesen, die sich diesbezüglich (alle) längst einig seien und nur im exakten Zeitpunkt noch nicht ganz sicher seien.

Durch die Frage wann es so weit sei, wird die Diskussion um das „ob“ meiner Meinung nach völlig vernachlässigt. Ich bin Informatiker. Ich beschäftige mich seit über 30 Jahren mit KI, entwickle seit mehreren Jahren KI-Anwendungen für den Unternehmenseinsatz und veröffentliche darüber Artikel und Bücher. Demnach halte ich mich für einen KI-Experten. Und nach meiner Meinung sind Behauptungen von technischen Superintelligenzen absurd.

Derzeit arbeite ich in einem KI-Projekt, in dem wir Software für Ärzte entwickeln, die Krebspatienten behandeln. Ein schöner Nebeneffekt der Arbeit an diesem Projekt ist, dass ich mein Schulwissen in Biologie und insbesondere Genetik auffrischen durfte. Während das früher für mich trockener Schulstoff war, kann ich jetzt nachvollziehen, warum die Ursprünge des Lebens Menschen faszinieren. Ich hatte einige Aha-Effekte, was sie Vielschichtigkeit, Vernetzung und Dynamik von Prozessen des natürlichen Lebens betrifft. Ich möchte diese laienhaft kurz mitteilen, um sie anschließend KI-Anwendungen gegenüberzustellen.

Es gibt chemische und physikalische Grundsätze, nach denen sich Atome zu Molekülen bzw. Molekülketten zusammensetzen – quasi mechanisch nach festen, einfachen Regeln. Und diese einfachen Molekülketten verhalten sich wie kleine Maschinen, die spezielle Aufgaben verrichten. Da gibt es Maschinen, die schneiden die DNA in der Mitte auf; dann gibt es welche, die kopieren die DNA-Information auf RNA; es gibt welche, die prüfen, ob es Kopierfehler gegeben hat und korrigieren diese (aber nicht alle Fehler – es soll ja noch Raum für Mutation bleiben); dann gibt es Maschinen, die lesen RNA, interpretieren sie nach dem genetischen Code und bauen daraus neue Molekülketten: Proteine, aus denen Zellen zusammengesetzt werden.

Wenn ich diese physikalisch-biologischen Vorgänge betrachte frage mich: findet hier gerade der Übergang von toter Materie zum Leben statt? Wo genau?

Und nun geht es weiter: Die Proteine bilden Zellen – kleine Maschinen, die ganz unterschiedliche Aufgaben erfüllen. Manche transportieren Sauerstoff; Manche andere stürzen sich auf Schädlinge und bekämpfen diese; Wiederum andere bauen feste Knochen. Und weiter geht es: Zellen zusammen bilden Organe mit klaren Aufgaben. Eines verdaut unser Essen, eines pumpt Blut und ein Organ vollführt erstaunliche Denkleistungen. Und alle Organe zusammen formen einen Menschen. Dieser wird gezeugt, geboren (jeder der eigene Kinder hat, weiß von der Faszination der Geburt), wächst, lernt, handelt intelligent und stirbt wieder. Viele Menschen zusammen bilden Kulturen, die entstehen, Wissen und Fähigkeiten entwickeln, und wieder vergehen. Diese Kulturen werden von einer intelligenten Spezies, genannt Homo sapiens, geformt. Diese einzelne Spezies entstand durch Evolutionsprozesse, denen sie kontinuierlich unterworfen ist. Wie die meisten Spezies wird sie irgendwann vergehen. Alle Spezies zusammen bilden das Leben auf dieser Erde. Und die Erde ist nur ein einziger Planet eines Sonnensystems einer Galaxie des Universums, über dessen mögliche andere intelligente Lebensformen wir nichts wissen.

Alle diese Ebenen, die ich laienhaft angedeutet habe, sind in sich hoch komplexe Systeme, die alle miteinander verwoben sind. Und vermutlich gibt es genauso viele Ebenen im submolekularen Bereich. Niemand kann ernsthaft behaupten, das komplexe Zusammenspiel über all diese miteinander vernetzten Ebenen auch nur annähernd, geschweige denn vollständig zu begreifen. Was wir heute zu wissen glauben, wird morgen als überholt erkannt und wirft viele neue Fragen für übermorgen auf. Im Ernst zu glauben, dass die unfassbare Komplexität des Lebens, sowie der Intelligenz als einer Ausdrucksform des Lebens, durch Computeranwendungen abgebildet oder gar weit übertroffen werden könnte, scheint mir eine extreme Unterschätzung der Natur oder eine groteske Überschätzung von Wissenschaft und Technik zu sein.

Schauen wir uns doch einmal KI-Anwendungen im Detail an. KI-Anwendungen werden stets zu einem speziellen Zweck entwickelt. So kann z.B. IBMs Deep Blue Schach spielen und Googles AlphaGo kann Go spielen. Beide Systeme übertreffen dabei die menschlichen Welt- und Großmeister. IBM Watson kann Fragen des allgemeinen Lebens beantworten – selbst wenn sie knifflig und mit Wortwitz gestellt sind – und schlägt alle menschlichen Champions der Quizshow Jeopardy! Selbstfahrende Autos erreichen ihre Ziele unter korrekter Berücksichtigung der Verkehrsregeln – vermutlich bereits in naher Zukunft sicherer als menschliche Fahrer.

All dies sind faszinierende Beispiele für mächtige KI-Anwendungen, die ich persönlich vor 20 Jahren nicht für möglich gehalten hätte. Aber sicher ist auch: Deep Blue wird niemals von sich aus anfangen, Go zu spielen, oder Quizfragen zu beantworten. IBM Watson kann nicht Schachspielen und wird es auch nicht lernen, egal in wie viel Quizshows die Anwendung eingesetzt wird. Und das selbstfahrende Auto wird nicht plötzlich auf die Idee kommen, sich für das Präsidentenamt zu bewerben, die Wahl gewinnen, anschließend die Demokratie und schlussendlich die Menschheit abschaffen. Das ist einfach absurd und gehört in den Bereich der Fiktion.

Alle diese KI-Anwendungen wurden von Informatikern und anderen Ingenieuren entwickelt. Intern werden u.A. Techniken des Machine Learning (ML) eingesetzt, meist das sogenannte „Supervised Learning“. Dabei werden Beispieldaten verwendet. So werden z.B. viele unterschiedliche Bilder von Stoppschildern, inklusive der Information, dass es sich jeweils um ein Stoppschild handelt, geladen. Mithilfe statistischer Methoden werden Modelle entwickelt, die es erlauben, bei neuen Bildern mit einer großen Wahrscheinlichkeit korrekt zu erkennen, ob ein Stoppschild abgebildet ist oder nicht. Dies kann dann in selbstfahrenden Autos für Fahrentscheidungen genutzt werden.

Also: die Anwendung lernt nicht von selbst, sondern mittels Eingabe von Beispielen durch Ingenieure („Supervisor“ im Supervised Learning). Wenn die Erkennungsraten nicht gut genug sind, ändern die Ingenieure entsprechende Parameter und starten das Lernverfahren erneut. Mit menschlichem Lernen kann das kaum verglichen werden.

Eine KI-Technik, die etwas mehr Ähnlichkeit zum Lernen eines Menschen hat, ist das sogenannte „Reinforcement Learning“. Dabei wird eine Umgebung eingesetzt, in der die Computeranwendung selbst Beispiele erzeugen und ausprobieren kann. Somit ist es möglich, ein Modell zu erzeugen, ohne dass dafür ein menschlicher Supervisor nötig ist. Zum Beispiel kann man ein Schachprogramm immer wieder gegen sich selbst (bzw. gegen ein anderes Schachprogramm) spielen lassen und die Machine Learning Verfahren auf die Verläufe und Ergebnisse dieser Spiele anwenden. Was jedoch Ingenieure vorgeben müssen, ist eine sogenannte Nutzenfunktion, z.B. „es ist positiv, ein Schachspiel zu gewinnen und es ist negativ, eines zu verlieren“. Würde man aus Spaß das Vorzeichen der Nutzenfunktion vertauschen, so würde die KI-Anwendung trainiert, Schachspiele möglichst schnell zu verlieren. Für die Anwendung wäre das überhaupt kein Problem. Sie spürt ja gar nichts, auch nicht die Auswirkungen eines verlorenen Schachspiels. Den Anreiz, eine Anwendung zu entwickeln, die Schachspiele auch gewinnt, haben die Ingenieure. Sie geben alles Notwendige von außen vor – nicht die KI-Anwendung aus sich heraus.

Im Gegensatz zur KI-Anwendung haben Menschen jedoch einen Körper. Babys verspüren Hunger und lernen von sich aus, sich so zu verhalten, dass sie etwas zu essen bekommen (Schreien hilft meist). Kinder brauchen den Zuspruch und die Zuneigung der Eltern und lernen sich so zu verhalten, dass sie Zuspruch und Zuneigung auch erhalten. Jugendliche und junge Erwachsene lernen, wie sie sich in ihrer Gesellschaft zu verhalten haben, um zu überleben – so unterschiedlich Gesellschaften auch sein können. Sie lernen aus sich heraus, weil sie Körper und Geist haben und wirklich in ihrer Umgebung leben – quasi die Resultate ihres Handelns hautnah spüren. KI-Anwendungen werden im Gegensatz dazu ausschließlich von außen durch Ingenieure gestaltet, auch wenn Techniken des Machine Learning eingesetzt werden.

KI-Anwendungen laufen auf Computer-Hardware. Wie die Anwendungen ist auch die Hardware von Ingenieuren entwickelt worden. Auch wenn wir die Metapher der „Generationen“ verwenden (wir reden z.B. von einer „neuen Prozessorgeneration“), hat dies selbstverständlich nichts mit Fortpflanzung in der Natur zu tun. Ein Prozessor kommt nicht auf die Idee, einen neuen Prozessor zu entwickeln und er zeugt auch keinen Prozessor, der mittels Evolution plötzlich besser ist als sein Vater.

Vergleichen wir nun KI-Anwendungen mit biologischem, intelligentem Leben: Auf der einen Seite beobachten wir ein unfassbar komplexes, vielschichtiges, dynamisches, selbstorganisierendes System – die vielen Schichten bzw. Ebenen habe ich laienhaft oben angedeutet. Auf der anderen Seite haben wir ein menschengemachtes, zweischichtiges System, bestehend aus KI-Anwendung und Computer-Hardware. Beide Schichten sind in sich starr und nicht selbstorganisierend. Die Dynamik (neue Hardwaregenerationen, bessere Algorithmen etc.) kommt von außen durch menschliche Ingenieursleistung. Wie kann man nun nüchtern betrachtet zur Behauptung kommen, dass dieses starre, menschengemachte System irgendwie plötzlich und von selbst dynamisch, selbstorganisierend, lebendig und intelligent wird: eine technische Superintelligenz, welche die Menschheit bedrohen kann? Ich kann beim besten Willen nicht den allerkleinsten Ansatz dafür sehen.

Bleibt die Frage, warum es immer wieder (einzelne) Fachexperten wie Marvin Minsky gibt, die solche, aus meiner Sicht absurden, Behauptungen aufstellen. Ist es ihr Ziel, Aufmerksamkeit zu erzeugen? Können sie eventuell daraus finanziellen Nutzen zu ziehen, z.B. in Form von Fördergeldern (das hat in den 1980er Jahren prima funktioniert)? Glauben sie wirklich daran und sorgen sie sich um die Menschheit? Sind solche ernst gemeinten Behauptungen vielleicht der Ausdruck einer schon fast ideologischen Wissenschafts- und Technikgläubigkeit? Ich weiß es nicht.

Dabei sind die Fortschritte der KI, vor allem in den letzten 20 Jahren, in der Tat höchst beeindruckend. Und tatsächlich bergen sie neben zahlreichen Chancen auch größte Risiken, wenn die Techniken blauäugig angewendet werden. In der Ausgabe 2/2017 der Communications of the ACM schreibt Alan Bundy in seinem Viewpoint sehr pointiert und aus meiner Sicht richtig: „Smart machines are not a threat to humanity. Worrying about machines that are too smart distracts us from the real and present threat from machines that are too dumb“.

Menschen überlassen KI-Anwendungen zunehmend wichtige Entscheidungen, obwohl selbstverständlich keine Anwendung perfekt ist. Bei selbstfahrenden Autos mag das durchaus sinnvoll sein, sobald diese nachweislich sicherer fahren als Menschen. Aber wirklich gefährlich wird es bei Entscheidungen, deren Auswirkungen kein Mensch mehr überblicken kann. Ein viel diskutiertes Gebiet ist der Hochfrequenzhandel, bei dem KI-Anwendungen Kauf- und Verkaufsentscheidungen autonom treffen, ohne dass heute die Auswirkungen auf das gesamte Wirtschaftssystem überblickt werden können. Noch deutlicher wird das im militärischen Bereich, wenn KI-Anwendungen prognostizieren sollen, ob ein Angriffsfall vorliegt und im Extremfall in Sekundenbruchteilen autonom über einen (möglicherweise nuklearen) Gegenschlag entscheiden sollen. Über solche KI-Anwendungen wurde bereits 1983 im Rahmen der Strategic Defense Initiative (SDI) intensiv diskutiert (bezeichnenderweise während der Hochzeit des KI-Hypes); und solche Diskussionen kommen leider immer wieder auf die Tagesordnung.

Wenn eine überhöhte Technik- und Wissenschaftsgläubigkeit nur dazu führt, absurde Behauptungen über technische Superintelligenzen aufzustellen, so ist das nicht weiter schlimm – sie provozieren nur harmlose akademische Diskussionen oder inspirieren amüsante Science Fiction Filme. Wenn wir aber als Gesellschaft – und besonders die politischen und wirtschaftlichen Entscheider – die Grenzen von Wissenschaft und Technik nicht klar sehen und folglich KI-Anwendungen Entscheidungen überlassen, die zwingend von verantwortlichen Menschen getroffen werden müssen, so kann dies fatale Folgen für unsere Gesellschaft haben.

Anmerkung:

Im Anschluss an diesen Artikel gab es eine Vortragsveranstaltung in der Reihe Philosophie Jetzt im Gespräch am 28.September 2017

START DES PHILOSOPHIESOMMERS 2016 IN DER DENKBAR FRANKFURT – Nachhall zum 14.Februar 2016

START GELUNGEN

Nach einer Unterbrechung von mittlerweile fast 6 Monaten hat sich die Philosophie in der DENKBAR zurückgemeldet.  Aufgrund der Einladung vom 9.Februar 2016 hatte sich eine sehr interessante Gruppe  zum Re-Start versammelt. Und der gedankliche Austausch nahm seinen Lauf.

EIN HAUCH VON PHILOSOPHY-IN-CONCERT

Wie angekündigt wurde ein kleines Hörstück vom PHILOSOPHY-IN-CONERT Experiment eingespielt, dazu ein Bild von der – noch – leeren virtuellen Insel aus einer virtuellen Welt.

cagent vor leerer PiC-Insel 14.Februar 2016
cagent vor leerer PiC-Insel 14.Februar 2016

PHILOSOPHY-IN-CONCERT versteht sich als Versuch, die Fragestellung von der Zukunft des Menschen in Wechselwirkung mit der neuen Technologie der intelligenten Maschinen aus philosophischer und wissenschaftlicher Sicht künstlerischer erlebbar zu machen. Wie das genau geschehen wird, ist Teil des laufenden Experimentes. Erste Gehversuche fanden in öffentlichen Veranstaltungen am 1.Dez. 2015 und am 12.Dez. 2015 statt. Daraus stammt das Hörstück, das an diesem Abend gespielt wurde.

 

Dieses Stück kann uns daran erinnern, dass wir uns ohne Gebrauchsanleitung vorfinden und seit vielen tausend Jahren auf der Suche nach uns selbst, nach dem inneren Drehbuch von allem sind. Alle Kulturen haben ihre eigene Version erzählt, die vielen Religionen, die Philosophen, die moderne Wissenschaft liefern ständig neue Varianten. Welche ist nun die richtige? Woran können wir die richtige erkennen?

Zwei der Stimmen im Hörstück sind vom Computer generiert. Die gesamte Musik ist vom Computer generiert. Wir erleben einen realen Klang, der von Algorithmen erzeugt wurde. Auch das Bild, das in der Live-Schaltung sehr realistisch wirkte (z.B. mit Wellenbewegungen und Lichtreflexen) war komplett vom Computer generiert, ein Virtuelles als Reales, Virealität …

DIE AUSGANGSLAGE

Damit waren wir bei der Ausgangslage angekommen.

In unserem Alltag erfahren die, die Arbeit haben, oft (meistens?), dass sie zu viel Arbeit haben. Sie drehen in ihrem Rad und schaffen es kaum noch, jenseits der beruflichen Routine andere Aspekte des Lebens breit und differenziert aufzunehmen. Zugleich hat man das subjektive Gefühl, die Ereignismenge nimmt beständig zu, die Änderungen werden schneller. In all dem ist eine Entwicklung unübersehbar: die fortschreitende, mittlerweile umfassende, Digitalisierung des gesamten Lebens. Im Beruf, in der Freizeit, öffentlich und im Privaten, überall begleiten uns mittlerweile Computer, die mit Netzwerken verbunden sind. Vielfach sind sie schon nicht mehr erkennbar, da sie die Gestalt von Alltagsgegenständen angenommen haben, sie Teil von Wohnungen und Gebäuden sind, überall in den Verkehrsmitteln eingebaut sind, Teil von öffentlichen Räumen …. noch weniger kann man die Aktivitäten in den Netzwerken und Datenbanken wahrnehmen. Das globale Geschäft mit den privaten (und kommerziellen und institutionellen) Daten brummt; einige wenige werden immer reicher, viele andere werden jeden Tag schleichend entwertet. Der Staat scheint zu versagen; es wirkt, als ob er seine Bürger den Datenkraken und den außer Rand geratenen Geheimdiensten überlässt. Privatheit war einmal. Industriespionage scheint mittlerweile der Standard sein, vorpraktiziert von den staatlichen Geheimdiensten selbst, wenn man den Quellen trauen kann.

Erleben wir einen epochalen Umbruch? Was ist mit den traditionellen Wertelieferanten, den bekannten Religionen? Was ist mit den Wissenschaften? Sind Menschen nur ein zufälliges Ereignis der Evolution, eine biochemische Masse, die alsbald wieder vergeht? Sind die Menschenrechte nur noch gut für Sonntagsreden, aber ansonsten im Alltag blutleer, wert-los? Warten alle nur noch auf die Erlösung durch die Roboterfabriken und intelligente Maschinen, die dann alles lösen werden, was der Mensch nicht lösen konnte?

Was ist mit den globalen Konzernen, die ihr Geschäft auf Algorithmen basieren, die die globalen Datenmengen auswerten und hochrechnen: sind sie morgen bankrott, weil sie ihre eigenen Algorithmen nicht mehr unter Kontrolle haben? Lassen die anwachsenden Bot-Armeen die Daten von twitter, facebook, google und Co zu Schrott werden?

GEDANKENSTURM

Dies sind einige der Gedanken, die eingangs geäußert wurden, und die dann zu einem intensiven Gedankenaustausch führten.

Gedankensturm vom 14Febr2016 - ungeordnet
Gedankensturm vom 14Febr2016 – ungeordnet

Im Gegensatz zu sonst fiel es dem Protokollanten schwer, diese vielen Aspekte sofort in eine Struktur einzupassen. Dies kann auch ein Anzeichen dafür sein, dass wir es hier mit einem qualitativ neuem Gesamtphänomen zu tun haben. Alle bisher benutzten Muster greifen nicht mehr so richtig.

Am erfolgversprechendsten erschien dann die Perspektive, dass wir den Menschen, uns, viel radikaler als bislang als Teil eines evolutionären Prozesses sehen müssen, der uns dorthin gebracht hat, wo wie heute stehen. Dies intensiviert die Rückfragen an diesen Prozess. Welche Rolle spielt dann der berühmte Zufall bei der Entstehung des bekannten Universums und der bekannten Lebensformen. Ist alles nur Zufall oder ist Zufall nur ein Moment an einem komplexeren Geschehen? In der Wissenschaft haben einige gemerkt, dass der Zufall insofern nur ein – wenngleich sehr wichtiges – Moment des Geschehens ist, da bei der Entwicklung des biologischen Lebens die Speicherung bisheriger Erfolge im DNA-Molekül wesentlich ist. Nur durch diese Speicherung (Erinnerung, Gedächtnis) wurde eine Zunahme von Komplexität möglich. Der Zufall variiert, das DNA-Gedächtnis gibt eine Richtung. Dieser Prozess ist sehr langsam. Erst mit dem Auftreten des homo sapiens als Teil dieses Prozesses gab es eine Revolution: die Gehirne des homo sapiens können mit ihren elektrischen Zuständen Eigenschaften der Umgebung und sich selbst zu Modellen formen, mit diesen virtuellen Modellen elektrisch spielen und auf diese Weise in sehr kurzer Zeit hochkomplexe Alternativen erkunden, verwerfen oder ausprobieren. Dies führt zu einer extremen potentiellen Beschleunigung der Evolution. Veränderungen, die zuvor vielleicht tausende, zehntausende von Generationen gebraucht haben, können nun innerhalb von Jahren, Monaten, Tagen … gedacht und gestartet werden. Die Erfindung des Computers (eine 1-zu-1 Kopie der Struktur, die dem Kopiervorgang von biologischen Zellen zugrunde liegt!) erscheint in diesem Kontext folgerichtig, dazu Netzwerke und Datenbanken. Aus Sicht der Evolution ist es die Befreiung der Materie in frei konfigurierbare Zustände mit extremer Beschleunigung.

Für die agierenden Menschen, Mitglieder der Gattung homo sapiens, scheint dies aber zu einer Zerreißprobe zu werden, zur Krise der alten Weltbilder die – stimmt das neue Bild – sowieso falsch waren. Wer sind wir wirklich? Was soll das Ganze? Kann es in diesem kosmischen Gesamtgeschehen überhaupt so etwas wie einen Sinn für einzelne Individuen, für einzelne Generationen geben? Wie können wir in all dem, was diese neue Entwicklung mit uns macht, ein Muster erkennen, irgendetwas, was über puren Zufall hinausweist? Oder brauchen wir das alles nicht, ist es sowieso egal? Soll jeder halt die Zeit seines Lebens nutzen so gut es geht, ohne Rücksicht auf Verluste? Sind die Menschen, nachdem sie die Evolution durch Computer, Netzwerke und Datenbanken neu entfesselt haben, sowieso überflüssig geworden? Homo sapiens hat seinen Job gemacht; die Zukunft liegt jetzt nur noch in Hand der intelligenten Maschinen?

WIE GEHT ES WEITER?

Am 13.März 2016 treffen wir uns zur weiteren Verhandlung in Sachen homo sapiens.

  • Was macht das alles mit uns?
  • Hat der homo sapiens noch eine Chance?
  • Ist er überflüssig geworden?
  • Gibt es die intelligenten Maschinen, die den homo sapiens ersetzen sollen, wirklich?
  • Ist dies aller nur ein Propagandatrick der Medien und einiger globaler Konzerne?
  • Sind google, facebook und Co morgen schon pleite, weil sie ihre eigenen Algorithmen nicht mehr unter Kontrolle haben?
  • Was wird uns PHILOSOPHY-IN-CONCERT zum Nachdenken geben?
  • Könnten uns intelligente Maschinen sogar helfen?
  • Was ist mit der Maschine als Therapeut und Partner?
  • Was ist mit den technischen Erweiterungen des Körpers?
  • Was ist mit den möglichen genetischen Veränderungen: warum wollen wir sie nicht?
  • Wo liegt unsere Zukunft? In der bloßen Wiederholung des Alten oder in einem real Neuem? Wie kommen wir dahin? Wer sind unsere Ratgeber? Müssen wir auf unsere Enkel hoffen, dass die es dann schon richten, weil wir zu dumm und träge sind?

Einen Überblick über alle vorausgehenden Sitzungen der Philosophiewerkstatt findet sich HIER.

IST DIE SELBSTVERSKLAVUNG DER MENSCHEN UNTER DIE MASCHINEN EVOLUTIONÄR UNAUSWEICHLICH?

  1. In diesem Blog gab es in der Vergangenheit schon mehrere Einträge (z.B. den ersten großen Beitrag Kann es doch einen künstlichen Geist geben?), die sich mit der Frage beschäftigt haben, inwieweit Maschinen die Lernfähigkeit und die Intelligenz von Menschen erreichen oder sogar übertreffen können.
  2. In vielen wichtigen Punkten muss man diese Frage offensichtlich bejahen, obgleich es bis heute keine Maschine gibt, die das technische Potential voll ausnutzt.
  3. Umso bemerkenswerter ist es, welche Wirkungen Maschinen (Computer) auf die Gesellschaft erzielen können, obgleich sie noch weitab von ihrem Optimum agieren.
  4. In einem Blogeintrag anlässlich eines Vortrags Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab? hatte ich noch eine grundsätzlich positive Grundstimmung bzgl. dessen, was auf uns zukommt. Ich schrieb damals:
  5. Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!
  6. Mittlerweile beschleicht mich der Verdacht, dass wir aktuellen Menschen die nächste Phase der Evolution möglicherweise unterschätzen.
  7. Auslöser war der persönliche Bericht eines Managers in einem weltweiten IT-Konzern, der – von Natur aus ein Naturwissenschaftler, ‚knochentrocken‘, immer sachlich, effizient – zum ersten Mal nach vielen Jahren Ansätze von Emotionen zeigte, was die Entwicklung seiner Firma angeht. Die Firma (und nicht nur diese Firma, s.u.) entwickelt seit vielen Jahren ein intelligentes Programm, das eine Unzahl von Datenbanken auswerten kann, und zwar so, dass die Anfrage von Menschen ‚interpretiert‘, die Datenbanken daraufhin gezielt abgefragt und dem anfragenden Menschen dann mitgeteilt werden. Das Ganze hat die Form eines passablen Dialogs. Das Verhalten dieses intelligenten Programms ist mittlerweile so gut, dass anfragende Menschen nicht mehr merken, dass sie ’nur‘ mit einer Maschine reden, und dass die Qualität dieser Maschine mittlerweile so gut ist, dass selbst Experten in vielen (den meisten?) Fällen schlechter sind als diese Maschine (z.B. medizinische Diagnose!). Dies führt schon jetzt dazu, dass diese Beratungsleistung nicht nur nach außen als Dienstleistung genutzt wird, sondern mehr und mehr auch in der Firma selbst. D.h. die Firma beginnt, sich von ihrem eigenen Produkt – einem in bestimmtem Umfang ‚intelligenten‘ Programm – ‚beraten‘ (und damit ‚führen‘?) zu lassen.
  8. Wenn man sich in der ‚Szene‘ umhört (man lese nur den erstaunlichen Wikipedia-EN-Eintrag zu deep learning), dann wird man feststellen, dass alle großen global operierenden IT-Firmen (Google, Microsoft, Apple, Facebook, Baidu und andere), mit Hochdruck daran arbeiten, ihre riesigen Datenbestände mit Hilfe von intelligenten Maschinen (im Prinzip intelligenten Algorithmen auf entsprechender Hardware) dahingehend nutzbar zu machen, dass man aus den Nutzerdaten nicht nur möglichst viel vom Verhalten und den Bedürfnissen der Nutzer zu erfahren, sondern dass die Programme auch immer ‚dialogfähiger‘ werden, dass also Nutzer ’natürlich (= menschlich)‘ erscheinende Dialoge mit diesen Maschinen führen können und die Nutzer (= Menschen) dann zufrieden genau die Informationen erhalten, von denen sie ‚glauben‘, dass es die ‚richtigen‘ sind.
  9. Auf den ersten Blick sieht es so aus, als ob die Manager dieser Firmen dank ihrer überlegenen Fähigkeiten die Firmen technologisch aufrüsten und damit zum wirtschaftlichen Erfolg führen.
  10. Tatsache ist aber, dass allein aufgrund der Möglichkeit, dass man ein bestimmtes Informationsverhalten von Menschen (den aktuellen ‚Kunden‘!) mit einer neuen Technologie ‚bedienen‘ könnte, und dass derjenige, der dies zu ‚erschwinglichen Preisen‘ als erster schafft, einen wirtschaftlichen Erfolg erzielen kann (zu Lasten der Konkurrenz), diese rein gedachte Möglichkeit einen Manager zwingt (!!!), von dieser Möglichkeit Gebrauch zu machen. Tut der Manager es nicht läuft er Gefahr, dass die Konkurrenz es tut, und zwar vor ihm, und dass er dadurch möglicherweise auf dem Markt so geschwächt wird, dass die Firma sich davon u.U. nicht mehr erholt. Insofern ist der Manager (und die ganze Firma) ein Getriebener (!!!). Er kann gar nicht anders!
  11. Das, was den Manager ‚treibt‘, das ist die aktuelle technische Möglichkeit, die sich aufgrund der bisherigen technischen Entwicklung ergeben hat. Für die bisherige technische Entwicklung gilt aber für jeden Zeitpunkt die gleiche Logik: als die Dampfmaschine möglich wurde, hatte nur noch Erfolg, wer sie als erster und konsequent eingesetzt hat; als die Elektrizität verfügbar, nicht anders, dann Radio, Fernsehen, Auto, Computer, ….
  12. Die ‚Manager‘ und ‚Unternehmensgründer‘, die wir zurecht bewundern für ihre Fähigkeiten und ihren Mut (nicht immer natürlich), sind trotz all dieser hervorstechenden Eigenschaften und Leistungen dennoch nicht autonom, nicht freiwillig; sie sind und bleiben Getriebene einer umfassenderen Logik, die sich aus der Evolution als Ganzer ergibt: die Evolution basiert auf dem bis heute nicht erklärbaren Prinzip der Entropie-Umkehr, bei dem freie Energie dazu genutzt wird, den kombinatorischen Raum möglicher neuer Zustände möglichst umfassend abzusuchen, und in Form neuer komplexer Strukturen in die Lage zu versetzen, noch mehr, noch schneller, noch effizienter zu suchen und die Strukturen und Dynamiken der vorfindlichen Welt (Universum) darin zu verstehen.
  13. Während wir im Falle von Molekülen und biologischen Zellen dazu tendieren, diese eigentlich ungeheuren Vorgänge eher herunter zu spielen, da sie quasi unter unserer Wahrnehmungsschwelle liegen, wird uns heute vielleicht dann doch erstmalig, ansatzweise, etwas mulmig bei der Beobachtung, dass wir Menschen, die wir uns bislang für so toll halten, dazu ganze riesige globale Firmen, die für Außenstehende beeindruckend wirken und für Firmenmitglieder wie überdimensionale Gefängnisse (? oder Irrenanstalten?), dass wir ‚tollen‘ Menschen also ansatzweise spüren, dass die wahnwitzige Entwicklung zu immer größeren Metropolen und zu immer intelligenteren Maschinen, die uns zunehmen die Welt erklären (weil wir es nicht mehr schaffen!?), uns dies alles tun lassen, weil der einzelne sich machtlos fühlt und die verschiedenen Chefs auf den verschiedenen Hierarchieebenen total Getriebene sind, die ihre Position nur halten können, wenn sie hinreichend effizient sind. Die Effizienz (zumindest in der freien Wirtschaft) wird jeweils neu definiert durch das gerade Machbare.
  14. Politische Systeme haben zwar immer versucht – und versuchen es auch heute – sich ein wenig vor dem Monster der Innovation abzuschotten, aber dies gelingt, wenn überhaupt, in der Konkurrenz der Gesellschaftssysteme nur für begrenzte Zeiten.
  15. Was wir also beobachten ist, dass die immense Informationsflut, die das einzelne Gehirn hoffnungslos überfordert, Lösungen mit intelligente Maschinen auf den Plan ruft, die das Sammeln, Sortieren, Klassifizieren, Aufbereiten usw. übernehmen und uns Menschen dann auf neue Weise servieren. So betrachtet ist es hilfreich für alle, nützlich, praktisch, Lebensfördernd.
  16. Beunruhigend ist einmal die Art und Weise, das Wie: statt dass es wirklich allen hilft, hat man den Eindruck, dass es die globalen Konzerne sind, die einseitig davon Vorteile haben, dass das bisherige Ideal der Privatheit, Freiheit, Selbstbestimmung, Würde usw. aufgelöst wird zugunsten einer völlig gläsernen Gesellschaft, die aber nur für einige wenige gläsern ist. Demokratische Gesellschaften empfinden dies u.U, stärker als nicht-demokratische Gesellschaften.
  17. Beunruhigend ist es auch, weil wir als Menschen erstmalig merken, dass hier ein Prozess in Gang ist, der eine neue Qualität im Verhältnis Mensch – Technik darstellt. In primitiveren Gesellschaften (und auch noch in heutigen Diktaturen) war es üblich , dass wenige Menschen die große Masse aller anderen Menschen quasi ‚versklavt‘ haben. Unter absolutistischen Herrschern hatten alle einem Menschen zu gehorchen, ob der nun Unsinn redete oder Heil verkündete. Nach den verschiedenen demokratischen Revolutionen wurde dieser Schwachsinn entzaubert und man wollte selbst bestimmen, wie das Leben zu gestalten ist.
  18. In der fortschreitenden Komplexität des Alltags merken wir aber, dass das sich selbst Bestimmen immer mehr vom Zugang zu Informationen abhängig ist und von der kommunikativen Abstimmung mit anderen, die ohne erheblichen technischen Aufwand nicht zu leisten sind. Die dazu notwendigen technischen Mittel gewinnen aber im Einsatz, im Gebrauch eine solche dominante Rolle, dass sie immer weniger nur die neutralen Vermittler von Informationen sind, sondern immer mehr ein Eigenleben führen, das sich ansatzweise und dann immer mehr auch von denen abkoppelt, die diese vermittelnden Technologien einsetzen. Kunden und Dienstleister werden werden gleichzeitig abhängig. Wirtschaftlich können die Dienstleister nicht mehr dahinter zurück und lebenspraktisch ist der Verbraucher, der Kunde immer mehr von der Verfügbarkeit dieser Leistung abhängig. Also treiben beide die Entwicklung zu noch größerer Abhängigkeit von den intelligenten Vermittlern voran.
  19. Eine interessante Entwicklung als Teil der übergreifenden Evolution. Wo führt sie uns hin?
  20. Die Frage ist spannend, da die heute bekannten intelligenten Maschinen noch weitab von den Möglichkeiten operieren, die es real gibt. Die Schwelle ist bislang die Abhängigkeit von den begrenzten menschlichen Gehirnen. Unsere Gehirne tun sich schwer mit Komplexität. Wir brauchen Computer, um größere Komplexität bewältigen zu können, was zu noch komplexeren (für uns Menschen) Computern führt, usw. Dabei haben wir noch lange nicht verstanden, wie die etwa 200 Milliarden einzelne Nervenzellen in unserem Gehirn es schaffen, im Millisekundenbereich miteinander so zu reden, dass all die wunderbaren Leistungen der Wahrnehmens, Denkens, Erinnerns, Bewegens usw. möglich sind.
  21. Heutige Computer haben mittlerweile eine begrenzte lokale Lernfähigkeit realisiert, die ihnen den Zugang zu begrenzter Intelligenz erlaubt. Heutige Computer sind aber weder im lokalen wie im strukturellen voll Lernfähig.
  22. Einige meinen, dass die Zukunft im Sinne von technischer-Singularität zu deuten ist, dass die intelligenten Maschinen dann irgendwann alles übernehmen. Ich wäre mir da nicht so sicher. Das Hauptproblem einer vollen Lernfähigkeit ist nicht die Intelligenz, sondern die Abhängigkeit von geeigneten Präferenzsystemen (Werte, Normen, Emotionen, Bedürfnissen, …). Dieses Problem begegnen wir beim Menschen auf Schritt und Tritt. Die vielen Probleme auf dieser Welt resultieren nicht aus einem Mangel an Intelligenz, sondern aus einem Mangel an geeigneten von allen akzeptierten Präferenzsystemen. Dass Computer die gleichen Probleme haben werden ist den meisten (allen?) noch nicht bewusst, da die Lernfähigkeit der bisherigen Computer noch so beschränkt ist, dass das Problem nicht sichtbar wird. Sobald aber die Lernfähigkeit von Computern zunehmen wird, wird sich dieses Problem immer schärfer stellen.
  23. Das einzige wirklich harte Problem ist jetzt schon und wird in der Zukunft das Werteproblem sein. Die bisherigen Religionen haben unsere Blicke mit vielen falschen Bildern vernebelt und uns im Glauben gelassen, das Werteproblem sei ja gelöst, weil man ja an Gott glaubt (jede Religion tat dies auf ihre Weise). Dieser Glaube ist aber letztlich inhaltsleer und nicht geeignet, die realen Wertprobleme zu lösen.
  24. Man kann nur gespannt sein, wie die Menschheit als Teil des umfassenden Lebensphänomens mit einer immer leistungsfähigeren Technik auf Dauer das Werteproblem lösen wird. Die einzige Hoffnung ruht in der Logik des Prozesses selbst. Der Mensch in seiner unfassbaren Komplexität ist ein Produkt der Evolutionslogik; wir selbst sind weit entfernt davon, dass wir etwas Vergleichbares wie uns selbst schaffen könnten. Darf man also darauf vertrauen, dass die in allem Leben innewohnende Logik der Evolution uns Menschen als Werkzeuge benutzt zu noch mehr Komplexität, in der wir alle kleine Rädchen im Ganzen sind (als was erscheint uns  ein einzelner Mensch in einer 30-Millionen Metropole?)

Einen Überblick über alle Einträge von cagent nach Titeln findet sich HIER

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

INFORMATIK & GESELLSCHAFT – Kurzbericht

Änerung: 19.März 2015 (Die Künslergruppe Reul & Härtel hat das Foto mit Ihnen durch ein Bild aus ihr Performance (‚visualexploration‘) ersetzen lassen)
Änderung: 20.Nov.2014 (Einfügung Videoschnappschuss von der Uraufführung des Eingangereignisses)

Wie schon zuvor in diesem Blog darauf hingewiesen gab es am 8.November 2014 in der Frankfurt University of Applied Sciences eine recht interessante Veranstaltung INFORMATIK & GESELLSCHAFT. Computer und Geist. Aspekte einer Standortbestimmung. Im Folgenden ein kurzer Bericht mit einigen Schnappschüssen. Alle Bilder sind von Dominik Wolf, dem es gelungen ist, unter schwierigen Lichtverhältnissen doch das eine oder andere Bild zu schiessen. Die beiden ersten Bilder sind allerdings von Anita Henisch, die dann wegen der schwierigen Lichtverhältnisse aufgegeben hatte. Von Dominik Wolf selbst gibt es leider kein Foto, was schade ist, da er die Hauptlast der Organisation getragen hat.

13.20 Uhr Eingangsereignis Computermediated Sound/Images 1
(cagentArtist & Guido May)

cagentartist im Gespräch mit Guido May vor der Uraufführung von 'Little CRUNCS symphony No.1'
cagentartist im Gespräch mit Guido May vor der Uraufführung von ‚Little CRUNCS symphony No.1‘
Jazz-Schlagzeuger Guido May während der Uraufführung von 'Little CRUNCS symphony No.1'
Jazz-Schlagzeuger Guido May während der Uraufführung von ‚Little CRUNCS symphony No.1‘

Hier ein Video Schnappschuss von Dominik Wolf. Dies war nicht als Dokumentation geplant; aber da der geplante Tonmitschnitt leider nicht verfügbar ist, ist dies nun das einzige Zeugnis der 20 Minuten-Uraufführung.

Das Stück ‚Little CRUNCS symphony No.1‘ wirkte auf den ersten Blick wie sinfonische Musik, war aber vollständig im Computer generiert worden. Sieben verschiedene Eingangsklänge wurden auf unterschiedliche Weise algorithmisch bearbeitet und miteinander verzahnt. Viele Zuhörer sagten anschliessend, dass für sie das Schlagzeugspiel sehr wichtig gewesen sei. Ohne dieses hätten sie sich mit dem reinen Soundtrack schwer getan. So aber war es ein Erlebnis. Auch für den erfahrenen Jazz-Schlagzeuger Guido May war das Stück, wie er sagte, eine besondere Herausforderung. Alle ihm bekannten Muster passten bei diresdem Stück nicht. Er musster sich die Rolle des Schlagzeugs hier speziell erarbeiten.

13.45 Uhr Begrüßungen
(Moderator Prof. Doeben-Henisch, Sprecher ForschungsCampus FC3 & Informatik Cluster Fb2 Prof. Schäfer, Dekan Fb2 Prof. Morkramer, Vizepräsident Wissenschaft Infrastruktur Forschungstransfer der Frankfurt University of Applied Sciences Prof. Schrader)

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch
Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Prof.Doeben-Henisch bei der Begrüßung. Es war die erste Veranstaltung dieser Art für die Informatik an der Hochschule. So war es sehr erfreulich, dass so viele sich aktiv und engagiert bei dieser Veranstaltung beteiligt haben.

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer
Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Prof. Morkramer,  der Dekan des Fb2, verstand es, am Beispiel seiner eigenen Familie lebendig werden zu lassen, wie schnell die Computer innerhalb von zwei  Generationen aus dem Nichts aufstiegen und heute alles durchdringen. Erst jetzt beginnen wir Menschen scheinbar zu begreifen, welche große Folgen dies für uns alle haben kann, nicht nur positiv, sondern auch negativ.

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung  und Forschung, Prof.Dr. Ulrich Schrader
Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung und Forschung, Prof.Dr. Ulrich Schrader

Der Vizepräsident für Weiterbildung, Infrastruktur und Forschung, Prof. Dr. Schrader, griff sich aus den vielfältigen Entwicklungen jenen Bereich heraus, der ihn selbst besonders betrifft, den Bereich neuer Unterrichtstechnologien. So wunderbar diese neue Welt auch erscheint, er machte darauf aufmerksam, dass der Aufwand für eine volle Nutzung dieser neuen technologischen Möglichkeiten, von einer einzelnen Hochschule kaum gestemmt werden kann. Er wagte einen visionären Ausblick dahingehend, ob nicht Hochschule, Behörden und Wirtschaft zusammen ein ‚Leuchtturmprojekt‘ gemeinsamer neuer digitaler interaktiver Lernräume stemmen sollten. Eine Frage, die noch immer weiterhallt, auch nach der Veranstaltung.

14.00 Uhr Geist zum Nulltarif? Philosophische Aspekte zur Herkunft und zur Zukunft der Informatik. Vortrag und Diskussion
(Prof. Dr. phil. Dipl. theol G. Doeben-Henisch)

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch
Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Unter dem Titel ‚Geist zum Nulltarif‘ ordnete Prof. Doeben-Henisch   den Menschen mit seiner ‚Geistigkeit‘ ein in die Ideengeschichte (‚Geist‘ in der antiken griechischen Philosophie, hier verankert im Phänomen des ‚Atmens‘ (Verb: ‚pneo‘) erweitert zum Lebensprinzip (Substantiv ‚pneuma‘)) und in die Evolution des Lebendigen (‚Geist‘ als eine inhärente Eigenschaft des Biologischen selbst). Die strukturellen Übereinstimmungen zwischen dem Prinzip Computer und biologischen Zellen bis hin zum Gehirn lassen heute nicht erkennen, warum der Computer den Menschen in seinen Fähigkeiten nicht übertreffen können sollte. Die – besonders in den USA – vertretene Hypothese von der kommenden ‚technologischen Singularität‘ geht schon ganz selbstverständlich davon aus, dass die Tage der Menschen gezählt sind; die ‚intelligenten Maschinen‘ werden ‚übernehmen’…

15.00 Uhr Informatik und Gesellschaft Soziologische und kulturanthropologische Aspekte der neuen Informationstechnologien. Vortrag und Diskussion
(Prof. Dr. habil. Dipl. soz. Manfred Faßler)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)
Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Dass diese ‚Anpassbarkeit‘ des Computers an gesellschaftliche Abläufe und psychischen Bedürfnissen massive Rückwirkungen auf das Verhalten der Menschen und viele soziale Strukturen hat, thematisierte Prof. Fassler. Er identifizierte in den beobachtbaren Veränderungen einen großen Forschungsbedarf: wie können wir verhindern, dass die Menschen zu bloßen ‚Anhängsel‘ eines einzigen großen kybernetischen Systems werden, das  einer ’smarten Humanität‘ zuwider läuft? Und in der Tat, der Reflexionsbedarf der heutigen Informatik gerade mit Blick auf Soziologie und Kulturanthropologie ist drängend; wo aber sind die zugehörigen Forschungsgruppen und Forschungsprogramme?

16.00 Uhr Pause Computermediated Sound/Images 2
(Philip Reul & Markus Härtel)

Momentaufnahme von der Performance Haertel-Reul
Momentaufnahme von der Performance Haertel-Reul

Die wunderbaren Bilder von Härtel/ Reul, die auf der digitalen Verarbeitung von analogen Prozessen in verschiedenen Flüssigkeiten beruhten, ließen in der ersten Pause  dann etwas Leichtigkeit aufblitzen, einen Hauch von Schönheit. Zu erwähnen ist, dass Philip Reul auch Absolvent des Bachelor-Studiengangs Informatik der Hochschule ist sowie des interdisziplinären Masterstudiengangs ‚Barrierefreie Systeme‘ (BaSys).

visualexploration-8nov2014
visualexploration-8nov2014 von Härtel & Reul

16.30 Uhr Verkehr von morgen. Total umsorgt, total verkauft? Über Uber, Überwachung, und die neue Mobilität. Vortrag und Diskussion
(Prof. Dr. Jörg Schäfer)

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre
Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Prof. Schäfer demonstrierte dann am Beispiel der Mauterfassung, wie das vorhandene Knowhow der Informatik von der Politik nicht genutzt wird, um  die Privatsphäre bei der Mauterfassung zu wahren. Stattdessen wird direkt auf die Privatheit zugegriffen. Am Beispiel des neuen  Fahrgastvermittlungssystem Uber illustrierte Schäfer, wie einige wenige Kapitalgeber mit einer einfachen, billigen Software weltweit hohe Vermittlungsgebühren einziehen können, ohne juristische Verantwortung für das Fahrgastgeschäft selbst zu übernehmen. Er fragte, warum die Bürger dies nicht selbst organisieren, z.B. mit einer  ‚genossenschaftlichen Bürgerplattform‘. Noch weiter gedacht: warum sollten Studierende, Professoren und Bürger nicht solch eine Genossenschaft gründen?

17.30 Uhr Robot-Fabriken. Erhöhung der Produktivität; wo bleibt die Arbeit? Vortrag und Diskussion
( Prof. Dr. Kai-Oliver Schocke)

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung
Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Das Thema ‚Automatisierung‘ bzw. ‚Roboter-Fabriken‘ ist in der Öffentlichkeit wegen unterstelltem Arbeitsplatzverlust schon mit Vorbehalten verhaftet. Prof. Schocke verstand es aber, in einem sehr engagierten Vortrag zunächst einmal die Notwenigkeit einer Produktivitätssteigerung durch weiter automatisierte Fabriken zu klären. Der internationale Konkurrenzdruck zwingt Deutschland, hier an vorderster Stelle mit zu halten. Allerdings zeigte die lebhafte Diskussion, dass damit das Problem der oft zitierten Arbeitsplatzvernichtung möglicherweise noch nicht völlig beantwortet ist. In der Diskussion wurde klar, dass hier alle betroffenen gesellschaftlichen Kräfte herausgefordert sind nach Lösungen zu suchen. den Unternehmen alleine kann man dies nicht anlasten.

18.30 Uhr Pause Computermediated Sound/Images 3
(acrylnimbus)

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin
Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt, ehemaliger Absolvent der Informatik – noch mit dem klassischen Diplom –, der zugleich seit gut 20 Jahren auch experimentelle Musik produziert, komponiert, performed, zeigte ein eigens Kunstvideo parallel zu einem eigenen Soundtrack, den er live spielte.

19.30 Uhr Video Slam zum Thema Informatik und Gesellschaft (Länge eines Videos maximal 7-Min, künstlerisch oder wissenschaftlich, Publikumspreise für die zwei besten Beiträge)

 Video--Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer
Video–Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Obgleich die Vorlaufzeit für den Videowettbewerb vergleichsweise sehr kurz war hatte es Einsendungen gegeben und es war möglich, den vom Förderkreis der Hochschule gestifteten Preis an zwei Preisträger zu überreichen. Sowohl Siegfried Härtel wie auch Tom Pluemmer sind profiliert Kunstschaffende. Während Tom Pluemmer seinen Schwerpunkt im Bereich Film hat, hat Siegfried Kärcher in seinem Leben schon eine ganze Bandbreite von künstlerische Aktivitäten aufzuweisen. Darin kommt eine intensive Auseinandersetzung mit Computern in ihren vielschichtigen Einsatzmöglichkeiten ebenso vor wie Lichttechnik, Sounddesign und Videokunst, um nur einiges zu nennen.

Das Cafe1 während der Pausen - Essen, Trinken, Kommunizieren
Das Cafe1 während der Pausen – Essen, Trinken, Kommunizieren

21.30-23.00 Uhr Ausgangsereignis Computermediated Sound/Images 4
(Werkstattgespräch mit den Künstlern; Digital Jam-Session)

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam
Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Hier eine Momentaufnahme von der inspirierenden Improvisation Tobias Schmitt & Guido May. Leider viel zu kurz …

Weitere Berichte, Kommentare können möglicherweise noch folgen. Insbesondere sollen noch Links auf die beiden prämierten Videos folgen.

Eine erste Nachreflexion von cagent zur Tagungfindet sich HIER.

Einen Überblick über alle Einträge in diesem Blog nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften
Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

Philosophie Jetzt: Veranstaltung am 2.Okt.2011

Hier eine Ankündigung in eigener Sache:

Am 2.Okt.2011 beginne ich mit einer ersten Veranstaltung im Rahmen des Projektes ‚Philosophie Jetzt‘ mit dem aktuellen Titel ‚Unterwegs Wohin?‘

Grundidee ist, die Diskussion aus dem Blog auch in der Öffentlichkeit zu führen und damit  das Umdenken vieler gewohnter Alltagsbegriffe weiter zu unterstützen. Die Veranstaltung findet im

Bistro des Restautant ‚Schnittlik‘ statt

61137 Schöneck

Platz der Republik 2

16:00 – 19:00h

Gedacht ist an einer lockeren Form  von Vortrag, Gespräch, aufgelockert mit eigener experimenteller Musik. Denkbar, dass in Zukunft auch andere aktiv mitwirken durch Texte und Musik. Dies ist jedenfalls ein Anfang. Philosophie ist für uns alle wichtig, nicht nur für ‚Hinterstubendenker’……

Herzliche Grüße,

cagent

PS:  Es deutet alles darauf hin, dass es mir zum ersten Mal gelingt, einen Zusammenhang von ‚Urknall‘ über kosmische Evolution, biologische Evolution 1, biologische Evolution 2 (=Kultur, Technologie) bis hin zu Grundstrukturen von Wissen, Lernen und Werten zu zeichnen. Hätte dies nie für möglich gehalten. Im Nachhinein erscheint es so einfach und man versteht gar nicht, warum man sich nahezu 63 Jahre quälen muss, bis man dahin kommt (kleiner Trost. den anderen geht es auch nicht besser…). Die neue Perspektive hat allerdings etwas ‚Berauschendes‘; die philosophisch-theologischen Kategorien der Vergangenheit wirken da wie ein ’schlechter Traum‘. Andererseits war dies irgendwie als ‚Durchgangsphase‘ unumgänglich. Erkennen funktioniert nur über Blindversuch, Fehler, Korrektur, neuer Versuch… irgendwann hat man dann das Gefühl, jetzt scheint es ‚besser‘ zu sein…bis zur nächsten ‚Verbesserung’…Ohne diese gelegentlichen Blog-Einträge — so einfach und erratisch sie auch im einzelnen sein mögen — wäre dies nie passiert….

PS2: Ja, die Veranstaltung hat stattgefunden. Trotz strahlendem Sommerwetter war der Raum gefüllt und die drei Stunden erwiesen sich als viel zu kurz….Das ruft nach mehr….

Zusammenfassung des Vortrags

 

(1) Der Vortrag wählte als Ausgangspunkt die Position des Dualismus, der fast 2000 Jahre die europäische Philosophie — und auch das übrige Denken — geprägt hatte und selbst heute noch in vielen Kreisen präsent ist: die Gegenübersetzung von Geist und Materie.

 

(2) Es wurde dann in mehreren Schritten gezeigt, wie diese Gegenübersetzung im Lichte des heutigen Wissens nicht nur ‚in sich zusammenfällt‘ sondern mehr noch, einen völlig neuen Denkansatz ermöglicht.

 

(3) Über die Stationen Erde – Sonnensystem – Milchstraße – Universum wurde nicht nur deutlich, dass wir in einer der wenigen ‚bewohnbaren‘ (habitablen) Zonen leben, sondern dass alle bekannte ‚Materie‘ letztlich nichts anderes ist als eine ‚Zustandsform von Energie‘.

 

(4) Anhand der unterschiedlichen komplexen Strukturen wie subatomar Quanten, Atome, Moleküle wurde deutlich, wie es eine Brücke gibt von der Energie zu den kleinsten Bauelementen biologischer Lebensformen im Rahmen der chemischen Evolution. Zwar sind hier bis heute noch nicht alle Abläufe vollständig aufgeklärt, aber der Weg vom Molekül zur Zelle ist zumindest prinzipiell nachvollziehbar.

 

(5) Es wurden grob jene Prozess skizziert, die bei der Selbstreproduktion involviert sind (DNA, mRNA, tRNA, Ribosomenkomplexe….). Sämtliche Prozesse dieser chemischen Informationsmaschinerie basieren ausschließlich auf Molekülen.

 

(6) Die biologische Evolution von den ersten Zellen bis zum homo sapiens wurde stark verkürzend skizziert. Die Rolle des Gehirns in der Steuerung, für das Verhalten, für die Sprache. Die mittlerweile allgemein akzeptierte Out-of-Africa Hypothese, die Abstammung aller heute lebenden Menschen von einer Gruppe von homo sapiens Menschen, die von Ostafrika aus vor ca. -70.000 über Arabien, Persien, Indien Australien bevölkerten, Asien und ab ca. -45000 Europa. Später auch Nord- und Südamerika.

 

(7) Es wurde kurz erklärt wie der ‚Wissensmechanismus‘ hinter der biologischen Evolution funktioniert, die — obgleich vollständig ‚blind‘ — innerhalb von ca. 3.7 Mrd. Jahren hochkomplexe Organismen hervorgebracht hat. Die ‚Logik‘ dahinter ist ein gigantischer Suchprozess über die möglichen ökologischen Nischen, deren Feedbackmechanismus ausschließlich im Modus des ‚Überlebens‘ gegeben war. Das konnte nur funktionieren, weil beständig Milliarden von ‚Experimenten‘ gleichzeitig ausgeführt wurden. Evolution heißt ‚aktiv mit dem Unbekannten spielen‘ mit dem Risiko, unter zu gehen; aber dieses Risiko war — und ist — die einzige ‚Versicherung‘, letztlich doch zu überleben.

 

(8) Es wurde dann die Besonderheit des Gehirns erläutert, warum und wie Gehirnzellen in der Lage sind, Signale zu verarbeiten. Es wurden die chemischen Prozesse geschildert, die diesen Prozessen zugrunde liegen und dann, wie sich diese komplexen chemischen Prozesse heute technisch viel einfacher realisieren lassen. Es wurde ferner erklärt, warum ein Computer das Verhalten eines Gehirns simulieren kann. Zugleich wurde aber auch deutlich gemacht, dass die Simulation mittels eines Computers keine vollständige Berechenbarkeit impliziert, im Gegenteil, wir wissen, dass ein Gehirn — real oder simuliert — grundsätzlich nicht entscheidbar ist (Goedel, Turing).

 

(9) Es wurde weiter erläutert, wie sich die Informationsverarbeitung eines Gehirns von der DNA-basierten Informationstechnologie unterscheidet. Neben Details wie Gedächtnisstrukturen, Bewusstsein – Unbewusstsein, Sprache, Abstraktionen, Planen, usw. wurde deutlich gemacht, dass die Informationseinheiten eines Gehirns (Meme) permanent durch das Verhalten eines Organismus modifiziert werden können. Im Zusammenwirken von Gehirn und Sprache ist das biologische Leben nun im Stande, komplexe Modelle des Lebens versuchsweise zu entwickeln, die in Verbindung mit Genetik den Entwicklungsprozess biologischer Strukturen extrem beschleunigen könnten. Mit Blick auf die drohenden Faktoren der Lebenszerstörung wie Sonnenerwärmung, Zusammenstoß mit der Galaxie Andromeda in ca. 2-4 Mrd Jahren — um nur einige Faktoren zu nennen — kann diese Beschleunigung des Entwicklungsprozesses von Leben von Interesse sein.

 

(10) Hier endete die Sitzung mit dem vielfachen Wunsch, den Diskurs fort zu setzen, speziell mit Blick auf die sich neu stellenden ethischen und praktischen Lebensfragen.

Ich glaube an Gott, was brauch ich dann die (komplizierten) Wissenschaften?

(1) Während einer Geburtstagsfeier mit vielen Gästen (wo sonst…) nahmen die Gespräche zur fortgeschrittenen Stunde immer intensivere Verläufe. An einer Stelle sagte dann eine engagierte Frau, dass Sie an Gott glaube, an die Welt als Schöpfung; das gäbe ihr Kraft und Sinn; und so lebe sie es auch. Die Wissenschaft brauche sie dazu nicht; die sei eher verwirrend.

 

 

(2) Mit solch einem ‚Bekenntnis‘ ist das Wissen zunächst einmal ’neutralisiert‘; was immer Wissen uns über den Menschen und seine Welt sagen könnte, es findet nicht statt, es gibt kein Wissen mehr. Mögliche Differenzierungen sind wirkungslos, mögliche Gründe unwichtig; mögliche Infragestellungen, gedankliche Herausforderungen können nicht greifen; damit verbundene mögliche Spannungen, Erregungen können nicht stattfinden. Die Welt ist ‚wie sie ist‘, d.h. wie das aktuelle Wissen des so Glaubenden sie zeichnet. Alles hat seine Ordnung, eine Ordnung die sich nicht beeinflussen lässt durch Wissenschaft.

 

 

(3) In gewisser Weise hört nach einem solchen Bekenntnis jedes Gespräch auf. Man kann zwar noch weiter Reden, aber inhaltlich kann man sich nur noch auf wechselseitige Bestätigungen beschränken: Ja, ich sehe das auch so; ja, ich glaube das auch; ja, ich finde das gut;…. abweichende Meinungen haben streng genommen keinen Platz in diesem Gefüge…weil sie einfach ausgeblendet werden (Menschen mit mehr Aggressionspotential gehen dann allerdings zum ‚Angriff‘ über und versuchen, die ‚abweichende‘ Meinung nieder zu machen). Aber auch das ‚einfache Ausblenden‘ einer anderen Meinung, zu sagen, dass man abweichende Meinungen nicht hören will, ist eine Form der ‚Entmündigung‘ und damit eine Form von ‚Missachtung‘. Wahrheit ist dann nicht mehr möglich.

 

 

(4) Mich hat diese Einstellung geschockt. Wenn man weiß, auf welch schwankendem Boden jegliche Form von Wissen über uns, die Welt und Gott steht und wenn man weiß, wie viel Unheil über Menschen im Namen des Glaubens gekommen ist, weil die Gläubigen zu wissen glaubten, was wahr ist und in diesem Glauben tausende andere unterdrückt, verfolgt, gefoltert und getötet haben, weil sie auch glaubten, dass ihre Form des Glaubens über alle anderen Erkenntnisse und Wahrheiten ‚erhaben‘ sei, dann ist jegliche Form der Ablehnung von Wissen (ob durch Verweis auf Gott (Wer kennt ihn wirklich), durch Verweis auf eine politische Ideologie, durch Verweis auf ethnische Besonderheiten, durch Verweis auf ‚besonderes Blut‘, usw.) letztlich in einem identisch: die bewusste willentliche Entscheidung, sein eigenes Bild von der Welt auf keinen Fall zu verändern; was immer die Wissenschaften über uns und die Welt herausfinden, das wird als ‚irrelevant‘ neutralisiert.

 

 

(5) Allerdings zeigt sich am Beispiel solcher ‚alltäglicher‘ Konflikte auch sehr unmittelbar, dass entwickelte (wissenschaftliche) Formen von Wissen alles andere als selbstverständlich sind. Es hat nicht nur viele tausend Jahre gebraucht, bis die Menschen mit komplexeren Wissensformen umgehen konnten, es ist heute, in unserer Gegenwart so, dass man sich des Eindrucks nicht erwehren kann, dass nicht nur viele derjenigen, die nicht studiert haben, ein gebrochenes Verhältnis zu wissenschaftlichem Wissen haben, sondern dass ebenso viele derjenigen, die akademische Abschlüsse vorweisen können (mehr als 50%?), das ‚Wesen von wissenschaftlichem Wissen‘   nicht verstanden zu haben scheinen und Anschauungen über uns Menschen und die Welt für ‚wahr‘ halten, die — nach meinem Kenntnisstand — ziemlich abstrus und willkürlich sind (so eine Art ‚Voodoo‘ unter dem Deckmantel von Wissenschaft und Aufklärung).

 

 

(6) Es macht wenig Sinn, über diesen Sachverhalt zu ‚moralisieren‘. Es ist die Realität, in der wir leben. Da unser Handeln von unserem Wissen — oder von der Meinung anderer, denen wir einfach folgen — geleitet ist, haben solche Auffassungen ihre alltäglichen Wirkungen.

 

 

(7) Wenn man also versucht Wissen ernst zu nehmen; wenn man Fragen zulässt und sie versucht ernsthaft zu beantworten; wenn man sogenannte Selbstverständlichkeiten immer wieder mal hinterfragt, um sich zu vergewissern, dass man keine falschen Voraussetzungen mit sich herum trägt; wenn man versucht, aus den vielen Detailerkenntnissen größere Zusammenhänge zu konstruieren und auch wieder zu verwerfen; wenn man versucht, Sachverhalte zu Ende zu denken, obgleich wenig Zeit ist, man erschöpft ist, und keiner davon etwas hören will, dann darf man dafür kein Lob erwarten, keine Ermutigung, kaum Zustimmung, sondern eher Ablehnung, Angst, Abwehr oder Bemerkungen wie ‚Was Du da wieder denkst‘, ‚Das braucht doch kein Mensch‘, ‚Hast Du nichts Besseres zu tun‘, ‚Das nervt einfach‘, ‚Mir ist das alles zu kompliziert‘,….

 

 

(8) Sich auf Dauer ernsthaft mit ‚wahrem‘ Wissen zu beschäftigen (nicht mit Modetrends, Buzz Words, usw.) liegt quer im Alltag, darf auf keine Unterstützung hoffen. Die meisten Menschen suchen nicht die ‚Wahrheit‘, sondern eher Bestätigungen für ihre aktuelle Unwahrheit; Bestätigungen fühlen sich einfach besser an als Infragestellungen durch Erkenntnisse, die dazu zwingen, das eigene Bild von der Welt zu verändern.

 

 

(9) Jedes Wissen hat ‚Ränder des Wissens‘, jene Bereiche, die vom bisherigen Wissen noch nicht erschlossen sind bzw. die durch aktuelles Wissen ‚verstellt‘ werden, d.h. ich werde im Wissen erst weiter kommen, wenn ich dieses ‚verstellende‘ Wissen als ‚falsch‘ bzw. ‚unzureichend‘ erkannt habe. Wie soll dies geschehen? Menschen, die hauptsächlich nur Bestätigungen suchen, haben praktisch keine Chance, die ‚Falschheit‘ ihres Wissens zu entdecken. Sie sind in ihrem aktuellen Wissen quasi gefangen wie in einem Käfig. Da sie ihren Käfig nicht sehen, ihn ja sogar für ‚richtig‘ halten, wird sich der Käfig im Normalfall immer nur noch weiter verfestigen.

 

 

(10) Das biologische Leben, von dem wir Menschen ein winziger Teil sind, hat die Jahrmilliarden dadurch gemeistert, dass es nicht einer bestimmten vorgegebenen Ideologie gefolgt ist, sondern dass es ‚alles, was möglich wahr, einfach probiert hat‘. Man kann dies ‚Zufall‘ nennen oder ‚Kreativität‘ oder ‚Spiel‘; letztlich ist es so, dass Zufall/ Kreativität/ Spontaneität/ Spiel jeglicher fester Form auf Dauer haushoch überlegen ist, da feste Formen von Wissen Spezialisierungen darstellen für bestimmte Aspekte von Welt, meistens dazu sehr statisch, und solche Formen sind sehr schnell sehr falsch. Besser zu sein als ‚zufallsgesteuertes Wissen‘ ist eine sehr hohe Messlatte, und biologische Systeme wirken nur deshalb gegenüber reinem Zufall überlegen, weil sie die Erfahrungswerte von 3 Milliarden Jahren ’spielerischer Evolution‘ in sich angesammelt haben. Mehr als drei Milliarden Jahre Experimente mit hunderten Milliarden Beteiligten pro Jahr sind eine Erfahrungsbasis, die in sich ein Wunder darstellt, das zu begreifen nicht leicht fällt. Wir, die wir von diesem ‚angesammelten Wissen‘ profitieren können, ohne dass wir auch nur irgendetwas selbst dazu beigetragen haben, haben meistens kein gutes Gefühl dafür, welch ungeheure Leistung es bedeutet, das bisherige Weltwissen auch nur ein kleines Stück zu erweitern. Wer sich die Mühe machen würde, beispielhaft  — von vielen möglichen spannenden Geschichten — die Geschichte des mathematischen Denkens zu verfolgen, das zum Herzstück von jeglichem komplexen Wissen gehört, kann sehen, wie sich die besten Köpfe über 3000 und mehr Jahre bemühen mussten, bis die Mathematik eine ‚Reife‘ erlangt hat, die erste einfache Wissenschaft möglich macht. Zugleich gilt, dass in unseren Zeiten, die mehr denn je von Technologie abhängen, das Wissen um Mathematik bei den meisten Menschen schlechter ist als bei den Denkern der Antike. Es ist eben nicht so, dass ein Wissensbereich, der über Jahrtausende mühsam aufgebaut wurde, dann automatisch in der gesamten nachfolgenden Kultur verfügbar ist; ein solches Wissen kann auch wieder verfallen; ganze Generationen können in der ‚Aneignung von Wissen‘ so versagen, dass ‚errungenes Wissen‘ auch wieder ‚verschwindet‘. Wissen in einer Datenbank nützt nichts, wenn es nicht reale Menschen mit realen Gehirnen gibt, die dieses Wissen auch tatsächliche ‚denken‘ und damit anwenden können. Immer größere Datenbanken und immer schnellere Netze nützen nichts, wenn das reale Wissen in den realen Köpfen wegen biologischer Kapazitätsgrenzen einfach nicht ‚mithalten‘ kann…

 

 

(11) Unsere heutige Kultur ist in der Tat an einer Art Scheideweg: unsere Technologie entwickelt sich immer schneller, aber die biologischen Strukturen unserer Körper sind bislang annähernd konstant. Bedeutet dies, dass (i) die Ära der Menschen vorbei ist und jetzt die Zeit der Supercomputer kommt, die den weiteren Gang der Dinge übernehmen? oder (ii) haben wir einen Wendepunkt der Entwicklung erreicht, so dass ab jetzt aufgrund der biologischen Begrenztheit der Menschen es nicht mehr nur um ’schneller‘ und ‚mehr‘ geht sondern um ‚menschengemäßere künstliche Intelligenz‘, die ein Bindeglied darstellt zwischen dem kapazitätsmäßig begrenztem menschlichem Denken einerseits und einer immer leistungsfähigeren Technologie? oder (iii) Beginnt jetzt die Ära der angewandten Gentechnologie, die uns in die Lage versetzt, unseren Körper schrittweise so umzubauen, dass wir die Erfordernisse eines biologischen Lebens auf der Erde besser meistern könne als bisher? Die Alltagserfahrung legt vielleicht (i) nahe, die bisherige historische Entwicklung deutet aber auf (ii) und (iii) hin. Denn — und das übersieht man leicht — der Weg des Lebens in den letzten ca. 3.2 Milliarden Jahren hat permanent Probleme lösen müssen, die verglichen mit den uns bekannten Problemen um ein vielfaches größer waren. Und das Prinzip des Lebens hat dies alles gemeistert, ohne dass wir auch nur einen Millimeter dazu beigetragen haben. Wenn wir uns also weniger an unsere vielfältigen kleinkarierten Ideologien klammern würden und stattdessen stärker auf die ‚innere Logik des Lebens‘ achten, dann sind die potentiellen Lösungen in gewisser Weise ’schon immer da‘. Dies ist nicht als ‚Determinismus‘ oder ‚Vorsehung‘ misszuverstehen. Nein, die Struktur der Materie enthält als solche alle diese Strukturen als Potential. Unsere gesamtes heutiges Wissen (von dem unsere Körper mit ihren Gehirnen ein kleiner Teil sind) ist letztlich nichts anderes als das versammelte Echo der Milliarden von Experimenten, in denen wachsende biologische Strukturen in einem permanenten Dialog mit dem vorfindlichen Universum Aspekte dieses Universums ’sichtbar‘ gemacht haben; wahres Wissen zeigt in dem Sinne nichts ‚Neues‘ sondern macht ’sichtbar‘, was schon immer da war bevor es dieses Wissen explizit gab. ‚Wissen schaffen‘ heißt im Wesentlichen ‚in Dialog treten‘, d.h. ‚Interagieren‘, d.h. ‚ein Experiment durchführen‘ und die Ereignisse im Umfeld der Dialoge ‚geeignet zusammenführen‘ (Bilder, Modelle, Theorien…). Was ‚Denken‘ wirklich ist wissen wir bislang eigentlich immer noch nicht wirklich, was unsere Gehirne aber nicht daran hindert, kontinuierlich Denkarbeit zu leisten. Unsere Gehirne denken für uns. Wir sind quasi ‚Konsumenten‘ dieser wundersamen Gebilde. Dass unsere Gehirne nicht ‚beliebig gut‘ denken sondern so ihren ‚eigenen Stil‘ pflegen, das merkt man erst nach vielen Jahren, wenn man sich intensiv mit der Arbeitsweise des Gehirns beschäftigt. Wenn wir über die ‚Welt‘ reden dann reden wir nicht über die Welt ‚wie sie um uns herum ohne uns ist‘, sondern über die Welt, ‚wie sie unsere Gehirne für uns aufbereiten‘. Unsere Gehirne arbeiten so perfekt, dass uns dieser fundamentale Unterschied lange Zeit — vielen Menschen vielleicht zeit ihres Lebens nie — nicht auffällt.

 

 

(12) Wir sind Teil dieses gigantischen Geschehens. Wir finden uns darin vor. Leben ist mehr als die Worte, die man darüber formulieren kann. Einen Sinn gibt es natürlich; er hängt nicht davon ab, ob wir ihn sehen oder nicht sehen, glauben oder nicht glauben. Der wahre Sinn durchdringt alles von Anbeginn. Wir können versuchen, uns ihm gegenüber zu verschließen, aber wir selbst mit unserem Körper als Teil des Ganzen, enthalten so viel von diesem Sinn, dass wir geradezu ‚voll gepumpt‘ sind mit diesem Sinn. Vor allem Erkennen kann man es auch fühlen.

 

 

(13) Was ‚Gott‘ mit allem zu tun hat? Ich bin mir nicht sicher, ob wir als Menschen diese Frage überhaupt verstehen können.

 

 

Zwischenergebnis Juni 2011: Nochmals zur Fitnessfunktion

  1. Die Überlegungen vom 20.2.2011 ‚Jenseits des Wärmetods‘ stehen weiter im Raum. Auf mehreren Ebenen ist seitdem viel passiert. Ein ‚track‘ ist die andauernde Analyse, wie Wissen in künstlichen Systemen entstehen kann, das ’nützlich‘ ist. Ich untersuche dazu weiterhin beispielhaft und modellhaft sogenannte genetische Algorithmen (GA) und Lernende Classifier Systeme (LCS).

  2. Genetische Algorithmen ‚leben davon‘, dass es eine sogenannte ‚Fitness Funktion‘ gibt, die die Aktionen eines genetischen Systems in einer Welt ‚kommentiert‘. Ohne diese Kommentare ist ein genetisches System ‚blind‘. Solange ein genetisches System ‚lebt‘ kann es interessante Informationen über die umgebende Welt ansammeln (was tatsächlich noch von vielen wichtigen Details abhängt).

  3. Fitness Funktionen stellen aber letztlich selbst eine bestimmte Form von Wissen dar, in dem bestimmten Eigenschaften der umgebenden Welt Wertungen zugeordnet werden, anhand denen sich ein genetisches System ‚orientieren‘ kann.

  4. Im Falle ‚technischer‘ genetischer Systeme sind es die Ingenieure, die ihr Wissen in Fitnessfunktionen ‚verpacken‘ und damit genetische Systeme ermöglichen.

  5. Im Fall ’natürlicher‘ Systeme gibt es keine Ingenieure. Man muss sich fragen, wie hier eine Fitnessfunktion zustande kommt.

  6. Die primäre Fitnessfunktion ist bei natürlichen Systemen das ‚Überleben‘ einer Population (= das genetische System), deren Mitglieder genügend ‚Nachkommen‘ erzeugen, die wiederum bestehen. Dies bedeutet, im Faktum des Überlebens einer Population (die einzelnen Mitglieder sterben, aber die Population überlebt!) manifestiert sich, dass die jeweiligen Mitglieder alle diejenigen ‚Aufgaben‘, die die Welt stellt, ‚hinreichend lösen‘ konnten.

  7. Was so einfach klingt ‚eine Population überlebt‘ stellt bei näherer Betrachtung eine gedankliche Provokation ersten Ranges dar. Wenn man voraussetzt, dass es natürliche Systeme gibt, die ‚leben können‘, erscheint die Aussage ‚trivial‘. Das Problem beginnt aber vorher: wie konnte es dazu kommen, dass sich komplexe natürliche Systeme bilden konnten, ohne dass es ein Team von Ingenieuren gab, die den Molekülen gesagt haben, wie sie sich ‚anordnen‘ sollten (ganz abgesehen von der Frage, wie es zur Bildung jener Moleküle aus Atomen kommen konnte, die heute als grundlegend für die Bildung von natürlichen Systemen angesehen werden. Bislang gibt es dazu noch keine vollständige Antwort!).

  8. Wie wir heute wissen, ist schon eine einzige Zelle von extremer Komplexität. Die Komplexität der aktiven Moleküle ist mathematisch nahezu nicht ausdrückbar. Sowohl zu ihrer Bildung wie auch zu ihrem ‚Erhalt‘ benötigt es beständig Energie. Zur ‚Vererbung‘ all dieser Komplexität werden Molekülstrukturen benutzt, die nicht nur ‚Inhalte‘ kodieren, sondern auch ‚Prozesse‘, wie diese ‚Inhalte unter ‚Verwendung‘ von Molekülen ‚erzeugt werden sollen/ können. Es ist mir nicht bekannt, dass die Wissenschaft heute auch nur ansatzweise eine Vorstellung davon hat, wie es zur Ausbildung dieses komplexen Informationsweitergabelmodells kommen konnte.

  9. Bekanntlich bestehen die meisten Pflanzen und Tiere heute nicht aus einer solchen komplexen Zelle, sondern aus vielen hundert Millionen, vielen hundert Milliarden Zellen, die miteinander ‚kooperieren‘ und ‚kommunizieren‘, ohne dass irgendein Ingenieur dafür auch nur den kleinsten Finger bewegt hat bzw. bewegt.

  10. Ferner besteht das Leben auf der Erde nicht aus nur einem solchen hyperkomplexen Organismus sondern aus vielen Milliarden von ganz unterschiedlichem Zuschnitt, deren Zusammenwirken die Biosphäre ausmacht.

  11. Lernende Classifier Systeme sind einfache Modelle, wie man u.a. die Reaktion eines einzelnen Systems auf die Welt modellieren kann. WENN das System etwas Bestimmtes ‚wahrnimmt‘, DANN soll es in einer bestimmten Weise reagieren. Unter Zuhilfenahme einer Fitnessfunktion kann man auch dieses Wissen ‚dynamisch‘ gestalten und es sich ‚verändern‘ lassen entlang dem ‚Gradienten‘ zum ‚Besseren‘. Auch hier gilt –wie oben –, dass die Fitnessfunktion selbst eine Form von ‚Wissen‘ darstellt, das letztlich die Richtung der möglichen Entwicklung festlegt. Auch hier kann man wieder die Frage stellen, wo dieses Wissen herkommt.

  12. Im Fall von natürlichen Systemen wissen wir, dass diese ab einem bestimmten Punkt der Komplexität ‚intern‘ Bewertungsmechanismen ausgebildet haben, die es ihnen erlauben, bis zu einem gewissen Grad auch schon in der Zeit ‚vor dem Tod‘ erlebbare Situationen zu ’sortieren‘ in solche, die ’nützlich‘ sind und solche, die es ’nicht‘ sind.

  13. Es stellt sich die Frage, wie es möglich ist, dass natürliche Systeme ihre eigenen Strukturen in einer so markanten Weise ‚umbauen‘ können, dass die schon von Anfang an komplexe Strukturen ihre Strukturen ‚weiter ausdehnen’/ ‚erweitern‘, und zwar nicht ‚chaotisch‘, sondern so ‚geordnet‘, dass diese erweiterten Strukturen im Rahmen der gesamten Überlebensaufgabe eine ’sinnvolle Teilaufgabe‘ übernehmen können.

  14. An dieser Stelle auf die bekannten genetischen Mechanismen zu verweisen, würde genau an der eigentlichen Problemstellung vorbei gehen. Abgesehen davon, dass die Entstehung der genetischen Mechanismen selbst mehr oder weniger unklar ist geht es ja um die ‚mittels der genetischen Mechanismen‘ transportierten Informationen über potentielle Prozesse von Wachstum und Selbstorganisation.

  15. Wer jemals selbst versucht hat, künstliche formale Systeme so zu programmieren, dass diese sich in einem analogen Sinne ‚weiter entwickeln‘, und zwar ’sinnvoll‘, dem ist klar, dass die reale Vorgabe der natürlichen Systeme ‚ein Komplexitätsspiel spielt‘, für das uns bislang brauchbare Vorstellungen fehlen.

  16. (Anmerkung: die aktuell bekanntgewordene Forschungsprojekte, in denen man für viel Geld Milliarden von künstlichen Neuronen zusammenschmelzen will und dann — wie von Zauberhand — auf die Entstehung sinnvoller Strukturen hofft, erscheinen mir grotesk und lächerlich. Dass es für diese Projekte keine wirklichen Begründungen gibt, ist verständlich, machen die Projekte dadurch aber nur noch grotesker. Voodoo besitzt mehr Rationalität als diese sogenannte Forschungen.).

MENSCHENBILD IM WANDEL

Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main

Kurzfassung

Einleitungsmusik

  1. Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.

  2. Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.

  3. Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.

  4. In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.

  5. Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).

  6. Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.

  7. Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.

  8. Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.

  9. Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.

  10. Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.

  11. Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.

  12. Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).

  13. Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.

  14. Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.

Überleitungsmusik Vortrag zu Diskussion

EXPERIMENTELLE HÖRBUCHFASSUNG

Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)