KÜNSTLICHE INTELLIGENZ – Newell und Simon 1976

PDF

IDEE

Im Jahr 2017 nimmt die Erwähnung von sogenannter Künstlicher Intelligenz außerhalb der Wissenschaften, im öffentlichen Bereich, fast inflatorisch zu. Zugleich muss man feststellen, dass Erklärungen des Begriffs ‚Künstliche Intelligenz‘ wie auch anderer Begriffe in seinem Umfeld Mangelware sind. Es wird daher ab jetzt mehr Blogeinträge geben, die auf diese Thematik gezielter eingehen werden. Hier ein erster Beitrag mit Erinnerung an einen wichtigen Artikel von Newell and Simon 1976.

I. INFORMATIK ALS EMPIRISCHE WISSENSCHAFT

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Informatik als empirische Disziplin (nach Newell und Simon, 1976)

Im Jahr 1975 empfingen Allen Newell und Herbert A.Simon den angesehenen ACM Turing Preis von der ACM aufgrund ihrer vielen wichtigen Beiträge zur Künstlichen Intelligenzforschung in den vorausgehenden Jahren. Die Preisrede beider Autoren wurde in den Communications of the ACM 1976 abgedruckt (siehe: NewellSimon:1976).

In dieser Rede wagen die Autoren eine generelle Sicht auf die Informatik (‚computer science‘), die Akzente erkennen lässt, die von heutigen Auffassungen von Informatik — zumindest wie sie in Deutschland üblich sind — doch deutlich abweicht.

Für die beiden Autoren ist die Informatik eine empirische Wissenschaft, deren Interesse darin besteht, das Verhalten von Menschen, dort, wo es Intelligenz erkennen lässt, in ein theoretisches Modell zu übersetzen, das sich dann als eine konkrete Maschine (ein Computer, ein Roboter) physikalisch realisieren lässt. Man kann dann diese konkrete Maschine dazu benutzen, Tests durchzuführen, durch die man überprüfen kann, ob sich die gebaute Maschine hinreichend ähnlich wie ein Mensch verhält oder aber davon deutlich abweicht. Liegen Abweichungen vor, dann muss man den Sachverhalt weiter ergründen und versuchen, ob man das theoretische Modell verbessern kann.

Für sie erscheint der Mensch als eine Art Standardmodell für Intelligenz, allerdings nicht so, dass man den Begriff ‚Intelligenz‘ mit einer einzigen Verhaltensweise oder mit einem einzigen Prinzip identifizieren könnte. Das vielfältige menschliche Verhalten verweist nach den Autoren vielmehr auf eine Vielzahl von Komponenten, deren Zusammenwirken zu einem als ‚intelligent‘ wirkenden Verhalten führt. Für das Erkennen einer möglichen ‚Intelligenz‘ ist es ferner wichtig, dass man den ganzen Kontext berücksichtigt, in dem spezifische Aufgaben vorliegen, die gelöst werden sollten.

Durch ihre Forschungsarbeiten zu symbolischen Systemen und zur heuristischen Suche haben Newell und Simon herausgefunden, dass die Klärung eines Problemraumes nur dann besser als zufällig sein kann, wenn der Problemraum minimale Regelhaftigkeiten, eine minimale Ordnung aufweist, die — sofern sie erkannt wurde — dann in Form spezieller Informationen angesammelt werden kann und dann, nach Bedarf, bei der Klärung des Problemraumes genutzt werden kann. Und es ist genau diese spezifische angesammelte Information die die Autoren mit Intelligenz gleichsetzen! Ein Mensch kann nur dann gezielter, schneller eine Aufgabe lösen, wenn er über spezielle Informationen (Wissen) verfügt, die ihn in die Lage versetzen, genau jene Verhaltensweisen zu zeigen, die schnell und effizient zum Ziel führen.

Überträgt man dies auf die theoretischen Modelle der Informatik, dann muss man Wege finden, spezifisches Bereichswissen (engl.: ‚domain knowledge‘) für ein intelligentes Verhalten in geeignete Datenstrukturen und Prozesse zu übersetzen. Auf die vielen Beispiele und Details zu diesen Überlegungen wird hier verzichtet [diese kann jeder in dem Artikel nachlesen ….].

II. DISKURS

Hier einige Überlegungen im Anschluss an den Artikel von Newell und Simon.

A. Intelligenz

Zunächst ist interessant, dass die Verwendung des Begriffs ‚Intelligenz‘ gebunden wird an das Verhalten von Menschen, wodurch der Mensch als undiskutierter Maßstab für mögliche Intelligenz gesetzt wird.

Daraus folgt nicht notwendigerweise, dass es jenseits des Menschen keine andere Formen von Intelligenz gibt, sondern nur, dass man den Typ von Intelligenz, der beim Menschen vorliegt und sichtbar wird, vorläufig als Standard benutzen möchte. Also eine Intelligenz mit Index: Intelligenz_human.

Das macht auch verständlich, dass man als wichtige empirische Wissenschaft in Begleitung der Informatik die kognitive Psychologie sieht, die sich u.a. auch mit der sogenannten ‚Informationsverarbeitung im Menschen‘ beschäftigt.

Es wundert dann allerdings, dass die Autoren den im Rahmen der Psychologie eingeführten Begriff des Intelligenz-Quotienten (IQ) samt den dazugehörigen erprobten Messverfahren nicht benutzen, nicht einmal erwähnen. Dies würde die Möglichkeit eröffnen, die Verhaltensleistung von technischen Systemen entsprechend zu messen und direkt mit Menschen zu vergleichen. Der oft zitierte Turing-Test (nicht von den beiden Autoren) ist verglichen mit den Testbatterien des IQ-Quotienten mehr als dürftig und nahezu unbrauchbar.

Durch den Verzicht auf die sehr detailliert ausgearbeiteten Testbatterien der Psychologie bleibt die Charakterisierung des Begriffs ‚Intelligenz‘ in der Informatik weitgehend vage, fast beliebig.

An dieser Stelle könnte man einwenden, dass in der Informatik andere Aufgabenstellungen untersucht werden als in der Psychologie üblich bzw. andere Aufgabenstellung, die Menschen in dieser Weise nicht angehen, dadurch wir die Verwendung des Begriffs ‚Intelligenz‘ aber noch undurchsichtiger, geradezu ominös.

Obgleich Newell und Simon betonen, dass sie die Informatik als eine empirische Theorie sehen, bleibt der ganze Komplex des tatsächlichen objektiven Messens etwas vage. Zum objektiven Messen gehören zuvor vereinbarte Standards, die beim Messen als Referenzen benutzt werden, um ein Zielobjekt zu ‚vermessen‘. Wenn das zu messende Zielobjekt ein Verhalten sein soll (nämlich das Verhalten von Maschinen), dann muss zuvor sehr klar definiert sein, was denn das Referenz-Verhalten von Menschen ist, das in einem (welchen?) Sinn als ‚intelligent‘ angesehen wird und das dazu benutzt wird, um das Maschinenverhalten damit zu vergleichen. Es ist weder bei Newell und Simon klar zu sehen, wie sie ihr Referenzverhalten von Menschen zuvor klar definiert haben, noch sind die Messprozeduren klar.

Der grundsätzliche Ansatz von Newell und Simon mit der Informatik als empirischer Disziplin (zumindest für den Bereich ‚Intelligenz) erscheint auch heute noch interessant. Allerdings ist das begriffliche Chaos im Kontext der Verwendung des Begriffs ‚Intelligenz‘ heute zu einem notorischen Dauerzustand geworden, der es in der Regel unmöglich macht, den Begriff von ‚künstlicher Intelligenz‘ in einem wissenschaftlichen Sinne zu benutzen. Jeder benutzt ihn heute gerade mal, wie es ihm passt, ohne dass man sich noch die Mühe macht, diese Verwendung irgendwie transparent zu machen.

B. Lernen

Während Newell und Simon im Fall des Begriffs ‚Intelligenz‘ zumindest ansatzweise versuchen, zu erklären, was sie damit meinen, steht es um den Begriff ‚Lernen‘ ganz schlecht.

Explizit kommt der Begriff ‚Lernen‘ bei den Autoren nicht vor, nur indirekt. Dort wo heuristische Suchprozesse beschrieben werden, die mit Hilfe von symbolischen Systemen geleistet werden, stellen sie fest, dass man aufgrund ihrer empirischen Experimente wohl (in dem theoretischen Modell) annehmen muss, dass man Informationen speichern und verändern können muss, um zu jenem Wissen kommen zu können, das dann ein optimiertes = intelligentes Verhalten ermöglicht.

Aus psychologischen Lerntheorien wissen wir, dass ‚Intelligenz‘ und ‚Lernen‘ zwei unterschiedliche Eigenschaften eines Systems sind. Ein System kann wenig intelligent sein und doch lernfähig, und es kann sehr intelligent sein und doch nicht lernfähig.

Nimmt man die Charakterisierung von Newell und Simon für ‚Intelligenz‘ dann handelt es sich um ein ’spezielles Wissen‘ zum Aufgabenraum, der das System in die Lage versetzt, durch ein ‚gezieltes Verhalten‘ schneller ans Ziel zu kommen als durch rein zufälliges Verhalten. Eine solche Intelligenz kann einem System zur Verfügung stehen, auch ohne Lernen, z.B. (i) bei biologischen Systemen als eine genetisch vererbte Verhaltensstruktur; (ii) bei technischen Systemen durch eine volle Konfiguration durch Ingenieure. Bei biologischen Systeme tritt allerdings ‚Intelligenz‘ nie isoliert auf sondern immer in Nachbarschaft zu einer Lernfähigkeit, weil die dynamische Umwelt biologischer Systeme beständig neue Anpassungen verlangt, die nicht alle vorher gesehen werden können. Im Fall technischer Systeme mit begrenzter Lebensdauer und definiertem Einsatz war dies (und ist dies) weitgehend möglich.

Wenn man von ‚Künstlicher Intelligenz‘ spricht sollte man daher die beiden Strukturen ‚Intelligenz‘ und ‚Lernen‘ sehr klar auseinander halten. Die Fähigkeit, etwas zu lernen, erfordert völlig andere Eigenschaften als die Struktur eines Wissens, durch das ein System sich ‚intelligent‘ statt ‚zufällig‘ verhalten kann.

C. Theorie

Die Forderung von Newell und Simon, die Informatik als eine ‚empirische Wissenschaft‘ zu betrachten, die richtige theoretische Modelle (= Theorien) konstruiert und diese über realisierte Modelle dann empirisch überprüft, hat im Rahmen des allgemeinen Systems Engineerings auch heute noch einen möglichen Prozess-Rahmen, der alle diese Forderungen einlösen kann. Allerdings hat es sich in der Informatik eingebürgert, dass die Informatik einen Sonderweg kreiert hat, der unter der Überschrift Softwareengineering zwar Teilaspekte des generellen Systemsengineerings abbildet, aber eben nur Teilaspekte; außerdem ist durch die Beschränkung auf die Software ohne die Hardware ein wesentlicher Aspekt des Gesamtkonzepts Computer ausgeklammert. Ferner ist der harte Aspekt einer vollen empirischen Theorie durch die Phasenbildungen ‚logisches Design‘ nur unvollständig abgebildet. Designmodelle sind kein Ersatz für eine richtige Theorie. Für das sogenannte ‚modellgetriebene Entwickeln‘ gilt das Gleiche.

D. Mensch als Maßstab

War es noch für Newell und Simon offensichtlich klar, dass man für den Begriff ‚Intelligenz‘ den Menschen als Referenzmodell benutzt, so ist dies in der heutigen Informatik weitgehend abhanden gekommen. Dies hat einmal damit zu tun, dass der Wissenschaftsbegriff der Informatik samt der meisten Methoden bislang nicht in den allgemeinen, üblichen Wissenschaftsbegriff integriert ist, zum anderen dadurch, dass die Aufgaben, die die intelligenten Maschinen lösen sollen, aus allen möglichen ad-hoc Situationen ausgewählt werden, diese keinen systematischen Zusammenhang bilden, und man in den meisten Fällen gar nicht weiß, wie man den Bezug zum Menschen herstellen könnte. Dadurch entsteht der vage Eindruck, dass die ‚Intelligenz‘ der künstlichen Intelligenzforschung irgendwie etwas anderes ist als die menschliche Intelligenz, von der menschlichen Intelligenz möglicherweise sogar ganz unabhängig ist. Man macht sich allerdings nicht die Mühe, systematisch und zusammenhängend die Verwendung des Begriffs der ‚Intelligenz‘ in der Informatik zu klären. Aktuell hat man den Eindruck, dass jeder gerade mal das behauptet, was ihm gerade gefällt. Auch eine Art von Fake News. Die Marketingabteilungen der großen Konzerne freut es, weil sie nach Belieben alles Versprechen können, was sie wollen, ohne dass irgendjemand sinnvoll nachprüfen kann, was das genau ist, ob das überhaupt geht.

Doch sollte man sich durch diese terminologische Unklarheiten, die auf eine fehlende wissenschaftliche Methodik der Informatik zurück zu führen sind, nicht davon ablenken lassen, zu konstatieren, dass trotz chaotischer Begrifflichkeit im Konkreten und Im Detail seit Newell und Simon 1976 extreme Fortschritte gemacht wurden in speziellen Algorithmen und spezieller Hardware, mit der man heute viel mehr realisieren kann, als sich Newell und Simon damals hätten träumen lassen. Die Vorteile, die man sich durch diese Fortschritte im Konkreten erarbeitet hat, werden aber weitgehend verspielt durch große Theoriedefizite, die zu gerade kuriosen Anschauungen und kuriosen Forschungsprojekten führen. In der KI ist dies aber nichts Neues: es gab sehr unterschiedliche Phasen; alle Fehler führten irgendwann dann doch zu verbesserten Einsichten.

QUELLE

Allen Newell and Herbert A. Simon. Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3):113–126, 1976.

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER.

MEMO ZU: 6 THESEN ZUM LEBEN: KREATIVITÄT, KOOPERATION, KOMMUIKATION, MEHR ALS JETZT, SEXUALITÄT, DAS BÖSE – PHILOSOPHIESOMMER 2016 in der DENKBAR Frankfurt am So, 15.Mai 2016

Hier wieder ein kurzer Bericht zum Philosophiesommer 2016 in der Denkbar, Treffen am So 15.Mai 2016 (siehe die zugehörige Einladung)

Die Einleitung geriet etwas lang, vielleicht auch angesichts der vielen neuen Gesichter. Letztlich hielten wir aber unseren vorgeschlagenen Zeitplan ein. Sehr erfreulich war die breite Streuung der versammelten Kompetenzen, was sich dann in den Beiträgen widerspiegelte.

EINLEITUNG: SPANNUNGSFELD MENSCH – INTELLIGENTE MASCHINE

Ausgangspunkt war die spannungsvolle Diskussion vom letzten Treffen, bei dem zwar das Spannungsfeld Mensch einerseits, intelligente Maschinen andererseits, zur Sprache kam, wir uns aber nicht auf ein klares Thema für die Fortsetzung einigen konnten. Dies führte zur Formulierung von sechs Thesen zu Grundmerkmalen des biologischen Lebens, so wie sie sich am Beispiel des homo sapiens sapiens nach heutigem Kenntnisstand ablesen lassen. Diese Thesen sind gedacht als mögliche Orientierungspunkte für die weitere Diskussion des Spannungsfeldes Mensch – intelligente Maschinen.

STICHWORTE ZU INTELLIGENTE MASCHINEN

Analog zu den sechs Thesen zum biologischen Leben wurden ein paar Meilensteine zum Begriff der intelligenten Maschine in den Raum gestellt, an denen man das Reden über intelligente Maschinen fest machen kann.

STANDARD FÜR EINEN COMPUTER

Es wurde verwiesen auf den berühmten Artikel On Computable Numbers, with an Application to the Entscheidungsproblem. In: Proceedings of the London Mathematical Society. Band 42, 1937, S. 230–265, von Alan Mathison Turing (19121954), in dem er im Kontext eines mathematischen Beweises ein einfaches Gedankenkonstrukt einführte, was später zu seinen Ehren Turingmaschine genannt wurde. Dieses Gedankenkonstrukt, die Turingmaschine, ist bis heute der gedankliche Standard, die Norm, für Fragen der Entscheidbarkeit von Problemstellungen in der Computerwissenschaft. Nach heutigem Kenntnisstand kann kein realer Computer mehr als dieses gedankliche Konstrukt genannt Turingmaschine (und dies gilt auch für alle denkbaren reale Computer der Zukunft).

INTELLIGENTE MASCHINEN

Es war auch dann Turing, der 1950, als es gerade erste Ungetüme von Computer gab, die noch nicht allzu viel konnten, die Frage diskutierte, ob Computer einmal so intelligent werden könnten wie ein homo sapiens sapiens (siehe: Computing Machinery and Intelligence. In: Mind. LIX, Nr. 236, 1950, ISSN  0026-4423, S. 433–460 ). Er räsonierte darüber, dass Computer, wenn sie genauso lernen dürften wie Kinder, eigentlich auch alles wissen könnten, wie Kinder. Auf dem Weg zur intelligenten Maschine sah er weniger technische Probleme, sondern soziale psychologische: Menschen werden Probleme haben, intelligenten lernende Maschinen neben sich in ihrem Alltag zu haben.

EMOTIONALE MASCHINEN

Einer der einflussreichsten und wichtigsten Wissenschaftler der künstlichen Intelligenzforschung, Marvin Minsky (1927 – 2016) veröffentlichte wenige Jahre vor seinem Tod ein Buch über die emotionale Maschine ( The Emotion Machine, Simon & Schuster, New York 2006). Es ist – formal gesehen – kein streng wissenschaftliches Buch, aber dennoch bedenkenswert, da er hier im Lichte seines Wissens durchspielt, wie man die menschlichen Erfahrungen von diversen Gefühlszuständen mit dem zu diesem Zeitpunkt bekannten Wissen über Computer rekonstruieren – sprich erzeugen – könnte. Er sieht in solch einem Projekt kein prinzipielles Problem.(Anmerkung: Es könnte interessant sein, dieses Buch zusammen mit Psychologen und Psychotherapeuten zu diskutieren (evtl. ergänzt um Gehirnforscher mit einem psychologischen Training)).

SUPERINTELLIGENZ UND WERTE

Einen weiteren Aspekt bringt der in Oxford lehrende Philosoph Nick Bostrom ins Spiel. In seinem Buch Superintelligenz (Superintelligence. Paths, Dangers, Strategies. Oxford University Press, Oxford 2014) sieht er bzgl. der Möglichkeit, super-intelligenter Maschinen grundsätzlich auch keine grundsätzliche Schwierigkeit, wohl aber in der Wertefrage: nach welchen Werten (Zielgrößen, Präferenzen) werden sich diese super-intelligenten Maschinen richten? Werden sie sich gegen den Menschen wenden? Kann der Mensch ihnen solche Werte einspeisen, die diese super-intelligente Maschinen dem Menschen wohlgesonnen sein lassen? Er selbst findet auf diese Fragen keine befriedigende Antwort. Auch wird durch seine Analysen deutlich (was Bostrom nicht ganz klar stellt), dass die Wertefrage grundsätzlich offen ist. Die Menschen selbst demonstrieren seit Jahrtausenden, dass sie keine Klarheit besitzen über gemeinsame Werte, denen alle folgen wollen.

SECHS THESEN ZUM BIOLOGISCHEN LEBEN

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Vom BigBang (-13.8 Mrd Jahre) bis heute; ausgewählte Ereignisse

Angesichts des zuvor skizzierten ungebrochenen Glaubens an die Möglichkeiten einer Superintelligenz bei gleichzeitigem ungelösten Werteproblem bei den Menschen selbst stellt sich die Frage, ob wir Menschen als späte Produkte des biologischen Lebens nicht doch Eigenschaften an und in uns tragen, die mehr sind als eine beliebige Meinung. Aus der Vielzahl der neuesten wissenschaftlichen Erkenntnisse zum biologischen Leben und zum homo sapiens sapiens hatte Gerd Doeben-Henisch sechs in Form von Thesen ausgewählt und der Diskussion vorangestellt.

1. KREATIVITÄT JENSEITS DES BEKANNTEN: Die Explosion des Lebens fand statt auf der Basis eines Erfolgswissens aus der Vergangenheit (repräsentiert im DNA-Molekül) ohne Wissen um die Zukunft. Inmitten eines Nicht-Wissens wurde nicht nur das erprobte Wissen aus der Vergangenheit genutzt, sondern der Reproduktionsprozess erlaubte eine Vielzahl von Alternativen, die alle im Moment des Ereignisses das radikale Risiko des Scheiterns beinhalteten. Diese basale Form der Kreativität war die Methode, Leben zu finden, und das Risiko des Scheiterns der Preis: Ohne Tod kein Leben.
2. KOOPERATION ÜBR GRENZEN HINWEG: Die Explosion des Lebens fand statt durch Erlangung der Fähigkeit, mit völlig fremden Systemen (die oft lebensbedrohlich waren) in eine Kooperation geradezu galaktischen Ausmaßes einzutreten, die eine WinWin-Situation für alle Beteiligte bildete. Das Zustandekommen solcher WinWin-Situationen war in den ersten Milliarden Jahren zufällig; der Erhalt der gefundenen Vorteile beruhte auf der grundlegenden Fähigkeit des Lebens, Erfolge zu konservieren.
3. ÜBERWINDUNG DES JETZT: Solange die biologischen Systeme nicht über Gedächtnis, Abstraktionsfähigkeit, basalem Denken verfügten, waren sie im Jetzt der Sinneseindrücke gefangen. Es gab kein Gestern und kein Morgen. Nach der Explosion des Lebens ab ca. -450 Mio Jahren kam es zu einem einzigartigen Punkt: nach 13.8 Mrd Jahren konnte sich das Leben in Gestalt der Hominiden, speziell dann des homo sapiens sapiens, plötzlich selbst anschauen und verfügte ab da über das Potential, sich selbst zu verändern.
4. KOORDINIERUNG INDIVIDUELLER VIRTUELLER WELTEN: Mit der Überschreitung des Jetzt durch interne Konstruktionen entsteht im einzelnen Individuum ein rekonstruierendes virtuelles Abbild der realen Welt. Damit die vielen einzelnen dieses virtuelle Wissen gemeinsam nutzen können, braucht es neue, leistungsfähige Formen der Koordinierung durch symbolische Kommunikation. Erfindungen wie die Sprache, die Schrift, der Buchdruck usw. belegen eindrucksvoll, was symbolische Interaktion vermag.
5. JENSEITS VON SEXUALITÄT: Während die bisherige Form der Sexualität als Strategie der Mischung genetischer Informationen kombiniert mit endogenem Handlungsdruck bei den handelnden Individuen über Jahrmillionen den Erhalt des Lebens offensichtlich ermöglicht hat, führen die neuen Lebensverhältnisse der großen Siedlungsdichten und der drohenden Überbevölkerung zur Frage, wie sich der Mensch von den endogenen Handlungsdrücken hinreichend befreien kann. Mann – Frau war gestern?
6. DYNAMIK DES BÖSEN – WO LEBT DAS GUTE: tiefsitzende Triebstrukturen im Menschen (Macht, Geld, Dünkel, …) sind seit Jahrtausenden bekannt. Mit den neuen globalen Informationstechnologien können sie sich schneller und effektiver im globalen Maßstab organisieren als nationale politische Systeme. Globale Kartelle des Machtmissbrauchs und der der Kriminalität bedrohen die neuzeitlichen Freiheitsansätze des Kreativen (neben anderen Faktoren).

FREIER DISKURS
Bei diesem breiten Spektrum des Themas war klar, dass nicht alle angesprochenen Aspekte gleichzeitig diskutiert werden konnten.

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

Gedankenskizze zum Philosophiesommer 2016, Sitzung am 15.Mai 2016, in der DENKBAR Frankfurt

SEXUALITÄT
Die ersten Gesprächsbeiträge griffen die These zur Sexualität auf. Eher grundsätzliche Überlegungen thematisierten, dass Sexualität als ein grundlegendes und übergreifendes Prinzip zu sehen ist; die einzelnen Individuen sind hier nur – in gewisser Weise – nur ‚Marionetten‘ in dem großen Spiel des Lebens. Das Leben will überleben, der einzelne muss entsprechend funktionieren. Dass die biologisch vorgegebene eingebaute endogene Drucksituation im Laufe der Jahrtausende innerhalb der unterschiedlichen Kulturen mit ihren Wertesystemen zu vielfältigen Formen der Regulierungen geführt hat (meist zu Lasten der Frauen), ist manifest. Versuche der Menschen, die strenge Kopplung zwischen Sexualität und Reproduktion zu lockern gab es immer. Erst in neuester Zeit verfeinerten sich die Techniken, bieten sich Möglichkeit in die chemischen oder gar genetischen Prozesse einzugreifen bzw. durch die Reproduktionsmedizin die Reproduktion mehr und mehr aus dem biologischen System auszulagern. War schon immer die Anzahl der Kinder ein Indikator für den aktuellen Wohlstand, so führt heute die zunehmende Bevölkerungsdichte erneut zu Überlegungen, den bisherigen Reproduktionsmechanismus zu verändern. Für alle die neuen Maßnahmen und Technologien zur Veränderung der Reproduktion spielt der Einsatz von Computern eine immer größere Rolle. Zugleich wird der Computern für die Sexualität in Form von Sexrobotern auch immer mehr eingesetzt. Bräuchten super-intelligente Maschinen auch ein Äquivalent zur Sexualität, um sich zu vermehren?

INTELLIGENTE MASCHINEN

Die Position der intelligenten Maschinen blieb auffällig abstrakt. Was können sie eigentlich wirklich leisten? Richtig intelligente Maschinen scheint es noch nicht wirklich zu geben. Generell wurde nicht ausgeschlossen, dass super-intelligente Maschinen eine neue Variante der Evolution ermöglichen können. Haben diese super-intelligente Maschinen dann einen eigenen Willen? Würden sie aus sich heraus zu dem Punkt kommen, dass sie die Menschen abschaffen würden? Können wir den super-intelligente Maschinen solche Werte einpflanzen, dass sie den Menschen grundsätzlich wohlgesonnen sind (hier sei erinnert an die vielen geistreichen Science Fiction von Isaak Asimov (1919 – 1992), der unter anderem die Robotergesetze erfunden hatte, die genau diese Idee umsetzen sollten: menschenfreundliche Roboter ermöglichen).

NICHT SCHWARZ-WEISS DENKEN

Im Gespräch zeichnete sich auch eine Position ab, die viele Argumente auf sich vereinte, nämlich jene, die weniger konfrontativ Mensch und super-intelligente Maschinen gegenüberstellt, sondern von einer symbiotischen Wechselbeziehung ausgeht. Der Mensch entwickelt schrittweise die neuen Technologien, und in dem Masse, wie diese real erfahrbar werden, beginnt die ganze Gesellschaft, sich damit auseinander zu setzen. Systemisch gibt es damit beständige Rückkopplungen, die – falls die gesellschaftliche Dynamik (Öffentlichkeit, freie Meinung, Diskurs..) intakt ist – nach Optimierungen im Verhältnis zwischen Menschen und Maschinen sucht. Natürlich gibt es massive wirtschaftliche Interessen, die versuchen, die neuen Möglichkeiten für sich zu nutzen und versuchen, alle Vorteile einseitig zu akkumulieren; es ist dann Aufgabe der ganzen Gesellschaft, dieser Tendenz entsprechend entgegen zu wirken. Dabei kann es sehr wohl zu Neujustierungen bisheriger Normen/ Werte kommen.

WEISHEIT DES LEBENS
Wenn man bedenkt, welch ungeheuren Leistungen das biologische Leben seit 3.8 Mrd Jahren auf der Erde vollbracht hat, wie es Lebewesen mit einer gerade zu galaktischen Komplexität geschaffen hat (der Körper des homo sapiens sapiens hat nach neuen Schätzungen ca. 34 Billionen (10^12) Körperzellen (plus noch mehr Bakterien in und am Körper), die alle als Individuen im Millisekundentakt zusammenwirken, während dagegen die Milchstraße, unsere Heimatgalaxie, ca. nur 100 – 300 Mrd. Sonnen besitzt), dann kann man nicht grundsätzlich ausschließen, dass diese Leben implizit über eine ‚Weisheit‘ verfügt (man könnte auch einfach von ‚Logik‘ sprechen), die möglicherweise größer, tiefer umfassender ist, als jede denkbare Superintelligenz, weil diese, wann und wo auch immer, nicht von außerhalb des Systems entsteht, sondern innerhalb des Systems.

NÄCHSTES THEMA

Da viele Teilnehmer sagten, dass sie sich unter diesen intelligenten Maschinen immer noch nichts Rechtes vorstellen können, wurde ein anwesender Experte für intelligente Maschinen (aus der Gattung homo sapiens sapiens) gebeten, für das nächste Treffen eine kleine Einführung in die aktuelle Situation zu geben.

Ein Überblick zu allen bisherigen Themen des Philosophiesommers (und seiner Vorgänger) nach Titeln findet sich HIER.

DAS GANZE IN EINER NUSSSCHALE – In gewisser Weise ‚Ja‘

ANREGUNG VON PLATO & ARISTOTELES

  1. Im Kontext der Relektüre von Platon und Aristoteles, zunächst angeregt durch das Buch von Decher, dann vertiefend mit anderen Büchern, entstand immer mehr der Eindruck, dass das Ringen von Aristoteles um eine realistischere Sicht der Ganzheit des Lebens im Vergleich zu dem stark dualistisch-apriorisierenden Denken Platons, in seinem Kern, in den erkennbaren Strukturen, nicht so weit weg ist vom heutigen Denken. Natürlich muss man einige Begriffe neu übersetzen, natürlich muss man viele Details aktualisieren, aber die gesamte Ausrichtung gibt eine Fülle von Anregungen, die auch Lücken in unseren heutigen Ansätzen sichtbar machen. Die Meinungen gehen auseinander, ob Aristoteles auf der Zielgeraden letztlich dann doch Platons Sicht übernommen hat (Priorität und Andersartigkeit des Geistes über und vor allem anderen), oder ob man seine ähnlich klingenden Begriffe nicht doch von seinem Gesamtansatz her doch anders denken müsste.
  2. Bevor es aber dazu kam, dass ich mich in diese Begriffswelt von Platon, ganz besonders aber von Aristoteles, neu versenken konnte, setzte sich ein ganz anderes Karussell von Analogien in Bewegung.
Die fünf Paradoxien - Vorstufe: Geist und Materie

DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Vorstufe: Geist und Materie

BIOLOGISCH VERSUS TECHNOLOGISCH

  1. Das vorausgehende Diagramm zeigt eine Gegenüberstellung von biologischen Systemen, wie z.B. dem homo sapiens, und von technischen Systemen wie z.B. intelligente Maschinen.
  2. Das Faszinierende bei biologischen Maschinen ist das Phänomen, dass rein materielle Bestandteile – wie man salopp im Alltag sagen würde – in der Lage sind, hochkomplexe Verhaltensweisen zu ermöglichen, die wir umschreiben mit Worten wie nett, liebenswürdig, gemein, aggressiv, dumm, intelligent, einfühlsam, vorausschauend, usw. Einem Menschen schreiben wir gewöhnlich geistige-emotionale Eigenschaften zu (ganz im Stile von Platon und Aristoteles; wobei beide nicht nur vom Geist sprechen, sondern auch von der Seele als dem eigentlichen Lebensprinzip mit dem Geist als Huckpackeigenschaft).
  3. Da wir heute die materiellen Bestandteile immer mehr auf ihre Zusammensetzung hin analysieren können (anders als Platon und Aristoteles), können wir wissen, dass der Körper ein Verband von vielen Billionen (10^12) Zellen darstellt, die wiederum aus einer unfassbar großen Zahl von Molekülen bestehen, diese wiederum aus Atomen, diese wiederum aus subatomaren Teilchen, die sich dann im Raum quantenphysikalischer Modelle von Wahrscheinlichkeitsverteilungen verlieren.
  4. Und dieses ganze Ensemble benötigt in jedem Moment Energie, die über Nahrung zugeführt wird; zusätzlich auch Flüssigkeit. Wird diese Zufuhr lang genug unterbrochen, bricht das System in sich zusammen. Wir sagen, es stirbt, und damit verschwindet auch sein Verhalten; die Aktivitäten, aufgrund deren wir einem Organismus Gefühle und Geist zugeschrieben haben, sind nicht mehr da. Ist damit der Geist (oder wie Platon und Aristoteles sagen würden: die Seele) auch vollständig weg (bei Aristoteles ja, bei Plato nein), oder existieren diese Nicht-Dinge Seele und Geist getrennt von den biologischen Körpern irgendwie weiter? Falls dem so wäre, müsste die Existenzform von Seele (Psyché) und Geist (Nous) im Sinne von Platon (und z.T. Aristoteles) anders sein als die Existenzform, die wir von biologischen Körpern kennen.
  5. Eher spontan hatte ich neben diese Struktur von biologischen Systemen jene von sogenannten intelligenten Maschinen aufgezeichnet. Strukturell kann man eine starke Analogie beobachten. Auch hier kann man materielle Bestandteile unterscheiden (Chips, Gatter, Verbände von Atomen), die ihre Zustände ändern können, und ein Verhalten, das man – je nach Ausführung und Kontext – auch als nett, intelligent, vorausschauend usw. beschreiben könnte.
  6. Solange Menschen wissen, dass es ja nur eine Maschine ist, sagen sie immer, das ist natürlich nicht wirklich wie beim Menschen. Ist es nicht so offensichtlich (z.B. bei Hausrobotern, die äußerlich wie echte Tiere aussehen), dann verschwindet dieser Vorbehalt und Menschen entwickeln zu den Maschinen eine – zumindest äußerlich ähnlich erscheinende – Beziehung wie zu biologischen Systemen.
  7. Auch Maschinen benötigen beständig Energie, um funktionieren zu können. In dem Fall elektrische Energie, die mittels Transformationsprozessen aus natürlichen Energiequellen gewonnen werden (Fossile Energien, biologische, Wasser- und Windenergie, Sonnenenergie, atomar, …).
  8. Im Wissen um die unterschiedlichen materiellen Substanzen, die den Verhaltensmanifestationen zugrunde liegen, stellt sich die Frage, wie kann es sein, dass so unterschiedliche Strukturen ein so ähnliches Verhalten hervorbringen können? Wie groß ist die Ähnlichkeit? Welche Rückschlüsse kann man auf den bei biologischen Systemen unterstellten Geist (bzw. auch auf das Lebensprinzip der Psychè von Platon und Aristoteles) ziehen nur aufgrund der unterschiedlichen materiellen Strukturen, die sie hervorbringen? Hätte ein Aristoteles seine Überlegungen geändert, wenn er von diesen neuen Details gewusst hätte? Platon möglicherweise ja, Aristoteles – nach meiner Einschätzung – eher nicht. Das Modell von Aristoteles könnte theoretisch mit diesen neuen Erkenntnissen umgehen.
  9. Die ganze Frage besitzt noch eine pikante Note, da die sogenannten intelligenten Maschinen ja nicht an Bäumen wachsen oder als Teil von Korallenriffen entstehen, sondern sie sind vollständig ein Produkt des homo sapiens, seines Denkens und seines Produzierens. Es ist der Mensch, der im Laufe der Jahrtausende gelernt hat, seine Wahrnehmung der Welt zu strukturieren, sie mittels Sprachen mit anderen zu teilen, sie in Handlungen zu überführen, und nach und nach es geschafft hat, die Funktionsprinzipien der Natur – einschließlich der biologischen Phänomene, also auch von sich selbst – soweit zu rekonstruieren, dass er Gebäude errichten konnte, ganze Städte baut, Flugkörper, Kommunikationsmittel, Computer, die ihm helfen können, sein eigenes Denken mehr und mehr zu imitieren und partiell sogar zu übertreffen. Anders gewendet, es ist der Mensch, der seine Art zu denken sowohl in ein gedachtes Modell übersetzt hat (Turing, von Neumann), als auch in eine reale Maschine (viele Personen), die man anschauen, mit der man konkret arbeiten kann.
  10. So betrachtet liegt eigentlich keine Parallelität vor, sondern eher so etwas wie eine Aufschichtung: die materiellen Strukturen des Menschen (sein Körper) sind in der Lage, intern Wolken von Ladungszuständen zu erzeugen und zu modifizieren, mittels denen sie die erfahrbare Welt wahrnehmen, vorstellen und denken können. Mittels diesen Bildern von der aktuellen Welt wie von denkbaren = möglichen Welten hat der Mensch ein mögliches Modell eines künstlichen Geistes gedacht und realisiert, der erkennbare Prinzipien der biologischen Natur sichtbar macht und dem Handlungs- und Denkraum des Menschen hinzufügt.
  11. Der Mensch selbst ist direkt und unmittelbar ein Produkt des evolutionären Naturprozesses. Die intelligenten Maschinen sind – vermittelt durch den biologischen Geist des Menschen – ebenfalls ein Produkt der Evolution. Allerdings finden wir hier eine dramatische Weiterentwicklung im Mechanismus der biologischen Evolution! Verfügte die Evolution bis zum Auftreten des homo sapiens nur über die Möglichkeit, anhand von (blinden! Rein zufälligen!) Änderungen im DNA-Molekül Veränderungen im Bereich des biologischen Lebens herbei zu führen, so stellte die Struktur des homo sapiens selbst schon eine Revolution dar: die biologische Möglichkeit innerer geistiger Zustände in einem biologischen System, die Fähigkeit von Selbstbewusstsein, das sich selbst als in der Welt seiend wahr zu nehmen, alternativ zu denken und zu kommunizieren, dies ermöglicht eine völlig neue Weise, Veränderungen im Kontext der biologischen Evolution einzuführen! Statt viele hundert oder tausend oder noch mehr Generationen abwarten zu müssen, bis irgendwelche zufälligen Änderungen eine brauchbare Veränderung entstehen ließen, kann jetzt jeder einzelne homo sapiens im Verbund mit allen anderen sehr schnell beliebige und komplexe Änderungen erfinden und umsetzen. Ergänzt und verstärkt durch intelligenten Maschinen kann dieser Prozess noch komplexer, noch schneller ablaufen. Einbettet in Netzwerke und verbunden mit Datenbanken ist prinzipiell noch mehr möglich.
  12. Nur der Mensch selbst, seine aktuelle körperliche und – wie wir noch immer salopp sagen – seine psychologische Struktur erweisen sich immer mehr als Hemmschuh: unsere Informationsverarbeitungskapazität ist sehr beschränkt und unser emotionales und triebhaftes Korsett erweist sich als sehr eng, schwerfällig und schlecht angepasst. Möglicherweise der größte Anteil aller Zukunftsmöglichkeiten des einzelnen und der ganzen Populationen wird aktuelle vergeudet, weil die Menschen nicht in der Lage sind, mit ihren Emotionen und Trieben nachhaltig umzugehen.
Die fünf Paradoxien der Menschheit heute - Version 2

DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 2

ENTSTEHUNG VON KOMPLEXITÄT

  1. Damit kommen wir zur zweiten Skizze. Sie ist aus der ersten hervorgegangen.
  2. Ausgangspunkt waren die biologischen Strukturen, und hier das Phänomen der Entstehung der Komplexität im Laufe der Zeit.
  3. Zwar haben wir bislang eigentlich nur winzige Fragmente der vorausgehenden Zeit, aber mit den heutigen Methoden der Genetik und Molekularbiologie (ergänzt um viele Methoden aus vielen anderen Wissenschaften) ermöglichen diese Fragmente Blicke zurück in die Zeit, die bis noch vor 10 – 20 Jahren unvorstellbar waren. Immer noch verstehen wir nicht alles; immer noch bleiben viele Fragen offen; aber das Gesamtbild gewinnt immer mehr Konturen.
  4. Es gibt viele Ansätze, wie man diese Zeit des biologischen Lebens auf der Erde (ca. 4 Mrd.Jahre von heute rückwärts) strukturieren und deuten kann. Einer von vielen ist z.B. der von Nick Lane (2009), der versucht hat, die zehn wichtigsten Ereignisse der biologischen Evolution zu identifizieren und zu beschreiben. Er bezieht zwar das Phänomen des Bewusstseins (consciousness) mit ein, nicht mehr aber das, was sich auf der Basis von Bewusstsein dann getan hat. Für ihn als biologischer Chemiker ist dies nachvollziehbar, aber dem Phänomen der Evolution wird es möglicherweise nicht gerecht, weil Evolution mehr ist als das, was die Biochemie erfassen und behandeln kann.

NATUR UND GEIST

  1. Die Aufspaltung der Wissenschaft in Natur- und Geisteswissenschaften hat zwar in Europa eine lange (unglückliche?) Tradition, aber aus historischen Zufälligkeiten und Gewohnheiten folgt nicht ohne weiteres, dass dies auch dem Phänomen des Lebens als Teil der Natur gerecht wird. Der Mensch selbst erscheint aktuell als jene Revolution der Evolution, durch die sich die sogenannte materielle Natur in eine sogenannte geistige Natur transformiert hat. Die Revolte von Aristoteles gegen Plato wurzelt genau hier: Aristoteles wollte das Geistige als Teil des Natürlichen verstehen. Mit dem heutigen Wissen sind wir soweit, dass wir von dem heute Wissbaren ausgehend eigentlich nur sagen können, dass das bekannte Geistige eine Eigenschaft der bekannten materiellen Natur ist. Wer diese Aussage vorschnell als mögliche Abwertung des Geistigen versteht, sollte einen Moment innehalten: er/ sie sollte sich fragen, was er/sie denn vom sogenannten materiell Natürlichen weiß?
  2. Wenn es so ist, dass das bekannte Geistige als Eigenschaft des Natürlichen auftritt, sich zeigt, manifestiert, dann wäre die normale logische Fragerichtung jene, eben dieses materiell Natürliche einer neuen Analyse (und Interpretation) zu unterziehen. Wenn sogar intelligente Maschinen Phänomene hervorbringen können, die wir geistig zu nennen gewohnt sind, dann muss man die Frage stellen, welche inhärenten/ impliziten Eigenschaften des Materiellen sind es, die Geistiges real werden lassen?
  3. Bislang wissen wir, dass die komplexen Zellansammlungen von biologischen Lebewesen sich nur sehr langsam entwickelt haben. Allein schon der Übergang von einzelnen Zellen zu größerem Zellverbänden, die kooperieren, hat Milliarden Jahre gedauert. Und der Übergang von Molekülen zu Strukturen wie es eine Zelle ist hat mindestens einige hundert Millionen Jahre gedauert. Vollständige Erklärungsmodelle, wie man sich diesen Bildungsprozess auf der Basis der bekannten Naturgesetze vorstellen sollte, liegen noch nicht vor.
  4. Die bisherigen Denkmodelle der Physik zur Entstehung des bekannten Universums bieten nicht all zu viel: ein singuläres Energieereignis, in dessen Gefolge sich bei Abkühlung immer mehr Strukturen zeigten (subatomar, atomar, …), die zur Entstehung von Sternen führte, deren Fusionsprozesse weitere schwere Atome hervorbrachten, die wiederum zu Bausteinen jener Moleküle wurden, die im Verlauf von ca. 9 Mrd. Jahr dann bei der Entstehung biologischer Zellen beteiligt waren. Dann noch ein Entropiegesetz, das nicht wirklich ein Gesetz ist und vielfältige Interpretationen zulässt. Schließlich ein großes Schweigen angesichts des Phänomens einer nach 9 Mrd Jahren einsetzenden (biologischen) Komplexitätsbildung, für dies es bis heute keinerlei Ansatzpunkte in den bisherigen physikalischen Modellen gibt. Diejenigen Eigenschaften von Molekülen, die sich physikalisch erklären lassen, reichen nicht aus,um das Gesamtverhalten befriedigend erklären zu können.
  5. Die berühmte Formel von Einstein e=mc2 , durch die eine Beziehung zwischen dem Term Energie e und dem Term Masse m mal Quadrat der Lichtgeschwindigkeit c2 erhält ihre Bedeutung natürlich nur innerhalb des mathematischen Modells, in dem diese Terme definiert sind. In einer saloppen Interpretation kann man aber vielleicht sagen, dass die beobachtbaren (messbaren) Massen und Geschwindigkeiten mit jener Energie korrespondieren, die notwendig ist, dass sich dies beobachten lässt. Masse kombiniert mit Raumzeit ist die Manifestation von jener Energie, die die Physik bislang in ihre Modelle abgebildet hat. Dass diese Massen innerhalb der Raumzeit zu einem Prozess fähig sind, den wir als Ansteigen von funktionaler Komplexität im Bereich biologischer Systeme identifizieren, ist in den bisherigen physikalischen Modellen schlicht nicht vorgesehen. Warum auch; ein normaler Physiker interessiert sich nicht für Phänomene des Lebens (außerdem hat er ja auch ohne die biologischen Phänomene noch genügend Baustellen (dunkle Materie, dunkle Energie, Gravitation,…). Und jene Physiker, die es dann doch manchmal versucht haben (Schroedinger, Davis, ..) sind dann in den Modus des Staunens verfallen und haben immerhin dahingehend Größe gezeigt, dass sie ihr Nocht-Nicht-Verstehen zugegeben haben.
  6. Schliesslich gibt es auch noch die offene Frage, wie man den von den Möglichkeits- und Wahrscheinlichkeitsräumen der Quantenphysik zur jeweilig konkreten Welt (Universum) kommt. Zu sagen, dass unendlich viele Welten rein theoretisch möglich sind, war eine revolutionäre Einsicht. Wie kommt man aber von der Möglichkeit zur Singularität eines konkreten Universums? Und auch hier: wie verhält sich die immer mehr erkennbare evolutionäre biologische Komplexität zum physikalischen Modell einer Energie, die mit Masse und Raumzeit korrespondiert?
Die fünf Paradoxien - Bild 4

DAS GANZE IN EINER NUSSSCHALE. Fünf Themenkomplexe. Version 4

  1. Die vorausgehenden Überlegungen führten zwanglos zu einer dritten Skizze, die sich durch ein langes Telefonat mit Si.Sch. in eine Skizze mit vielen Anmerkungen verwandelte (Diagramm 4).
  2. Ich merke schon, dass eine vollständige Beschreibung dieser Version den Rahmen dieser Blogeintrags völlig sprengen würde. Daher hier nur ein paar erste Gedanken, die dann in weiteren Blogeinträgen (und Gesprächen in der Philosophiewerkstatt und im Emerging Mind Projekt) zu vertiefen sind.

SELBSTABSCHALTUNG – VERWEIGERUNG VON ZUKUNFT

  1. Der Themenkomplex 4 wird inspiriert von dem alltäglichen Phänomen der Selbstabschaltung des Menschen. Zwar ist unser kognitiver Apparat so gebaut, dass die Wahrnehmung schon vorab, ohne Zutun des Bewusstseins, den Strom der sensorischen Reize stark reduziert, abstrahiert und selektiert, aber darüber hinaus gibt es das Phänomen, dass Menschen sich in ihrem Bewusstsein, in ihrem Denken von innen heraus abschalten! Abschalten heißt hier, sich auf ein bestimmtes (meist – aber nicht notwendigerweise – vereinfachendes) Bild der Wirklichkeit festzulegen und dann alles zu tun, um es nicht mehr ändern zu müssen. Von diesem Zeitpunkt an hat in diesem Bild alles irgendwie seinen Platz. Dies ist sehr bequem. Man muss sich nicht mehr mühsam damit beschäftigen, was wirklich wahr ist, ob es wirklich so wahr, ob es wirklich nicht anders geht, ob der Andere vielleicht ganz anders ist als gedacht, usw.
  2. Im Falle von intelligenten Maschinen spricht man salopp von falsch programmiert, wenn das Programm nicht das tut, was es tun soll. Letztlich haben falsche Bilder im Kopf die gleichen Wirkungen wie falsch programmierte Maschinen: sie liefern falsche Bilder von der Welt, verstellen richtige Einsichten, begünstigen falsches Verhalten. Menschen, die nicht merken, dass sie falsche Bilder im Kopf haben (bzw. falsch programmiert sind), können Zukunft gefährden oder ganz unmöglich machen, ihre eigene wie die ganzer Gruppen oder Populationen.
  3. Da die Welt sich permanent ändert, heute womöglich schnelle denn je, ist es eine Herausforderung an das biologische Leben, dafür zu sorgen, dass die Bilder im Kopf aktuelle sind, differenziert, wahr, empathisch, also zukunftsfähig.
  4. Hier sind alle Formen des Lernens einschlägig, kulturelle Muster die vorleben, wie man mit sich selbst, den anderen, der Wirklichkeit umgeht. Die Wirklichkeit, die Wahrheit lässt sich weder verordnen noch einsperren. Wohl aber kann man Menschen einsperren, abrichten, mit Ängsten der Hass vollpumpen, um sie an eigenen, anderen Erkenntnissen zu hindern.

GESELLSCHAFTLICHE RAHMENBEDINGUNGEN FÜR EVOLUTION

  1. Dies führt zum Fragenkomplex Nr.5. Die Geschichte hat verschiedene Gesellschaftssysteme hervorgebracht, u.a. auch solche, die sich demokratisch nennen. Diese Gesellschaftssysteme haben als Grundeinsicht, dass die Chance für eine mögliche nachhaltige Zukunft durch Öffnung und Beteiligung von jedem einzelnen wächst. Analog der blinden biologischen Evolution, die nur Erfolg hatte durch umfassendes radikales Experimentieren, so können auch die Menschen mit der Masse ihres falschen Wissens nur weiter kommen, wenn sie sich allen sich bietenden Möglichkeiten gegenüber öffnen, sie ausprobieren. Freiheit, Offenheit, Kreativität, Meinungsaustausch, funktionierenden Öffentlichkeit, Menschenrechte sind kein überflüssiger Luxus, sondern die biologisch motivierten und sachlich notwendigen Voraussetzungen für eine mögliche Begegnung mit einer nachhaltigen Zukunft. Schon heute kennen wir zahllose Beispiele von umfassenden Zerstörungen, die entstehen, wenn Menschen glauben, dass dies alles nicht notwendig sei.
  2. Der Slogan vom ‚Überleben der Tüchtigsten‘ wird gerne benutzt, um allerlei Arten von Egoismen und Grausamkeiten zu rechtfertigen, gepaart mit riesengroßen Dummheiten in der Zerstörung vielfältigster Ressourcen. Der Slogan beschreibt aber nur einen Teilaspekt der Evolution! Natürlich überleben nur die, die sich für die jeweilig Weltsituation fit gemacht haben, aber dies ist keine Eigenschaft eines Individuums, sondern einer ganzen Population, die nur durch vielfältige Kooperationen mit zahllosen Faktoren Leben gelingen lässt. In der aktuellen Phase der Evolution gilt mehr denn je, dass nur das Zusammenwirken aller Beteiligen eine Chance hat, und hier spielt das gemeinsam geteilte Wissen eine zentrale Rolle, das nicht von einzelnen Playern egoistisch für partielle Zwecke missbraucht wird, sondern von allen für eine gemeinsame nachhaltige Zukunft genutzt werden kann. Ohne Vertrauen und umfassende Transparenz wir die Komplexität an sich selbst scheitern. Es reicht nicht, dass einzelne mächtig und reich sind, alle müssen optimal leben, um die Aufgabe der kommenden Zeit meistern zu können. Die aktuellen Wertesysteme sind weitgehend veraltet und tödlich. Nur gemeinsam kann Neues entstehen.

Anmerkung: Diese Perspektive, die sich jetzt im Verlaufe dieser Überlegungen herausgeschält hat, ist stark verwoben mit den Überlegungen von Manfred Fassler im Blog Emergent Life Academy. Ich verdanke den intensiven Gesprächen mit Manfred sehr viele wichtige und tiefe Einsichten. Möglicherweise hilft es uns beiden, dass wir von unterschiedlichen Blickwinkeln aus auf das Geschehen schauen: er als Soziologe und Kulturanthropologe, ich als Philosoph  und Infomatiker (mit starken Einflüssen aus den Kognitionswissenschaften).

 

QUELLEN

  • Nick Lane, Life Ascending. The Ten Great Inventions of Evolution, London: Profile Books Ltd, 2009

Eine Übersicht über alle Blogbeiräge von cagent nach Titeln findet sich HIER

INTELLIGENZ, LERNEN, IMPLIZITE WERTE: ZUR BIOTECHNOLOGISCHEN KREATIVITÄT VERURTEILT

EINFÜHRUNG

1. Momentan kreuzen wieder einmal verschiedene Themen ihre Bahnen und die folgenden Zeilen stellen den Versuch dar, einige Aspekt davon festzuhalten.

2. Ein Thema rührt von dem Vortrag am 19.Mai her, bei dem es darum ging, die scheinbare Einfachheit, Begrenztheit und Langsamkeit von uns Menschen angesichts der aktuell rasant erscheinenden Entwicklungen in einen größeren Kontext einzuordnen, in den Kontext der biologischen Entwicklung, und dabei aufzuzeigen, welch fantastisches ‚Produkt‘ der homo sapiens im Kontext des biologischen Lebens darstellt und dass unsere Gegenwart nicht als ein ‚Endpunkt‘ misszuverstehen ist, sondern als eine hochaktive Transitzone in eine Zukunft, die keiner wirklich kennt.

3. Ein anderes Thema rührt her von den neuen Technologien der Informationstheorie, Informatik, Robotik, die unser Leben immer mehr begleiten, umhüllen, durchtränken in einer Weise, die unheimlich werden kann. In den Science-Fiction Filmen der letzten 40-50 Jahren werden die ‚intelligenten Maschinen‘ mehr und mehr zu den neuen Lichtgestalten während der Mensch verglichen mit diesen Visionen relativ ‚alt‘ aussieht.

4. Während viele – die meisten? – dem Akteur homo sapiens momentan wenig Aufmerksamkeit zu schenken scheinen, auf ihn keine ernsthafte Wetten abschließen wollen, traut man den intelligenten Maschinen scheinbar alles zu.

5. Ich selbst liefere sogar (neue) Argumente (in vorausgehenden Artikeln), warum eine Technologie der künstlichen Intelligenz ‚prinzipiell‘ alles kann, was auch biologische Systeme können.

6. In den Diskussionen rund um dieses Thema bin ich dabei verstärkt auf das Thema der ‚impliziten Werte‘ gestoßen, die innerhalb eines Lernprozesses Voraussetzung dafür sind, dass das Lernen eine ‚Richtung‘ nehmen kann. Dieser Punkt soll hier etwas ausführlicher diskutiert werden.

INTELLIGENZ

7. Eine Diskussion über die Möglichkeit von Intelligenz (bzw. dann sogar vielleicht einer Superintelligenz) müsste klären, wie man überhaupt Intelligenz definieren will. Was ‚Intelligenz an sich‘ sein soll, das weiß bis heute niemand. Die einzigen, die seit ca. 100 Jahren einen empirisch brauchbaren Intelligenzbegriff entwickelt haben, das sind die Psychologen. Sie definieren etwas, was niemand kennt, die ‚Intelligenz‘, ganz pragmatisch über einen Katalog von Aufgaben, die ein Kind in einem bestimmten Alter in einer bestimmten Gesellschaft so lösen kann, dass man dieses Kind in dieser Gesellschaft als ‚intelligent‘ bezeichnen würde. Bei einem Menschen mit einem anderen Alter aus einer anderen Gesellschaft kann dieser Aufgabenkatalog ganz andere Ergebnisse liefern.

8. Interessant ist in diesem Zusammenhang, dass Kinder, denen man aufgrund ihres vermessenen Verhaltens einen hohen Intelligenzwert zugeschrieben hat, bei Langzeituntersuchung auch überdurchschnittlich ‚erfolgreich‘ (eine in sich nicht einfache Kategorie) waren. Daraus hat man die Arbeitshypothese abgeleitet, dass das messbare intelligente Verhalten ein Indikator für bestimmte ‚interne Strukturen im Kind‘ ist, die dafür verantwortlich sind, dass das Kind solch ein Verhalten hervorbringen kann. Und es sind genau diese postulierten Ermöglichungsstrukturen für de Intelligenz, die im Kind wirksam sein sollen, wenn es im Laufe seines Lebens ‚erfolgreich‘ ist.

9. Die Ingenieurwissenschaften und die Informatik benutzen Begriffe wie ’smart‘ und ‚intelligent‘ heute fast inflationär, ohne sich in der Regel die Mühe zu machen, ihre technischen Intelligenzbegriffe mit dem psychologischen Intelligenzbegriff abzugleichen. Dies führt zu großen Begriffsverwirrungen und man kann im Falle der technischen Intelligenz in der Regel nicht sagen, in welchem Sinne ein Interface oder eine Maschine ‚intelligent‘ ist, wenn sie technisch ’smart‘ oder ‚intelligent‘ genannt wird.

10. Der berühmt Turing-Test zur Feststellung, ob eine technische Vorrichtung sich in ihrem textbasierten Dialog mit einem Menschen für den beteiligten Menschen als ununterscheidbar zu einem Menschen darstellen kann, ist nach den Standards der Psychologie wenig brauchbar. Die endlosen Diskussionen um den Turing-Test dokumentieren für mich die immer noch anhaltende methodische Verwirrung, die sich im Umfeld des technischen Intelligenzbegriffs findet. Das hohe Preisgeld für den Turing-Test kann die evidenten inhärenten Schwächen des Tests nicht beheben.

11. Wenn wir also über intelligente (oder gar super intelligente) Maschinen reden wollen, sollten wir uns an bekannte, empirisch nachprüfbare und vergleichbare Standards halten, und dies sind die der empirischen Psychologie. Das gleiche gilt auch für den nächsten zentralen Begriff, dem des ‚Lernens‘.

LERNEN

12. Auch bei dem Begriff ‚Lernen‘ finden wir wieder einen inflationären Sprachgebrauch von ‚Lernen‘ in der Informatik, der in keiner Weise mit dem empirischen Begriff des Lernens in den verhaltensorientierten Wissenschaften abgestimmt ist. Was eine ‚intelligente‘ Maschine der Informatik im Vergleich zu biologischen Systemen darstellen soll, ist im allgemeinen Fall unklar. An konkreten Beispielen wie ’schachspielender Computer, ‚Routenplanung‘ für eine Reise, ‚Quizfragen beantworten‘, ‚Gegenstände erkennen‘, gibt es zwar partielle verhaltensorientierte Beschreibungen von ‚maschineller Intelligenz‘, diese sind aber nicht in eine allgemeine verhaltensorientierte Theorie ‚intelligenter Maschinen‘ integriert.

13. In den verhaltensorientierten Wissenschaften wird ‚Lernen‘ über beobachtbares Verhalten definiert. ‚Anhaltende Verhaltensänderungen‘ in ‚Abhängigkeit von bestimmten Umweltereignissen‘ bilden die Anknüpfungspunkte, um im beobachteten System allgemein Zustände anzunehmen, die sich wahrnehmungsabhängig und erinnerungsabhängig ’nachhaltig ändern‘ können. Was genau sich ändert, weiß ein Psychologe nicht, nur dass es geeignete interne Strukturen geben muss, wenn sich ein bestimmtes Verhalten zeigt.

14. Setzt man den Körper als Ermöglichungsstruktur voraus, dann beschränkt sich Lernen auf interne Veränderungen des gegebenen Körpers. Das wäre das ’normale‘ lokale individuelle Lernen. Man kann aber auch die Strukturen eine Körpers selbst als Ergebnis eines Lernprozesses auffassen, dann bezieht sich das Lernen auf den Wandel der Körperstrukturen und -formen und die dafür verantwortlichen (angenommenen) internen Zustände sind z.T. im Reproduktionsmechanismus zu verorten. Insgesamt erscheint das strukturelle Lernen aber als komplexer mehrstufiger Prozess, der Phylogenese, Ontogenese und Epigenese umfasst.

GERICHTETE KREATIVE ENTWICKLUNG

15. Solange ein System sich in seinem Lernen damit beschäftigt, Ereignisse zu identifizieren, zu klassifizieren, Muster zu erfassen, auftretende Beziehungen zu erfassen, so lange ist das Lernen ‚an sich‘ ‚wertfrei‘. Spannender wird es bei ‚Auswahlprozessen‘: womit soll sich ein System beschäftigen: eher A oder eher Nicht-A? Durch Auswahlprozesse bekommt der individuelle Lernprozess eine ‚Richtung‘, einen selektierten Ereignisraum, der sich dann auch in den Wissensstrukturen des Systems widerspiegeln wird. Jede ‚Lerngeschichte‘ korrespondiert auf diese Weise mit einer entsprechenden ‚Wissensstruktur‘. Wenn jemand Weinanbau gelernt hat, aber es gibt keinen Wein mehr, sondern nur noch Handwerk, ist er ‚arbeitslos‘ oder muss ‚umlernen‘. Wer Betriebswirtschaft gelernt hat, aber zu wenig von Qualitätsprozessen versteht, kann erfolgreiche Firmen in den Ruin steuern. Auswahlprozesse realisieren ‚Präferenzen‘: Eher A als Nicht-A. Präferenzen repräsentieren implizit ‚Werte‘: A ist besser/ wichtiger als Nicht-A.

16. Im Falle der biologischen Evolution werden die Präferenzen sowohl vom biologischen Reproduktionsmechanismus geliefert (bis dahin vorhandene Erbinformationen), wie auch durch die herrschende Umgebung, die von bestimmten Körperformen nicht gemeistert werden konnten, von anderen schon. Die in ihren Nachkommen überlebenden Körperformen repräsentierten dann mit ihren Erbinformationen eine von außen induzierte Präferenz, die ‚gespeicherten Präferenzen der Vergangenheit‘ als eine Form von ‚Erinnerung‘, als ‚Gedächtnis‘. Über die ‚Zukunft‘ weiß die biologische Entwicklung nichts! [Anmerkung: Diese Ideen finden sich u.a. auch schon in den Schriften von Stuart Alan Kauffman. Sie ergeben sich aber auch unmittelbar, wenn man mit genetischen Algorithmen arbeitet und die Lernstruktur dieser Algorithmen heraushebt.].

17. Die biologische Entwicklung lebt vielmehr von der – impliziten! – ‚Hoffnung‘, dass die umgebende Welt sich nicht schneller ändert als die gespeicherten Erbinformationen voraussetzen. Da wir heute wissen, dass sich die Welt beständig verändert hat, teilweise sehr schnell oder gar blitzartig (Vulkanausbruch, Asteroidenbeschuss, Erdbeben,…), kann man sich fragen, wie die biologische Evolution es dann geschafft hat, das Leben quasi im Spiel zu halten, ohne etwas über die Zukunft zu wissen? Die Antwort ist eindeutig: durch eine Kombination von Kreativität und von Masse!

18. Die ‚Kreativität‘ ist implizit; die Reproduktion eines neuen Körpers aus vorhandenen genetischen Informationen verläuft auf sehr vielen Ebenen und in sehr vielen aufeinanderfolgenden Phasen. Fasst man diesen ganzen Prozess als eine ‚Abbildung‘ im mathematischen Sinne auf, dann kann man sagen, dass die Zuordnung von Körpern zu Erbinformationen nicht eindeutig ist; aus der gleichen Erbinformation kann rein mathematisch eine nahezu unendlich große Anzahl von ‚Varianten‘ entstehen, mit einem möglichen ‚Variantenkern‘. In der empirischen Welt ist die Varianz erstaunlich gering und der Variantenkern erstaunlich stabil. Aber offensichtlich hat die verfügbare Varianz ausgereicht, um die sich stark verändernden Umgebungsbedingungen bedienen zu können. Voraus zur Zukunft in einer sich verändernden Welt hat man immer nur ein Teilwissen. Das ‚fehlende Wissen‘ muss man sich teuer erkaufen; es gibt nichts zu Nulltarif. Für jedes Leben, das man in der Zukunft erhalten will, muss man einen – nicht leicht genau zu bestimmenden – hohen Einsatz erbringen, in der Hoffnung, dass die Breite des Ansatzes ausreichend ist.

GEGENWART ALS TRANSIT

19. Verglichen mit den Dramen der Vergangenheit könnten uns die ‚Erfolge‘ der Gegenwart dazu verleiten, anzunehmen, dass wir Menschen ‚über dem Berg‘ sind. Dass wir jetzt so langsam alles ‚im Griff‘ haben. Diese Vorstellung könnte sehr sehr trügerisch sein. Denn das Überleben auf der Erde rechnet in Jahrhunderttausenden, Millionen oder gar hunderten von Millionen Jahren. Eine kurzfristige ‚Boomzeit‘ von ein paar Jahrzehnten besagt nichts, außer dass wir feststellen, dass schon in wenigen Jahrzehnten ungeheuer viele biologische Arten ausgestorben sind, viele weitere vom Aussterben bedroht sind, und allein wir Menschen viele zentrale Probleme der Ernährung, des Wassers und der Energie noch keineswegs gelöst haben. Außerdem haben wir nach heutigem Kenntnisstand nicht noch weitere 4 Milliarden Jahre Zeit, sondern höchstens ca. eine Milliarde Jahre, weil dann laut der Physik die Sonne sich aufgrund ihrer Kernfusionsprozess sich soweit ausgedehnt haben wird, dass ein Leben auf der Erde (nach heutigem Kenntnisstand) nicht mehr möglich sein wird.

20. Letztlich dürften wir weiterhin in dieser Position der anzustrebenden Meisterung von etwas ‚Neuem‘ sein, das wir vorab nur partiell kennen. Nur durch ein hinreichendes Maß an Kreativität und hinreichend vielfältigen Experimenten werden wir die Herausforderung meistern können. Jede Form der Festschreibung der Gegenwart als ‚unveränderlich‘ ist mittel- und langfristig tödlich.

BIOLOGIE UND TECHNIK IN EINEM BOOT

21. Aus den vorausgehenden Überlegungen ergeben sich unmittelbar einige weitreichende Folgerungen.

22. Die heute gern praktizierte Trennung von Biologie einerseits und Technologie andererseits erscheint künstlich und irreführend. Tatsache ist, dass die gesamte Technologie aus der Aktivität des biologischen Lebens – speziell durch den homo sapiens – entstanden ist. Etwas Biologisches (der homo sapiens) hat mit Mitteln der Biologie und der vorfindlichen Natur ‚Gebilde‘ geschaffen, die so vorher zwar nicht existiert haben, aber sie sind auch nicht aus dem ‚Nichts‘ entstanden. Sie sind durch und durch ‚biologisch‘, wenngleich – faktisch – mit der übrigen Natur, mit dem bisherigen Ökosystem nicht immer ‚optimal‘ angepasst. Aber die Natur selbst hat millionenfach Systeme erzeugt, die nicht optimal angepasst waren. Die Natur ist ein dynamisches Geschehen, in dem milliardenfach, billionenfach Strukturen generiert werden, die für eine Zukunft gedacht sind, die keiner explizit kennt. Es ist sozusagen ein allgemeines ‚Herantasten‘ an das ‚werdende Unbekannt‘. Wer hier glaubt, die bekannte Gegenwart als ‚Maßstab schlechthin‘ benutzen zu können, irrt schon im Ansatz.

23. Wenn nun ein Teil dieser Natur, der homo sapiens als Realisierung eines biologischen Systems, es durch seine Aktivitäten geschafft hat, seine unmittelbare Lebensumgebung umfassend und zugleich schnell so umzugestalten, dass er als Hauptakteur nun plötzlich als ‚Flaschenhals‘ erscheint, als ‚Bremsklotz‘, dann ist dies zunächst einmal keine ‚Panne‘, sondern ein riesiger Erfolg.

24. Die körperlichen Strukturen des homo sapiens, ein Wunderwerk von ca. 4 Milliarden Jahren ‚Entwicklungsarbeit‘, besitzen eine Substruktur, das Gehirn, das in der Lage ist, die strukturellen Lernprozesse der biologischen Körper in Gestalt lokaler individueller Lernprozesse dramatisch zu beschleunigen. Komplexe Gedächtnisstrukturen, komplexe Begriffsoperationen, Symbolgebrauch, Logik und Mathematik, Rechenmaschinen, Bücher, Computer, Daten-Netzwerke haben dem individuellen Gehirn eine ‚kognitive Verstärkung‘ verpasst, die die Veränderungsgeschwindigkeit des strukturellen Körperlernens von einer Dimension von etwa (optimistischen) 10^5 Jahren auf etwa (pessimistischen) 10^1 Jahren – oder weniger – verkürzt haben. Dies stellt eine absolute Revolution in der Evolution dar.

25. Hand in Hand mit der dramatischen Verkürzung der Lernzeit ging und geht eine dramatische Steigerung der Kooperationsfähigkeit durch Angleichung der Sprache(n), Angleichung der Datenräume, politisch-juristische Absicherung sozialer Räume, Verbesserung der Infrastrukturen für große Zahlen und vielem mehr.

26. Innerhalb von nur etwa 50-100 Jahren ist die Komplexitätsleistung des homo sapiens geradezu explodiert.

27. Bislang sind die neuen (noch nicht wirklich intelligenten) Technologien eindeutig eine Hilfe für den homo sapiens, sich in dieser Welt zurecht zu finden.

28. Wenn man begreift, dass die scheinbare ‚Schwäche‘ des homo sapiens nur die Kehrseite seiner ungeheuren Leistungsfähigkeit sind, sein gesamtes Umfeld dramatisch zu beschleunigen, dann würde die naheliegende Frage eigentlich sein, ob und wie der homo sapiens die neuen Technologien nutzen kann, um seine aktuellen begrenzten körperlichen Strukturen eben mit Hilfe dieser neuen Technologien soweit umzubauen, dass er selbst mit seinen eigenen Gestaltungserfolgen auf Dauer noch mithalten kann (und es ist ja kein Zufall, dass die gesamte moderne Genetik ohne Computer gar nicht existieren würde).

29. Bislang bremsen ‚veraltete‘ Ethiken in den Köpfen der Politik eine dynamische Erforschung der alternativen Strukturräume noch aus. Dies ist bis zu einem gewissen Grad verständlich, da der homo sapiens als ‚Transitwesen‘ sich nicht selbst ruinieren sollte bevor er neue leistungsfähige Strukturen gefunden hat; aber Verbote als grundsätzliche Haltung sind gemessen an der erfolgreichen Logik des Lebens seit 4 Milliarden Jahre grundlegend unethisch, da lebensfeindlich.

30. Auch die heute so ‚trendige‘ Gegenüberstellung von homo sapiens und ‚intelligenten lernenden Maschinen‘ erscheint nach den vorausgehenden Überlegungen wenig wahrscheinlich.

31. Einmal hätten mögliche intelligente Maschinen das gleiche Entwicklungsproblem wie die biologischen Systeme, die ihre Überlebensfähigkeit seit 4 Milliarden Jahre demonstriert haben. Biologische Systeme haben einen ‚mehrlagigen‘ Lernmechanismus‘ ausgebildet, der ‚Kreativität‘ als wesentlichen Bestandteil enthält. Die bisherigen Konzepte für maschinelle Intelligenz sind verglichen damit höchst primitiv. Maschinelle Intelligenz ‚für sich‘ ist auch völlig ortlos, kontextfrei. Als Moment am biologischen Entwicklungsprozess jedoch,in einer symbiotischen Beziehung zu biologischen Systemen, kann künstliche Intelligenz eine maximal hohe Bedeutung gewinnen und kann von den ‚Wertfindungsmechanismen‘ der biologischen Systeme als Teil einer vorfindlichen Natur profitieren.

32. Die Gegenübersetzung von homo sapiens und (intelligenter) Technologie ist ein Artefakt, ein Denkfehler, ein gefährlicher Denkfehler, da er genau die maximale Dynamik, die in einer biotechnologischen Symbiose bestehen kann, behindert oder gar verhindert. Das wäre lebensfeindlich und darin zutiefst unethisch.

Einen Überblick über alle Blogeinträge von cagent nach Titeln findet sich HIER: cagent.

Über Industrie 4.0 und Transhumanismus. Roboter als Volksverdummung? Schaffen wir uns selbst ab?

Vortrag am 19.Mai 2015 im Literaturhaus Frankfurt in der Veranstaltung PR-Slam & Ham 2015

In meiner Präsentation hatte ich eine Reihe von Schaubildern gezeigt, die ich dann mündlich kommentiert habe. Einen geschriebenen Text gab es nicht. Ich habe aber die Erläuterung nochmals ’nachgesprochen‘. Aus den 20 Min sind dann ca. 70 Min geworden. Die Bilder unten bilden das Rückgrat der Geschichte; sie sind nummeriert. Im gesprochenen Text nehme ich auf diese Bilder Bezug.

Das Ganze endet in einem glühenden Plädoyer für die Zukunft des Lebens in Symbiose mit einer angemessenen Technik. Wir sind nicht das ‚Endprodukt‘ der Evolution, sondern nur eine Durchgangsstation hin zu etwas ganz anderem!

 

AUDIODATEI DES KOMMENTARS (70 Minuten! mp3)

Gehirn im Körper mit Bild 1: Bewusstsein - Beobachter

Bild 1: Gehirn im Körper mit Bewusstsein – Beobachter

Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene

Bild 2: Gehirn im Körper mit Raum der Phänomene. Empirische und nicht-empirische Phänomene

Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis

Bild 3: Korrelation zwischen Gehirn, Bewusstsein und Gedächtnis. Gedächtnis mit Sensorik, Arbeitsgedächtnis und Langzeitgedächtnis

Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex

Bild 4: Mensch im Alltag, umringt von technischen Schnittstellen die mit digitalisierten weltausschnitten verbinden können: viel. schnell, komplex

Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart

Bild 5: Menge von Komplexitätsereignissen bisher; Explosion in der Gegenwart

Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen

Bild 6: Konkrete Zahlen zum vorhergehenden Schaubild mit den Komplexitätsereignissen

Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen

Bild 7: Biologischer Reproduktion als Quelle der Kreativität für neue Strukturen

Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Bild 8: Struktur der biologischen Reproduktion in 1-zu-1 Isomorphie zur Struktur eines Automaten (Turingmaschine)

Die Vision, die in dem Audiobeitrag gegen Ende entwickelt wird, soll in dem Emerging-Mind Projekt konkret umgesetzt werden, als Impuls, als Anstoß, als Provokation, als Community, die sich mit dem Thema philosophisch, wissenschaftlich, künstlerisch und theologisch auseinandersetzt.

Eine Übersicht über alle Einträge von cagent in diesem Blog nach Titeln findet sich HIER.

ENDSPIEL, ENDKAMPF, ODER NEUER EVOLUTIONSSCHUB?

(Letzte Änderungen: 23.Nov.2014, 14:46h)

1. Während der Begriff ‚Endspiel‘ durch seine sportliche Konnotationen noch keinen letzten Schrecken verbreiten muss, klingt ‚Endkampf‘ biblisch-apokalyptisch: Endzeitstimmung; das Böse kämpft gegen das Gute; alles steht auf dem Spiel. ‚Evolutionsschub‘ deutet die Perspektive der Naturwissenschaften an, eine methodische Objektivität eines ‚Strukturwandels‘, der sich ’natürlich‘ aus der ‚Vorgeschichte‘ ergibt. Obwohl ich grundsätzlich der naturwissenschaftlichen Sicht zuneige als Grundlage aller Argumentationen über unsere empirisch erfahrbare Welt und damit bei weitreichenden Veränderungen eher einen ’natürlichen Strukturwandel‘ unterstelle, haben wir es bei dem aktuellen Strukturwandel mit Phänomenen zu tun, in die ’subjektive Anteile‘ von beteiligten Menschen, Gruppierungen, Parteien, Firmen usw. mit eingehen. Die ‚Natur‘ hat zwar aufgrund der Gesamtheit aller beteiligten physikalischen Eigenschaften ‚von sich aus‘ eine — möglicherweise ’spezifische‘ — ‚Tendenz‘ sich zu verändern, aber der weltweite Einfluss biologischer Systeme auf den weiteren Gang mit der ‚biologischen Eigendynamik, die – wir wir wissen – gegen grundlegende physikalische Gesetze (z.B. 2.Hauptsatz der Thermodynamik) gerichtet zu sein scheint, erscheint mittlerweile so stark, dass der biologische Faktor neben den physikalischen Prinzipien ein Gewicht gewonnen hat, welches es verbietet, rein ‚technisch‘ von einem Evolutionsschub als ‚ausrechenbarem Strukturwandel‘ zu sprechen.

2. In diesem globalen Kontext erscheint ein Thema wie Informatik & Gesellschaft auf den ersten Blick eher speziell; auf den zweiten Blick zeigt sich aber gerade in diesem Thema eine der globalen Verwerfungslinien zwischen dem ‚Zustand bisher‘ und dem ‚Zustand, der neu beginnt‘. Das Thema ‚Informatik‘ bzw. ‚Computertechnologie‘ galt eher als Teil der Technologie, die nicht eigentlich der ‚Natur‘ zugeordnet wurde. Wie überhaupt seit Aufkommen der ‚Maschinen‘ die Maschinen als Leitmuster der Technologie immer als Gegensatz zur ‚chemischen und biologischen Evolution‘ gesehen wurden. Neben vielen kulturellen Denkmustern, die solch eine ‚Trennung‘ begünstigten, war es sicher auch die mindestens von der antiken Philosophie herrührenden Trennung von ‚unbelebt‘ (die ‚Stoffe‘, ‚Subtsanzen‘, die ‚Materie‘ als solche sind ‚unbelebt‘) und ‚belebt‘ (‚atmend‘ (pneo), Atem als universelles Lebensprinzip (pneuma)), das seinen Ausdruck im ‚Geist‘ (pneuma‘) findet. Da dieser Gegensatz von ‚unbelebt‘ und ‚belebt‘ mehr als 2000 Jahre nicht wirklich aufgelöst werden konnte, konnte sich eine Art ‚Dualismus‘ ausbilden und durchhalten, der wie eine unsichtbare Trennlinie durch die gesamte Wirklichkeit verlief: alles, was nicht ‚atmete‘ war unbelebt, materiell, un-geistig; alles was atmete, belebt war, befand sich in einer Nähe zum universellen Geistigen, ohne dass man eigentlich näher beschreiben konnte, was ‚Geist‘ denn nun genau war. Nicht verwunderlich, dass sich alle großen Religionen wie ‚Hinduismus‘, ‚Judentum‘, ‚Buddhismus‘, ‚Christentum‘, ‚Islam‘ (trotz z.T. erheblicher Differenzen in den Details), diesem Dualismus ’nachbarschaftlich verbunden fühlten‘. Der intellektuell-begriffliche ‚Ringkampf‘ der christlichen Theologie und Philosophie (und streckenweise des Islam, Avicenna und andere!) mit diesem dualistischen Erbe hat jedenfalls tiefe Spuren in allen theologischen Systemen hinterlassen, ohne allerdings dieses ‚Rätsel des Geistes‘ auch nur ansatzweise aufzulösen.

3. Diesen historischen Kontext muss man sich bewusst machen, um zu verstehen, warum für viele (die meisten? Alle?) die plötzliche ‚Nähe‘ der Technologie im alltäglichen Leben, eine sich immer mehr ‚anschmiegende‘ und zugleich ‚verdrängende‘ Technologie an diesem im Alltagsdenken ‚historisch eingebrannten‘ Dualismus‘ zu kratzen beginnt, zu wachsenden Irritationen führt (andere Technologien wie Nanotechnologie und Gentechnik gehören auch in diesen Kontext, wenn auch anders).

4. Im Ankündigungstext zur erwähnten Veranstaltung Informatik & Gesellschaft (siehe auch den Kurzbericht) wurde bewusst herausgestellt, dass seit den ersten Computern eines Konrad Zuse und dem Eniac-Computer von John Presper Eckert und John William Mauchly (1946) die Computertechnologie mittlerweile nahezu alle Bereiche der Gesellschaft in einer Weise durchdrungen hat, wie wohl bislang keine andere Technologie; dass diese Technologie realer Teil unseres Alltags geworden ist, sowohl im Arbeitsleben wie auch in der Freizeit. Man kann sogar sagen, dass diese Technologie die menschliche Lebensweise schon jetzt (nach ca. 60 Jahren) real und nachhaltig verändert hat. Neue Formen der Kommunikation wurden ermöglicht, Veränderungen der Mobilität, automatisierte flexible Produktion, Computermusik, computergenerierte Bildwelten…

5. Aber diese Durchdringung von nahezu allem – was heißt das? Die neue historische Qualität dieser Technologie besteht darin, dass diese Technologie – bislang immer noch klar erkennbar als ‚Maschinen‘, bislang nicht als ‚biologische‘ Strukturen – ‚Verhaltensweisen‘ zeigt, die denen der Menschen als Prototypen von ‚geistigen‘ Wesen ähneln. Aufgrund dieser ‚Ähnlichkeit‘ werden sie Teil von ‚typisch menschlichen‘ Handlungsabläufen (Kommunizieren, Wissen verwalten, Sport und Kunst machen, Spielen, komplexe Modelle und Prozesse entwerfen und simulieren, dann auch steuern, usw.). Seit den 80iger Jahren des 20.Jahrhunderts – also nach nicht mal ca. 30-40 Jahren — hat sich diese Technologie so mit dem menschlichen Alltag verwoben, dass eine moderne industrielle Gesellschaft komplett zusammenbrechen würde, würde man diese Technologie von jetzt auf gleich abschalten.

6. Befürworter eines noch intensiveren Einsatz dieser neuen Computertechnologien z.B. im Bereich der Industrie unter dem Schlagwort ‚Industrie 4.0‘ (so z.B. Prof. Schocke in seinem Beitrag auf der Veranstaltung Informatik & Gesellschaft – Kurzbericht oder die Autoren Thomas Klein und Daniel Schleidt in der gleichnamigen FAZ Beilage vom 18.Nov.2014 auf den Seiten V2 (Klein) und V6 (Schleidt)) sehen vor allem das Potential zu noch mehr Produktionssteigerungen bei gleichzeitiger Verbesserung der Qualität und besserer Ressourcennutzung. Gleichzeitig betonen die drei Autoren die Notwendigkeit von mehr Computertechnologie in der Industrie wegen des internationalen Wettbewerbs. Von den drei genannten Autoren spricht einzig Thomas Klein auch die Kehrseite des vermehrt ‚menschenähnlichen‘ Einsatzes dieser Maschinen im Kontext von Industrie 4.0 an: das damit möglicherweise auch viele Arbeitsplätze wegfallen werden, die bislang für Menschen Arbeitsmöglichkeiten geboten haben. Klein zitiert Untersuchungen, nach denen 47% der bisherigen Arbeitsplätze in den USA in den nächsten 10 Jahren Kandidaten für eine Substitution durch Computergestützte Technologien sind. Dies sind massive Zahlen. Dalia Marin, Professorin für Volkswirtschaft, versucht diese kommende Arbeitsmarktproblematik weiter zu differenzieren. Ausgehend von der Annahme, dass mehr Automatisierung kommen wird, sieht sie neben dem Rückzug von Hochtechnologieproduktionen in die angestammten Industrieländer dort aber die grundsätzliche Entwicklung zur Vergrößerung der Kapitalquote und zur Verringerung der Lohnquote. Diese Verringerung soll vor allem den Akademikersektor treffen; teure menschliche Arbeitskräfte werden bevorzugt von billigen computerbasierten Technologien ersetzt (FAZ 21.Nov.2014, S.16). Sowohl Klein wie auch Marin betonen aber auch, dass solche Zukunftseinschätzungen problematisch sind; der Prozess ist zu komplex, als dass man ihn einfach hochrechnen könnte.

7. Was bei allen vier genannten Autoren auffällt – auch bei den Autoren der Beilage ‚Innovation‘ (FAZ 20.Nov.2014) – ist, dass sie die ‚intelligente‘ und ’smarte‘ Technologie überwiegend aus einer ‚Außensicht‘ behandeln. Sie lassen die Wirkmechanismen dieser neuen Technologien, ihre maschinelle Logik, das, was sie so leistungsfähig macht, mehr oder weniger im Dunkeln. Smarte, intelligente Technologie erscheint dadurch – ich pointiere jetzt ein wenig — wie ein Naturereignis, das geradezu mystisch über uns hereinbricht, das einfach passiert, das so ist wie es ist, das man einfach hinnehmen muss. Auch fehlt eine historische Einordnung dieser Prozesse in das große Ganze einer Evolution des Lebens im Universum. Die sehr differenzierten Sichten von Daniel Schleidt enthalten zwar ein eigenes Schaubild zur industriellen Entwicklung, aber dieses greift – nach meiner Einschätzung – zu kurz. Es zementiert nur eher den opaken Blick auf das Phänomen, macht es begrifflich unzugänglich, schottet es für die Reflexion ab. Auch die volkswirtschaftliche Ausweitung des Blicks durch Marin geht – nach meiner Einschätzung – nicht weit genug. Sie betrachtet das Problem einer möglichen und wahrscheinlichen Substitution von menschlicher Arbeit durch computerbasierte Technologien in gegebenen historischen Kontexten und hier auch nur in einer kurzen Zeitspanne. Sie thematisiert aber nicht die gesellschaftlichen Rahmenbedingungen als solche. Sehr wohl kann man die Frage nach dem aktuellen Gesellschaftsmodell stellen. Sehr wohl kann man die Frage aufwerfen, ob es ein gutes Modell ist, wenn einige wenige GFinanz- und Machteliten mit dem Rest der Menschheit nach Belieben spielen. In der Frankfurter Rundschau wird seit vielen Wochen das Thema ‚Gerechtigkeit‘ diskutiert (siehe zuletzt z.B. Mohssen Massarat, Prof. für Wirtschaft und Politik mit seiner Übersicht verschiedener Gerechtigkeitsmodelle, FR 15./16.Nov.2014, S.9) und die Lektüre eines Buches wie ‚Die Abwicklung‘ von George Packer zeigt, dass eine reflexionsfreie oligopolistische Gesellschaft wie die US-Amerikanische mehr Fragen aufwirft als sie befriedigende Antworten liefert.

8. Sieht man nur die bisherigen Diskussionsbeiträge, dann kann einen schon die klamme Frage beschleichen, warum so viele Autoren in den Spiegeln der Gegenwart immer nur noch ‚das Andere‘ sehen, die ‚Maschine‘, während der ‚Mensch‘, die ‚Menschheit‘ als Hervorbringer dieser Technologien in diesem Sichtfeld gar nicht mehr vorkommt. Es ist wie ein intellektueller blinder Fleck, der die leisesten Zuckungen von Maschinen wie eine Neugeburt feiert während das ungeheuerliche Wunder der Entstehung komplexer Lebensstrukturen auf der Erde (das bis heute in keiner Weise wirklich verstanden ist!) nicht einmal eine Randnotiz wert ist. Fokussierung auf spezifische Fragestellung hat seinen Sinn und ist und war ein Erfolgsrezept, aber in einer Zeit, in der disziplinenübergreifend komplexe Phänomene alles mit allem verzahnen, in einer solchen Zeit erscheint diese selbstgenügsame Tugend nicht mehr nur nicht angebracht, sondern geradezu kontraproduktiv zu sein. Eine falsche Fokussierung führt bei komplexen Phänomenen notwendigerweise zu Verzerrungen, zu Verfälschungen, zu falschen Bildern von der Gegenwart und einer sich daraus ergebenden Zukunft (es sei auch an die lange Diskussion in der FAZ erinnert zu den Schwachstellen moderner Betriebs- und Volkswirtschaftstheorien, die nicht nur die letzten Finanzkatastrophen nicht vorhergesehen haben, sondern auch mit ihrem Paradigma des ‚homo oeconomicus‘ empirisch weitgehend gescheitert sind.)

9. Wenn nun also Menschen selbst das Andere ihrer selbst anpreisen und sich selbst dabei ‚wegschweigen‘, ist damit die Geschichte des biologischen Lebens im Universum automatisch zu Ende oder unterliegen wir als menschlich Denkende hier nicht wieder einmal einem grundlegenden Denkfehler über die Wirklichkeit, wie andere Generationen vor uns auch schon in anderen Fragen?

10. Die Verabschiedung der UN-Menschenrechtskonvention von 1948, damals als ein Lichtblick angesichts der systematischen Greueltaten gegen die Juden (aber aber nicht nur dieser!) und der Beginn vieler anderer daran anknüpfenden Erklärungen und Initiativen erscheint vor den aktuellen gesellschaftlichen Prozessen weltweit fast schon seltsam. Dass ein totalitäres Regime wie das chinesische die Menschenrechte grundsätzlich nicht anerkennt (wohl aber chinesische Bürger, siehe die Charta 2008) ist offiziell gewollt, dass aber selbst demokratische Länder – allen voran die USA – mit den Menschenrechten scheinbar ’nach Belieben‘ umgehen, sozusagen, wie es ihnen gerade passt, dass wirkt wenig ermutigend und gibt Nahrung für Spekulationen, ob die Menschenrechte und die Mitgliedschaft in der UN nur davon ablenken sollen, was die Finanz- und Machteliten tatsächlich wollen. Die Zerstörung ganzer Gesellschaftsbereiche, die Marginalisierung großer Teile der Bevölkerung, die unbeschränkte Aufhebung der Privatsphäre ohne alle Kontrollen, die globale Ausbeutung der Schwachen durch Handelsabkommen … nur wenige Beispiele die eine andere Sprache sprechen, als jene, die in den Menschenrechten vorgezeichnet ist.

11. Noch einmal, was auffällt, ist die ‚Oberflächlichkeit‘ all dieser Bilder im wahrsten Sinn des Wortes: die schier unfassbare Geschichte der Evolution des Lebens im Universum existiert eigentlich nicht; das Wunder des Geistes inmitten materiell erscheinender Strukturen ist weitgehend unsichtbar oder ist eingesperrt in eine gesellschaftliche Enklave genannt ‚Kultur‘, die nahezu kontaktlos ist mit dem Rest des Wirtschaftens, Produzierens und Denkens; eine ‚Kultur der Sonntagsreden‘ und der ‚Belustigungen‘, ein Medium für die Eitelkeit der Reichen und der Unterhaltungsindustrie.

12. Innovation entsteht nie nur aus der Wiederholung des Alten, sondern immer auch aus der Veränderung des Alten, entsteht aus dem gezielt herbeigeführten ‚Risiko‘ von etwas ‚tatsächlich Neuem‘, dessen Eigenschaften und Wirkungen per se nicht vollständig vorher bekannt sein können.

13. Die, die aktuell neue Technologien hervorbringen und einsetzen wollen, erscheinen ‚innovativ‘ darin, dass sie diese hervorbringen, aber in der Art und Weise, wie sie das biologische Leben – speziell die Menschen – damit ‚arrangieren‘, wirken die meisten sehr ‚alt‘, ‚rückwärtsgewandt‘, …. Innovationen für das Menschliche stehen ersichtlich auf keiner Tagesordnung. Das Menschliche wird offiziell ‚konserviert‘ oder schlicht wegrationalisiert, weggeworfen, ‚entsorgt‘; hier manifestiert sich ein seltsamer Zug dazu, sich selbst zu entsorgen, sich selbst zu vernichten. Die Quelle aller Innovationen, das biologische Leben, hat in Gestalt der Menschheit einen ‚blinden Fleck‘: sie selbst als Quelle.

14. Der Mangel an Wissen war zu allen Zeiten ein Riesenproblem und Quelle vieler Notlagen und Gräueltaten. Dennoch hat die Menschheit trotz massiver Beschränkungen im Wissen neues Wissen und neue Strukturen entwickelt, die mehr Teilhabe ermöglichen, mehr Einsichten vermitteln, mehr Technologie hervorgebracht haben, ohne dass ein ‚externer Lehrer‘ gesagt hat, was zu tun ist… wie ja auch alle Kinder nicht lernen, weil wir auf sie einreden, sondern weil sie durch den bisherigen Gang der Evolution für ein kontinuierliches Lernen ausgestattet sind. … Der Geist geht dem Denken voraus, die Logik der Entwicklung liegt ‚in‘ der Materie-Energie.

15. So großartig Innovationen sein können, das größte Mirakel bleibt die Quelle selbst. Wunderbar und unheimlich zugleich.

QUELLEN

George Packer (3.Aufl. 2014), Die Abwicklung. Eine innere Geschichte des neuen Amerika. Frankfurt am Main: S.Fischer Verlag GmbH (die engl. Originalausgabe erschien 2013 unter dem Titel ‚The Unwinding. An Inner History of the New America‘. New York: Farrar, Strauss and Giroux).

Einen Überblic über alle bisherigen Blogeinträge nach Titeln findet sich HIER.

INFORMATIK & GESELLSCHAFT – Kurzbericht

Änerung: 19.März 2015 (Die Künslergruppe Reul & Härtel hat das Foto mit Ihnen durch ein Bild aus ihr Performance (‚visualexploration‘) ersetzen lassen)
Änderung: 20.Nov.2014 (Einfügung Videoschnappschuss von der Uraufführung des Eingangereignisses)

Wie schon zuvor in diesem Blog darauf hingewiesen gab es am 8.November 2014 in der Frankfurt University of Applied Sciences eine recht interessante Veranstaltung INFORMATIK & GESELLSCHAFT. Computer und Geist. Aspekte einer Standortbestimmung. Im Folgenden ein kurzer Bericht mit einigen Schnappschüssen. Alle Bilder sind von Dominik Wolf, dem es gelungen ist, unter schwierigen Lichtverhältnissen doch das eine oder andere Bild zu schiessen. Die beiden ersten Bilder sind allerdings von Anita Henisch, die dann wegen der schwierigen Lichtverhältnisse aufgegeben hatte. Von Dominik Wolf selbst gibt es leider kein Foto, was schade ist, da er die Hauptlast der Organisation getragen hat.

13.20 Uhr Eingangsereignis Computermediated Sound/Images 1
(cagentArtist & Guido May)

cagentartist im Gespräch mit Guido May vor der Uraufführung von 'Little CRUNCS symphony No.1'

cagentartist im Gespräch mit Guido May vor der Uraufführung von ‚Little CRUNCS symphony No.1‘

Jazz-Schlagzeuger Guido May während der Uraufführung von 'Little CRUNCS symphony No.1'

Jazz-Schlagzeuger Guido May während der Uraufführung von ‚Little CRUNCS symphony No.1‘

Hier ein Video Schnappschuss von Dominik Wolf. Dies war nicht als Dokumentation geplant; aber da der geplante Tonmitschnitt leider nicht verfügbar ist, ist dies nun das einzige Zeugnis der 20 Minuten-Uraufführung.

Das Stück ‚Little CRUNCS symphony No.1‘ wirkte auf den ersten Blick wie sinfonische Musik, war aber vollständig im Computer generiert worden. Sieben verschiedene Eingangsklänge wurden auf unterschiedliche Weise algorithmisch bearbeitet und miteinander verzahnt. Viele Zuhörer sagten anschliessend, dass für sie das Schlagzeugspiel sehr wichtig gewesen sei. Ohne dieses hätten sie sich mit dem reinen Soundtrack schwer getan. So aber war es ein Erlebnis. Auch für den erfahrenen Jazz-Schlagzeuger Guido May war das Stück, wie er sagte, eine besondere Herausforderung. Alle ihm bekannten Muster passten bei diresdem Stück nicht. Er musster sich die Rolle des Schlagzeugs hier speziell erarbeiten.

13.45 Uhr Begrüßungen
(Moderator Prof. Doeben-Henisch, Sprecher ForschungsCampus FC3 & Informatik Cluster Fb2 Prof. Schäfer, Dekan Fb2 Prof. Morkramer, Vizepräsident Wissenschaft Infrastruktur Forschungstransfer der Frankfurt University of Applied Sciences Prof. Schrader)

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Begrüssung und Moderation von Prof.Dr.Gerd Doeben-Henisch

Prof.Doeben-Henisch bei der Begrüßung. Es war die erste Veranstaltung dieser Art für die Informatik an der Hochschule. So war es sehr erfreulich, dass so viele sich aktiv und engagiert bei dieser Veranstaltung beteiligt haben.

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Sehr persönliche Grußworte vom Dekan des Fb2 Prof. Achim Morkramer

Prof. Morkramer,  der Dekan des Fb2, verstand es, am Beispiel seiner eigenen Familie lebendig werden zu lassen, wie schnell die Computer innerhalb von zwei  Generationen aus dem Nichts aufstiegen und heute alles durchdringen. Erst jetzt beginnen wir Menschen scheinbar zu begreifen, welche große Folgen dies für uns alle haben kann, nicht nur positiv, sondern auch negativ.

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung  und Forschung, Prof.Dr. Ulrich Schrader

Grussworte mit einer Vision: Vizepräsident für Infrastruktur, Weiterbildung und Forschung, Prof.Dr. Ulrich Schrader

Der Vizepräsident für Weiterbildung, Infrastruktur und Forschung, Prof. Dr. Schrader, griff sich aus den vielfältigen Entwicklungen jenen Bereich heraus, der ihn selbst besonders betrifft, den Bereich neuer Unterrichtstechnologien. So wunderbar diese neue Welt auch erscheint, er machte darauf aufmerksam, dass der Aufwand für eine volle Nutzung dieser neuen technologischen Möglichkeiten, von einer einzelnen Hochschule kaum gestemmt werden kann. Er wagte einen visionären Ausblick dahingehend, ob nicht Hochschule, Behörden und Wirtschaft zusammen ein ‚Leuchtturmprojekt‘ gemeinsamer neuer digitaler interaktiver Lernräume stemmen sollten. Eine Frage, die noch immer weiterhallt, auch nach der Veranstaltung.

14.00 Uhr Geist zum Nulltarif? Philosophische Aspekte zur Herkunft und zur Zukunft der Informatik. Vortrag und Diskussion
(Prof. Dr. phil. Dipl. theol G. Doeben-Henisch)

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Eine Folie aus dem Vortrag von Prof. Doeben-Henisch

Unter dem Titel ‚Geist zum Nulltarif‘ ordnete Prof. Doeben-Henisch   den Menschen mit seiner ‚Geistigkeit‘ ein in die Ideengeschichte (‚Geist‘ in der antiken griechischen Philosophie, hier verankert im Phänomen des ‚Atmens‘ (Verb: ‚pneo‘) erweitert zum Lebensprinzip (Substantiv ‚pneuma‘)) und in die Evolution des Lebendigen (‚Geist‘ als eine inhärente Eigenschaft des Biologischen selbst). Die strukturellen Übereinstimmungen zwischen dem Prinzip Computer und biologischen Zellen bis hin zum Gehirn lassen heute nicht erkennen, warum der Computer den Menschen in seinen Fähigkeiten nicht übertreffen können sollte. Die – besonders in den USA – vertretene Hypothese von der kommenden ‚technologischen Singularität‘ geht schon ganz selbstverständlich davon aus, dass die Tage der Menschen gezählt sind; die ‚intelligenten Maschinen‘ werden ‚übernehmen’…

15.00 Uhr Informatik und Gesellschaft Soziologische und kulturanthropologische Aspekte der neuen Informationstechnologien. Vortrag und Diskussion
(Prof. Dr. habil. Dipl. soz. Manfred Faßler)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Reflexion im Vollzug: Prof.Dr.habil Manfred Fassler (Goethe Universität)

Dass diese ‚Anpassbarkeit‘ des Computers an gesellschaftliche Abläufe und psychischen Bedürfnissen massive Rückwirkungen auf das Verhalten der Menschen und viele soziale Strukturen hat, thematisierte Prof. Fassler. Er identifizierte in den beobachtbaren Veränderungen einen großen Forschungsbedarf: wie können wir verhindern, dass die Menschen zu bloßen ‚Anhängsel‘ eines einzigen großen kybernetischen Systems werden, das  einer ’smarten Humanität‘ zuwider läuft? Und in der Tat, der Reflexionsbedarf der heutigen Informatik gerade mit Blick auf Soziologie und Kulturanthropologie ist drängend; wo aber sind die zugehörigen Forschungsgruppen und Forschungsprogramme?

16.00 Uhr Pause Computermediated Sound/Images 2
(Philip Reul & Markus Härtel)

Momentaufnahme von der Performance Haertel-Reul

Momentaufnahme von der Performance Haertel-Reul

Die wunderbaren Bilder von Härtel/ Reul, die auf der digitalen Verarbeitung von analogen Prozessen in verschiedenen Flüssigkeiten beruhten, ließen in der ersten Pause  dann etwas Leichtigkeit aufblitzen, einen Hauch von Schönheit. Zu erwähnen ist, dass Philip Reul auch Absolvent des Bachelor-Studiengangs Informatik der Hochschule ist sowie des interdisziplinären Masterstudiengangs ‚Barrierefreie Systeme‘ (BaSys).

visualexploration-8nov2014

visualexploration-8nov2014 von Härtel & Reul

16.30 Uhr Verkehr von morgen. Total umsorgt, total verkauft? Über Uber, Überwachung, und die neue Mobilität. Vortrag und Diskussion
(Prof. Dr. Jörg Schäfer)

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Klar und direkt: Prof.Dr. Jörg Schäfer zur Missachtung der Privatsphäre

Prof. Schäfer demonstrierte dann am Beispiel der Mauterfassung, wie das vorhandene Knowhow der Informatik von der Politik nicht genutzt wird, um  die Privatsphäre bei der Mauterfassung zu wahren. Stattdessen wird direkt auf die Privatheit zugegriffen. Am Beispiel des neuen  Fahrgastvermittlungssystem Uber illustrierte Schäfer, wie einige wenige Kapitalgeber mit einer einfachen, billigen Software weltweit hohe Vermittlungsgebühren einziehen können, ohne juristische Verantwortung für das Fahrgastgeschäft selbst zu übernehmen. Er fragte, warum die Bürger dies nicht selbst organisieren, z.B. mit einer  ‚genossenschaftlichen Bürgerplattform‘. Noch weiter gedacht: warum sollten Studierende, Professoren und Bürger nicht solch eine Genossenschaft gründen?

17.30 Uhr Robot-Fabriken. Erhöhung der Produktivität; wo bleibt die Arbeit? Vortrag und Diskussion
( Prof. Dr. Kai-Oliver Schocke)

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Konnte begeistern: Prof.Dr. Oliver Schocke (Fb3) zur Notwendigkeit der Automatisierung

Das Thema ‚Automatisierung‘ bzw. ‚Roboter-Fabriken‘ ist in der Öffentlichkeit wegen unterstelltem Arbeitsplatzverlust schon mit Vorbehalten verhaftet. Prof. Schocke verstand es aber, in einem sehr engagierten Vortrag zunächst einmal die Notwenigkeit einer Produktivitätssteigerung durch weiter automatisierte Fabriken zu klären. Der internationale Konkurrenzdruck zwingt Deutschland, hier an vorderster Stelle mit zu halten. Allerdings zeigte die lebhafte Diskussion, dass damit das Problem der oft zitierten Arbeitsplatzvernichtung möglicherweise noch nicht völlig beantwortet ist. In der Diskussion wurde klar, dass hier alle betroffenen gesellschaftlichen Kräfte herausgefordert sind nach Lösungen zu suchen. den Unternehmen alleine kann man dies nicht anlasten.

18.30 Uhr Pause Computermediated Sound/Images 3
(acrylnimbus)

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt nach seiner Performance im Gespräch mit einer Teilnehmerin

Tobias Schmitt, ehemaliger Absolvent der Informatik – noch mit dem klassischen Diplom –, der zugleich seit gut 20 Jahren auch experimentelle Musik produziert, komponiert, performed, zeigte ein eigens Kunstvideo parallel zu einem eigenen Soundtrack, den er live spielte.

19.30 Uhr Video Slam zum Thema Informatik und Gesellschaft (Länge eines Videos maximal 7-Min, künstlerisch oder wissenschaftlich, Publikumspreise für die zwei besten Beiträge)

 Video--Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Video–Slam Preisverleihung: Wie man sieht, herrschte eine gute Stimmung. Von links nach rechts: die Professoren Schäfer und Doeben-Henisch mit den Preisträgern Siegfried Kärcher und Tom Pluemmer

Obgleich die Vorlaufzeit für den Videowettbewerb vergleichsweise sehr kurz war hatte es Einsendungen gegeben und es war möglich, den vom Förderkreis der Hochschule gestifteten Preis an zwei Preisträger zu überreichen. Sowohl Siegfried Härtel wie auch Tom Pluemmer sind profiliert Kunstschaffende. Während Tom Pluemmer seinen Schwerpunkt im Bereich Film hat, hat Siegfried Kärcher in seinem Leben schon eine ganze Bandbreite von künstlerische Aktivitäten aufzuweisen. Darin kommt eine intensive Auseinandersetzung mit Computern in ihren vielschichtigen Einsatzmöglichkeiten ebenso vor wie Lichttechnik, Sounddesign und Videokunst, um nur einiges zu nennen.

Das Cafe1 während der Pausen - Essen, Trinken, Kommunizieren

Das Cafe1 während der Pausen – Essen, Trinken, Kommunizieren

21.30-23.00 Uhr Ausgangsereignis Computermediated Sound/Images 4
(Werkstattgespräch mit den Künstlern; Digital Jam-Session)

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Digitale Jam-Session: Tobias Schmitt und Guido May nach dem Video-Slam

Hier eine Momentaufnahme von der inspirierenden Improvisation Tobias Schmitt & Guido May. Leider viel zu kurz …

Weitere Berichte, Kommentare können möglicherweise noch folgen. Insbesondere sollen noch Links auf die beiden prämierten Videos folgen.

Eine erste Nachreflexion von cagent zur Tagungfindet sich HIER.

Einen Überblick über alle Einträge in diesem Blog nach Titeln findet sich HIER.

INFORMATIK & GESELLSCHAFT – Samstag 8.Nov.2014 – Veranstaltungshinweis in eigener Sache

1. Wer die Einträge in diesem Blog verfolgt, wird bemerkt haben, dass für den Autor dieses Blogs die vielfältigen Erscheinungsweisen des Computers keine ‚rein technischen Phänome‘ repräsentieren, sondern ein tieferliegendes Prinzip sichtbar machen, das mit der ‚Geistigkeit des Menschen‘ und der ‚Lebendigkeit‘ des ‚Biologischen‘ in einem wichtigen Zusammenhang steht.

2. In dem Maße wie das ‚Prinzip Computer‘ in seinen technischen Realisierungen immer mehr unseren Alltag durchdringt, Fähigkeiten und Eigenschaften des Menschen ‚kopiert‘, Menschen in Teilbereichen ersetzt, wird es immer wichtiger, dass wir uns ‚als Menschen‘ bewusst werden, was hier geschieht.

3. Ein ungebremster, auf reinen individuellen Profit ausgerichteter Kapitalismus, der in globalen Dimensionen operiert — verknüpft mit diesem mächtigen Prinzip des Computers — (und in Zusammenarbeit mit einer unkontrollierten Gentechnik, die schon jetzt jährlich allein in Deutschland viele Millionen Tiere gentechnisch verstümmelt, in die Abfalltonne wirft, um ‚patentierte Tiere‘ zu bekommen, die dann bestimmten Firmen als ‚Eigentum‘ gehören), kann immanent nur das Ziel haben, durch eine immer weiter voranschreitende Automatisierung und Datensammlung möglichst viel von der Welt unter seine Kontrolle zu bringen. Kurzfristig maximiert dies die individuellen Gewinne über alle bekannten Maßen.

4. Auf die Zukunft hochgerechnet versinkt der Rest der Gesellschaft in Bedeutungslosigkeit, wird zu einer Randbemerkung, eine Heerschar von Lobbyisten dient in Anbetung vor dem globalen Egoismus, Ausverkauf der Politik in Raten.

5. Wenn immer mehr arbeitslos werden und verarmen, dann wird der Mensch in einem ungeregelten Kapitalismus zur Belastung, zum Störfaktor, der Ressourcen verbraucht, aber scheinbar keine neuen erzeugt.

6. Man kann sich fragen, wer dann noch die Produkte der automatisierten Fabriken und die gentechnischen Biokreaturen ‚kaufen‘ soll/ will/ kann, wenn niemand mehr Geld hat außer denen, die egoistisch global produzieren; aber diese Frage scheint sich niemand zu stellen.

7. In dieses Szenario eines egoistischen globalen ‚menschenfreien‘ Kapitalismus fügt sich die Position der radikalen ‚Transhumanisten‘ wunderbar ein: sie gehen davon aus, dass die ‚Maschinen‘ das Prinzip des Computers irgendwann ‚von selbst‘ in die Hand nehmen und sich schneller und besser als die Menschen entwickeln werden. Die Frage nach dem ‚Wert‘ und dem ‚Sinn‘ des Menschlichen und dem Biologischen stellt sich für diese Position nicht mehr. Die Evolution wird sich künftig ohne Menschen (und überhaupt ohne biologisches Leben?) weiter entwickeln.

8. In der Vergangenheit haben sich Menschen immer wieder aufgelehnt, wenn die Ungleichheiten zwischen ‚egoistischem und kurzsichtigem Kapital‘ einerseits und den ‚Bürgern‘ zu groß wurden. Das kann sich prinzipiell jederzeit wiederholen. In sogenannten Demokratien sollte das Problem prinzipiell nicht auftreten. Aber die modernen Kommunikations- und Überwachungstechniken, die Kontrolle der Medien, die Unterwanderung der Politik durch Lobbyismus, die Militarisierung der Polizei (z.B. in den USA!) — um nur einige Punkte zu nennen – nimmt ein Ausmaß an, dass sich sogenannte ‚demokratische‘ Staaten und sogenannte ‚Diktaturen‘ immer weniger unterscheiden.

9. Im Zentrum steht die Frage, ob wir Menschen – bislang als Teil des Biologischen das einzig bekannte ‚Wunder‘ im gesamten bekannten Universum – für uns selbst ein Verständnis, eine Wertschätzung, einen Sinn, eine Zukunftsperspektive finden, die uns ‚Wert genug‘ erscheint, um uns gegenseitig hinreichend Wert zu schätzen und die uns hilft, gemeinsam eine Zukunft zu gestalten, in der Menschen mehr sind als bloße ‚Ressourcenverbaucher‘, als bloße ‚Konsumenten‘, als bloße ‚billige Arbeitskräfte‘, als bloßer ‚Kostenfaktor‘.

10. Eine Rückbesinnung auf die ‚klassischen Religionen‘ in ihrem ‚klassischen Format‘ reicht nach meiner Einschätzung für eine solche Zukunft in keiner Weise aus. Die ‚klassischen Religionen‘ sind nicht wahr genug, nicht offen genug, lassen es letztlich zu, Menschen, die anders sind, zu töten, einfach so, weil es jemandem gerade mal gefällt. Wie kann jemand an Gott glauben, wenn er es zulässt, dass es das wunderbarste, was das bekannte Universum bislang hervorgebracht hat, das ‚Leben‘, einfach so zu unterdrücken, zu zerstören und zu töten?

11. Die Veranstaltung INFORMATIK & GESELLSCHAFT, Sa 8.Nov.2014 (Hier ausführliche Informationen zu den Beiträgen, den Referenten und Künstlern:  IuG-Zusatzinformationen-1-10-2014-1Okt2014) kann natürlich nur einen winzigen Bruchteil von diesem Spektrum thematisieren, sie kann nur ein weiterer kleiner Baustein sein, um uns gegenseitig zu helfen, uns unserer Verantwortung für das Leben bewusst zu werden. Vorträge mit ausführlichen Diskussionen, musikalische Experimente und ein Videowettbewerb bieten Raum, um mit zu machen. Alle sind eingeladen, diese Veranstaltung zu unterstützen. Es muss ja nicht die letzte dieser Art sein …

12. Hier ein Kurzbericht zur Veranstaltung INFORMATIK & GESELLSCHAFT vom 8.November 2014.

Einen Überblick über alle bisherige Blogeinträge nach Titeln findet sich HIER.

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.