Archiv der Kategorie: KI

PHILOSOPHIEWERKSTATT VOM 11.Januar 2014 – Rückblick – Lernen braucht Wissen und Emotionen

Letzte Änderung: Mo 12.Jan.2014 (Strukturierung, Am Ende Ausblick mit Terminen und Programmvorschlag)

ZUSAMMENFASSUNG

1) Mittlerweile liegt die dritte PHILOSOPHIEWERKSTATT 11.Jan.2014 hinter uns. Wie schon die letzten Male waren es sehr intensive Gespräche, die entstanden. Das tatsächliche Programm wich vom Plan ein wenig ab. Der Rückblick verlief wie geplant, war aber in sich schon ziemlich intensiv. Es gab dann eine längere Pause mit Essen, Trinken und viel Reden. Es folgte dann der neue Input zum Thema ‚Sind Emotionen (im weitesten Sinne) für ein Lernen notwendig?‘. Damit knüpften wir nochmals an das gemeinsame Brainatorming vom 14.Dez.2013 an; außerdem passte es gut zum Rückblick.
2) Kurz zusammengefasst waren die Überlegungen etwa wie folgt: bei einem komplexen System wie einem Tier oder gar einem Menschen ist eine klare Beschreibung von ‚Wissen‘ und ‚Emotionen (i.w.S.)‘ schwer bis unmöglich. Die meisten Menschen haben zum Thema zwar eine Meinung in ihrem Alltag, aber bei genaueren Nachfragen ist es kaum möglich, zu klären, was jemand meint, wenn er nach seinem ‚Bauchgefühl‘ entscheidet: Wann tut er das? Wie? Gibt es Unterschiede? usw. Dass stark Emotionen das Verhalten allgemein und das Lernen insbesondere beeinflussen können, scheint aufgrund der Alltagserfahrung klar zu sein.

EXPERIMENT ZU ‚EMOTION UND WISSEN‘

3) Die Frage ist also, ob es ein Experiment geben könnte, das einfach genug ist, und doch so, dass man alle beteiligten Komponenten ‚klar‘ verstehen und kontrollieren kann, das zugleich aber noch aussagekräftig genug ist, um zum Verhältnis von ‚Wissen‘ und Emotionen‘ etwas sagen zu können.

PSYCHOLOGIE UND INFORMATIK

4) Der Vortragende wählte dazu eine Kombination aus Psychologie und Informatik. Die Psychologen haben zu Beginn des 20.Jahrhunderts gelernt, wie sie ‚Intelligenz‘ messen können, ohne zu wissen, was ‚Intelligenz‘ in einem Lebewesen genau ist. Die Methode, die ‚Intelligenz‘ eines Systems durch Bezugnahme auf das Verhalten bei der Lösung einer Menge von Aufgaben zu beschreiben, dadurch zu quantifizieren, und damit ‚vergleichbar‘ zu machen, ist nicht auf Menschen beschränkt. Man kann damit auch Tiere messen und auch — heute — Computer. Damit könnte man bezogen auf ein definiertes Aufgabenset feststellen, in welchem Ausmaß ein Computer und ein Menschen ‚verhaltensmäßig übereinstimmen‘ oder nicht.

COMPUTER: WAS IST DAS?

5) Bei dieser Gelegenheit gab es einen Hinweis auf den Begriff ‚Computer‘. Die meisten Menschen verbinden mit dem Begriff ‚Computer‘ die konkreten Geräte, mit denen man im Alltag arbeitet (Smartphones, Tablets, eReader, PCs,…). Dies ist nicht ganz falsch, da alle diese Geräte beispielhafte Realisierungen des abstrakten Konzeptes eines berechnenden Automaten sind, das historisch bedeutsam im Kontext des Grundlagenstreits der Mathematik zu Beginn des 20.Jahrhunderts von Turing 1936/7 in die Diskussion eingeführt worden ist. Er hatte versucht, den Beweis von Gödel von 1931, zu den Grenzen der Entscheidbarkeit mathematischer Theorien, mit anderen Mitteln als Gödel sie benutzt hatte, vorzunehmen, um den Beweis dadurch möglicherweise verständlicher zu machen (was Gödel persönlich auch so sah; Gödel war nämlich mit seinem eigenen Beweis unzufrieden gewesen, und hatte Turings Lösungsansatz in einer Rede in Princeton ausdrücklich als ‚verständlicher‘ gelobt). Am Beispiel eines Büroangestellten, der mit einem Schreibstift auf einem Blatt Papier seine Zahlen notiert und rechnet, hatte Gödel das Konzept der maximal einfachen Maschine für maximal komplexe Aufgaben formuliert, die alles, was mit endlichen Mitteln berechenbar ist, berechnen kann. Später wurde diese seine abstrakte Maschine ihm zu Ehren Turingmaschine genannt. Während eine Turingmaschine duch die Unendlichkeit des Schreib-Lesebandes letztlich einen unendlich großen Speicher besitzt, hat jede konkrete gebaute Maschine, die wie eine Turingmaschine arbeitet, immer nur einen endlichen Speicher. In diesem Sinne kann ein realer Computer die Leistung einer idealen Turingmaschine immer nur annähern.
6) Was ein Computer im Stil einer Turingmaschine letztlich alles ‚tun‘ kann, hängt davon ab, wie man ihn programmiert. Bislang werden Programme für bestimmte klar umrissene Aufgaben geschrieben, und man erwartet, dass das Programm in einer bestimmten Situation genau das tut, was man von ihm erwartet (einen Text schreiben; Bremsen, wenn man auf das Bremspedal tritt; einen Alarm geben, wenn ein bestimmter Wert gefährlich überschritten wird; usw.). Programme, die in diesem Sinne ‚erwartungskonform‘ sind, sind ‚deterministisch‘, sind ‚reaktiv‘, d.h. sie sind in ihrem Verhalten genau festgelegt. Dass die meisten Menschen vor diesem Alltagshintergrund davon ausgehen, dass Computer ja eigentlich ‚dumm‘ sind, ist nachvollziehbar.
7) Allerdings ist dieser Eindruck auch irreführend, denn Computer ‚als solche‘ können im Prinzip alles, was ‚berechenbar‘ ist, d.h. auch ‚Denken‘, ‚Fühlen‘, usw., wenn man sie nur ‚lässt‘. Die meisten übersehen, dass wir Menschen alle unsere wunderbaren Eigenschaften nicht haben, weil wir sie ‚gelernt‘ haben, sondern weil unser Körper und unser Gehirn in bestimmter Weise so vorgeprägt ist, dass wir überhaupt ‚Wahrnehmen‘, ‚Erinnern‘, ‚Denken‘ usw. können.

Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften
Experimenteller Rahmen, offen für Philosophie, Psychologie und Neurowissenschaften

OFFENE SYSTEME, REAKTIV UND ADAPTIV

8) Die strukturellen Gemeinsamkeiten zwischen uns Menschen und einem möglichen Computer werden deutlich, wenn man sowohl Menschen als auch Computer abstrakt als ‚Input-Output-Systeme‘ betrachtet. Sowohl vom Menschen wie auch vom Computer können wir annehmen, dass sie auf spezifische Weise Ereignisse aus der ‚Umgebung‘ (der ‚Welt‘ (W)) aufnehmen können (Sinnesorgane, Sensoren, Leseband), die wir hier abstrakt einfach als ‚Systeminput‘ oder einfach ‚Input‘ (I) bezeichnen. Genauso können wir annehmen, dass Menschen wie Computer auf die Welt (W) zurückwirken können (über diverse Aktoren, Schreibband). Die Menge dieser Rückwirkungen bezeichnen wir hier als ‚Output‘ (O). Ferner gehen wir immer davon aus, dass es zwischen dem beobachtbaren Output ‚O‘ und dem beobachtbaren Input ‚I‘ einen irgendwie gearteten ‚gesetzmäßigen‘ oder ‚regelhaften‘ Zusammenhang gibt, den wir hier einfach ‚phi‘ nennen, also ‚phi‘ ordnet dem Input ‚I‘ auf spezifische Weise einen bestimmten Output ‚O‘ zu. Die Mathematiker sprechen in diesem Zusammenhang von einer ‚Abbildung‘ oder ‚Funktion‘, geschrieben z.B. als ‚phi: I —> O‘. Die Informatiker sprechen von einem ‚Algorithmus‘ oder einem ‚Programm‘. Gemeint ist in allen Fällen das Gleiche.
9) In der Form ‚phi‘ ordnet dem Input ‚I‘ einen Output ‚O‘ zu wissen wir so gut wie nichts über die innere Struktur des Systems. Dies ändert sich, wenn wir zusätzlich den Begriff ‚innere Zustände‘ (‚inner states‘, IS) einführen. Damit können wir das Reden über ein System nahezu beliebig verfeinern. Diese inneren Zustände ‚IS‘ können ‚Neuronen‘ sein, ‚Erlebnisse‘ (‚Qualia‘), chemische Prozesse, was immer man braucht. Die Einbeziehung der inneren Zustände ‚IS‘ erlaubt sogleich einige interessante Differenzierungen.
10) Zunächst mal können wir unsere Redeweise erweitern zu ‚phi‘ ordnet einem Input ‚I‘ mit Hilfe der aktuellen inneren Zustände ‚IS‘ einen entsprechenden Output ‚O‘ zu, phi: I x IS —> O. Das heißt, die inneren Zustände ‚IS‘, was immer diese im einzelnen genau sind, sind ‚mitursächlich‘ dafür, dass dieser bestimmte Output ‚O‘ zustande kommt. Bsp: Wenn ich bei einem Getränkeautomaten ein Getränk auswähle, das geforderte Geld einwerfe und dann auf Ausführung drücke, dann wird der Automat (falls er nicht ‚defekt‘ ist) mir das gewählte Getränk ausgeben. Er wird immer nur das tun, und nichts anderes.
11) Von lernenden Systemen wie Tieren oder Menschen wissen wir, dass ihre Reaktionen (ihr Output ‚O‘) sich im Laufe der Zeit ändern können, weil sie ‚durch Lernen‘ ihre inneren Zustände ‚IS‘ ändern können. In diesem Fall müssten wir von der Verhaltensfunktion ‚phi‘ sagen: ‚phi‘ ordnet dem aktuellen Input ‚I‘ und unter Berücksichtigung der aktuellen internen Zustände ‚IS‘ nicht nur einen bestimmten Output ‚O‘ zu, sondern kann auch dabei gleichzeitig seine eigenen internen Zustände ‚IS‘ in spezifischer Weise ‚ändern‘, also phi: I x IS —> IS x O. Ein ‚lernendes‘ System ist in diesem Sinne ’selbstveränderlich‘, ‚adaptiv‘, ‚anpassungsfähig‘ usw.
12) Der wichtige Punkt hier ist nun, dass diese adaptive Verhaltensformel ( phi: I x IS —> IS x O) nicht nur auf Tiere und Menschen anwendbar ist, sondern auch — ohne Einschränkungen — auf das Konzept des Computers. Dass wir bis heute kaum wirklich lernfähige Computer haben, liegt vor allem an zwei Gründen: (i) im Alltag wollen wir lieber ‚dumme‘ Maschinen, weil sie uns für bestimmte Zwecke klare Erwartungen erfüllen sollen; (ii) zum anderen gibt es nahezu kaum Programmierer, die wissen, wie man ein lernfähiges Programm schreibt. Der Begriff ‚Künstliche Intelligenz‘ (KI) (bzw. Engl.: ‚artificial intelligence‘ (AI)) existiert zwar seit Beginn des Denkens über und Entwickelns von Computern, aber da wir bis heute nur rudimentäre Vorstellungen davon haben, was Lernen beim Menschen bedeutet, weiß keiner so recht, wie er einen Computer programmieren soll, der die Intelligenz von Menschen hinreichend ’nachahmt‘. In einer typischen Informatikausbildung in Deutschland kommt weder Psychologie noch Neurowissenschaften vor. Dazu muss man sagen, dass die Nachfrage nach lernfähigen Computern in der Realität bislang auch gering war (in vielen Filmen über intelligente Maschinen wird das Thema ausgiebig durchgespielt; dort meist negativ besetzt: die ‚bösen‘ Maschinen, die die Menschheit ausrotten wollen).

VERSCHIEDENE SICHTEN DER WISSENSCHAFTEN

13) Im vorausgehenden Schaubild wird aber auch noch etwas anderes angedeutet, was in den vorausgegangenen Sitzungen immer wieder mal anklang: Ich kann den Menschen von verschiedenen Blickpunkten aus betrachten: (NN) Von den Neuronen des Gehirns aus (Neurowissenschaften); (SR) vom beobachtbaren Verhalten aus (Psychologie); (PHN) Von den Phänomenen des Bewusstseins aus (Philosophie, Phänomenologie), oder in Kombinationen: (NN-SR) Neuro-Psychologie; (NN-PHN) Neuro-Phänomenologie; (PHN-SR) Phänomenologische Psychologie. Das Problem hierbei ist (was sehr oft übersehen wird), dass es zwischen den drei Sehweisen NN, SR und PHN keine direkten Verbindungen gibt: Das Neuron als solches sagt nichts über das Verhalten oder über Bewusstseinstatbestände; ein beobachtbares Verhalten sagt nichts über Neuronen oder Bewusstseinstatbestände; ein bewusstes Erlebnis sagt nichts über Neuronen oder beobachtbares Verhalten. Eine Verbindung zwischen diesen verschiedenen Sehweisen herzustellen ist von daher kein Selbstläufer, sondern eine eigenständige Leistung mit hohen methodischen Anforderungen (man sollte nicht überrascht sein, wenn man ein Buch mit dem Begriff ‚Neuropsychologie‘ aufschlägt und man findet auf keiner Seite die entsprechenden methodischen Maßnahmen….).
14) Für das vorgesehene Experiment soll die verhaltensorientierte Sicht der Psychologie als Hauptperspektive gewählt werden. Andere Perspektiven werden nach Bedarf zugeschaltet.

BEWUSSTSEIN DER PHILOSOPHEN, DER PSYCHOLOGEN, der NEUROWISSENSCHAFTEN

15) Ohne auf Details einzugehen sei hier angenommen, dass die philosophische Perspektive eigentlich nur die Kategorie ‚Bewusstsein‘ (‚consciousness‘ (CNSC)) kennt und dazu unterschiedliche Annahmen darüber, warum das Bewusstsein so ist, wie es ist. Die verhaltensbasierte Psychologie hat eine ganze Bandbreite von Denkmodellen entwickelt, die mögliche ‚Funktionen‘ im System beschreiben. Dazu gehören recht umfangreiche Modelle zu unterschiedlichen Gedächtnisformen wie z.B. ‚Sensorisch‘ (’sensorical memory‘, (SM)), ‚Kurzzeitspeicher’/ ‚Arbeitsspeicher‘ (’short term memory‘ (STM)) und ‚Langzeitspeicher‘ (‚long term memory‘ (LTM)). Letzteres mit sehr differenzierten Teilstrukturen). Heutzutage wird eine starke Korrelation zwischen dem philosophischen Konzept ‚Bewusstsein‘ und dem psychologischen Konzept ‚Arbeitsgedächtnis‘ angenommen. Die Neurowissenschaften entdecken immer mehr Funktionale Schaltkreise im Gehirn, die wiederum auf unterschiedliche Weise (Ebenen, Hierarchien) angeordnet sind. So gibt es funktionale Schaltkreise auf einer hohen integrativen Ebene, deren Korrelation mit dem psychologischen Konzept ‚Arbeitsgedächtnis‘ und dem philosophischen Konzept ‚Bewusstsein‘ korrelieren. Doch sind diese Sachverhalte sehr komplex und keinesfalls eindeutig. Für das nachfolgende Experiment spielt dies keine Rolle. Es orientiert sich am beobachtbaren Verhalten und ist bzgl. der internen Mechanismen, die das Verhalten hervorbringen, ’neutral‘.

EXPERIMENTELLER RAHMEN (UNVOLLSTÄNDIG)

16) Der äußere Rahmen des Experiments ist jetzt also eine Welt ‚W‘, in der das lernende System ‚LS‘ irgendwelche ‚Aufgaben‘ lösen muss. Für die Erreichung einer Lösung benötigt das lernende System ‚Wissen‘. Wie dann gezeigt werden soll, reicht Wissen alleine aber nicht aus. Neben ‚Wissen‘ benötigt ein lernendes System auch etwas, wodurch das Wissen ‚bewertet‘ werden kann, andernfalls kann es nicht lernen. Eine Möglichkeit, solche ‚Bewertungen‘ vornehmen zu können, sind ‚eingebaute‘ (‚intrinsische‘, ‚endogene‘, ‚angeborene’…) Zustände, die in Form von ‚Emotionen‘ (im weitesten Sinne wie z.B. ‚Hunger‘, ‚Durst‘ (= Bedürfnisse), ‚Neugierede‘, ‚Angst‘, ‚Schmerzen‘, ‚Lust’……) auftreten und das Verhalten ‚bewerten‘ können.

Fortsetzung folgt….

Die nächsten Termine für eine Philosophie-Werkstatt sind geplant für 8. Februar, 8. März, 12. April, 10. Mai, 14. Juni 2014.

Als Programmvorschlag für 8.Febr.2014 liegt vor:

  • Teil 1: In Gruppengesprächen und Plenum klären, was der Diskussionsstand ist, was fehlt, welche Themen neu addressiert werden sollen.
  • Teil 2: Fortsetzung des Themas: Wie können Emotionen helfen, dem Wissen eine handlungsfähige Struktur zu geben?
  • Teil 3: Philosophische Begründung für ein Kunstexperiment und Realisierung eines Beispiels

Einen Überblick über alle bishrigen Blogeinträge nach Titeln findet sich HIER.

Ich glaube an Gott, was brauch ich dann die (komplizierten) Wissenschaften?

(1) Während einer Geburtstagsfeier mit vielen Gästen (wo sonst…) nahmen die Gespräche zur fortgeschrittenen Stunde immer intensivere Verläufe. An einer Stelle sagte dann eine engagierte Frau, dass Sie an Gott glaube, an die Welt als Schöpfung; das gäbe ihr Kraft und Sinn; und so lebe sie es auch. Die Wissenschaft brauche sie dazu nicht; die sei eher verwirrend.

 

 

(2) Mit solch einem ‚Bekenntnis‘ ist das Wissen zunächst einmal ’neutralisiert‘; was immer Wissen uns über den Menschen und seine Welt sagen könnte, es findet nicht statt, es gibt kein Wissen mehr. Mögliche Differenzierungen sind wirkungslos, mögliche Gründe unwichtig; mögliche Infragestellungen, gedankliche Herausforderungen können nicht greifen; damit verbundene mögliche Spannungen, Erregungen können nicht stattfinden. Die Welt ist ‚wie sie ist‘, d.h. wie das aktuelle Wissen des so Glaubenden sie zeichnet. Alles hat seine Ordnung, eine Ordnung die sich nicht beeinflussen lässt durch Wissenschaft.

 

 

(3) In gewisser Weise hört nach einem solchen Bekenntnis jedes Gespräch auf. Man kann zwar noch weiter Reden, aber inhaltlich kann man sich nur noch auf wechselseitige Bestätigungen beschränken: Ja, ich sehe das auch so; ja, ich glaube das auch; ja, ich finde das gut;…. abweichende Meinungen haben streng genommen keinen Platz in diesem Gefüge…weil sie einfach ausgeblendet werden (Menschen mit mehr Aggressionspotential gehen dann allerdings zum ‚Angriff‘ über und versuchen, die ‚abweichende‘ Meinung nieder zu machen). Aber auch das ‚einfache Ausblenden‘ einer anderen Meinung, zu sagen, dass man abweichende Meinungen nicht hören will, ist eine Form der ‚Entmündigung‘ und damit eine Form von ‚Missachtung‘. Wahrheit ist dann nicht mehr möglich.

 

 

(4) Mich hat diese Einstellung geschockt. Wenn man weiß, auf welch schwankendem Boden jegliche Form von Wissen über uns, die Welt und Gott steht und wenn man weiß, wie viel Unheil über Menschen im Namen des Glaubens gekommen ist, weil die Gläubigen zu wissen glaubten, was wahr ist und in diesem Glauben tausende andere unterdrückt, verfolgt, gefoltert und getötet haben, weil sie auch glaubten, dass ihre Form des Glaubens über alle anderen Erkenntnisse und Wahrheiten ‚erhaben‘ sei, dann ist jegliche Form der Ablehnung von Wissen (ob durch Verweis auf Gott (Wer kennt ihn wirklich), durch Verweis auf eine politische Ideologie, durch Verweis auf ethnische Besonderheiten, durch Verweis auf ‚besonderes Blut‘, usw.) letztlich in einem identisch: die bewusste willentliche Entscheidung, sein eigenes Bild von der Welt auf keinen Fall zu verändern; was immer die Wissenschaften über uns und die Welt herausfinden, das wird als ‚irrelevant‘ neutralisiert.

 

 

(5) Allerdings zeigt sich am Beispiel solcher ‚alltäglicher‘ Konflikte auch sehr unmittelbar, dass entwickelte (wissenschaftliche) Formen von Wissen alles andere als selbstverständlich sind. Es hat nicht nur viele tausend Jahre gebraucht, bis die Menschen mit komplexeren Wissensformen umgehen konnten, es ist heute, in unserer Gegenwart so, dass man sich des Eindrucks nicht erwehren kann, dass nicht nur viele derjenigen, die nicht studiert haben, ein gebrochenes Verhältnis zu wissenschaftlichem Wissen haben, sondern dass ebenso viele derjenigen, die akademische Abschlüsse vorweisen können (mehr als 50%?), das ‚Wesen von wissenschaftlichem Wissen‘   nicht verstanden zu haben scheinen und Anschauungen über uns Menschen und die Welt für ‚wahr‘ halten, die — nach meinem Kenntnisstand — ziemlich abstrus und willkürlich sind (so eine Art ‚Voodoo‘ unter dem Deckmantel von Wissenschaft und Aufklärung).

 

 

(6) Es macht wenig Sinn, über diesen Sachverhalt zu ‚moralisieren‘. Es ist die Realität, in der wir leben. Da unser Handeln von unserem Wissen — oder von der Meinung anderer, denen wir einfach folgen — geleitet ist, haben solche Auffassungen ihre alltäglichen Wirkungen.

 

 

(7) Wenn man also versucht Wissen ernst zu nehmen; wenn man Fragen zulässt und sie versucht ernsthaft zu beantworten; wenn man sogenannte Selbstverständlichkeiten immer wieder mal hinterfragt, um sich zu vergewissern, dass man keine falschen Voraussetzungen mit sich herum trägt; wenn man versucht, aus den vielen Detailerkenntnissen größere Zusammenhänge zu konstruieren und auch wieder zu verwerfen; wenn man versucht, Sachverhalte zu Ende zu denken, obgleich wenig Zeit ist, man erschöpft ist, und keiner davon etwas hören will, dann darf man dafür kein Lob erwarten, keine Ermutigung, kaum Zustimmung, sondern eher Ablehnung, Angst, Abwehr oder Bemerkungen wie ‚Was Du da wieder denkst‘, ‚Das braucht doch kein Mensch‘, ‚Hast Du nichts Besseres zu tun‘, ‚Das nervt einfach‘, ‚Mir ist das alles zu kompliziert‘,….

 

 

(8) Sich auf Dauer ernsthaft mit ‚wahrem‘ Wissen zu beschäftigen (nicht mit Modetrends, Buzz Words, usw.) liegt quer im Alltag, darf auf keine Unterstützung hoffen. Die meisten Menschen suchen nicht die ‚Wahrheit‘, sondern eher Bestätigungen für ihre aktuelle Unwahrheit; Bestätigungen fühlen sich einfach besser an als Infragestellungen durch Erkenntnisse, die dazu zwingen, das eigene Bild von der Welt zu verändern.

 

 

(9) Jedes Wissen hat ‚Ränder des Wissens‘, jene Bereiche, die vom bisherigen Wissen noch nicht erschlossen sind bzw. die durch aktuelles Wissen ‚verstellt‘ werden, d.h. ich werde im Wissen erst weiter kommen, wenn ich dieses ‚verstellende‘ Wissen als ‚falsch‘ bzw. ‚unzureichend‘ erkannt habe. Wie soll dies geschehen? Menschen, die hauptsächlich nur Bestätigungen suchen, haben praktisch keine Chance, die ‚Falschheit‘ ihres Wissens zu entdecken. Sie sind in ihrem aktuellen Wissen quasi gefangen wie in einem Käfig. Da sie ihren Käfig nicht sehen, ihn ja sogar für ‚richtig‘ halten, wird sich der Käfig im Normalfall immer nur noch weiter verfestigen.

 

 

(10) Das biologische Leben, von dem wir Menschen ein winziger Teil sind, hat die Jahrmilliarden dadurch gemeistert, dass es nicht einer bestimmten vorgegebenen Ideologie gefolgt ist, sondern dass es ‚alles, was möglich wahr, einfach probiert hat‘. Man kann dies ‚Zufall‘ nennen oder ‚Kreativität‘ oder ‚Spiel‘; letztlich ist es so, dass Zufall/ Kreativität/ Spontaneität/ Spiel jeglicher fester Form auf Dauer haushoch überlegen ist, da feste Formen von Wissen Spezialisierungen darstellen für bestimmte Aspekte von Welt, meistens dazu sehr statisch, und solche Formen sind sehr schnell sehr falsch. Besser zu sein als ‚zufallsgesteuertes Wissen‘ ist eine sehr hohe Messlatte, und biologische Systeme wirken nur deshalb gegenüber reinem Zufall überlegen, weil sie die Erfahrungswerte von 3 Milliarden Jahren ’spielerischer Evolution‘ in sich angesammelt haben. Mehr als drei Milliarden Jahre Experimente mit hunderten Milliarden Beteiligten pro Jahr sind eine Erfahrungsbasis, die in sich ein Wunder darstellt, das zu begreifen nicht leicht fällt. Wir, die wir von diesem ‚angesammelten Wissen‘ profitieren können, ohne dass wir auch nur irgendetwas selbst dazu beigetragen haben, haben meistens kein gutes Gefühl dafür, welch ungeheure Leistung es bedeutet, das bisherige Weltwissen auch nur ein kleines Stück zu erweitern. Wer sich die Mühe machen würde, beispielhaft  — von vielen möglichen spannenden Geschichten — die Geschichte des mathematischen Denkens zu verfolgen, das zum Herzstück von jeglichem komplexen Wissen gehört, kann sehen, wie sich die besten Köpfe über 3000 und mehr Jahre bemühen mussten, bis die Mathematik eine ‚Reife‘ erlangt hat, die erste einfache Wissenschaft möglich macht. Zugleich gilt, dass in unseren Zeiten, die mehr denn je von Technologie abhängen, das Wissen um Mathematik bei den meisten Menschen schlechter ist als bei den Denkern der Antike. Es ist eben nicht so, dass ein Wissensbereich, der über Jahrtausende mühsam aufgebaut wurde, dann automatisch in der gesamten nachfolgenden Kultur verfügbar ist; ein solches Wissen kann auch wieder verfallen; ganze Generationen können in der ‚Aneignung von Wissen‘ so versagen, dass ‚errungenes Wissen‘ auch wieder ‚verschwindet‘. Wissen in einer Datenbank nützt nichts, wenn es nicht reale Menschen mit realen Gehirnen gibt, die dieses Wissen auch tatsächliche ‚denken‘ und damit anwenden können. Immer größere Datenbanken und immer schnellere Netze nützen nichts, wenn das reale Wissen in den realen Köpfen wegen biologischer Kapazitätsgrenzen einfach nicht ‚mithalten‘ kann…

 

 

(11) Unsere heutige Kultur ist in der Tat an einer Art Scheideweg: unsere Technologie entwickelt sich immer schneller, aber die biologischen Strukturen unserer Körper sind bislang annähernd konstant. Bedeutet dies, dass (i) die Ära der Menschen vorbei ist und jetzt die Zeit der Supercomputer kommt, die den weiteren Gang der Dinge übernehmen? oder (ii) haben wir einen Wendepunkt der Entwicklung erreicht, so dass ab jetzt aufgrund der biologischen Begrenztheit der Menschen es nicht mehr nur um ’schneller‘ und ‚mehr‘ geht sondern um ‚menschengemäßere künstliche Intelligenz‘, die ein Bindeglied darstellt zwischen dem kapazitätsmäßig begrenztem menschlichem Denken einerseits und einer immer leistungsfähigeren Technologie? oder (iii) Beginnt jetzt die Ära der angewandten Gentechnologie, die uns in die Lage versetzt, unseren Körper schrittweise so umzubauen, dass wir die Erfordernisse eines biologischen Lebens auf der Erde besser meistern könne als bisher? Die Alltagserfahrung legt vielleicht (i) nahe, die bisherige historische Entwicklung deutet aber auf (ii) und (iii) hin. Denn — und das übersieht man leicht — der Weg des Lebens in den letzten ca. 3.2 Milliarden Jahren hat permanent Probleme lösen müssen, die verglichen mit den uns bekannten Problemen um ein vielfaches größer waren. Und das Prinzip des Lebens hat dies alles gemeistert, ohne dass wir auch nur einen Millimeter dazu beigetragen haben. Wenn wir uns also weniger an unsere vielfältigen kleinkarierten Ideologien klammern würden und stattdessen stärker auf die ‚innere Logik des Lebens‘ achten, dann sind die potentiellen Lösungen in gewisser Weise ’schon immer da‘. Dies ist nicht als ‚Determinismus‘ oder ‚Vorsehung‘ misszuverstehen. Nein, die Struktur der Materie enthält als solche alle diese Strukturen als Potential. Unsere gesamtes heutiges Wissen (von dem unsere Körper mit ihren Gehirnen ein kleiner Teil sind) ist letztlich nichts anderes als das versammelte Echo der Milliarden von Experimenten, in denen wachsende biologische Strukturen in einem permanenten Dialog mit dem vorfindlichen Universum Aspekte dieses Universums ’sichtbar‘ gemacht haben; wahres Wissen zeigt in dem Sinne nichts ‚Neues‘ sondern macht ’sichtbar‘, was schon immer da war bevor es dieses Wissen explizit gab. ‚Wissen schaffen‘ heißt im Wesentlichen ‚in Dialog treten‘, d.h. ‚Interagieren‘, d.h. ‚ein Experiment durchführen‘ und die Ereignisse im Umfeld der Dialoge ‚geeignet zusammenführen‘ (Bilder, Modelle, Theorien…). Was ‚Denken‘ wirklich ist wissen wir bislang eigentlich immer noch nicht wirklich, was unsere Gehirne aber nicht daran hindert, kontinuierlich Denkarbeit zu leisten. Unsere Gehirne denken für uns. Wir sind quasi ‚Konsumenten‘ dieser wundersamen Gebilde. Dass unsere Gehirne nicht ‚beliebig gut‘ denken sondern so ihren ‚eigenen Stil‘ pflegen, das merkt man erst nach vielen Jahren, wenn man sich intensiv mit der Arbeitsweise des Gehirns beschäftigt. Wenn wir über die ‚Welt‘ reden dann reden wir nicht über die Welt ‚wie sie um uns herum ohne uns ist‘, sondern über die Welt, ‚wie sie unsere Gehirne für uns aufbereiten‘. Unsere Gehirne arbeiten so perfekt, dass uns dieser fundamentale Unterschied lange Zeit — vielen Menschen vielleicht zeit ihres Lebens nie — nicht auffällt.

 

 

(12) Wir sind Teil dieses gigantischen Geschehens. Wir finden uns darin vor. Leben ist mehr als die Worte, die man darüber formulieren kann. Einen Sinn gibt es natürlich; er hängt nicht davon ab, ob wir ihn sehen oder nicht sehen, glauben oder nicht glauben. Der wahre Sinn durchdringt alles von Anbeginn. Wir können versuchen, uns ihm gegenüber zu verschließen, aber wir selbst mit unserem Körper als Teil des Ganzen, enthalten so viel von diesem Sinn, dass wir geradezu ‚voll gepumpt‘ sind mit diesem Sinn. Vor allem Erkennen kann man es auch fühlen.

 

 

(13) Was ‚Gott‘ mit allem zu tun hat? Ich bin mir nicht sicher, ob wir als Menschen diese Frage überhaupt verstehen können.

 

 

MENSCHENBILD IM WANDEL

Vortrag am 24.Nov.2010 im Rahmen des gesellschaftspolitischen Forums ‚Bad Nauheimer Gespräche e.V‘ in Fankfurt am Main

Kurzfassung

Einleitungsmusik

  1. Das Thema führt weit über die üblichen Fachgrenzen hinaus. Dies setzt den Vortragenden allerlei Risiken aus, die ihn zum ‚Narren‘ machen können (Zitat E.Schrödinger, 1944). Aber die Sache verlangt dies. Ohne Risiko gibt es keine neuen Erkenntnisse.

  2. Vor seiner Zeit als Informatiker hatte der Vortragende eine intensive Zeit von mehr al 20 Jahren als engagierter Theologe, Jugendsozialarbeiter und Philosoph. In dieser Zeit lernte er die jüdisch-christliche Position von den schriftlichen und praktischen Grundlagen her sehr intensiv kennen. Dies umschloss eine grundsätzliche Gegenüberstellung zwischen dem impliziten Weltbild der Naturwissenschaften und der Technologie gegenüber den theologisch geisteswissenschaftlich orientierten Weltbildern.

  3. Im Versuch , die Grenzen des naturwissenschaftlich-technologischen Weltbildes aufzudecken – und bei gleichzeitig anhaltender intensiver Auseinandersetzung mit der jüdisch-christlichen Tradition – lernte er aber langsam, dass die Grenzen sehr wohl auch auf Seiten des jüdisch-christlichen Weltbildes liegen und die naturwissenschaftlichen Erkenntnisse demgegenüber eine neue Perspektive öffnen, die alte Grenzen sprengen und neue zukunftsweisende Dimensionen öffnen können, wenn man sie entsprechend nutzt.

  4. In einer kurzen Skizze des Alltagsdenkens machte der Vortragende darauf aufmerksam, dass all unser Wissen von der Welt um uns herum nicht ‚direkt‘ diese Welt widerspiegelt, sondern eine Leistung unseres Gehirns ist, das beständig die vielen Millionen sensorischen Signale von der Umgebung des Körpers wie auch aus dem Innern des Körpers in ein räumliches Gesamtbild transformiert, das für das Verhalten in der Umgebung in den meisten Fällen ‚ganz gut funktioniert‘. In vielen Alltagssituationen, durch zahllose psychologische Experimente wie auch –siehe später – durch die neuen Erkenntnisse der Physik kann man zeigen, dass dieses vom Gehirn erzeugte ‚Bild‘ von der Welt vielfach ungenau oder gar falsch ist. Nichtsdestotrotz ist diese Leistung des Gehirns unglaublich und nur verständlich vor der sehr, sehr langen Genese des heutigen Gehirns in den heutigen Körpern.

  5. Es folgte dann ein kursorischer Überblick über die Entwicklung des Lebens seit dem Beginn des messbaren Universums vor ca. -13.6 Milliarden Jahren. Anhand von vier Schaubildern konnte man wie im Zeitraffer sehen, welche ungeheuren ‚Vorleistungen‘ erbracht werden mussten, bis dann bei ca. -3.6 Milliarden Jahren die ersten Zellen auftraten, die dann in den letzten ca. 600 Millionen Jahren zur Besiedelung des Landes mit Pflanzen, Tieren und dann vor ca. 3 – 0,2 Mio Jahren auch mit menschenähnlichen Lebewesen und dann mit dem heute bekannten homo sapiens sapiens führten. Diese Geschichte ist randvoll mit Dramatik und zeigt, welcher Preis gezahlt werden mußte, damit es uns Menschen so, wie wir uns heute kennen, überhaupt geben konnte. Nach den Prognosen der Physik wird in ca. 1 Milliarde Jahre die Sonne die Erde verglühen lassen. Gemessen an der zurückliegenden Zeit bleibt also nur noch eine verhältnismäßig kurze Zeit, bis das Leben auf der Erde für diese neue totale Herausforderung eine Lösung gefunden hat (falls es sie gibt; grundsätzlich natürlich ja).

  6. Eine tiefreichende Einsicht der modernen Physik ist die Einsicht, dass all das, was wir als ‚Materie‘, ‚Substanz‘, ‚Stoffe‘ kennen nichts anderes ist als eine Zustandsform von Energie. Mit Hilfe der modernen Teilchenbeschleuniger kann man zeigen, wie sich jede Substanz (Materie, Stoff) in jede andere Substanz verwandeln läßt, wenn man genügend viel Energie zuführt. Einsteins Formel ‚E=mc²‘ stellt den Zusammenhang zwischen Energie ‚E‘ und Masse ‚m‘ über die Lichtgeschwindigkeit ‚c‘ direkt dar. Von daher ist auch verständlich, dass das heute bekannte messbare Universum, das mit einem ‚Energieausbruch‘ unvorstellbaren Ausmaßes begann, dann durch Abkühlung quasi zu ‚Strukturen erstarrte‘ indem aus der Energie ‚heraus‘ atomare Strukturen sichtbar wurden, die sich zu Galaxien, Sterne und Planeten formten.

  7. Eine weitere tiefreichende Einsicht ist die Erkenntnis der Thermodynamik, dass alle energetisch bedingten Bindungen dazu tendieren, sich abzubauen und damit die Freiheitsgrade der beteiligten Elemente (Atome) zu vergrößern. Die Physikern haben zur Bezeichnung des Grades an Freiheit den Parameter ‚Entropie‘ eingeführt und gehen davon aus, dass der Parameter Entropie tendenziell zunimmt, da der Prozess der Auflösung von energetisch bedingten Bindungen irreversibel erscheint.

  8. Vor diesem Hintergrund nimmt sich das Phänomen des ‚Lebens‘ ‚fremdartig aus: alle heute bekannten Lebensformen basieren auf molekularen Strukturen, die als DNA (und weitere) bekannt sind (die genaue Entstehung solcher Moleküle ist bis heute noch nicht vollständig aufgeklärt!). Das Erstaunliche an diesen Molekülen ist, dass sie als Informationsträger funktionieren, die komplexe Kopier- und Produktionsprozesse steuern können, die dann zur Ausbildung von noch komplexeren Molekülstrukturen führen können, die als Zellen, Zellverbände, Organe, Pflanzen, Tieren und dann auch als Menschen prozeßhaft über einige Zeit existieren können. Abgesehen von der mittlerweile irrwitzigen Komplexität dieser Strukturen (allein das menschliche Gehirn hat schätzungsweise mehr als 100 Milliarden Zellen!) ist wichtig, dass diese Strukturen nur existieren können, weil sie kontinuierlich lokal Energie aus der Umgebung aufnehmen und zum Aufbauen lokaler energetischer Bindungen nutzen. Dieses Verhalten der Lebensformen steht dem entropischen Charakter des gesamten physikalisch bekannten restlichen Universums diametral entgegen. Sowohl Erwin Schrödinger in seinem Buch ‚What is Life‘ von 1944 sowie Werner Heisenberg in seinem Buch ‚Physics and Philosophy‘ von 1958 stellen dieses Paradox explizit heraus und geben zu, dass die moderne Physik zu diesem Paradox nicht einmal ansatzweise eine Antwort besitzt.

  9. Nachdem sich also die scheinbare Vielfalt der Materie auf Energie zurückführen lässt, wird der Begriff der Energie zu neuen ‚Supermaterie‘, die – wie Heisenberg anmerkt – dem Potenzbegriff bei Aristoteles nahe kommt. Die Energie, so, wie sie heute von der Physik ‚enttarnt‘ wurde, enthält alle Eigenschaften und Strukturen, die bislang über unsere Welt bekannt geworden sind. Natürlich stellt sich damit die Frage, ob die jahrtausende lange Gegenübersetzung von ‚Geist‘ und ‚Materie‘ nicht auch obsolet geworden ist. Einerseits war diese Gegenübersetzung gespeist von der schieren Unkenntnis über die ‚wahre Natur‘ der Materie und auch durch eine weitreichende Unkenntnis über die Eigenschaften des menschlichen (bzw. auch des tierischen) ‚Geistes‘. Ob der erlebbare ‚Geist‘ dann letztlich auch nur eine der vielen Eigenschaften der Energie ist, folgt aus all den bekannten Tatsachen natürlich noch nicht unmittelbar.

  10. Hier kann eventuell die Entwicklung der modernen Gehirnforschung in Verbindung mit der Computerwissenschaft (Informatik) weitere interessante Hinweise liefern.

  11. Von der Gehirnforschung wissen wir, dass ein Neuron – bei aller Komplexität des molekularen und chemischen Aufbaus – letztlich an seinem Ausgang, dem Axonhügel, genau nur zwei Zustände kennt: Potential oder nicht Potential, Signal oder nicht Signal, An oder aus, 1 oder 0. Das Gleiche gilt für die Vielzahl der möglichen postsynaptischen Membranen als Gegenüber zu den Endstücken der anderen Neuronen, die ihre Axone zu den Neuronen senden: auch diese repräsentieren trotz all ihrer molekularen und chemischen Komplexität letztlich nur nur einen An- und Aus-Schalter, Signal an, Signal aus, 1 oder 0. Zudem ist ein Neuron auf molekularer Ebene eindeutig diskret.

  12. Bedenkt man, dass der Grundbegriff der modernen Berechenbarkeit, der letztlich auf Goedel (1931) und Turing (1936/7) zurückgeht, mit dem mathematischen Konzept der Turingmaschine einen Referenzmaßstab für Berechenbarkeit schlechthin gefunden hat, und deine Turingmaschine jedes beliebige Gehirn, sofern es binär schaltet und sich bis zu einem gewissen Grade strukturell während seiner Lebenszeit ‚umorganisieren‘ kann (Wachstum, Plastizität), prinzipiell vollständig auf einer Turingmaschine simulieren lässt – vorausgesetzt, es gibt Menschen, die verstehen das Gehirn gut genug, um eine Beschreibung des Gehirns anfertigen zu können, die dann in eine Turingmaschine ‚gefüttert‘ wird –, dann kann man dies als einen weiteren ‚Hinweis‘ dahingehend deuten, dass sich die ‚geistigen‘ Eigenschaften eines Gehirns mit beliebigen materiellen Strukturen simulieren lassen (das mathematische Konzept einer Turingmaschine lässt sich sowohl mechanisch wie elektronisch wie auch chemisch realisieren – oder noch ganz anders).

  13. Am Beispiel eines Experimentes mit einem selbst lernenden System, das aufgrund eigener Bedürfnisse ohne ‚Lehrer‘ lernen kann, illustrierte der Vortragende dann, wie man mit einfachen mathematischen Mitteln sehr komplexe Prozesse beschreiben und dann auch realisieren kann.

  14. Es gab dann noch eine angeregte Diskussion, in der u.a. gefragt wurde, (i) was dies für die verbleiben de ‚Restzeit‘ der Erde bedeuten würde; (ii) welche Konsequenzen dieses Bild für die Ethik hat, (iii) worin denn nun die Hilfe der Informatik für die Menschen besteht, (iv) ob damit denn der ‚Geist‘ vollständig ‚wegreduziert‘ sei. Die verfügbare Zeit reichte nicht aus, diese komplexen Fragen angemessen zu Ende zu diskutieren.

Überleitungsmusik Vortrag zu Diskussion

EXPERIMENTELLE HÖRBUCHFASSUNG

Der Beginner einer experimentellen Hörbuchfassung zu dem Vortrag findet sich hier: Teil 1-3 (4ff kommt noch)

INTELLIGENZ (1)

(1) In der heutigen Welt erleben wir eine Inflation im Gebrauch der Wörter   ‚Intelligenz‘, ‚intelligent‘ und ’smart‘. Im technischen Bereich sind immer mehr Produkte ’smart‘ ohne dass jemand sich auch nur ansatzweise die Mühe macht, diese Sprechweisen zu rechtfertigen; man tut einfach so, als ob dies so sei.

(2) Die Wurzel des Redens über ‚Intelligenz‘ ist aber das Erleben von Menschen, die Art und Weise wie wir als Menschen das Verhalten anderer Menschen im Vergleich zur umgebenden Natur erleben. In nicht wenigen Aspekten hebt sich das Verhalten des Menschen dadurch ab, dass wir einem Menschen ‚Absicht‘ unterstellen, ‚Erinnerungen‘, ‚Denken‘, usw. Bestimmte dieser beobachtbaren Eigenschaften  zusammengenommen unterstellen wir, wenn wir von ‚Intelligenz‘ sprechen.

(3) In dem Masse, wie wir gelernt haben, das eigene menschliche Verhalten besser zu verstehen und in den Gesamtzusammenhang des biologischen Lebens einordnen zu können, haben wir auch begonnen, verschiedenen anderen Lebensformen (Insekten, Säugetiere, …) zumindest Ansätze solcher Eigenschaften wie ‚Wahrnehmung‘, ‚Erinnerung‘, ‚Absicht‘ usw. zu zusprechen.

(4) Abseits vom Verhalten von Menschen haben wir keine ‚Referenzmuster‘ für ‚intelligentes Verhalten‘. Wenn wir eine Maschine (Roboter) bauen und von ihr behaupten, sie sei ‚intelligent‘ dann gewinnt diese Aussage höchstens Bedeutung durch Bezug auf vergleichbares Verhalten von Menschen; aber ohne diesen Bezug macht es keinen Sinn, von ‚Intelligenz‘ zu sprechen. Der Begriff der Intelligenz‘ unabhängig vom Menschen hat zunächst keine Bedeutung.

(5) Es ist vor allem die Psychologie, die sich mit dem beobachtbaren Verhalten von Menschen wissenschaftlich auseinandersetzt (im weiteren Sinne auch die allgemeinere biologische Verhaltensforschung (Ethologie)). Die Psychologie hat seit mindestens Sir Francis Galton  (1822 – 1911) und Alfred Binet (1857 – 1911) versucht, das als ’normal‘ anzusehende Verhalten der Mehrheit der Menschen (eines Jahrgangs) zum Massstab  zu nehmen, um damit das Verhalten eines jeden einzelnen ‚Bezogen auf dieses allgemeine Verhalten‘ ‚einzuordnen‘ (zu ‚messen‘).

(6) Natürlich haftet jeder Auswahl von konkreten Verhaltensweisen etwas ‚Willkürliches‘ an, dennoch stellt eine ‚Zusammenstellung‘ der zu einer bestimmten Zeit in einer bestimmten Gesellschaft ‚üblichen Verhaltensweisen‘ aber auch mehr dar als nur eine ‚bloss zufällige‘ Anordnung.

(7) Seitdem die Psychologen begonnen haben, mit solchen (z.T. schon unterschiedlichen) Zusammenstellungen von Verhaltensweisen (‚Testbatterien‘) gezielt ‚Messungen‘ vorzunehmen hat sich gezeigt, dass die Messergebnisse erstaunliche Konsistenzen aufweisen; ja, es lassen sich Prognosen über ‚Verhaltensweisen und Erfolge in der Zukunft machen‘, die weit jenseits des ‚Zufälligen‘ sind.

(8) Daraus kann man nicht folgern, dass die gewählten Verhaltensweisen die einzig ‚richtigen‘ sind, die mit INTELLIGENZ korrelieren, aber man darf zurecht annehmen, dass die Strukturen, die mittels des beobachtbaren Verhaltens ‚indirekt‘ gemessen werden, offensichtlich eine gewisse ‚Konsistenz‘ aufweisen, die ‚hinter‘ all der beobachtbaren Vielheit ‚am Werke‘ ist.

(9) Wenn die Psychologie also von ‚Intelligenz‘ spricht, dann bezieht sie sich auf kulturell stark repräsentative Verhaltensweisen, die man ‚messen‘ kann und die in ihrer Gesamtheit einen Hinweis liefern, ob ein einzelner Menschen sich so verhält, wie der große ‚Durchschnitt‘ (IQ=100) oder aber davon ‚abweicht‘; entweder durch ‚geringere‘ Leistung (IQ < 100)  oder durch ‚mehr‘ Leistung (IQ > 100).

(10) Wichtig ist, dass die verschiedenen benutzten Verhaltenskataloge (Testbatterien) kein direkt beobachtbares  ‚Objekt‘ Intelligenz definieren, sondern eher eine Art ‚Umschreibung‘ von etwas darstellen, was man nicht direkt sehen, sondern nur indirekt ‚erschließen‘ kann. Der psychologische Begriff der Intelligenz ist ein ‚theoretisches Objekt‘, also ein ‚Begriff‘ (Term), der durch formalen Bezug zu unterschiedlichen Messvorgängen eine ‚operationale‘ Bedeutung besitzt. Was letztlich das beobachtbare (messbare) Verhalten erzeugt, ist damit in keiner Weise klar.

(11) In der Psychologie gab es eine Vielzahl von Deutungsansätzen, wie man das ‚hinter dem Verhalten‘ liegende ‚Etwas‘ denken sollte. Am meisten verbreitet ist jener Ansatz, der zwischen einer ANGEBORENEN und einer ERWORBENEN Struktur unterscheidet: die durch die Erbanlagen weitgehend bestimmte angeborene Struktur definiert eine MASCHINERIE der VERARBEITUNG, deren Qualität sich in der GESCHWINDIGKEIT und FEHLERFREIHEIT zeigt (man spricht hier oft von FLUIDER Intelligenz). Die erworbene Struktur ist jener WISSEN, jene ERFAHRUNG, die sich durch die Anwendung der Maschinerie ERGIBT, so zu sagen das ERGENIS VON VERARBEITUNG (man spricht hier oft von KRISTALLINER Intelligenz). Während die kristalline Intelligenz stark verhaltens- und umweltabhängig ist ist die fluide Intelligenz weitgehend genetisch determiniert.

(12) Ob und wieweit die theoretisch bedingten Spekulationen der Psychologen über die fluide und kristalline Intelligenz zutreffen muss letztlich die Neurowissenschaft, und hier insbesondere die Neuropsychologie, entscheiden. Diese untersuchen die ‚biologische Maschinerie‘ des Gehirns und die Wechselwirkung mit dem Beobachtbaren Verhalten. Allerdings sind die Neurowissenschaften auf die Verhaltenstheorien der Psychologen angewiesen. Ohne die fundierten Untersuchungen des Verhaltens hängen die neurologischen Befunde buchstäblich ‚in der Luft‘: was nützt die Prozessbeschreibung eines Neurons wenn man nicht weiss, auf welches Verhalten dies zu beziehen ist. Und da es beim Menschen auf komplexe Verhaltensweisen ankommt die das gesamte komplexe Gehirn voraussetzen, ist diese Aufgabe nicht ganz einfach zu lösen (aus theoretischen Überlegungen muss man davon ausgehen, dass wir diese Aufgabe mit den heute verfügbaren Gehirnen nicht vollständig werden lösen können).

(13) Intelligenz messen: der Beginn der empirischen Wissenschaften ging einher mit der Einsicht, dass man auf Dauer nur dann zu ‚objektiven‘ Daten kommen kann, wenn man die Messprozeduren auf REFERENZOBJEKTE beziehen kann, die von den subjektiven Zuständen des einzelnen Beobachters UNABHÄNGIG sind. So kam es zur Einführung von Referenzobjekten für die Länge (m), das Gewicht (kg), die Zeit (s) usw. (die im Laufe der Zeit immer wieder durch neue ‚Versionen‘ ersetzt wurden; z.B. die Definition der ‚Sekunde‘ (s) oder der Länge (m)).

(13.1) Die Psychologen hatten im Fall der ‚Intelligenz‘  ‚Referenztestverfahren‘ eingeführt, die zwar unabhängig von den Gefühlen der Beteiligten waren, aber  es gab  kein unabhängiges Referenzobjekt INTELLIGENZ. Man erklärte einfach die MEHRHEIT der gerade lebenden Menschen zum STANDARD und verglich die zu ‚messenden Menschen‘ so gesehen mit ’sich selbst‘. Es war dann nicht wirklich überraschend, dass man im Laufe der Jahrzehnte feststellen musste, dass sich das REFERENZOBJEKT (nämlich die Leistung der ‚Mehrheit‘) nachweisbar ‚verschob‘. Ein IQ=100 war vor 50 –oder noch mehr– Jahren etwas anderes als heute!
(13.2) Das, was das Referenzobjekt INTELLIGENZ ’stabil‘ macht, das ist seine genetische Determiniertheit. Das, was es flexibel/veränderlich macht, das ist die Modifizierbarkeit durch genetische Variabilität und individuelle Lernfähigkeit bzw. die kontinuierliche Veränderung der Umwelt durch den Menschen selbst, die als veränderte sekundäre Welt auf den Menschen zurückwirkt.
(13.3) Bei aller Kritik an den Unzulänglichkeiten der aktuellen Messmethoden sollte man aber festhalten, dass das bisherige Verfahren trotz allem ein Geniestreich war und die Psychologie geradezu revolutioniert hatte.
(13.4) Trotzdem stellt sich die Frage, ob man heute mit neueren Mitteln das Projekt der Erforschung der Intelligenz noch weiterführen könnte?

(14) Für die Psychologen ist es unmöglich, die dem beobachtbaren Verhalten zugrunde liegenden Strukturen ‚als solche‘ direkt zu erforschen. Die Neurowissenschaftler können dies ansatzweise, indem sie reale Gehirne untersuchen, aber nur sehr limitiert; sie können nicht mit einem lebenden Gehirn wirklich Experimente machen (nur mit den Gehirnen von Tieren, und dies ist mehr und mehr ethisch äußerst fragwürdig!)

(15) Mit dem Aufkommen der Informatik entwickelten sich nicht nur theoretische Konzepte der BERECHENBARKEIT, sondern mehr und mehr auch eine TECHNOLOGIE, die es erlaubt, Berechnungsprozesse technisch zu realisieren. Dies wiederum ermöglicht die MODELLIERUNG und SIMULATION von nahezu beliebigen Strukturen und Prozessen, auch solchen, die BIOLOGISCHE Systeme modellieren und simulieren, einschließlich des GEHIRNS. Damit ist es prinzipiell möglich, zu jeder VERHALTENSWEISE, die in sogenannten Intelligenztests im Rahmen von TESTAUFGABEN gemessen werden, KÜNSTLICHE INTELLIGENZ (-STRUKTUREN) (KI := Künstliche Intelligenz, AI := Artificial Intelligence, CI := Computational Intelligence)  zu entwickeln, die in der Lage sind, genau diese Testaufgaben mit einem gewünschten IQ zu lösen. Auf diese Weise würde man eine ganze Kollektion von unterschiedlichen IQ-REFERENZOBJEKTEN erstellen können, die sich nicht mehr verändern und die –so wie das Kilogramm (kg), das Meter (m) oder die Sekunde (s)– dann als WIRKLICHE REFERENZOBJEKTE FÜR INTELLIGENZ dienen könnten. Es wäre dann  möglich, FORMEN VON INTELLIGENZ OBJEKTIV definieren zu können, die VERSCHIEDEN sind von der AKTUELLEN MENSCHLICHEN INTELLIGENZ. Auch könnte man damit den verschiedenen Formen TIERISCHER INTELLIGENZ mehr Rechnung tragen.