Archiv der Kategorie: Stern

INFORMELLE KOSMOLOGIE. Teil 2. Homo Sapiens und Milchstraße

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 18.Februar 2018
URL: cognitiveagent.org
Email: info@cognitiveagent.org

Autor: Gerd Doeben-Henisch
Email: gerd@doeben-henisch.de
Frankfurt University of Applied Sciences
Institut für Neue Medien (INM, Frankfurt)

PDF

INHALT

I Kontext … 1
II Die Größen … 2
III Ermittelte Sachverhalte … 3
IV Philosophische Anmerkungen … 4
IV-A Zusammenhang durch Funktionen … 4
IV-B Gehirn so winzig … 5
IV-C Bewusstsein: Was ist das? … 5
V Anhang: Rechenvorschriften … 6
VI Anhang: Ausführung von Rechenvorschriften … 7
Quellen

 

THEMA

Die Diskussion um die neue Frage nach dem Menschen angesichts der fortschreitenden Digitalisierung hat erst begonnen. Im vorausgehenden Beitrag zur ’Informellen Kosmologie’ wurde der große evolutionsbiologische Zusammenhang skizziert. Hier ein Hinweis auf die unvorstellbare Komplexität eines einzelnen menschlichen Körpers im Vergleich zur Milchstraße, und was dies bedeuten kann (ansatzweise).

I. KONTEXT

Die Diskussion um die neue Frage nach dem Menschen angesichts der fortschreitenden Digitalisierung hat erst begonnen. Im vorausgehenden Beitrag zur ’Informellen Kosmologie’ ist der große evolutionsbiologische Zusammenhang skizziert worden: nach ca. 9.6 Milliarden Jahren ohne biologische Lebensformen (soweit wir
wissen) bildeten sich vor ca. 4 Milliarden Jahren einfache Lebensformen auf der Erde (Bakterien, Archaeen), die dann innerhalb von 2 Milliarden Jahren die Erde in allen Winkeln chemisch so verändert haben, dass es zu einer Sauerstoffatmosphäre kommen konnte. Trotz der damit einhergehenden globalen Vereisung der Erde (’snowball earth’) für viele Millionen Jahre konnten sich dann aber komplexe Lebensformen bilden, die im Verlauf von weiteren 2 Milliarden Jahren dann – trotz vieler weiterer globaler Katastrophen – die Lebensform homo sapiens hervorgebracht
haben, der dann die Erde ein weiteres Mal flächendeckend erobert und kolonisiert hat. Dieser Prozess befindet sich aktuell in einer Phase, in der der homo sapiens aufgrund seiner erweiterten Denk- und Kommunikationsfähigkeiten das ’Prinzip des Geistes’ in Form von – aktuell noch sehr primitiven – ’lernfähigen und intelligenten Maschinen’ in
eine neue Dimension transformiert.

Von den vielen Fragen, die sich hier stellen, sei hier heute nur ein winziger Teilaspekt aufgegriffen, der aber dennoch geeignet erscheint, das Bild des Menschen von sich selbst wieder ein kleines Stück der ’Realität’ anzunähern.

Der winzige Teilaspekt bezieht sich auf die schlichte Frage nach der ’Komplexität’ eines einzelnen menschlichen Körpers. Natürlich gibt es zahlreiche Lehrbücher zur ’Physiologie des Menschen’ (Z.B. Birbaumer (2006) [BS06]) , in denen man über viele hunderte Seiten zur Feinstruktur des Körpers finden kann. Ergänzt man diese Bücher um Mikrobiologie (Z.B. Alberts (2015) [AJL + 15]) und Genetik, dann ist man natürlich sehr schnell in einem Denkraum, der die einen in Ekstase versetzen kann, andere möglicherweise erschaudern lässt angesichts der unfassbaren Komplexität von einem einzelnen Körper der Lebensform homo sapiens.

Hier soll der Blick mittels eines spielerischen Vergleichs auf einen winzigen Aspekt gelenkt werden: ein versuchsweiser Vergleich zwischen einem einzelnen menschlichen Körper und der Milchstraße, unserer ’Heimatgalaxie’ im Universum.

II. DIE GRÖSSEN

Im ersten Moment mag man den Kopf schütteln, was solch ein Vergleich soll, wie man solche so unterschiedliche Dinge wie einen menschlichen Körper und die Milchstraße vergleichen kann. Doch hat die neuzeitliche Erfindung der Mathematik die Menschen in die Lage versetzt, auf neue abstrakte Weise die Phänomene der Natur jenseits
ihrer augenscheinlichen Reize neu zu befragen, zu beschreiben und dann auch zu vergleichen. Und wenn man auf diese Weise einerseits die Komplexität von Galaxien beschreibt, unabhängig davon auch die Komplexität von biologischen Lebensformen, dann kann einem auffallen, dass man auf abstrakter Ebene sehr wohl eine Beziehung
zwischen diesen im ersten Moment so unterschiedlichen Objekte feststellen kann.
Der ’gedankliche Schlüsselreiz’ sind die ’Elemente’, aus denen sich die Struktur einer Galaxie und die Struktur des Körpers einer biologischen Lebensform bilden. Im Falle von Galaxien sind die primären Elemente (der Astrophysiker) die ’Sterne. Im Fall der Körper von biologischen Lebensformen sind es die ’Zellen’.

Im Alltag spielen die einzelnen Zellen normalerweise keine Rolle; wir sind gewohnt von uns Menschen in ’Körpern’ zu denken, die eine bestimmte ’Form’ haben und die zu bestimmten ’Bewegungen’ fähig sein. Irgendwie haben wir auch davon gehört, dass es in unserem Körper ’Organe’ gibt wie Herz, Leber, Niere, Lunge, Magen, Gehirn usw.,
die spezielle Aufgaben im Körper erfüllen, aber schon dies sind gewöhnliche ’blasse Vorstellungen’, die man der Medizin zuordnet, aber nicht dem Alltagsgeschehen.
Tatsache ist aber, dass alles, auch die einzelnen Organe, letztlich unfassbar große Mengen von individuellen Zellen sind, die jeweils autonom sind. Jede Zelle ist ein individuelles System, das von all den anderen Zellen um sich herum nichts ’weiß’. Jede Zelle tauscht zwar vielfältige chemische Materialien oder auch elektrische Potentiale mit der Umgebung aus, aber eine Zelle ’weiß’ darüber hinaus nichts von ’dem da draußen’. Schon der Begriff ’da draußen’ existiert nicht wirklich. Und jede Zelle agiert autonom, folgt ihrem eigenen Programm der Energiegewinnung und der Vermehrung.

Schon vor diesem Hintergrund ist es ziemlich bizarr, wie es möglich ist, dass so viele Zellen im Bereich zwischen Millisekunden, Sekunden, Minuten, Stunden, Tagen usw. miteinander kooperieren, so, als ob sie alle einem geheimnisvollen Plan folgen würden.
Fragt man dann, wie viele von solchen Zellen dann im Bereich eines menschlichen Körpers aktiv sind, wird das Ganze fast unheimlich. Das Unheimliche beginnt schon bei der Frage selbst. Denn unsere Forscher haben bis heute keine wirklich ’harte’ Zahlen zur Anzahl der Zellen im Körper des Menschen, allerdings erste Annäherungen, die sich beständig weiter verfeinern.

Für den Bereich des menschlichen Körpers habe ich die Darstellung von Kegel (2015) [Keg15] benutzt, der sowohl Abschätzungen für die Körperzellen im engeren Sinne bietet (ca. 37.2 Billionen (32.7^12 )) wie auch für die Bakterien im Körper (ca. 100 Billionen (100^12 )).

Innerhalb des Körpers nimmt das Gehirn für manche Eigenschaften eine besondere Stellung ein. Auch hier zeigt die Literatur,  dass eine Abschätzung der Anzahl der Zellen schwierig ist (Messverfahren generell, dann die unterschiedlichen Strukturen in verschiedenen Gehirnarealen). Nach dem neuesten Übersichtsartikel zum Thema über die letzten
150 Jahre von Bartheld et.al. (2016) [vBBHH16] konvergieren die Schätzungen aktuell dahingehend, dass das Verhältnis der Gliazellen zu den Neuronen weitgehend konstant erscheint mit 1:1 und dass sich die Zahl der Gliazellen zwischen 40-130 Milliarden bewegt. Dabei gilt nach neuesten Erkenntnissen, dass sich die Gesamtzahl der Gehirnzellen nach dem anfänglichen Aufbau altersabhängig nicht (!) kontinuierlich abbaut. Dies geschieht nur bei spezifischen Krankheiten. Für die Modellrechnung habe ich dann die Zahl der Neuronen und Gliazellen mit jeweils 100 Milliarden angenommen (damit möglicherweise zu hoch).

Auch bei der Abschätzung der Anzahl der Sterne in der Milchstraße stößt man auf erhebliche Probleme. Ein kleiner Einblick in die Problematik findet sich in einem Artikel der NASA von 2015 [Mas15]. Viele Schätzungen konvergieren aktuell im Bereich zwischen 100 – 400 Milliarden Sterne, aber es könnten möglicherweise viel mehr sein. Die Erkenntnislage ist noch sehr unsicher. Für den geplanten Vergleich habe ich jetzt einfach mal angenommen, es seien 300 Milliarden. Sollten irgendwann bessere Zahlen verfügbar sein, dann könnte man diese stattdessen eintragen.

Die Idee ist, ein erstes ’Gefühl’ dafür zu bekommen, wie sich die Komplexität der ’Himmelskörper’ zur Komplexität von biologischen Lebensformen verhält.

III. ERMITTELTE SACHVERHALTE

Die Rechenvorschriften, mit denen ich gerechnet habe sowie die Ausführung dieser Rechenvorschriften finden sich unten im Anhang.

Führt man die ’Rechnungen durch und überträgt die Zahlen (grob) in eine Zeichnung, dann er gibt sich folgendes Bild 1:

Die Körpergalaxie des homo sapiens im quantitativen Vergleich zur Milchstrasse
Die Körpergalaxie des homo sapiens im quantitativen Vergleich zur Milchstraße

1) Die Körperzellen zusammen mit den Bakterien im Körper werden hier ’Body-Galaxy’ genannt und diese repräsentiert 100% aller Zellen.
2) Im Rahmen der Body-Galaxy haben die körperinternen Bakterien einen Anteil von ca. 73%, d.h. ca. 3/4 der Body-Galaxy. Über diese Bakterienpopulationen weiß die Mikrobiologie bis heute noch nicht all zu viel.
3) Alle Gehirnzellen machen in dieser Body-Galaxy etwa 0.15% aller Zellen aus.
4) Eine Galaxie vom Format der Milchstraße entspricht 0.2% der Zellen der Body-Galaxy und passt ca. 457 Mal in eine Body-Galaxy.

IV. PHILOSOPHISCHE ANMERKUNGEN

Die eben angeführte Zahlen und quantitativen Verhältnisse stehen erst einmal für sich. Insofern der homo sapiens, wir, nicht nur die Objekte der Betrachtung sind, sondern zugleich auch die Betrachter, jene, die die Wirklichkeit einschließlich unserer selbst beobachten und dann ’denken’ können, erlaubt unsere Denkfähigkeit uns, diese
Sachverhalte in alle möglichen Denkzusammenhänge einzubringen und mit ihnen ’zu spielen’. Von den unendlich vielen Aspekten, die man hier jetzt durchspielen könnte, im folgen drei.

A. Zusammenhang durch Funktionen

Aus Sicht der Zellen bildet ein menschlicher Körper eine Super-Galaxie unvorstellbaren Ausmaßes. Die Tatsache, dass eine einzelne Zelle ’autonom’ ist, in ihrem Verhalten nur sich selbst verpflichtet ist, eine einzelne Zelle von all den anderen Zellen auch nichts ’weiß’, dies wirft um so mehr die Frage auf, wie denn solch eine Super-Galaxie
von Zellen überhaupt funktionieren kann?

Durch die Mikrobiologie wissen wir heute, dass eine einzelne komplexe Zelle (d.h. eine ’eukaryotische Zelle’) selbst schon eine komplexe Struktur mit vielen zellähnlichen Unterstrukturen ist, in der sich Millionen von unterschiedlich komplexen Molekülen befinden, die miteinander interagieren; ebenso finden komplexe Interaktionen der Zelle mit ihrer Umgebung statt. Diese Interaktionen realisieren sich über molekulare Strukturen oder elektrische Potentiale (Die elektrischen Potentiale bilden sich durch Ionen, deren Elektronenverteilung ein negativ oder positiv geladenes elektrisches Feld erzeugt. Viele solcher Ionen können dann elektrische Potentiale erzeugen, die ’Wirkungen’ erzielen können, die man messen kann.)

Aus Sicht der Mathematik kann man diese Interaktionen als ’Funktionen’ beschreiben, in denen eine ’Region’ mittels molekularer Strukturen oder elektrischer Felder in einer anderen ’Region’ eine ’Veränderung’ bewirkt. Eine einzelne Zelle realisiert simultan viele tausende (Eine genaue Zahl kenne ich (noch) nicht.)  solcher Funktionen. Die Mikrobiologie weiß heute auch schon, dass solche Interaktionen nicht nur zwischen einzelnen Zellen (also von A nach B und zurück) stattfinden, sondern dass es große Zellverbände sein können, die mit anderen Zellverbänden interagieren (man denke an ’Herz’, ’Lunge’, ’Gehirn’ usw.). Allerdings setzen diese ’Makro-Funktionen’ die vielen einzelnen Funktionen dabei voraus.

Wenn z.B. ein Auge mit seinen ca. 1 Millionen Rezeptoren Energieereignisse aus der Umgebung registrieren und in neuronale Signale ’übersetzen’ kann, dann geschieht dies zunächst mal in 1 Million Signalereignisse unabhängig voneinander, parallel, simultan. Erst durch die ’Verschaltung’ dieser Einzelereignisse entstehen daraus
Ereignisse, in denen viele einzelne Ereignisse ’integriert’/ ’repräsentiert’ sind, die wiederum viele unterschiedliche Erregungsereignisse nach sich ziehen. Würde man immer nur die ’lokalen Funktionen’ betrachten, dann würde man nicht erkennen können, dass alle diese lokalen Ereignisse zusammen nach vielen Interaktionsstufen zu einem
Gesamtereignis führen, das wir subjektiv als ’Sehen’ bezeichnen. Will man sinnvoll über ’Sehen’ sprechen, dann muss man gedanklich alle diese lokalen Funktionen ’begreifen’ als ’Teilfunktionen’ einer ’Makro-Funktion’, in der sich erst ’erschließt’, ’wofür’ alle diese lokalen Funktionen ’gut’ sind.

In der Erforschung des menschlichen Körpers hinsichtlich seiner vielen lokalen und immer komplexeren Makro-Funktionen steht die Wissenschaft noch ziemlich am Anfang. Aber, wenn man sieht, wie schwer sich die Physik mit den vergleichsweise ’einfachen’ ’normalen’ Galaxien tut, dann sollten wir uns nicht wundern, dass die vielen Disziplinen, die sich mit den Super-Galaxien biologischer Körper beschäftigen, da noch etwas Zeit brauchen.

B. Gehirn so winzig

Im Laufe der letzten 100 und mehr Jahre hat die Einsicht in die Bedeutung des Gehirns zugenommen. Bisweilen kann man den Eindruck haben, als ob es nur noch um das Gehirn geht. Macht man sich aber klar, dass das Gehirn nur etwa 0.15% der Körper-Galaxie ausmacht, dann darf man sich wohl fragen, ob diese Gewichtung
angemessen ist. So komplex und fantastisch das Gehirn auch sein mag, rein objektiv kann es nur einen Bruchteil der Körperaktivitäten ’erfassen’ bzw. ’steuern’.

Durch die Mikrobiologie wissen wir schon jetzt, wie Körperzellen und vor allem Bakterien, über chemische Botenstoffe das Gehirn massiv beeinflussen können. Besonders krasse Fälle sind jene, in denen ein Parasit einen Wirtsorganismus chemisch so beeinflussen kann, dass das Gehirn Handlungen einleitet, die dazu führen, dass der Wirtsorganismus zur Beute für andere Organismen wird, in denen der Parasit leben will. (Siehe dazu verschiedene Beispiel im Buch von Kegel (2015) [Keg15]:SS.282ff)  Andere Beispiele sind Drogen, Nahrungsmittel, Luftbestandteile, die die Arbeitsweise des Gehirns beeinflussen, oder bestimmte Verhaltensweisen oder einen ganzen Lebensstil. Die Kooperation zwischen Gehirnforschung und anderen Disziplinen
(z.B. moderne Psychotherapie) nimmt glücklicherweise zu.

C. Bewusstsein: Was ist das?

Wenn man sieht, wie winzig das Gehirn im Gesamt der Körper-Galaxie erscheint, wird das Phänomen des ’Bewusstseins’ — das wir im Gehirn verorten — noch erstaunlicher, als es sowieso schon ist.

Schon heute wissen wir, dass diejenigen Erlebnisse, die unser Bewusstsein ausfüllen können, nur einen Bruchteil dessen abbilden, was das Gehirn als Ganzes registrieren und bewirken kann. Das – hoffentlich – unverfänglichste Beispiel ist unser ’Gedächtnis’.

Aktuell, in der jeweiligen Gegenwart, haben wir keine direkte Einsicht in die Inhalte unseres Gedächtnisses. Aufgrund von aktuellen Erlebnissen und Denkprozessen, können wir zwar – scheinbar ’mühelos’ – die potentiellen Inhalte ’aktivieren’, ’aufrufen’, ’erinnern’, verfügbar machen’, aber immer nur aktuell getriggert. Bevor mich jemand nach dem Namen meiner Schwestern fragt, werde ich nicht daran denken, oder meine Telefonnummer, oder wo ich vor zwei Monaten war, oder …. Wenn es aber ein Ereignis gibt, das irgendwie im Zusammenhang mit solch einem potentiellen Gedächtnisinhalt steht, dann kann es passieren, dass ich mich ’erinnere’, aber nicht notwendigerweise. Jeder erlebt ständig auch, dass bestimmtes Wissen nicht ’kommt’; besonders unangenehm in Prüfungen, in schwierigen Verhandlungen, in direkten Gesprächen.

Es stellt sich dann die Frage, wofür ist ein ’Bewusstsein’ gut, das so beschränkt und unzuverlässig die ’Gesamtlage’ repräsentiert?

Und dann gibt es da ein richtiges ’Bewusstseins-Paradox’: während die Ereignisse im Gehirn sich physikalisch-chemisch beschreiben lassen als Stoffwechselprozesse oder als elektrische Potentiale, die entstehen und vergehen, hat der einzelne Mensch in seinem Bewusstsein subjektive Erlebnisse, die wir mit ’Farben’ beschreiben können, ’Formen’, ’Gerüchen’, ’Klängen’ usw. Die Philosophen sprechen hier gerne von ’Qualia’ oder einfach von ’Phänomenen’. Diese Worte sind aber ziemlich beliebig; sie erklären nichts. Das Paradox liegt darin, dass auf der Ebene der Neuronen Ereignisse, die visuelle Ereignisse repräsentieren oder akustische oder olfaktorische usw.
physikalisch-chemisch genau gleich beschaffen sind. Aus dem Messen der neuronalen Signale alleine könnte man nicht herleiten, ob es sich um visuelle, akustische usw. Phänomene im Kontext eines Bewusstseins handelt. Subjektiv erleben wir aber unterschiedliche Qualitäten so, dass wir mittels Sprache darauf Bezug nehmen können.
Ein eigentümliches Phänomen.

Ein anderes Paradox ist der sogenannte ’freie Wille’. Die Vorstellung, dass wir einen ’freien Willen’ haben, mit dem wir unser Verhalten autonom bestimmten können, ist im kulturellen Wissen tief verankert. Bedenkt man die prekäre Rolle des Gehirns in der Körper-Galaxie, dazu die Beschränkung des Bewusstseins auf nur Teile der Gehirnereignisse, dann tut man sich schwer mit der Vorstellung, dass der einzelne Mensch über sein Bewusstsein irgendwie ’substantiell’ Einfluss auf das Geschehen seiner Körper-Galaxie nehmen kann.

Gerade die Gehirnforschung konnte uns immer mehr Beispiele bringen, wie eine Vielzahl von chemischen Botenstoffen über das Blut direkten Einfluss auf das Gehirn nehmen kann. Zusätzlich hatte schon viel früher die Psychologie (und Psychoanalyse?) an vielen Beispielen verdeutlichen können, dass wir Menschen durch falsche Wahrnehmung, durch falsche Erinnerungen und durch falsche gedanklichen Überlegungen, durch Triebe, Bedürfnisse, Emotionen und Gefühle unterschiedlichster Art das ’Falsche’ tun können.

Alle diese Faktoren können offensichtlich unsere unterstellte Freiheit beeinflussen und erschweren, können sie sie aber grundsätzlich aufheben?

Es gibt zahllose Beispiele von Menschen, die trotz vielfältigster körperlicher, psychischer und sozialer Erschwernisse Dinge getan haben, die die scheinbare Unausweichlichkeit solcher unterstellter Kausalitäten individuell unterbrochen und aufgehoben haben und zu Handlungen und Lebensverläufen gekommen sind, die
man als Indizien dafür nehmen kann, dass der Komplex ’Bewusstsein’ und ’freier Wille’ eventuell noch mehr überraschende Eigenschaften besitzt, als sie in der aktuellen – eher mechanistischen – Betrachtungsweise sichtbar werden.

Der Autor dieser Zeilen geht davon aus, dass es sogar ziemlich sicher solche weiteren Aspekte gibt, die bislang nur deshalb noch nicht Eingang in die Diskussion gefunden haben, weil die Theoriebildung im Bereich der Super-Galaxien der Körper und dann noch umfassender der gesamten  biologischen Evolution noch nicht allzu weit
fortgeschritten ist. Sie steht noch ziemlich am Anfang.

V. ANHANG : RECHENVORSCHRIFTEN

Für die einfachen Rechnungen habe ich die Sprache python (Siehe Rossum (2017) [RPDT17]) in Version 3.5.2 benutzt.

# hscomplex.py
# author: Gerd Doeben-Henisch
# idea: comparing the complexity of humans (homo sapiens, hs) with the milky way galaxy
# See paper: cognitiveagent.org, February-18, 2018

#######################
# IMPORT MODULES
########################
import math
#########################
# GLOBAL VALUES
##########################
bodycells = 37200000000000
inbodycells = 100000000000000
milkyway = 300000000000
bodygalaxy=bodycells+inbodycells
gliacells = 100000000000
ratioglianeuron = 1/1
neurons = gliacells *ratioglianeuron
braincells = neurons + gliacells
#########################
# CALCULATIONS
##########################
bodygalaxymilkywayunits=bodygalaxy/milkyway

print(’Number of Milky Way Objects possible within Body-Galaxy =’,bodygalaxymilkywayunits)
percentmilkywaybody=milkyway/(bodygalaxy/100)
print(’Percentage of Milky Way object within Body-Galaxy =’,percentmilkywaybody)
percentbrainbody=braincells/(bodygalaxy/100)
print(’Percentage of Brain object within Body-Galaxy =’, percentbrainbody)
percentbodybact=bodycells/(bodygalaxy/100)
print(’Percentage of body cells within body-galaxy =’,percentbodybact)
radiusinbody=math.sqrt((inbodycells/math.pi)*4)/2
radiusmilkyway=math.sqrt((milkyway/math.pi)*4)/2
radiusbodygalaxy=math.sqrt((bodygalaxy/math.pi)*4)/2
radiusinbodybodygalaxy=radiusinbody/radiusbodygalaxy
print(’Proportion of radius inbody cells to radius body galaxy =’,radiusinbodybodygalaxy)
radiusmilkywaybodygalaxy=radiusmilkyway/radiusbodygalaxy
print(’Proportion of radius milky way to radius body galaxy =’, radiusmilkywaybodygalaxy)
radiusbrain=math.sqrt((braincells/math.pi)*4)/2
radiusbraincellsbodygalaxy=radiusbrain/radiusbodygalaxy
print(’Proportion of radius brain to radius body galaxy =’, radiusbraincellsbodygalaxy)

VI. ANHANG : AUSFÜHRUNG VON RECHENVORSCHRIFTEN

(eml) gerd@Doeben-Henisch: ̃/environments/eml/nat$ python hscomplex.py
Number of Milky Way Objects possible within Body-Galaxy = 457.3333333333333
Percentage of Milky Way object within Body-Galaxy = 0.21865889212827988
Percentage of Brain object within Body-Galaxy = 0.1457725947521866
Percentage of body cells within body-galaxy = 27.113702623906704
Proportion of radius inbody cells to radius body galaxy = 0.8537347209531384
Proportion of radius milky way to radius body galaxy = 0.04676097647914122
Proportion of radius brain to radius body galaxy = 0.038180177416060626

QUELLEN

[AJL + 15] B. Alberts, A. Johnson, J. Lewis, D. Morgan, M. Raff, K. Roberts, and P. Walter. Molecular Biology of the Cell. Garland Science,
Taylor & Francis Group, LLC, Abington (UK) – New York, 6 edition, 2015.
[BS06] Niels Birbaumer and Robert F. Schmidt. Biologische Psychologie. Springer, Heidelberg, 6 edition, 2006.
[Keg15] Bernhard Kegel. Die Herrscher der Welt. DuMont, Köln (DE), 1 edition, 2015.
[Mas15] Maggie Masetti. How many stars in the milky way? blueshift, 2015. https://asd.gsfc.nasa.gov/blueshift/index.php/2015/07/22/how-
many-stars-in-the-milky-way.
[RPDT17] Guido van Rossum and Python-Development-Team. The Python Language Reference, Release 3.6.3. Python Software Foundation,
Email: docs@python.org, 1 edition, 2017. https://docs.python.org/3/download.html.
[vBBHH16] Christopher S. von Bartheld, Jami Bahney, and Suzana Herculano-Houzel. The search for true numbers of neurons and glial cells
in the human brain: A review of 150 years of cell counting. Journal of Comparative Neurology, 524(18):3865–3895, 2016.

KONTEXT BLOG

Einen Überblick über alle Blogeinträge von Autor cagent nach Titeln findet sich HIER.

Einen Überblick über alle Themenbereiche des Blogs findet sich HIER.

Das aktuelle Publikationsinteresse des Blogs findet sich HIER

WENN DAS STERBEN EINE BOTSCHAFT IST – IST DAS LEBEN NICHT WEIT. Gedanken anlässlich des Todes einer Freundin.

Vorbemerkung: Für diejenigen, die nicht daran gewöhnt sind, die Dinge des Lebens neben den Gefühlen auch mit Wissen zu betrachten, ist dieser Text vielleicht nicht hilfreich. Für diejenigen aber, die nach Antworten auf ihre Fragen suchen, kann der Text vielleicht die eine oder andere Anregung geben.

IM ALLTAG

  1. Wenn ein Mensch stirbt eingeflochten in ein lebendiges Netzwerk von Familie, Verwandtschaft, Freundschaften und Bekanntschaften, dann ist dies ein Ereignis, das nicht nur singulär, individuell an einem Ort, zu einem Zeitpunkt, isoliert von allem stattfindet; nein, alle anderen erleben es mit, registrieren es; dieses Erleben breitet sich aus wie eine Erregungswelle und löst sehr unterschiedliche Wirkungen aus.

  2. In diesem Fall der Freundin ging eine lange Krankengeschichte voraus, ein Gehirntumor war entdeckt worden. Nach dem Wissensstand der heutigen Schulmedizin galt er als unheilbar, weil man bislang kein Mittel gefunden hatte, ein solches Wachstum ernsthaft zu stoppen. Trotz aller Maßnahmen wurde immer mehr klar, was dies konkret heißt: zunehmender Verfall von Gehirn und Körperfunktionen. In den letzten Monaten war der Körper zwar noch da, aber die gewohnten geistigen Funktionen waren kaum noch wahrnehmbar. Bis zu dem Moment, wo die Ärzte dann nur noch den endgültigen körperlichen Tod feststellen konnten.

  3. An dieser Stelle ist es müßig, darüber zu diskutieren, ob es nicht irgendwie, irgendwo doch noch möglich gewesen wäre, das bekannte Leben zu verlängern oder gar ganz zu retten. Im Fall der Freundin hat das bekannte Leben aufgehört, für uns, die wir noch in diesem körperbasierten Leben anwesend sind.

DAS UNABÄNDERLICHE

  1. Unwillkürlich tauchen die Bilder einer Beerdigung auf, alle werden da sein, der Behälter mit der Asche wird das letzte sein, was wir sehen werden, bevor dieser sich in die Erde absenkt und die letzte Spur ihres Körpers unseren Sinnen entschwindet.

  2. Egal was jeder einzelne in diesem Moment denken wird, dieser Moment hat für einen Moment etwas Unabänderliches: unsere Freundin ist so, wie wir sie all die Jahre erleben durften, gegangen, gegangen worden… und zum aktuellen Zeitpunkt müssen wir davon ausgehen, dass jeder von uns ihr, in nicht allzu ferner Zeit, folgen wird, jeder, vielleicht bin ich selbst sogar der nächste, der folgt. Und wenn ich es nicht bin, dann ist es ein lieber anderer Freund oder Freundin. Die Handschrift des Sterbens durchzieht unser Leben sehr tief, sehr unweigerlich, noch sehr unfassbar.

TRAUER

  1. Mit Blick auf unsere Freundin, auf die noch lebendigen Erinnerungen an ihre gewohnte Gegenwart, ist Trauer natürlich, menschlich, eine Form von Nähe, von innerer Umarmung, von Verweilen, von Gemeinsamkeit mit allen anderen, die auch trauern. Gemeinsam trauern ist wie gemeinsam in der Musik etwas erleben. Wir erleben uns als eine Gemeinschaft, als die Gemeinschaft, die die Erinnerung an die Freundin teilt.

  2. Man kann es bei der Trauer belassen, bei den bleibenden Erinnerungen an ihren lebenspendenden trockenen Humor, ihre unaufdringliche Hilfsbereitschaft bei so vielen Gelegenheiten, ihre konkrete Sorge für die Familie und alle anderen, und vieles mehr …

NICHT DIE GANZE GESCHICHTE …

  1. Doch, es wäre schade, würde das Erleben an diesem Punkt verweilen, stille stehen. Der Vorgang des körperlichen Sterbens, so wie wir ihn erleben und wie die Menschen von Anbeginn es erlebt haben, dieser Vorgang ist nur ein kleiner Teil einer unfassbaren Geschichte, von der Geschichte eines unfassbaren Wunders, das seit Milliarden Jahren in den Tiefen unseres Universums stattfindet.

IM STERBEN OPFER

  1. Als bekannt wurde, dass unsere Freundin einen Gehirntumor hat, der unheilbar sein soll (nach heutigem Kenntnisstand), und wir alle (und ihre Familie ganz besonders) dann erfuhren, wie das Gehirn und damit nach und nach alle Körperfunktionen, abstarben, da erlebte die Freundin sich als hilflos, ja, man darf es wohl auch so sehen, als Opfer von Prozessen in ihrem Körper, denen gegenüber sie sich ohnmächtig empfand. Etwas in ihr veränderte ihren Körper und sie selbst erlebte sich dadurch immer mehr eingeschränkt, begrenzter, schwächer, immer mehr anders als bisher.

DER HAUCH DES GANZ GROSSEN

  1. Von der Wissenschaft wissen wir, dass allein unser menschliches Gehirn gut 200 Milliarden Zellen umfasst, 200 Mrd Individuen, die autonom sein können, dies sind etwa so viele Gehirnzellen, wie es Sterne in unserer Heimatgalaxie, der Milchstraße, gibt. Die Verbindungen zwischen den Gehirnzellen sind aber um das tausendfache komplexer, als jene zwischen den Sternen. Mehr noch, unser ganzer menschlicher Körper besteht aus etwa 1000 solcher Zellgalaxien, also insgesamt ca. 35 Billionen (10^12) Zellen. 1000 Galaxien in unserem menschlichen Körper, das übersteigt zur Zeit unsere Vorstellungsfähigkeit bei weitem (das menschliche Arbeitsgedächtnis kann etwa 7+/-2 Wahrnehmungseinheiten gleichzeitig bewusst verarbeiten!). Und selbst die Wissenschaft, die bisher Großes geleistet hat, steht bislang in allen interessanten Fragen noch eher ratlos vor diesem gigantischen Geschehen. Ernsthaft verstehen können wir aktuell noch so gut wie gar nichts. Die aktuelle Schulmedizin steht noch ziemlich am Anfang.

STÖRUNG DER KOOPERATION

  1. Wenn wir also konstatieren, dass bestimmte Zellen im Gehirn irgendwann anfangen, sich der gewohnten Arbeitsteilung zu entziehen, wenn sie anfangen, eine Kommunikation zu entwickeln, die nur noch dem Fortbestand dieser speziellen Zellen dient und nicht mehr dem Gesamtkunstwerk dessen, was wir ein Gehirn nennen, dann können wir dies als Störung auffassen, die, je nach Verlauf, das gesamte System aus dem Takt bringen kann. Wir erleben es als Krankheit, die zum Versagen des ganzen Körpers führen kann, das, was wir körperlichen Tod nennen.

  2. Man kann hier viele Fragen und Überlegungen anstellen. Die zentrale Frage ist natürlich, warum Zellen plötzlich die gewohnte Kooperation verweigern? Was veranlasst Zellen dazu, ihre Kommunikation, ihr Verhalten zu ändern? Und wenn es irgendwelche Zellen tun können, kann man fragen, warum es nicht noch mehr Zellen tun? Warum verweigern nicht noch viel mehr Zellen die Kommunikation mit dem Gesamtsystem? Dies wiederum kann man in die Frage transformieren, was überhaupt autonome Zellen dazu bringt, mit anderen zu kooperieren?

DAS WUNDER DER KOOPERATION

  1. Aus der Geschichte des Lebens wissen wir, dass es von den ersten einzelnen Zellen bis zu einfachen Zellverbänden ca. 2 Mrd Jahre gebraucht hat, und dann nochmals ca. 1 Mrd Jahre bis zu komplexen Lebewesen. Dies kann man als Hinweis darauf deuten, dass die Fähigkeit der Kooperation zwischen einzelnen Zellen nichts Triviales, nichts Einfaches ist, kein Selbstgänger. Die Bildung einzelner Zellen ist bis heute nicht vollständig aufgehellt und gilt als extrem komplex. Der Weg von ersten Zellen zu kooperierenden Zellen war aber offensichtlich 6-8 mal aufwendiger (nimmt man die aufgewendete Zeit als Indikator).

  2. Die molekularen Prozesse des Wachstums von Organismen sind zwar mittlerweile weiter erforscht, aber noch nicht vollständig verstanden. Dies zeigt sich auch daran, dass wir die Erhaltungsprozesse eines Körpers (wie werden in den 1000 Galaxien des Körpers einzelnen Zellen systemkonform ersetzt, Stoffwechselprozesse abgestimmt, fremde Eindringlinge erkannt und unschädlich gemacht, usw.) noch nicht genügend verstehen, noch weniger jene Prozesse, durch die sich die Zellen untereinander verabreden, ihre Arbeit ganz einzustellen (Dies ist der Fall des normalen Todes ohne spezielle Krankheiten). Vom Grundkonzept her könnten die 1000 Galaxien des menschlichen Körpers unendlich lange leben (vorausgesetzt, es gäbe eine passende Umgebung). Da aber dieses unfassbare Wunderwerk der 1000 Galaxien auf Kommunikationsprozessen beruht, die zwischen den Galaxien und den einzelnen Zellen ablaufen, müsste diese Kommunikation dauerhaft fehlerfrei funktionieren, was im Normalfall weitgehend funktioniert, weil diese Kommunikation fehlertolerant ist. Störungen, Rauschen, Fehler können in der Regel aufgefangen und ausgeglichen werden. Ein fantastisches System. Wenn Menschen 100 Jahre und älter werden, dann haben die 1000 Galaxien eines Körpers mehr geleistet, als alle menschliche Ingenieurkunst zusammen bislang geleistet hat. Im Moment wären wir nicht in der Lage, vom verfügbaren Wissen aus, vergleichbare Systeme zu bauen.

DER MENSCH FREMDELT MIT SICH SELBST

  1. Dies führt zum eigentlichen Punkt dieser Betrachtung.

  2. Während ein Mensch lebt, sind wir zwar immer wieder mal irgendwie beeindruckt, was ein Mensch so leisten kann, aber diese Beeindruckung hat deutliche Grenzen. Bei großen künstlerischen, sportlichen oder wissenschaftlichen Leistungen gibt es vielleicht Momente des Schauderns, aber so richtig, tiefgehend, radikal lassen sich Menschen selten von sich selbst (von den anderen Lebensformen reden wir hier noch gar nicht) beeindrucken. Wie auch, bei 6 oder mehr Mrd Menschen auf der Erde, angesichts von Überbevölkerung, Migrationsströmen, Reich-Arm Schismen, beständigen grausamen Bürgerkriegen irgendwo auf der Erde, da gibt es wenig Motive sich über das Wunderwerk der menschlichen Lebensform zu wundern.

  3. Der normale Mensch weiß in der Regel zu wenig über die Grundlagen des Lebens und selbst die Wissenschaften sind aufgespalten in lauter Teildisziplinen, haben das Wunderwerk in Disziplinen fragmentiert, so dass Zusammenhänge nur schwierig sichtbar werden.

  4. Wenn dann ein Mensch stirbt, ein lieber Mensch, wie unsere Freundin, und wir zuletzt nur noch das Gefäß mit ihrer Asche sehen werden, dann trägt dieser Eindruck des Totalzerfalls auch nicht gerade dazu bei, das strahlende Licht zu erkennen, das sich im Phänomen des Lebens auf der Erde seit ca. 3.8 Mrd Jahren manifestiert.

ANGEBORENE DENKSCHWÄCHE

  1. Dazu trägt auch eine Eigenart des menschlichen Gehirns bei, deren wir uns in der Regel nicht bewusst sind, und die auch selbst in der Wissenschaft bislang – scheint mir – zu wenig beachtet wird: unser Denken (eine Eigenschaft des Gehirns) zerlegt die Welt der Erfahrung in Objekte, die zwar irgendwie zusammen hängen, sich beständig in vielfältigen Wechselwirkungen befinden, aber unser Denken nimmt nur die Objekte als eigentliche Realität wahr, nicht die vielsagenden Wechselwirkungen. Die erlebbaren Beziehungen und Wechselwirkungen lassen sich nicht aus ihren Bestandteilen, den Objekten, ableiten. Der eigenständige Charakter der Wechselwirkungen, der Dynamiken, kann von unserem Denken nicht Objekthaft, statisch gedacht werden. Obwohl auch in mathematischen Modellen und Strukturen Objekte alleine nichtssagend, bedeutungslos sind, und erst unter Hinzunahme von Beziehungen und Wechselwirkungen zum Leben erwachen, kann unser Denken im Normalbetrieb diese Dynamiken nicht als die mögliche primäre Wirklichkeit erkennen.

JENSEITS DES STERNENSTAUBS

  1. Vor diesem Hintergrund kann die Asche in der Urne mit den Atomen nicht die letzte Botschaft sein. Zwar ist diese Asche nach heutigem Wissensstand auch im wahrsten Sinne des Wortes Sternenstaub, da alle Atome aus dem Universum stammen, wobei insbesondere die schweren Atome der biologischen Moleküle aus Sternexplosionen stammen, aus den Fusionsprozessen in diesen Sternen hervor gegangen sind.

  2. Aber mehr noch als der Sternenstaub in der Urne sollte uns beeindrucken, was vorher geschehen ist: dass in einem extrem unscheinbaren Winkel des Universums inmitten eines lebensfeindlichen Kontextes sich Atome zu Molekülen geformt haben, Moleküle zu Zellen, Zellverbände zu Organismen, Organismen zu Populationen mit immer komplexeren Kommunikationen und Interaktionen, Technologien, für die es nicht nur bislang keine Naturgesetze gibt, sondern die bekannten Phänomene des Lebens scheinen auf den ersten Blick sogar den bekannten Gesetzen fundamental zu widersprechen.

NICHTS AUS NICHTS

  1. Da nach einem bekannten Grundsatz aus Nichts nichts entstehen kann, wirft das Phänomen des Lebens als Dynamik jenseits seiner Elemente die Frage nach dem auf, was in der Lage ist, die Materie und die verfügbare Energie in einer Weise zu formieren, die in Richtung einer unfassbar anwachsenden Komplexität weist, die alle bekannten physikalischen und chemischen Parameter bei weitem in den Schatten stellt. Die aktuelle Physik und Chemie ist gigantisch, aber die manifesten Phänomene des Lebens sind weit gigantischer und transzendieren die physikalisch-chemischen Kategorien. Im Gesamtphänomen des biologischen Lebens manifestiert sich etwas, was alle unsere bisherigen Denkmodelle arm aussehen lässt (obgleich es gerade diese arm erscheinenden Denkmodelle sind, die uns in der Lage versetzen, die Umrisse eines unfassbar größeren Phänomens zu erahnen).

  2. Soweit wir heute wissen, hatten die Menschen seit vielen Jahrtausenden (mehr als 25.000 Jahre?) Gefühle, Stimmungen, mystische Erfahrungen, die sich nur schwer in das Gesamtgeschehen einordnen ließen. Jede Zeit hat ihren Beitrag geliefert, diese Erfahrungen ins Gesamt des Verstehens einzuordnen (nicht zuletzt auch die bekannten großen Offenbarungsreligionen). Mit den neuen wissenschaftlichen Erkenntnissen kann man darüber nachdenken, dass ein solches gigantisches Phänomen wie das biologische Leben (quanten-)physikalisch eine gemeinsame Basis in allem hat, was eine Abgrenzung des einzelnen Systems von allem anderen unmöglich macht. Abgrenzbare Objekte sind Artefakte unseres aktuellen Denkens. In der physikalischen Realität gibt es keine wirklich abgetrennten Unterräume; alles kommuniziert mit allem; alles ist in beständiger Bewegung. Das – bislang noch nicht wirklich verstandene – Phänomen des Lebens kommt aus der Tiefe der Raum-Zeit als dasjenige, was immer schon da gewesen sein muss, das was über allgegenwärtig ist, das, was sich dort manifestiert, wo es entsprechende materielle Bedingungen vorfindet, bzw. arrangieren kann. Dass die letzten, tiefsten, mystischen Gefühle mit dieser Grundwirklichkeit des Lebens zusammen hängen könnten, ist eine interessante (empirische) Hypothese. Wenn sie wahr wäre, könnte jeder sie für sich ohne Zuhilfenahme von irgendetwas anderem direkt ausprobieren. Das Leben gehört niemandem. Das Leben ist absolut souverän.

  3. Wenn dem so wäre, dann wäre jeder körperliche Tod kein wirklicher Tod, kein absolutes Ende. Die Versuche, das körperliche Leben zu verlängern wären aber auch nicht sinnlos. Irgendwie scheint es einen tieferen Sinn zu machen, dem – ansonsten unsichtbaren – Leben eine körperliche Hülle zu geben, durch die es sichtbar wird, aufscheint, und immer mehr an Kraft gewinnt, das Körperliche (Materielle) weiter zu verändern. Die Entstehung von Materie aus Energie, wäre dann zu lesen als eine Geschichte, in der Materie entsteht, um sie auf lange Sicht in einen Zustand zu transformieren, den wir noch nicht kennen.

  4. Geburt und Tod sind die Meilensteine eines individuellen Lebens, die Gelegenheit geben, sich seiner Rolle im Ganzen bewusst zu werden.

Eine Übersicht über alle Blogbeiträge des Autors cagent nach Titeln findet sich HIER.

SEMIOTIK UND KÜNSTLICHE INTELLIGENZ. EIN VIELVERSPRECHENDES TEAM. Nachschrift eines Vortrags an der Universität Passau am 22.Okt.2015

KONTEXT

  1. Im Rahmen der interdisziplinären Ringvorlesung Grenzen (Wintersemester 2015/16) an der Universität Passau (organisiert von der Deutsche Gesellschaft für Semiotik (DGS) e.V. in Kooperation mit der Professur für Neuere deutsche Literaturwissenschaft und Mediensemiotik (Prof. Dr. Jan-Oliver Decker und Dr. Stefan Halft) hatte ich einen Vortrag angenommen mit dem Titel Semiotik und künstliche Intelligenz. Ein vielversprechendes Team. Wie immer halte ich Vorträge immer zu Fragen, die ich bis dahin noch nicht ausgearbeitet hatte und nutze diese Herausforderung, es dann endlich mal zu tun.
  2. Die Atmosphäre beim Vortrag war sehr gut und die anschließenden Gespräche brachte viele interessanten Aspekte zutage, was wir im Rahmen der DGS noch tun sollten/ könnten, um das Thema weiter zu vertiefen.

MOTIV – WARUM DIESES THEMA

  1. Angesichts der vielfältigen Geschichte der Semiotik könnte man natürlich ganze Abende nur mit Geschichten über die Semiotik füllen. Desgleichen im Fall der künstlichen Intelligenz [KI]. Der Auslöser für das Thema war dann auch der spezielle Umstand, dass im Bereich der KI seit etwa den 80iger Jahren des 20.Jahrhunderts in einigen Forschungsprojekten das Thema Semiotik ganz neu auftaucht, und nicht als Randthema sondern verantwortlich für die zentralen Begriffe dieser Forschungen. Gemeint sind die berühmten Roboterexperimente von Luc Steels (ähnlich auch aufgegriffen von anderen, z.B. Paul Vogt) (siehe Quellen unten).
  2. Unter dem Eindruck großer Probleme in der klassischen KI, die aus einem mangelnden direkten Weltbezug resultierten (das sogenannte grounding Problem) versuchte Steels, Probleme des Zeichen- und Sprachlernens mit Hilfe von Robotern zu lösen, die mit ihren Sensoren direkten Kontakt zur empirischen Welt haben und die mit ihren Aktoren auch direkt auf die Welt zurück wirken können. Ihre internen Verarbeitungsprozesse können auf diese Weise abhängig gemacht werden (eine Form von grounding) von der realen Welt (man spricht hier auch von embodied intelligence).
  3. Obwohl Steels (wie auch Vogt) auf ungewöhnliche Weise grundlegende Begriffe der Semiotik einführen, wird dieser semiotische Ansatz aber nicht weiter reflektiert. Auch findet nicht wirklich eine Diskussion des Gesamtansatzes statt, der aus dieser Kombination von Semiotik und Robotik/ KI entsteht bzw. entstehen könnte. Dies ist schade. Der Vortrag Semiotik und künstliche Intelligenz. Ein vielversprechendes Team stellt einen Versuch dar, heraus zu arbeiten, warum die Kombination Semiotik und KI nicht nur Sinn macht, sondern eigentlich das Zeug hätte, zu einem zentralen Forschungsparadigma für die Zukunft zu werden. Tatsächlich liegt dem Emerging Mind Projekt, das hier im Blog schon öfters erwähnt wurde und am 10.November 2015 offiziell eröffnet werden wird, genau dieses Semiotik-KI-Paradigma zugrunde.

WELCHE SEMIOTIK?

  1. Wer Wörterbücher zur Semiotik aufschlägt (z.B. das von Noeth 2000), wird schnell bemerken, dass es eine große Vielfalt von Semiotikern, semiotischen Blickweisen, Methoden und Theorieansätze gibt, aber eben nicht die eine große Theorie. Dies muss nicht unbedingt negativ sein, zumal dann nicht, wenn wir ein reiches Phänomen vor uns haben, das sich eben einer einfachen Theoriebildung widersetzt. Für die Praxis allerdings, wenn man Semiotik in einer realen Theoriebildung einsetzen möchte, benötigt man verbindliche Anknüpfungspunkte, auf die man sich bezieht. Wie kann man solch eine Entscheidung motivieren?
  2. Aus der Sicht der Wissenschaftsphilosophie biete es sich an, die unterschiedlichen Zugangsweisen zur Erfahrung und und Beschreibung von Wirklichkeit als quasi Koordinatensystem zu wählen, diesem einige der bekanntesten semiotischen Ansätze zu zuordnen und dann zu schaue, welche dieser semiotischen Positionen der Aufgabenstellung am nächsten kommen. Von einer Gesamttheorie her betrachtet sind natürlich alle Ansätze wichtig. Eine Auswahl bzw. Gewichtung kann nur pragmatische Gründe haben.

ZUGÄNGE ZUR WIRKLICHKEIT

  1. Grundsätzlich gibt es aus heutiger Sicht zwei Zugangsweisen: über den intersubjektiven (empirischen) Bereich und über das subjektive Erleben.
  2. Innerhalb des empirischen Bereichs gab es lange Zeit nur den Bereich des beobachtbaren Verhaltens [SR] (in der Psychologie) ohne die inneren Zustände des Systems; seit ca. 50-60 Jahren eröffnen die Neurowissenschaften auch einen Zugriff auf die Vorgänge im Gehirn. Will man beide Datenbereiche korrelieren, dann gerät man in das Gebiet der Neuropsychologie [NNSR].
  3. Der Zugang zur Wirklichkeit über den subjektiven Bereich – innerhalb der Philosophie auch als phänomenologischer Zugang bekannt – hat den Vorteil einer Direktheit und Unmittelbarkeit und eines großen Reichtums an Phänomenen.
  4. Was den meisten Menschen nicht bewusst ist, ist die Tatsache, dass die empirischen Phänomene nicht wirklich außerhalb des Bewusstseins liegen. Die Gegenstände in der Zwischenkörperzone (der empirische Bereich) sind als Gegenstände zwar (was wir alle unterstellen) außerhalb des Bewusstseins, aber die Phänomene, die sie im Bewusstsein erzeugen, sind nicht außerhalb, sondern im Bewusstsein. Das, was die empirischen Phänomene [PH_em] von den Phänomenen, unterscheidet, die nicht empirisch [PH_nem] sind, ist die Eigenschaft, dass sie mit etwas in der Zwischenkörperwelt korrespondieren, was auch von anderen Menschen wahrgenommen werden kann. Dadurch lässt sich im Falle von empirischen Phänomenen relativ leicht Einigkeit zwischen verschiedenen Kommunikationsteilnehmern über die jeweils korrespondierenden Gegenstände/ Ereignisse erzielen.
  5. Bei nicht-empirischen Phänomenen ist unklar, ob und wie man eine Einigkeit erzielen kann, da man nicht in den Kopf der anderen Person hineinschauen kann und von daher nie genau weiß, was die andere Person meint, wenn sie etwas Bestimmtes sagt.
  6. Die Beziehung zwischen Phänomenen des Bewusstseins [PH] und Eigenschaften des Gehirns – hier global als NN abgekürzt – ist von anderer Art. Nach heutigem Wissensstand müssen wir davon ausgehen, dass alle Phänomene des Bewusstseins mit Eigenschaften des Gehirns korrelieren. Aus dieser Sicht wirkt das Bewusstsein wie eine Schnittstelle zum Gehirn. Eine Untersuchung der Beziehungen zwischen Tatsachen des Bewusstseins [PH] und Eigenschaften des Gehirns [NN] würde in eine Disziplin fallen, die es so noch nicht wirklich gibt, die Neurophänomenologie [NNPH] (analog zur Neuropsychologie).
  7. Der Stärke des Bewusstseins in Sachen Direktheit korrespondiert eine deutliche Schwäche: im Bewusstsein hat man zwar Phänomene, aber man hat keinen Zugang zu ihrer Entstehung! Wenn man ein Objekt sieht, das wie eine Flasche aussieht, und man die deutsche Sprache gelernt hat, dann wird man sich erinnern, dass es dafür das Wort Flasche gibt. Man konstatiert, dass man sich an dieses Wort in diesem Kontext erinnert, man kann aber in diesem Augenblick weder verstehen, wie es zu dieser Erinnerung kommt, noch weiß man vorher, ob man sich erinnern wird. Man könnte in einem Bild sagen: das Bewusstsein verhält sich hier wie eine Kinoleinwand, es konstatiert, wenn etwas auf der Leinwand ist, aber es weiß vorher nicht, ob etwas auf die Leinwand kommen wird, wie es kommt, und nicht was kommen wird. So gesehen umfasst das Bewusstsein nur einen verschwindend kleinen Teil dessen, was wir potentiell wissen (können).

AUSGEWÄHLTE SEMIOTIKER

  1. Nach diesem kurzen Ausflug in die Wissenschaftsphilosophie und bevor hier einzelne Semiotiker herausgegriffen werden, sei eine minimale Charakterisierung dessen gegeben, was ein Zeichen sein soll. Minimal deshalb, weil alle semiotischen Richtungen, diese minimalen Elemente, diese Grundstruktur eines Zeichens, gemeinsam haben.
  2. Diese Grundstruktur enthält drei Komponenten: (i) etwas, was als Zeichenmaterial [ZM] dienen kann, (ii) etwas, das als Nichtzeichenmaterial [NZM] fungieren kann, und (iii) etwas, das eine Beziehung/ Relation/ Abbildung Z zwischen Zeichen- und Nicht-Zeichen-Material in der Art repräsentiert, dass die Abbildung Z dem Zeichenmaterial ZM nicht-Zeichen-Material NZM zuordnet. Je nachdem, in welchen Kontext man diese Grundstruktur eines Zeichens einbettet, bekommen die einzelnen Elemente eine unterschiedliche Bedeutung.
  3. Dies soll am Beispiel von drei Semiotikern illustriert werden, die mit dem zuvor charakterisierten Zugängen zur Wirklichkeit korrespondieren: Charles William Morris (1901 – 1979), Ferdinand de Saussure (1857-1913) und Charles Santiago Sanders Peirce (1839 – 1914) .
  4. Morris, der jüngste von den Dreien, ist im Bereich eines empirischen Verhaltensansatzes zu positionieren, der dem verhaltensorientierten Ansatz der modernen empirischen Psychologie nahe kommt. In diesem verhaltensbasierten Ansatz kann man die Zeichengrundstruktur so interpretieren, dass dem Zeichenmaterial ZM etwas in der empirischen Zwischenwelt korrespondiert (z.B. ein Laut), dem Nicht-Zeichen-Material NZM etwas anderes in der empirischen Außenwelt (ein Objekt, ein Ereignis, …), und die Zeichenbeziehung Z kommt nicht in der empirischen Welt direkt vor, sondern ist im Zeichenbenutzer zu verorten. Wie diese Zeichenbeziehung Z im Benutzer tatsächlich realisiert ist, war zu seiner Zeit empirische noch nicht zugänglich und spielt für den Zeichenbegriff auch weiter keine Rolle. Auf der Basis von empirischen Verhaltensdaten kann die Psychologie beliebige Modellannahmen über die inneren Zustände des handelnden Systems machen. Sie müssen nur die Anforderung erfüllen, mit den empirischen Verhaltensdaten kompatibel zu sein. Ein halbes Jahrhundert nach Morris kann man anfangen, die psychologischen Modellannahmen über die Systemzustände mit neurowissenschaftlichen Daten abzugleichen, sozusagen in einem integrierten interdisziplinären neuropsychologischen Theorieansatz.
  5. Saussure, der zweit Jüngste von den Dreien hat als Sprachwissenschaftler mit den Sprachen primär ein empirisches Objekt, er spricht aber in seinen allgemeinen Überlegungen über das Zeichen in einer bewusstseinsorientierten Weise. Beim Zeichenmaterial ZM spricht er z.B. von einem Lautbild als einem Phänomen des Bewusstseins, entsprechend von dem Nicht-Zeichenmaterial auch von einer Vorstellung im Bewusstsein. Bezüglich der Zeichenbeziehung M stellt er fest, dass diese außerhalb des Bewusstseins liegt; sie wird vom Gehirn bereit gestellt. Aus Sicht des Bewusstseins tritt diese Beziehung nur indirekt in Erscheinung.
  6. Peirce, der älteste von den Dreien, ist noch ganz in der introspektiven, phänomenologischen Sicht verankert. Er verortet alle drei Komponenten der Zeichen-Grundstruktur im Bewusstsein. So genial und anregend seine Schriften im einzelnen sind, so führt diese Zugangsweise über das Bewusstsein zu großen Problemen in der Interpretation seiner Schriften (was sich in der großen Bandbreite der Interpretationen ausdrückt wie auch in den nicht selten geradezu widersprüchlichen Positionen).
  7. Für das weitere Vorgehen wird in diesem Vortrag der empirische Standpunkt (Verhalten + Gehirn) gewählt und dieser wird mit der Position der künstlichen Intelligenz ins Gespräch gebracht. Damit wird der direkte Zugang über das Bewusstsein nicht vollständig ausgeschlossen, sondern nur zurück gestellt. In einer vollständigen Theorie müsste man auch die nicht-empirischen Bewusstseinsdaten integrieren.

SPRACHSPIEL

  1. Ergänzend zu dem bisher Gesagten müssen jetzt noch drei weitere Begriffe eingeführt werden, um alle Zutaten für das neue Paradigma Semiotik & KI zur Verfügung zu haben. Dies sind die Begriffe Sprachspiel, Intelligenz sowie Lernen.
  2. Der Begriff Sprachspiel wird auch von Luc Steels bei seinen Roboterexperimenten benutzt. Über den Begriff des Zeichens hinaus erlaubt der Begriff des Sprachspiels den dynamischen Kontext des Zeichengebrauchs besser zu erfassen.
  3. Steels verweist als Quelle für den Begriff des Sprachspiels auf Ludwig Josef Johann Wittgenstein (1889-1951), der in seiner Frühphase zunächst die Ideen der modernen formalen Logik und Mathematik aufgriff und mit seinem tractatus logico philosophicus das Ideal einer am logischen Paradigma orientierten Sprache skizzierte. Viele Jahre später begann er neu über die normale Sprache nachzudenken und wurde sich selbst zum schärfsten Kritiker. In jahrelangen Analysen von alltäglichen Sprachsituationen entwickelte er ein facettenreiches Bild der Alltagssprache als ein Spiel, in dem Teilnehmer nach Regeln Zeichenmaterial ZM und Nicht-Zeichen-Material NZM miteinander verknüpfen. Dabei spielt die jeweilige Situation als Kontext eine Rolle. Dies bedeutet, das gleiche Zeichenmaterial kann je nach Kontext unterschiedlich wirken. Auf jeden Fall bietet das Konzept des Sprachspiels die Möglichkeit, den ansonsten statischen Zeichenbegriff in einen Prozess einzubetten.
  4. Aber auch im Fall des Sprachspielkonzepts benutzt Steels zwar den Begriff Sprachspiel, reflektiert ihn aber nicht soweit, dass daraus ein explizites übergreifendes theoretisches Paradigma sichtbar wird.
  5. Für die Vision eines neuen Forschungsparadigmas Semiotik & KI soll also in der ersten Phase die Grundstruktur des Zeichenbegriffs im Kontext der empirischen Wissenschaften mit dem Sprachspielkonzept von Wittgenstein (1953) verknüpft werden.

INTELLIGENZ

  1. Im Vorfeld eines Workshops der Intelligent Systems Division des NIST 2000 gab es eine lange Diskussion zwischen vielen Beteiligten, wie man denn die Intelligenz von Maschinen messen sollte. In meiner Wahrnehmung verhedderte sich die Diskussion darin, dass damals nach immer neuen Klassifikationen und Typologien für die Architektur der technischen Systeme gesucht wurde, anstatt das zu tun, was die Psychologie schon seit fast 100 Jahren getan hatte, nämlich auf das Verhalten und dessen Eigenschaften zu schauen. Ich habe mich in den folgenden Jahren immer wieder mit der Frage des geeigneten Standpunkts auseinandergesetzt. In einem Konferenzbeitrag von 2010 (zusammen mit anderen, insbesondere mit Louwrence Erasmus) habe ich dann dafür argumentiert, das Problem durch Übernahme des Ansatzes der Psychologie zu lösen.
  2. Die Psychologie hatte mit Binet (1905), Stern (1912 sowie Wechsler (1939) eine grundsätzliche Methode gefunden hatte, die Intelligenz, die man nicht sehen konnte, indirekt durch Rückgriff auf Eigenschaften des beobachtbaren Verhaltens zu messen (bekannt duch den Begriff des Intelligenz-Quotienten, IQ). Die Grundidee bestand darin, dass zu einer bestimmten Zeit in einer bestimmten Kultur bestimmte Eigenschaften als charakteristisch für ein Verhalten angesehen werden, das man allgemein als intelligent bezeichnen würde. Dies impliziert zwar grundsätzlich eine gewisse Relativierung des Begriffs Intelligenz (was eine Öffnung dahingehend impliziert, dass zu anderen Zeiten unter anderen Umständen noch ganz neue Eigenschaftskomplexe bedeutsam werden können!), aber macht Intelligenz grundsätzlich katalogisierbar und damit messbar.
  3. Ein Nebeneffekt der Bezugnahme auf Verhaltenseigenschaften findet sich in der damit möglichen Nivellierung der zu messenden potentiellen Strukturen in jenen Systemen, denen wir Intelligenz zusprechen wollen. D.h. aus Sicht der Intelligenzmessung ist es egal ob das zu messende System eine Pflanze, ein Tier, ein Mensch oder eine Maschine ist. Damit wird – zumindest im Rahmen des vorausgesetzten Intelligenzbegriffs – entscheidbar, ob und in welchem Ausmaß eine Maschine möglicherweise intelligent ist.
  4. Damit eignet sich dieses Vorgehen auch, um mögliche Vergleiche zwischen menschlichem und maschinellem Verhalten in diesem Bereich zu ermöglichen. Für das Projekt des Semiotk & KI-Paradigmas ist dies sehr hilfreich.

LERNEN

  1. An dieser Stelle ist es wichtig, deutlich zu machen, dass Intelligenz nicht notwendigerweise ein Lernen impliziert und Lernen nicht notwendigerweise eine Intelligenz! Eine Maschine (z.B. ein schachspielender Computer) kann sehr viele Eigenschaften eines intelligenten Schachspielers zeigen (bis dahin, dass der Computer Großmeister oder gar Weltmeister besiegen kann), aber sie muss deswegen nicht notwendigerweise auch lernfähig sein. Dies ist möglich, wenn erfahrene Experten hinreichend viel Wissen in Form eines geeigneten Programms in den Computer eingeschrieben haben, so dass die Maschine aufgrund dieses Programms auf alle Anforderungen sehr gut reagieren kann. Von sich aus könnte der Computer dann nicht dazu lernen.
  2. Bei Tieren und Menschen (und Pflanzen?) gehen wir von einer grundlegenden Lernfähigkeit aus. Bezogen auf das beobachtbare Verhalten können wir die Fähigkeit zu Lernen dadurch charakterisieren, dass ein System bis zu einem Zeitpunkt t bei einem bestimmten Reiz s nicht mit einem Verhalten r antwortet, nach dem Zeitpunkt t aber dann plötzlich doch, und dieses neue Verhalten über längere Zeit beibehält. Zeigt ein System eine solche Verhaltensdynamik, dann darf man unterstellen, dass das System in der Lage ist, seine inneren Zustände IS auf geeignete Weise zu verändern (geschrieben: phi: I x IS —> IS x O (mit der Bedeutung I := Input (Reize, Stimulus s), O := Output (Verhaltensantworten, Reaktion r), IS := interne Zustände, phi := Name für die beobachtbare Dynamik).
  3. Verfügt ein System über solch eine grundlegende Lernfähigkeit (die eine unterschiedlich reiche Ausprägung haben kann), dann kann es sich im Prinzip alle möglichen Verhaltenseigenschaften aneignen/ erwerben/ erlernen und damit im oben beschriebenen Sinne intelligent werden. Allerdings gibt es keine Garantie, dass eine Lernfähigkeit notwendigerweise zu einer bestimmten Intelligenz führen muss. Viele Menschen, die die grundsätzliche Fähigkeit besitzen, Schachspielen oder Musizieren oder Sprachen zu lernen,  nutzen diese ihre Fähigkeiten niemals aus; sie verzichten damit auf Formen intelligenten Verhaltens, die ihnen aber grundsätzlich offen stehen.
  4. Wir fordern also, dass die Lernfähigkeit Teil des Semiotik & KI-Paradigmas sein soll.

LERNENDE MASCHINEN

  1. Während die meisten Menschen heute Computern ein gewisses intelligentes Verhalten nicht absprechen würden, sind sie sich mit der grundlegenden Lernfähigkeit unsicher. Sind Computer im echten Sinne (so wie junge Tiere oder menschliche Kinder) lernfähig?
  2. Um diese Frage grundsätzlich beantworten zu können, müsste man ein allgemeines Konzept von einem Computer haben, eines, das alle heute und in der Zukunft existierende und möglicherweise in Existenz kommende Computer in den charakteristischen Eigenschaften erschöpfend beschreibt. Dies führt zur Vor-Frage nach dem allgemeinsten Kriterium für Computer.
  3. Historisch führt die Frage eigentlich direkt zu einer Arbeit von Turing (1936/7), in der er den Unentscheidbarkeitsbeweis von Kurt Gödel (1931) mit anderen Mitteln nochmals nachvollzogen hatte. Dazu muss man wissen, dass es für einen formal-logischen Beweis wichtig ist, dass die beim Beweis zur Anwendung kommenden Mittel, vollständig transparent sein müssen, sie müssen konstruktiv sein, was bedeutet, sie müssen endlich sein oder effektiv berechenbar. Zum Ende des 19.Jh und am Anfang des 20.Jh gab es zu dieser Fragestellung eine intensive Diskussion.
  4. Turing wählte im Kontrast zu Gödel keine Elemente der Zahlentheorie für seinen Beweis, sondern nahm sich das Verhalten eines Büroangestellten zum Vorbild: jemand schreibt mit einem Stift einzelne Zeichen auf ein Blatt Papier. Diese kann man einzeln lesen oder überschreiben. Diese Vorgabe übersetze er in die Beschreibung einer möglichst einfachen Maschine, die ihm zu Ehren später Turingmaschine genannt wurde (für eine Beschreibung der Elemente einer Turingmaschine siehe HIER). Eine solche Turingmaschine lässt sich dann zu einer universellen Turingmaschine [UTM] erweitern, indem man das Programm einer anderen (sekundären) Turingmaschine auf das Band einer primären Turingmaschine schreibt. Die primäre Turingmaschine kann dann nicht nur das Programm der sekundären Maschine ausführen, sondern kann es auch beliebig abändern.
  5. In diesem Zusammenhang interessant ist, dass der intuitive Begriff der Berechenbarkeit Anfang der 30ige Jahre des 20.Jh gleich dreimal unabhängig voneinander formal präzisiert worden ist (1933 Gödel und Herbrand definierten die allgemein rekursiven Funktionen; 1936 Church den Lambda-Kalkül; 1936 Turing die a-Maschine für ‚automatische Maschine‘, später Turing-Maschine). Alle drei Formalisierungen konnten formal als äquivalent bewiesen werden. Dies führte zur sogenannten Church-Turing These, dass alles, was effektiv berechnet werden kann, mit einem dieser drei Formalismen (also auch mit der Turingmaschine) berechnet werden kann. Andererseits lässt sich diese Church-Turing These selbst nicht beweisen. Nach nunmehr fast 80 Jahren nimmt aber jeder Experte im Feld an, dass die Church-Turing These stimmt, da bis heute keine Gegenbeispiele gefunden werden konnten.
  6. Mit diesem Wissen um ein allgemeines formales Konzept von Computern kann man die Frage nach der generellen Lernfähigkeit von Computern dahingehend beantworten, dass Computer, die Turing-maschinen-kompatibel sind, ihre inneren Zustände (im Falle einer universellen Turingmaschine) beliebig abändern können und damit die Grundforderung nach Lernfähigkeit erfüllen.

LERNFÄHIGE UND INTELLIGENTE MASCHINEN?

  1. Die Preisfrage stellt sich, wie eine universelle Turingmaschine, die grundsätzlich lernfähig ist, herausfinden kann, welche der möglichen Zustände interessant genug sind, um damit zu einem intelligenten Verhalten zu kommen?
  2. Diese Frage nach der möglichen Intelligenz führt zur Frage der verfügbaren Kriterien für Intelligenz: woher soll eine lernfähige Maschine wissen, was sie lernen soll?
  3. Im Fall biologischer Systeme wissen wir mittlerweile, dass die lernfähigen Strukturen als solche dumm sind, dass aber durch die schiere Menge an Zufallsexperimenten ein Teil dieser Experimente zu Strukturen geführt hat, die bzgl. bestimmter Erfolgskriterien besser waren als andere. Durch die Fähigkeit, die jeweils erfolgreichen Strukturen in Form von Informationseinheiten zu speichern, die dann bei der nächsten Reproduktion erinnert werden konnten, konnten sich die relativen Erfolge behaupten.
  4. Turing-kompatible Computer können speichern und kodieren, sie brauchen allerdings noch Erfolgskriterien, um zu einem zielgerichtete Lernen zu kommen.

LERNENDE SEMIOTISCHE MASCHINEN

  1. Mit all diesen Zutaten kann man jetzt lernende semiotische Maschinen konstruieren, d.h. Maschinen, die in der Lage sind, den Gebrauch von Zeichen im Kontext eines Prozesses, zu erlernen. Das dazu notwendige Verhalten gilt als ein Beispiel für intelligentes Verhaltens.
  2. Es ist hier nicht der Ort, jetzt die Details solcher Sprach-Lern-Spiele auszubreiten. Es sei nur soviel gesagt, dass man – abschwächend zum Paradigma von Steels – hier voraussetzt, dass es schon mindestens eine Sprache L und einen kundigen Sprachteilnehmer gibt (der Lehrer), von dem andere Systeme (die Schüler), die diese Sprache L noch nicht kennen, die Sprache L lernen können. Diese Schüler können dann begrenzt neue Lehrer werden.
  3. Zum Erlernen (Training) einer Sprache L benötigt man einen definierten Kontext (eine Welt), in dem Lehrer und Schüler auftreten und durch Interaktionen ihr Wissen teilen.
  4. In einer Evaluationsphase (Testphase), kann dann jeweils überprüft werden, ob die Schüler etwas gelernt haben, und wieviel.
  5. Den Lernerfolge einer ganzen Serie von Lernexperimenten (ein Experiment besteht aus einem Training – Test Paar) kann man dann in Form einer Lernkurve darstellen. Diese zeigt entlang der Zeitachse, ob die Intelligenzleistung sich verändert hat, und wie.
  6. Gestaltet man die Lernwelt als eine interaktive Softwarewelt, bei der Computerprogramme genauso wie Roboter oder Menschen mitwirken können, dann kann man sowohl Menschen als Lehrer benutzen wie auch Menschen im Wettbewerb mit intelligenten Maschinen antreten lassen oder intelligente Maschinen als Lehrer oder man kann auch hybride Teams formen.
  7. Die Erfahrungen zeigen, dass die Konstruktion von intelligenten Maschinen, die menschenähnliche Verhaltensweisen lernen sollen, die konstruierenden Menschen dazu anregen, ihr eigenes Verhalten sehr gründlich zu reflektieren, nicht nur technisch, sondern sogar philosophisch.

EMERGING MIND PROJEKT

  1. Die zuvor geschilderten Überlegungen haben dazu geführt, dass ab 10.November 2015 im INM Frankfurt ein öffentliches Forschungsprojekt gestartet werden soll, das Emerging Mind Projekt heißt, und das zum Ziel hat, eine solche Umgebung für lernende semiotische Maschinen bereit zu stellen, mit der man solche semiotischen Prozesse zwischen Menschen und lernfähigen intelligenten Maschinen erforschen kann.

QUELLEN

  • Binet, A., Les idees modernes sur les enfants, 1909
  • Doeben-Henisch, G.; Bauer-Wersing, U.; Erasmus, L.; Schrader,U.; Wagner, W. [2008] Interdisciplinary Engineering of Intelligent Systems. Some Methodological Issues. Conference Proceedings of the workshop Modelling Adaptive And Cognitive Systems (ADAPCOG 2008) as part of the Joint Conferences of SBIA’2008 (the 19th Brazilian Symposium on Articial Intelligence); SBRN’2008 (the 10th Brazilian Symposium on Neural Networks); and JRI’2008 (the Intelligent Robotic Journey) at Salvador (Brazil) Oct-26 – Oct-30(PDF HIER)
  • Gödel, K. Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I, In: Monatshefte Math.Phys., vol.38(1931),pp:175-198
  • Charles W. Morris, Foundations of the Theory of Signs (1938)
  • Charles W. Morris (1946). Signs, Language and Behavior. New York: Prentice-Hall, 1946. Reprinted, New York: George Braziller, 1955. Reprinted in Charles Morris, Writings on the General Theory of Signs (The Hague: Mouton, 1971), pp. 73-397. /* Charles William Morris (1901-1979) */
  • Charles W. Morris, Signication and Signicance (1964)
  • NIST: Intelligent Systems Division: http://www.nist.gov/el/isd/
  • Winfried Noth: Handbuch der Semiotik. 2., vollständig neu bearbeitete Auflage. Metzler, Stuttgart/Weimar 2000
  • Charles Santiago Sanders Peirce (1839-1914) war ein US-amerikanischer Mathematiker, Philosoph und Logiker. Peirce gehort neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus; außerdem gilt er als Begründer der modernen Semiotik. Zur ersten Einführung siehe: https://de.wikipedia.org/wiki/Charles Sanders Peirce Collected Papers of Charles Sanders Peirce. Bände I-VI hrsg. von Charles Hartshorne und Paul Weiss, 1931{1935; Bände VII-VIII hrsg. von Arthur W. Burks 1958. University Press, Harvard, Cambridge/Mass. 1931{1958
  • Writings of Charles S. Peirce. A Chronological Edition. Hrsg. vom Peirce Edition Project. Indiana University Press,Indianapolis, Bloomington 1982. (Bisher Bände 1{6 und 8, geplant 30 Bände)
  • Saussure, F. de. Grundfragen der Allgemeinen Sprachwissenschaft, 2nd ed., German translation of the original posthumously publication of the Cours de linguistic general from 1916 by H.Lommel, Berlin: Walter de Gruyter & Co., 1967
  • Saussure, F. de. Course in General Linguistics, English translation of the original posthumously publication of the Cours de linguistic general from 1916, London: Fontana, 1974
  • Saussure, F. de. Cours de linguistique general, Edition Critique Par Rudolf Engler, Tome 1,Wiesbaden: Otto Harrassowitz, 1989 /*This is the critical edition of the dierent sources around the original posthumously publication of the Cours de linguistic general from 1916. */
  • Steels, Luc (1995): A Self-Organizing Spatial Vocabulary. Articial Life, 2(3), S. 319-332
  • Steels, Luc (1997): Synthesising the origins of language and meaning using co-evolution, self-organisation and level formation. In: Hurford, J., C.Knight und M.Studdert-Kennedy (Hrsg.). Edinburgh: Edinburgh Univ. Press.

  • Steels, Luc (2001): Language Games for Autonomous Robots. IEEE Intelligent Systems, 16(5), S. 16-22. Steels, Luc (2003):

  • Evolving grounded Communication for Robots. Trends in Cognitive Science, 7(7), S. 308-312.

  • Steels, Luc (2003): Intelligence with Representation. Philosophical Transactions of the Royal Society A, 1811(361), S. 2381-2395.

  • Steels, Luc (2008): The symbol grounding problem has been solved, so what’s next?. In M. de Vega, Symbols and Embodiment: Debates on Meaning and Cognition. Oxford: Oxford University Press, S. 223-244.
  • Steels, Luc (2012): Grounding Language through Evolutionary Language Games. In: Language Grounding in Robots. Springer US, S. 1-22.

  • Steels, Luc (2015), The Talking Heads experiment: Origins of words and meanings, Series: Computational Models of Language Evolution 1. Berlin: Language Science Press.
  • Stern, W., Die psychologischen Methoden der Intelligenzprüfung und deren Anwendung an Schulkindern, Leipzig: Barth, 1912

  • Turing, A. M. On Computable Numbers with an Application to the Entscheidungsproblem. In: Proc. London Math. Soc., Ser.2, vol.42(1936), pp.230-265; received May 25, 1936; Appendix added August 28; read November 12, 1936; corr. Ibid. vol.43(1937), pp.544-546. Turing’s paper appeared in Part 2 of vol.42 which was issued in December 1936 (Reprint in M.DAVIS 1965, pp.116-151; corr. ibid. pp.151-154).(an online version at: http://www.comlab.ox.ac.uk/activities/ieg/elibrary/sources/tp2-ie.pdf, last accesss Sept-30, 2012)

  • Turing, A.M. Computing machinery and intelligence. Mind, 59, 433-460. 1950

  • Turing, A.M.; Intelligence Service. Schriften, ed. by Dotzler, B.; Kittler, F.; Berlin: Brinkmann & Bose, 1987, ISBN 3-922660-2-3

  • Vogt, P. The physical symbol grounding problem, in: Cognitive Systems Research, 3(2002)429-457, Elsevier Science B.V.
  • Vogt, P.; Coumans, H. Investigating social interaction strategies for bootstrapping lexicon development, Journal of Articial Societies and Social Simulation 6(1), 2003

  • Wechsler, D., The Measurement of Adult Intelligence, Baltimore, 1939, (3. Auage 1944)

  • Wittgenstein, L.; Tractatus Logico-Philosophicus, 1921/1922 /* Während des Ersten Weltkriegs geschrieben, wurde das Werk 1918 vollendet. Es erschien mit Unterstützung von Bertrand Russell zunächst 1921 in Wilhelm Ostwalds Annalen der Naturphilosophie. Diese von Wittgenstein nicht gegengelesene Fassung enthielt grobe Fehler. Eine korrigierte, zweisprachige Ausgabe (deutsch/englisch) erschien 1922 bei Kegan Paul, Trench, Trubner und Co. in London und gilt als die offizielle Fassung. Die englische Übersetzung stammte von C. K. Ogden und Frank Ramsey. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Tractatus logicophilosophicus*/

  • Wittgenstein, L.; Philosophische Untersuchungen,1936-1946, publiziert 1953 /* Die Philosophischen Untersuchungen sind Ludwig Wittgensteins spätes, zweites Hauptwerk. Es übten einen außerordentlichen Einfluss auf die Philosophie der 2. Hälfte des 20. Jahrhunderts aus; zu erwähnen ist die Sprechakttheorie von Austin und Searle sowie der Erlanger Konstruktivismus (Paul Lorenzen, Kuno Lorenz). Das Buch richtet sich gegen das Ideal einer logik-orientierten Sprache, die neben Russell und Carnap Wittgenstein selbst in seinem ersten Hauptwerk vertreten hatte. Das Buch ist in den Jahren 1936-1946 entstanden, wurde aber erst 1953, nach dem Tod des Autors, veröffentlicht. Siehe einführend Wikipedia-DE: https://de.wikipedia.org/wiki/Philosophische Untersuchungen*/

Eine Übersicht über alle Blogeinträge des Autors cagent nach Titeln findet sich HIER