Archiv der Kategorie: chatGPT

Kollektive Mensch-Maschine Intelligenz im Kontext nachhaltiger Entwicklung. Brauchen wir ein neues Menschenbild? Vorlesung für AG ENIGMA im Rahmen von U3L der Goethe Universität

Entstehungszeit: 2.Nov 2023 – 6.Jan 2023

Autor: Gerd Doeben-Henisch

Email: gerd@doeben-henisch.de

KONTEXT

Der folgende Text ist die nachträgliche Verschriftlichung einer Vorlesung, die der Autor für die Internet-Arbeitsgruppe ENIGMA [3] der U3L [1,2] der Goethe-Universität Frankfurt am 10.November 2023 gehalten hat. Er stellt eine Weiterentwicklung eines Konferenzbeitrags dar, der bei de Gruyter veröffentlicht wurde: Kollektive Mensch-Maschine-Intelligenz und Text-Generierung. Eine transdisziplinäre Analyse (2023). Man kann auch alle anderen Beiträge (open access) herunterladen.

Der Ankündigungstext lautet:

Kollektive Mensch-Maschine Intelligenz im Kontext
nachhaltiger Entwicklung – Brauchen wir ein neues
Menschenbild?


Prof. Dr. Gerd Doeben-Henisch, Frankfurt University
of Applied Sciences


Die Zeichen der Zeit stehen auf ‚Digitalisierung‘. Schon ist es selbstver-
ständlich, alles, was ‚digital‘ ist, auch mit den Worten ‚smart‘ bzw.‚
intelligent‘ zu verknüpfen. ‚Künstliche Intelligenz‘, ja, natürlich, wer fragt
da noch nach … und wir Menschen, war da nicht was? Gab es nicht
solche Worte wie ‚Geist‘, ‚Rationalität‘, ‚Intelligenz‘ im Umfeld des
Menschen, ‚Wille‘ und ‚Gefühle‘? Ja, es gab eine Zeit, da sahen die
Menschen sich selbst als ‚Krone der Schöpfung‘ … Und jetzt? Eine
Sprachlosigkeit greift um sich; der ‚Schöpfer‘ des Digitalen scheint vor
seinem Werk zu erstarren …

[1] Home u3l: https://www.uni-frankfurt.de/122411224/U3L_Home?

[2] Vorlesungsverzeichnis u3l-WS2023: https://www.uni-frankfurt.de/141923421/programm-ws-2023-24.pdf

[3] Flyer der Vorlesungsreihe WS23/24: https://www.uni-frankfurt.de/144405162.pdf

Zusammenfassung

Die Vorlesung greift zunächst den Kontext der Digitalisierung auf und macht die grundlegenden Strukturen deutlich. Das Eindringen von digitalen Technologien und deren Nutzung im Alltag ist schon jetzt sehr tiefgreifend. Gesellschaftlich spielt die sprachliche Kommunikation für alle Menschen und alle Abläufe eine zentrale Rolle. Literarischen und wissenschaftlichen Kommunikationsformaten kommt hierbei eine besondere Rolle zu. Am Beispiel der neuen Algorithmen für Text-Generierung (wie z.B. chatGPT) wird mit Bezug auf wissenschaftliche Kommunikationformate gezeigt, wie deutlich begrenzt die algorithmische Text-Generierung noch ist. Für alle drängenden Zukunftsaufgaben kann sie den Menschen aufgrund prinzipieller Grenzen nicht ersetzen. Die weitere Ausgestaltung algorithmischer Technologien muss an diesen gesellschaftlichen Herausforderungen gemessen und entsprechend verbessert werden.

INHALTSVERZEICHNIS

  1. EINLEITUNG
  2. DIGITALISIERUNG
    2.1 DAS INTERNET
    2.2 DIE GESELLSCHAFT
  3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN
  4. GESELLSCHAFT – SPRACHE – LITERATUR
  5. SPRACHE UND BEDEUTUNG
  6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT
  7. EMPIRISCHE THEORIE
  8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN
  9. Epilog

1. EINLEITUNG

Der Titel dieser Vorlesung repräsentiert letztlich das Forschungsparadigma, innerhalb dessen sich der Autor seit ca. 5-6 Jahren bewegt hat. Das Motiv war — und ist –, die üblicherweise isolierten Themen ‚Kollektives menschliches Verhalten‘, ‚Künstliche Intelligenz‘ sowie ‚Nachhaltige Entwicklung‘ zu einer kohärenten Formel zu vereinigen. Dass dies nicht ohne Folgen für das ‚Menschenbild‘ bleiben würde, so wie wir Menschen uns selbst sehen, klang unausgesprochen immer schon zwischen den Zeilen mit.

Die Integration der beiden Themen ‚kollektives menschliches Verhalten‘ sowie ’nachhaltige Entwicklung‘ konnte der Autor schon im Jahr 2022 vollziehen. Dazu musste der Begriff ‚Nachhaltige Entwicklung‘ re-analysiert werden. Was sowohl im Umfeld des Forschungsprojektes Nachhaltige Intelligenz – intelligente Nachhaltigkeit [1] stattfand wie auch in einer sich über 7 Semester erstreckende multidisziplinären Lehrveranstaltung an der Frankfurt University of Applied Sciences mit dem Titel Citizen Science für Nachhaltige Entwicklung.[2]

Die Integration des Themas Künstliche Intelligenz mit den beiden anderen Themen erwies sich als schwieriger. Dies nicht, weil das Thema künstliche Intelligenz so schwer war, sondern weil sich eine brauchbare Charakterisierung von künstlicher Intelligenz Technologie mit Blick auf die Bedürfnisse einer Gesellschaft als schwer erwies: bezogen auf welche Anforderungen einer Gesellschaft sollte man den Beitrag einer künstlichen Intelligenz gewichten?

Hier kamen zwei Ereignisse zu Hilfe: Im November 2022 stellte die US-Firma openAI eine neue Generation von Text-Generatoren vor [3], was zu einer bis dahin nie gekannten Publikations-Explosion führte: Gefühlt jeder fühlte sich angesprochen, nutzte das Werkzeug, und es gab vielstimmige Meinungsäußerung. In folge davon konnte der Autor sich bei einer Konferenz an der TU-Darmstadt beteiligen mit dem Titel Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren (KI:Text) [4]. Hier wurde aus Sicht von 18 Perspektiven versucht, die mögliche Einsetzbarkeit von Text-Generatoren am Beispiel konkreter Text-Arten zu untersuchen. Diese Konferenz stimulierte den Plan, das Setting Text – chatGPT zu übernehmen und es durch Spezialisierung der Text-Variablen auf Literatur und insbesondere wissenschaftliche Theorien zu konkretisieren. Erste Überlegungen in diese Richtungen finden sich hier. [5]

Im Nachklang zu diesen Überlegungen bot es sich an, diese Gedanken im Vortrag für die Arbeitsgruppe ENIGMA weiter zu präzisieren. Dies ist geschehen und resultierte in diesem Vortrag.

[1] https://zevedi.de/themen/nachhaltige-intelligenz-intelligente-nachhaltigkeit/

[2] Materialien zur 6. und 7.Auflage: https://www.oksimo.org/lehre-2/

[3] Kurze Beschreibung: https://en.wikipedia.org/wiki/ChatGPT

[4] https://zevedi.de/themen/ki-text/

[5] Gerd Doeben-Henisch, 24.Aug 2023, Homo Sapiens: empirische und nachhaltig-empirische Theorien, Emotionen, und Maschinen. Eine Skizze, https://www.cognitiveagent.org/2023/08/24/homo-sapiens-empirische-und-nachhaltig-empirische-theorien-emotionen-und-maschinen-eine-skizze/

2. DIGITALISIERUNG

BILD 1: Überblick zu ‚Digitalisierung einer Gesellschaft‘

Da die ‚Digitalisierung‘ heute gefühlt schon fast alle Bereiche unserer menschlichen Gesellschaft erreicht hat, ist es nicht leicht in dieser Vielfalt einen Standpunkt zu lokalisieren, von dem aus sich sowohl über das Ganze wie auch über einzelne konkrete Themen zu sprechen. [1]

Es bot sich daher an, mit einem vereinfachten Überblick über das Ganze zu starten, so dass eine für alle gleiche Ausgangslage hergestellt werden konnte.

Im Bild 1 kann man den links gelblich-grünen Bereich sehen, der für die Gesellschaft selbst steht, und einen grauen Bereich rechts, der für jene Infrastrukturen steht, die eine Digitalisierung technisch ermöglichen. Beide Bereich sind stark schematisiert.

Die digitale Infrastruktur ist aufgeteilt in ‚Endgeräte‘ und in das eigentliche ‚Internet‘. Letzteres wird unterschieden in den ‚Adressraum‘ und jene Geräte, die über den Adressraum erreicht werden können.

2.1 DAS INTERNET

Kurz wurde auf einige wichtige Eigenschaften des Internets hingewiesen:

  1. Alle beteiligten Geräte setzen sich aus ‚Hardware‘ und ‚Software‘ zusammen. Die Hardware wiederum besteht aus einer Konfiguration von ‚Chips‘, die selbst sehr komplex sind und auch aus Hardware und Software bestehen. Bis zu ca. 80 Firmen können bei der Produktion eines einzelnen Chips beteiligt sein (unter Berücksichtigung der diversen Lieferketten). Die Möglichkeit, dass eine beteiligte Firma ’nicht-intendierte‘ Funktionen in einen Chip einbaut, ohne dass die anderen dies merken, sind prinzipiell gegeben. Die für Chips benötigten speziellen Materialien sind partiell ’selten‘ und nur über einige wenige Staaten beziehbar.
  2. Die ‚Software‘ auf einem Rechner (klein bis groß) zerfällt grob in zwei Typen: (i) jene Software, die die grundlegende Kommunikation mit einer Hardware ermöglicht — das ‚Betriebssystem‘ –, und jene Software, die bestimmte Anwendungen ermöglicht, die mit dem Betriebssystem kommunizieren muss — die Anwendungssoftware, heute auch einfach App genannt –. Betriebssysteme haben heute eine Größe, die vielen Millionen Zeilen Code umfassen. Eine solche Software angemessen auf Dauer zu managen, stellt extreme Anforderungen. Nicht weniger im Fall von Anwendungssoftware.
  3. Sobald Software aktiviert wird, d.h. ein Rechner ändert seine inneren Zustände unter dem Einfluss der Software, wird Energie verbraucht. Der Umfang dieses Energieverbrauchs ist heute noch vielfach extrem hoch.[2]
  4. Ein ‚realer Rechner‘ braucht irgendwo auf diesem Planeten einen ‚realen Ort‘ und gehört eine ‚realen Besitzer‘. Dieser Eigentümer hat prinzipiell den vollen Zugriff auf den Rechner, auf seine Software, auf seine Inhalte. Durch die ‚Gesetze‘ eines Landes, durch ‚Vereinbarungen‘ zwischen Geschäftspartnern kann man den Umgang mit dem Rechner versuchen zu regeln, aber Garantien dafür, dass dann tatsächlich die Prozesse und die Daten ‚geschützt‘ sind, gibt es nicht. Eine von vielen Untersuchungen zur Nutzung von Benutzerdaten konnte am Beispiel von Facebook aufzeigen, dass die Einführung der europäischen Datenschutzverordnung 2021 nahezu keine Wirkung im Bereich der Nutzerdaten von Facebook zeigte. [3,4,5]

[1] Phänomen: Den Wald vor lauter Bäume nicht sehen.

[2] Maximilian Sachse, Das Internet steht unter Strom. KI kann helfen, Emissionen einzusparen — verbraucht aber selbst Unmengen an Energie.FAZ, 31.Okt 2023, S.B3

[3] José González Cabañas, Ángel Cuevas, Aritz Arrate, and Rubén Cuevas. 2020. Does Facebook use sensitive data for advertising purposes? Commun. ACM 64, 1 (January 2021), 62–69. https://doi.org/10.1145/3426361

[4] Eine ausführlichere Analyse der Informationsbeschaffung von Nutzern ohne deren Wissen: Ingo Dachwitz, 08.06.2023, Wie deutsche Firmen am Geschäft mit unseren Daten verdienen. Wenn es um Firmen geht, die pausenlos Daten für Werbezwecke sammeln, denken viele an die USA. Unsere Recherche zeigt, wie tief deutsche Unternehmen inzwischen in das Netzwerk der Datenhändler verwoben sind und dass sie auch heikle Datenkategorien anboten. Beteiligt sind Konzerne wie die Deutsche Telekom und ProSieben Sat1, URL: https://netzpolitik.org/2023/adsquare_theadex_emetriq_werbetracking-wie-deutsche-firmen-am-geschaeft-mit-unseren-daten-verdienen/

[5] Ein aktuelles Beispiel mit Microsoft: Dirk Knop, Ronald Eikenberg, Stefan Wischner, 09.11.2023, Microsoft krallt sich Zugangsdaten: Achtung vor dem neuen Outlook. Das neue kostenlose Outlook ersetzt Mail in Windows, später auch das klassische Outlook. Es schickt geheime Zugangsdaten an Microsoft. c’t Magazin, Heise

2.2 DIE GESELLSCHAFT

Die Charakterisierung der Gesellschaft stellt natürlich auch eine starke Vereinfachung dar. Als wichtige Strukturmerkmale seien hier aber festgehalten:

  1. Es gibt eine Grundverfassung jeder Gesellschaft jenseits von Anarchie die zwischen den beiden Polen ‚Demokratisch‘ und ‚Autokratisch‘ liegt.
  2. Es gibt minimal ‚politische Entscheidungsstrukturen‘, die verantwortlich sind für geltende ‚Gesetze‘ und ‚Normen‘.
  3. Die Schlagader jeder lebendigen Gesellschaft ist aber die ‚Öffentlichkeit durch Kommunikation‘: wenn, dann verbindet Kommunikation die vielen Bürger zu handlungsfähigen Einheiten. Autokratien tendieren dazu, Kommunikation zu ‚instrumentalisieren‘, um die Bürger zu manipulieren. In Demokratien sollte dies nicht der Fall sein. Tatsächlich kann aber die Freiheit einer Demokratie von partikulären Interessen missbraucht werden.[1]
  4. Jeder einzelne Bürger ist als ‚menschlicher Akteur‘ eingewoben in unterschiedliche Kommunikationsbeziehungen, die vielfach durch Einsatz von ‚Medien‘ ermöglicht werden.

[1] Sehr viele interessante Ideen zur Rolle de Öffentlichkeit finden sich in dem Buch Strukturwandel der Öffentlichkeit von Jürgen Habermas, veröffentlicht 1962. Siehe dazu ausführlich den Wikipedia-Eintrag: https://de.wikipedia.org/wiki/Strukturwandel_der_%C3%96ffentlichkeit

[2] Florian Grotz, Wolfgang Schroeder, Anker der Demokratie? Der öffentlich-rechtliche Rundfunk hat einen wesentlichen Beitrag zum Erfolg der deutschen Demokratie geleistet. Derzeit steht er im Kreuzfeuer der Kritik. Wie kann er auch künftig seine Ankerfunktion im demokratischen Mediensystem erfüllen? FAZ 13.Nov 2023, S.6, Siehe auch online (beschränkt): https://www.faz.net/aktuell/politik/die-gegenwart/ard-und-zdf-noch-im-dienst-der-demokratie-19309054.html Anmerkung: Die Autoren beschreiben kenntnisreich die historische Entwicklung des öffentlich-rechtlichen Rundfunks (ÖRR) in drei Phasen. Verschiedene Schwierigkeiten und Herausforderungen heute werden hervor gehoben. Der generelle Tenor in allem ist, dass von ’notwendigen Veränderungen‘ gesprochen wird. Diese werden über die Themen ‚Finanzierung, Programm und Kontrolle‘ ein wenig ausgeführt. Dies sind alles sehr pragmatische Aspekte. Wenn es dann im Schlusssatz heißt „Es geht darum, dass der ÖRR auch in Zukunft eine wichtige Rolle im Dienst der Demokratie spielen kann.“ dann kann man sich als Leser schon fragen, warum ist der ÖRR denn für die Demokratie so wichtig? Finanzen, Programme und Kontrolle sind mögliche pragmatische Teilaspekte, aber eine eigentliche Argumentation ist nicht zu erkennen. Mit Blick auf die Gegenwart, in welcher die ‚Öffentlichkeit‘ in eine Vielzahl von ‚Medienräumen‘ zerfällt, die von unterschiedlichen ‚Narrativen‘ beherrscht werden, die sich gegenseitig auszuschließen scheinen und die ein von einer echten Mehrheit getragenes politisches Handeln unmöglich erscheinen lassen, sind Finanzen, Kontrollen, formale Programmvielfalt nicht unbedingt wichtige konstruktive Kriterien. Der zusätzlich verheerende Einfluss neuer bedeutungsfreier Texte-generierende Technologien wird mit den genannten pragmatischen Kriterien nicht einmal ansatzweise erfasst.

3. DIGITALISIERUNG – SPRACHTECHNOLOGIEN

BILD 2 : Das Enstehen von Sprachtechnologien zur Unterstützung im Umgang mit Sprache

Dem ‚Weltereignis‘ Text-Generatoren im November 2022 gingen viele andere Sprachtechnologien voraus. So unterscheidet man grob:

  1. TTS, T2S , Text-to-Speech, Speechsynthesis: Erste Systeme, die geschriebenen Text in gesprochene Sprache umsetzen konnten. Ab 1968 [1]
  2. S2T, STT , Speech-to-Text: Spracherkennungssysteme, die gesprochene Sprache in geschriebenen Text verwandelt konnten. Ab 1952 [2]
  3. TRANSL , Maschineller Übersetzer: Programme, die von einer Ausgangssprache in eine Zielsprache übersetzen können. Ab 1975. [3]
  4. DIAL , Dialogsysteme: Programme, die mit Menschen Dialoge führen können, um bestimmte Aufgaben zu unterstützen. Ab 1960iger Jahre. [4]
  5. C2T , Command-to-Text: Programme, die anhand von Aufforderungen Texte mit bestimmten Eigenschaften generieren können. Prominent ab November 2022. [5]

Mittlerweile gibt es noch eine Vielzahl anderer Werkzeuge, die im Rahmen der Computerlinguistik zur Arbeit mit Texten angeboten werden.[6]

Diese Beispiele zeigen, dass die Digitalisierung unserer Welt sich auch immer mehr unserer sprachlichen Kommunikation bemächtigt. Vielfach werden diese Werkzeuge als Hilfe, als Unterstützung wahrgenommen, um die menschliche Sprachproduktion besser verstehen und im Vollzug besser unterstützen zu können.

Im Fall der neuen befehlsorientierten Text-Generatoren, die aufgrund interner Datenbanken komplexe Texte generieren können, die für einen Leser ‚wie normale Texte von Menschen‘ daher kommen, wird der Raum der sprachlichen Kommunikation erstmalig von ’nicht-menschlichen‘ Akteuren durchdrungen, die eine stillschweigende Voraussetzung außer Kraft setzen, die bislang immer galt: es gibt plötzlich Autoren, die keine Menschen mehr sind. Dies führt zunehmend zu ernsthaften Irritationen im sprachlichen Diskursraum. Menschliche Autoren geraten in eine ernsthafte Krise: sind wir noch wichtig? Werden wir noch gebraucht? Ist ‚Menschsein‘ mit einem Schlag ‚entwertet‘?

[1] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_synthesis

[2] Erste Einführung hier: https://en.wikipedia.org/wiki/Speech_recognition

[3] Erste Einführung hier: https://en.wikipedia.org/wiki/Machine_translation

[4] Erste Einführung hier: https://en.wikipedia.org/wiki/Dialogue_system

[5] Erste Einführung hier: https://en.wikipedia.org/wiki/ChatGPT

[6] Für eine erste Einführung siehe hier: https://de.wikipedia.org/wiki/Computerlinguistik

4. GESELLSCHAFT – SPRACHE – LITERATUR

BILD 3 : Sprachtechnologien und Literatur

Das Auftreten der neuen Werkzeuge zur Text-Generierung stiftet eine anhaltende Unruhe im Lager der Schriftsteller, der Autoren und der Literaturwissenschaftler.

Ein beeindruckendes Beispiel ist die Analyse von Hannes Bajohr (2022).[1] Er spielt die Varianten durch, was passiert, wenn … Was passiert, wenn sich die Produktion von literarischen Texten mit Text-Generatoren durchsetzt? Wenn es zum Standard wird, dass immer mehr Texte, ganze Romane mit Text-Generatoren erzeugt werden? Und dies sind keine bloßen Träume, sondern solche Texte werden schon produziert; Bajohr selbst hat einen Roman unter Zuhilfenahme eines Text-Generators verfasst.[2]

Eine andere junge Autorin und Kulturwissenschaftlerin, die sich intensiv mit dem neuen Wechselverhältnis von Literatur, digitaler Welt und Text-Generatoren auseinander setzt ist Jenifer Becker.[3] Ihr Debüt-Roman ist aber noch ein Roman ohne Einsatz von künstlichen Texterzeugern. In ihrem Roman spricht sie noch ’selbst‘ als ‚menschliche Autorin‘ und wir damit potentiell zu einer Gesprächspartnerin für ihre Leser: der Andere als potentielles Ich, wobei das ‚eigentliche Ich‘ sich Spiegel des Textes in spannungsvoller Differenz erleben kann.

Angesichts einer digitalisierten Welt, die mehr und mehr zu einer ‚Ereigniswelt‘ wird, in der das ‚Verweilen‘, das ‚Verstehen‘ sich immer mehr abschwächt, verstummt, verliert auch das Individuum seine eigene Kraft und beginnt sich ‚hohl‘ anzufühlen, wo es doch gar nicht hohl ist, nicht hohl sein muss.

Hier setzt die Rede zur Nobelpreisverleihung 2018 für Literatur der polnischen Laureatin Olga Tokarczuk ein. Sie beschreibt als das Wunderbare von Literatur gerade diese einzigartige Fähigkeit von uns Menschen, dass wir mittels Sprache von unserem Innern berichten können, von unserer individuellen Art des Erlebens von Welt, von Zusammenhängen, die wir in dem Vielerlei des Alltags entdecken können, von Prozessen, Gefühlen, von Sinn und Unsinn. [4]

In dieser Eigenschaft ist Literatur durch nichts ersetzbar, bildet Literatur den ‚inneren Herzschlag‘ des Menschlichen auf diesem Planeten.

Aber, und dies sollte uns aufhorchen lassen, dieser wunderbarer Schatz von literarischen Texten wird bedroht durch den Virus der vollständigen Nivellierung, ja geradezu eine vollständigen Auslöschung. Text-Generatoren haben zwar keinerlei Wahrheit, keinerlei realen Bindungen an eine reale Welt, an reale Menschen, keinerlei wirkliche Bedeutung, aber in der Produktion von Texten (und gesprochener Rede) ohne Wahrheit sind sie vollständig frei. Durch ihre hohe Geschwindigkeit der Produktion können sie alle ‚menschliche Literatur‘ in der Masse des Bedeutungslosen aufsaugen, unsichtbar machen, nihilieren.

[1] Hannes Bajohr, 2022, Artifizielle und postartifizielle Texte. Über Literatur und Künstliche Intelligenz. Walter-Höllerer-Vorlesung 2022, 8.Dez. 2022, Technische Universität Berlin , URL: https://hannesbajohr.de/wp-content/uploads/2022/12/Hoellerer-Vorlesung-2022.pdf, Den Hinweis auf diesen Artikel erhielt ich von Jennifer Becker.

[2] Siehe dazu Bajohr selbst: https://hannesbajohr.de/

[3] Jenifer Becker, Zeiten der Langeweile, Hanser, Berlin, 2023. Dazu Besprechung in der Frankfurter Rundschau, 30.8.23, Lisa Berins, Die große Offline-Lüge, https://www.fr.de/kultur/literatur/zeiten-der-langeweile-von-jenifer-beckerdie-grosse-offline-luege-92490183.html

[4] Olga Tokarczuk, 2018, The Tender Narrator, in: Nobel Lecture by Olga Tokarczuk, 2018, Svenska Akademien, URL: https://www.nobelprize.org/uploads/2019/12/tokarczuk-lecture-english-2.pdf

5. SPRACHE UND BEDEUTUNG

BILD 4 : Sprache und Bedeutung

Am Beispiel der ‚menschlichen Literatur‘ klang eben schon an, welch fundamentale Rolle die ‚Bedeutung von Sprache‘ spielt und dass wir Menschen über solch eine Fähigkeit verfügen. Im Schaubild 4 wird veranschaulicht, was es bedeutet, dass Menschen im Alltag scheinbar mühelos Aussagen erzeugen können, die als ‚aktuell zutreffend’/ ‚wahr‘ untereinander akzeptiert werden oder als ‚aktuell nicht zutreffend’/ ‚falsch‘ oder als ‚aktuell unbestimmt‘. Wenn ein konkreter empirischer Sachverhalt gegeben ist (der Hund von Ani, das rote Auto vom Nachbarn Müller, die Butter auf dem Frühstückstisch, …), dann ist eine Einigung zwischen Menschen mit der gleichen Sprache immer möglich.

Was man sich dabei selten bewusst macht ist, welch starke Voraussetzung ‚in einem Menschen‘ gegeben sein müssen, damit er über diese Fähigkeit so leicht verfügen kann.

Die ‚Box‘ im rechten Teil des Diagramms repräsentiert auf einem starken Abstraktionsniveau die wichtigsten Komponenten, über die ein Mensch in seinen inneren Verarbeitungsstrukturen verfügen können muss, damit er mit anderen so sprechen kann. Die Grundannahmen sind folgende:

  1. Eine Außenwahrnehmung der umgebenden (empirischen) Welt.
  2. Alles was wahrgenommen werden kann kann auch in ‚Elemente des Wissens‘ verwandelt werden.
  3. Eine Sonderrolle nimmt die Repräsentation von Elementen der Sprachstruktur ein.
  4. Zwischen den Elementen des Wissens und den Ausdruckselementen kann ein Mensch eine dynamische Abbildungsbeziehung (Bedeutungsbeziehung) aufbauen (Lernen), so dass Wissenselemente auf Ausdruckselemente verweisen und Ausdruckselemente auf Wissenselemente.
  5. Aus Sicht der Ausdruckselemente bildet jenes Wissen, das über eine Abbildung verbunden wird, die ‚Bedeutung‘ der Ausdruckselemente.
  6. Innerhalb des Wissens gibt es zahlreiche unterschiedliche Formen von Wissen: aktuelles Wissen, erinnerbares Wissen, Veränderungswissen, Ziele, und prognostisches Wissen.
  7. Und vieles mehr

Neben Aussagen, die ‚aktuell wahr‘ sein können, verfügt der Mensch aber auch über die Möglichkeit, vielfache Wiederholungen als ‚wahr‘ anzusehen, wenn sie sich immer wider als ‚aktuell wahr‘ erweisen. Dies verweist auf mögliche weitere Formen von möglichen abgeleiteten Wahrheiten, die man vielleicht unter dem Oberbegriff ’strukturelle Wahrheit‘ versammeln könnte.

6. ZÄHMUNG DER BEDEUTUNG – WISSENSCHAFT

BILD 5 : Wissenschaft als Ergänzung von Literatur

Die Ur-Funktion von Literatur, das Gespräch zwischen dem Inneren der Menschen über ihre Welt- und Selbsterfahrung sprechen zu können, indem nicht nur die ‚Oberfläche der Dinge‘, sondern auch die ‚Tiefenstruktur der Phänomene‘ ins Wort kommen können, ist unersetzbar, aber sie leidet im Alltag an der strukturellen Schwäche des möglichen ‚Nicht-Verstehens‘ oder ‚Falsch-Verstehens‘. Während sich über die Dinge des alltäglichen Lebens leicht Einigkeit erzielen lässt, was jeweils gemeint ist, ist das ‚Innere‘ des Menschen eine echte ‚Terra Incognita‘, ein ‚unbekanntes Land‘. In dem Maße, wie wir Menschen im Innern ‚ähnlich‘ erleben und empfinden, kann das Verstehen von ‚Bedeutungen‘ noch ansatzweise gelingen, da wir Menschen aufgrund unserer Körperstrukturen in vielen Dingen ähnliche Erleben, Fühlen, Erinnern und Denken. Aber je spezifischer etwas in unserem Inneren ist, je ‚abstrakter‘ eine Bedeutung wird, umso schwieriger wird die Erfassung einer Rede durch andere. Dies führt dann unabwendbar zum Falsch- oder gar Nicht-Verstehen.

In dem Maße wie wir Menschen aber auf eine ‚tragfähige Erklärung von Welt‘ angewiesen sind, um ‚gemeinsam‘ das ‚Richtige‘ zu tun, in dem Maße wird unsere normale sprachliche Kommunikation, wird Literatur überfordert. Sie will vielleicht, aber sie kann aus sich heraus eine solche Eindeutigkeit nicht ohne weiteres herstellen. Ihre Stärke kann und wird in diesen Bereich zu einer Schwäche.

Vor dem Hintergrund des ‚Überlebens auf dem Planeten‘, des ‚Überlebens im Alltag‘ bildet die Notwendigkeit von ‚wahren Texten‘, die zudem ‚belastbare Prognosen‘ erlauben, eine Kernforderung, die möglicherweise nur eine Teilmenge jener Bedeutungsräume erlaubt, über die Literatur verfügen kann. Aber diese ‚wahren und belastbaren Teilräume‘ bilden jenen ‚harten Boden‘, auf denen sich Menschen quer über alle Kontinente und im Bereich aller Sprachen gründen können.

Diese Art von Texten, deren Existenz von gemeinsamen nachprüfbaren ‚wahren Sachverhalten und Prognosen‘ abhängt, entstand in der Geschichte der Menschheit unter dem Namen ‚empirische Wissenschaft‘ sehr spät.[1] Nach anfänglichen Mühen entwickelte sie sich dann rasant weiter und ist heute zum Standard für nachweisbar wahre und prognosefähige Texte geworden.

Die heutige weltweite Verbreitung von ‚Wissenschaft‘ ist ihr selbst aber mittlerweile zum Problem geworden. Der klare Kern dieser Textform erscheint in der öffentlichen Verwendung der Charakterisierung von ‚Wissenschaft‘ seltsam vage. Der Begriff einer ‚empirischen Theorie‘ ist geradezu verschwunden. Die großen Enzyklopädien dieser Welt kennen diesen Begriff nicht mehr.

Dazu kommt die ‚Altlast‘ der modernen Wissenschaft, dass sie sich schnell zu einer Veranstaltung von ‚Spezialisten‘ entwickelt hat, die ihre ‚eigene Fachsprache‘ sprechen, die zudem vielfach teilweise oder ganz mit ‚mathematischer Sprache‘ arbeiten. Diese führt zunehmend zu einer Ausgrenzung aller anderen Bürger; das ‚Verstehen von Wissenschaft‘ wird für die meisten Menschen zu einer ‚Glaubenssache‘, wo doch Wissenschaft gerade angetreten war, um die ‚Autorität des bloßen Glaubens‘ zu überwinden.

Desweiteren haben wir in den letzten Jahrzehnten mehr und mehr gelernt, was es heißt, den Aspekt ‚Nachhaltiger Entwicklung‘ zu berücksichtigen. Eine Grundbotschaft besteht darin, dass alle Menschen einbezogen werden müssen, um die Entwicklung nicht von einzelnen, kleinen — meist mächtigen — Gruppen dominieren zu lassen. Und von de Entwicklung des Lebens auf diesem Planeten [3] wissen wir, dass das Leben — von dem wir als Menschen ein kleiner Teil sind — in den zurück liegenden ca. 3.5 Milliarden Jahren nur überleben konnten, weil es nicht nur das ‚Alte, Bekannte‘ einfach wiederholt hat, sondern auch immer ‚aus sich echtes Neues‘ heraus gesetzt hat, Neues, von dem man zum Zeitpunkt des Hervorbringens nicht wusste, ob es für die Zukunft brauchbar sein wird.[3,4]

Dies regt dazu an, den Begriff der ‚empirischen Theorie‘ zu aktualisieren und ihn sogar zum Begriff einer ’nachhaltigen empirischen Theorie‘ zu erweitern.

[1] Wenn man als Orientierungspunkt für den Beginn der neuzeitlichen wahrheitsfähigen und prognosefähigen Texte Galileo Galilei (1564 – 1641) und Johannes Kepler ()1571 – 1630) nimmt , dann beginnt der Auftritt dieser Textform im 17./18. Jahrhundert. Siehe hier: https://de.wikipedia.org/wiki/Galileo_Galilei und hier: https://de.wikipedia.org/wiki/Johannes_Kepler

[2] UN. Secretary-General; World Commission on Environment and Development, 1987, Report of the World Commission on Environment and Development : note / by the Secretary General., https://digitallibrary.un.org/record/139811 (accessed: July 20, 2022) (In einem besser lesbaren Format: https://sustainabledevelopment.un.org/content/documents/5987our-common-future.pdf) Anmerkung: Gro Harlem Brundtland (ehemalige Ministerpräsidentin von Norwegen) war die Koordinatorin von diesem Report. 1983 erhielt sie den Auftrag vom Generalsekretär der UN einen solchen Report zu erstellen, 1986 wurde er übergeben und 1987 veröffentlicht. Dieser Text enthält die grundlegenden Ideen für alle weiteren UN-Texte.

Zitat aus dem Vorwort: The fact that we all became wiser, learnt to look across cultural and historical barriers, was essential. There were moments of deep concern and potential crisis, moments of gratitude and achievement, moments of success in building a common analysis and perspective. The result is clearly more global, more realistic, more forward looking than any one of us alone could have created. We joined the Commission with different views and perspectives, different values and beliefs, and very different experiences and insights. After these three years of working together, travelling, listening, and discussing, we present a unanimous report.“ und „Unless we are able to translate our words into a language that can reach the minds and hearts of people young and old, we shall not be able to undertake the extensive social changes needed to correct the course of development.

[3] Gerd Doeben-Henisch, 2016, Sind Visionen nutzlos?, URL: https://www.cognitiveagent.org/2016/10/22/sind-visionen-nutzlos/

[4] Zum Begriff der Evolution siehe hier: https://de.wikipedia.org/wiki/Evolution und hier: https://en.wikipedia.org/wiki/Evolution

7. EMPIRISCHE UND NACHHALTIG EMPIRISCHE THEORIE

BILD 6 : Aktualisierter Begriff von ‚Empirischer Theorie (ET)‘ und ‚Nachhaltiger Empirischer Theorie (NET)‘

Zum ‚aktualisierten Begriff‘ einer empirischen und einer nachhaltig empirischen Theorie gehören die folgenden Elemente:

  1. Die Gruppe der ‚Theorie-Autoren‘ besteht prinzipiell aus allen Menschen, die in ihrer Alltagssprache kommunizieren. Dies ermöglicht von Anfang an maximale Diversität.
  2. Der engere Begriff der ‚Empirischen Theorie‘ umfasst die Elemente ‚IST-Zustand‘, ‚Veränderungs-Wissen‘ sowie einen ‚Folgerungsbegriff‘ in Form eines Wissens, wie man Veränderungswissen auf einen gegebenen Zustand anwendet.
  3. Das ‚Ergebnis einer Folgerung‘ ist ein ’neuer Folge-Zustand‘.
  4. Lässt sich eine Folgerung mehrfach vollziehen dann ensteht eine ‚Folge von Folgezuständen‘, die man heute auch als ‚Simulation‘ bezeichnen kann.

Der IST-Zustand umfasst eine Menge von Ausdrücken einer gewählten Alltagssprache, die so beschaffen sind, dass alle beteiligten Theorie-Autoren sich darüber einigen können, dass diese Ausdrücke unter den angenommenen Bedingungen ‚zutreffen‘, d.h. ‚wahr‘ sind.

Das Veränderungs-Wissen umfasst eine Menge von Ausdrücken, die Veränderungsprozesse beschreiben, die sich ebenfalls unter angegebenen Bedingungen von jedem überprüfen lassen.

Der Folgerungsbegriff ist ein Text, der eine Handlungsbeschreibung umfasst, die beschreibt, wie man eine Veränderungsbeschreibung auf eine gegebene IST-Beschreibung so anwendet, dass daraus ein neuer Text entsteht, der die Veränderung im Text enthält.

Eine empirische Theorie ermöglicht die Erzeugung von Texten, die mögliche Zustände in einer möglichen Zukunft beschreiben. Dies kann mehr als eine Option umfassen.

Im Alltag der Menschen reicht ein bloßes Wissen um ‚Optionen‘ aber nicht aus. Im Alltag müssen wir uns beständig Entscheiden, was wir tun wollen. Für diese Entscheidungen gibt es keine zusätzliche Theorie: für einen menschlichen Entscheidungsprozess ist es bis heute mehr oder weniger ungeklärt, wie er zustande kommt. Es gibt allerdings viele ‚Teil-Theorien‘ und noch mehr ‚Vermutungen‘.

Damit diese ’nicht-rationale Komponente‘ unseres alltäglichen Lebens nicht ‚unsichtbar‘ bleibt, wird hier der Begriff einer nachhaltigen empirischen Theorie vorgeschlagen, in dem zusätzlich zur empirischen Theorie eine Liste von Zielen angenommen wird, die von allen Beteiligten aufgestellt wird. Ob diese Ziele ‚gute‘ Ziele sind, kann man erst wissen, wenn sie sich ‚im weiteren Verlauf‘ ‚bewähren‘ oder eben nicht. Explizite Ziele ermöglichen daher einen ‚gerichteten Lernprozess‘. Explitit formulierte Ziele ermöglichen darüber hinaus eine kontinuierliche Kontrolle, wie sich der aktuelle Handlungsprozess mit Blick auf ein Ziel verhält.

Für die Umsetzung einer nachhaltigen Entwicklung sind nachhaltige empirische Theorien eine unverzichtbare Voraussetzung.

8. WAHRHEIT, PROGNOSE & TEXT-GENERATOREN

BILD 7 : Die potentielle Rolle von Text-Generatoren der Machart 2023 innerhalb eines wissenschaftlichen Diskurses

Für die Bewertung, welche Rolle Textgeneratoren aus dem Jahr 2023 innerhalb eines wissenschaftlichen Diskurses spielen können, kann man ein Gedankenexperiment (und dann natürlich auch real) durchführen, welche der Anforderungen eines wissenschaftlichen Diskurses, die zuvor erläutert worden sind, von einem Text-Generator erfüllt werden können. Das Bild Nr.7 ist eigentlich selbst-erklärend.

Das zentrale Argument besteht darin, dass Text-Generatoren des Jahrgangs 2023 über keinerlei Wissen verfügen, wie es der Mensch besitzt, nahezu keine Wahrnehmung (außer Texteingaben oder Spracheingaben) haben, und dementsprechend auch über keine Bedeutungsfunktion verfügen. Die Unfähigkeit zu ‚wahren Aussagen‘ oder auch der Fähigkeit, entscheiden zu können, ob etwas ‚wahr‘ ist oder nicht, fehlt ebenfalls vollständig.[1]

[1] Ron Brachman, Hector Levesque, Dieser KI können wir nicht trauen, Es gibt ein grundlegendes Problem in der Entwicklung der gegenwärtig angesagten KI-Systeme. Hier kommt ein Vorschlag, wie es besser geht. FAZ, Mo 13.Nov 2023, S.19 . Online (beschränkt) auch hier: https://www.faz.net/aktuell/wirtschaft/unternehmen/chatgpt-co-dieser-ki-koennen-wir-nicht-trauen-19308979.html, Anmerkung 1: Die beiden Autoren nehmen den Boom um chatGPT zum Anlass, vor der gesamten Künstlichen Intelligenz (KI) zu warnen. Sie fokussieren ihre Kritik auf einen Punkt: „Der aktuellen KI-Technologie kann man nicht trauen. … Obwohl sie auf der Grundlage riesiger Datenmengen trainiert werden … machen moderne KI-Systeme bizarre, dumme Fehler. Unvorhersehbare, unmenschliche Fehler.“ Und weiter: „Wir wissen nicht, wann diese Systeme das Richtige tun und wann sie versagen.“ Sie führen im weiteren Verlauf noch aus, dass die aktuelle Architektur dieser Systeme es nicht zulässt, heraus zu finden, was genau die Gründe sind, warum sie entweder richtig oder falsch urteilen. Mit Blick auf den Alltag diagnostizieren sie bei uns Menschen einen ‚gesunden Menschenverstand‘, ein Prototyp von ‚Rationalität‘, und diesen sehen sie bei den KI-Systemen nicht. Sie beschreiben viele Eigenschaften, wie Menschen im Alltag lernen (z.B. mit ‚Überzeugungen‘, ‚Zielen‘ arbeiten, mit ‚Konzepten‘ und ‚Regeln‘, mit ‚echten Fakten‘, …), und stellen fest, dass KI-Systeme für uns erst wirklich nützlich werden, wenn sie über diese Fähigkeiten nachvollziehbar verfügen. Anmerkung 2: Die Autoren sprechen es nicht explizit aus, aber implizit ist klar, dass sie die neuen Text-Generatoren wie chatGPT & Co zu jener KI-Technologie rechnen, die sie in ihrem Beitrag charakterisieren und kritisieren. Wichtig ist, dass Sie in ihrer Kritik Kriterien benutzen, die alltäglich vage sind (‚gesunder Menschenverstand‘), allerdings angereichert mit vielen Alltagsbeispielen. Letztlich machen ihre kritischen Überlegungen aber deutlich, dass es angesichts der neuen KI-Technologien an geeigneten und erprobten Meta-Modellen (‚transdisziplinär‘, ‚wissenschaftsphilosophisch‘, …) mangelt. Man ’spürt‘ ein Ungenügen mit dieser neuen KI-Technologie, kann auch viele Alltagsbeispiele aufzählen, aber es fehlt an einem klaren theoretischen Konzept. Ein solches scheint aber momentan niemand zu haben ….

9. Epilog

Diese Kurzfassung meines Vortags vom 10.November 2023 ist gedacht als ‚Basis‘ für die Erstellung eines umfassenderen Textes, in dem alle diese Gedanken weiter ausgeführt werden, dazu auch mit viel mehr Literatur und vielen realen Beispielen.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.

chatGPT – Wie besoffen muss man sein?

Journal: Philosophie Jetzt – Menschenbild
ISSN 2365-5062, 13.Februar 2023 – 17.April 2023
URL: cognitiveagent.org, Email: info@cognitiveagent.org
Autor: Gerd Doeben-Henisch (cagent@cognitiveagent.org)

Kontext

Beitrag ansehen

Seit der Freigabe des chatbots ‚chatGPT‘ für die größere Öffentlichkeit geht eine Art ‚Erdbeben‘ durch die Medien, weltweit, in vielen Bereichen, vom Privatpersonen über Institutionen, Firmen, Behörden …. jeder sucht das ‚chatGPT Erlebnis‘. Diese Reaktionen sind erstaunlich, und erschreckend zugleich.

Anmerkung: In meinem Englischen Blog hatte ich nach einigen Experimenten mit chatGPT eine erste Reflexion über den möglichen Nutzen von chatGPT geschrieben. Mir hatte es für ein erstes Verständnis geholfen; dieses hat sich dann bis zu dem Punkt weiterentwickelt, der im vorliegenden Text zum Ausdruck kommt.[6]

Form

Die folgenden Zeilen bilden nur eine kurze Notiz, da es sich kaum lohnt, ein ‚Oberflächenphänomen‘ so intensiv zu diskutieren, wo doch die ‚Tiefenstrukturen‘ erklärt werden sollten. Irgendwie scheinen die ‚Strukturen hinter chatGPT‘ aber kaum jemanden zu interessieren (Gemeint sind nicht die Details des Quellcodes in den Algortihmen).

chatGPT als Objekt

Der chatbot mit Namen ‚chatGPT‘ ist ein Stück Software, ein Algorithmus, der (i) von Menschen erfunden und programmiert wurde. Wenn (ii) Menschen ihm Fragen stellen, dann (iii) sucht er in der ihm bekannten Datenbank von Dokumenten, die wiederum Menschen erstellt haben, (iv) nach Textmustern, die nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) einen Bezug zur Frage aufweisen. Diese ‚Textfunde‘ werden (v) ebenfalls nach bestimmten formalen Kriterien (z.T. von den Programmierern vorgegeben) in einen neuen Text ‚angeordnet‘, der (vi) jenen Textmustern nahe kommen soll, die ein menschlicher Leser ‚gewohnt‘ ist, als ’sinnvoll‘ zu akzeptieren.

Textoberfläche – Textbedeutung – Wahrheitsfähig

Ein normaler Mensch kann — mindestens ‚intuitiv‘ — unterscheiden zwischen den (i) ‚Zeichenketten‘, die als ‚Ausdrücke einer Sprache‘ benutzt werden, und jenen (ii) ‚Wissenselementen‘ (im Kopf des Hörer-Sprechers), die als solche ‚unabhängig‘ sind von den Sprachelementen, aber die (iii) von Sprechern-Hörer einer Sprache ‚frei assoziiert‘ werden können, so dass die korrelierten ‚Wissenselemente zu dem werden, was man gewöhnlich die ‚Bedeutung‘ der Sprachelemente nennt.[1] Von diesen Wissenselementen (iv) ‚weiß‘ jeder Sprachteilnehmer schon ‚vorsprachlich‘, als lernendes Kind [2], dass einige dieser Wissenselemente unter bestimmten Umständen mit Umständen der Alltagswelt ‚korrelierbar‘ sind. Und der normale Sprachbenutzer verfügt auch ‚intuitiv‘ (automatisch, unbewusst) über die Fähigkeit, solche Korrelation — im Lichte des verfügbaren Wissens — einzuschätzen als (v) ‚möglich‘ oder (vi) als eher ‚unwahrscheinlich‘ bzw. (vi) als ‚bloße Fantasterei‘.[3]

Die grundlegende Fähigkeit eines Menschen, eine ‚Korrelation‘ von Bedeutungen mit (intersubjektiven) Umweltgegebenheiten feststellen zu können, nennen — zumindest einige — Philosophen ‚Wahrheitsfähigkeit‘ und im Vollzug der Wahrheitsfähigkeit spricht man dann auch von ‚zutreffenenden‘ sprachlichen Äußerungen oder von ‚wahren (empirischen) Aussagen‘.[5]

Unterscheidungen wie ‚zutreffend‘ (‚wahr‘), ‚möglicherweise zutreffend‘, ‚eher nicht zutreffend‘ oder ‚auf keinen Fall zutreffend‘ deuten an, dass der Wirklichkeitsbezug menschlicher Wissenselemente sehr vielfältig und ‚dynamisch‘ ist. Etwas, das gerade noch zutreffend war, kann im nächsten Moment nicht mehr zutreffend sein. Etwas, das lange als ‚bloße Fantasterei‘ abgetan wurde, kann dann doch plötzlich als ‚möglich‘ erscheinen oder ‚trifft plötzlich zu‘. Sich in diesem ‚dynamisch korrelierten Bedeutungsraum‘ so zu bewegen, dass eine gewisse ‚innere und äußere Konsistenz‘ gewahrt bleibt, stellt eine komplexe Herausforderung dar, die von Philosophie und den Wissenschaften bislang eher nicht ganz verstanden, geschweige denn auch nur annähernd ‚erklärt‘ worden ist.

Fakt ist: wir Menschen können dies bis zu einem gewissen Grad. Je komplexer der Wissensraum ist, je vielfältiger die sprachlichen Interaktion mit anderen Menschen werden, umso schwieriger wird es natürlich.

‚Luftnummer‘ chatGPT

(Letzte Änderung: 15.Februar 2023, 07:25h)

Vergleicht man den chatbot chatGPT mit diesen ‚Grundeigenschaften‘ des Menschen, dann kann man erkennen, dass chatGPT nichts von alledem kann. (i) Fragen kann er von sich aus nicht sinnvoll stellen, da es keinen Anlass gibt, warum er fragen sollte (es sei denn, jemand induziert ihm eine Frage). (ii) Textdokumente (von Menschen) sind für ihn Ausdrucksmengen, für die er über keine eigenständigen Bedeutungszuordnung verfügt. Er könnte also niemals eigenständig die ‚Wahrheitsfrage‘ — mit all ihren dynamischen Schattierungen — stellen oder beantworten. Er nimmt alles für ‚bare Münze‘ bzw. man sagt gleich, dass er ’nur träumt‘.

Wenn chatGPT aufgrund seiner großen Text-Datenbank eine Teilmenge von Ausdrücken hat, die irgendwie als ‚wahr‘ klassifiziert sind, dann kann der Algorithmus ‚im Prinzip‘ indirekt ‚Wahrscheinlichkeiten‘ ermitteln, die andere Ausdrucksmengen, die nicht als ‚wahr‘ klassifiziert sind, dann doch ‚mit einer gewissen Wahrscheinlichkeit‘ als ‚wahr erscheinen‘
lassen. Ob der aktuelle chatGPT Algorithmus solche ‚wahrscheinlichen Wahrheiten explizit‘ benutzt, ist unklar. Im Prinzip übersetzt er Texte in ‚Vektorräume‘, die auf verschiedene Weise ‚ineinander abgebildet‘ werden, und Teile dieser Vektorräume werden dann wieder in Form eines ‚Textes‘ ausgegeben. Das Konzept ‚Wahrheit‘ taucht in diesen mathematischen Operationen — nach meinem aktuellen Kenntnisstand — nicht auf. Wenn, dann wäre es auch nur der formale logische Wahrheitsbegriff [4]; dieser liegt aber mit Bezug auf die Vektorräume ‚oberhalb‘ der Vektorräume, bildet in Bezug auf diese einen ‚Meta-Begriff‘. Wollte man diesen auf die Vektorräume und Operationen auf diesen Vektorräumen tatsächlich anwenden, dann müsste man den Code von chatGPT komplett neu schreiben. Würde man dies tun — das wird aber keiner schaffen — dann würde sich der Code von chatGPT dem Status einer formalen Theorie nennen (wie in der Mathematik) (siehe Anmerkung [5]). Von einer empirischen Wahrheitsfähigkeit wäre chatGPT dann immer noch meilenweit entfernt.

Hybride Scheinwahrheiten

Im Anwendungsfall, bei dem der Algorithmus mit Namen ‚chatGPT‘ Ausdrucksmengen benutzt, die den Texten ähneln, die Menschen produzieren und lesen, navigiert sich chatGPT rein formal und mit Wahrscheinlichkeiten durch den Raum der formalen Ausdruckselemente. Ein Mensch, der die von chatGPT produzierten Ausdrucksmengen ‚liest‘, aktiviert aber automatisch (= unbewusst!) sein eigenes ’sprachliches Bedeutungswissen‘ und projiziert dieses in die abstrakten Ausdrucksmenge von chatGBT. Wie man beobachten kann (und hört und liest von anderen), sind die von chatGBT produzierten abstrakten Ausdrucksmengen dem gewöhnten Textinput von Menschen in vielen Fällen — rein formal — so ähnlich, dass ein Mensch scheinbar mühelos seine Bedeutungswissen mit diesen Texten korrelieren kann. Dies hat zur Folge, dass der rezipierende (lesende, hörende) Mensch das ‚Gefühl‘ hat, chatGPT produziert ’sinnvolle Texte‘. In der ‚Projektion‘ des lesenden/hörenden Menschen JA, in der Produktion von chatGPT aber NEIN. chatGBT verfügt nur über formale Ausdrucksmengen (kodiert als Vektorräume), mit denen er ‚blind‘ herumrechnet. Über ‚Bedeutungen‘ im menschlichen Sinne verfügt er nicht einmal ansatzweise.

Zurück zum Menschen?

(Letzte Änderung: 27.Februar 2023)

Wie leicht sich Menschen von einer ‚fake-Maschine‘ so beeindrucken lassen, dass sie dabei sich selbst anscheinend vergessen und sich ‚dumm‘ und ‚leistungsschwach‘ fühlen, obgleich die Maschine nur ‚Korrelationen‘ zwischen menschlichen Fragen und menschlichen Wissensdokumenten rein formal herstellt, ist eigentlich erschreckend [7a,b], und zwar mindestens in einem doppelten Sinne: (i)Statt die eigene Potentiale besser zu erkennen (und zu nutzen), starrt man gebannt wie das berühmte ‚Kaninchen auf die Schlange‘, obgleich die Maschine immer noch ein ‚Produkt des menschlichen Geistes‘ ist. (ii) Durch diese ‚kognitive Täuschung‘ wird versäumt, das tatsächlich ungeheure Potential ‚kollektiver menschlicher Intelligenz‘ besser zu verstehen, das man dann natürlich durch Einbeziehung moderner Technologien um mindestens einen evolutionären Level weiter voran bringen könnte. Die Herausforderung der Stunde lautet ‚Kollektiver Mensch-Maschine Intelligenz‘ im Kontext einer nachhaltigen Entwicklung mit Priorität bei der menschlichen kollektiven Intelligenz. Die aktuelle sogenannte ‚Künstliche (= maschinelle) Intelligenz‘ sind ziemlich primitive Algorithmen. Integriert in eine entwickelte ‚kollektive menschliche Intelligenz‘ könnten ganz andere Formen von ‚Intelligenz‘ realisiert werden, solche, von denen wir aktuell höchstens träumen können.

Kommentierung weiterer Artikel von anderen Autoren zu chatGPT

(Letzte Änderung: 17.April 2023)

Achtung: Einige der Text in den Anmerkungen sind aus dem Englischen zurück übersetzt worden. Dies geschah unter Benutzung der Software www.DeepL.com/Translator (kostenlose Version).

Siehe [8], [9], [10], [12],[13],[14],[15]

Anmerkungen

[1] In den vielen tausend ’natürlichen Sprachen‘ dieser Welt kann man beobachten, wie ‚erfahrbare Umweltgegebenheiten‘ über die ‚Wahrnehmung‘ zu ‚Wissenselementen‘ werden können, die dann in jeder Sprache mit unterschiedlichen Ausdrücken korreliert werden. Die Sprachwissenschaftler (und Semiotiker) sprechen daher hier von ‚Konventionen‘, ‚frei vereinbarte Zuordnungen‘.

[2] Aufgrund der körperlichen Interaktion mit der Umgebung, die ‚Wahrnehmungsereignisse‘ ermöglicht, die von den ‚erinnerbaren und gewussten Wissenselementen‘ unterscheidbar sind.

[3] Die Einstufung von ‚Wissenselementen‘ als ‚Fantasterei‘ kann falsch sein, wie viele Beispiele zeigen, wie umgekehrt, die Einstufung als ‚wahrscheinlich korrelierbar‘ auch falsch sein kann!

[4] Nicht der ‚klassischen (aristotelischen) Logik‘ da diese noch keine strenge Trennung von ‚Form‘ (Ausdruckselementen) und ‚Inhalt‘ (Bedeutung) kannte.

[5] Es gibt auch Kontexte, in denen spricht man von ‚wahren Aussagen‘, obgleichgar keine Beziehung zu einer konkreten Welterfahrung vorliegt. So z.B. im Bereich der Mathematik, wo man gerne sagt, dass eine Aussage ‚wahr‘ ist. Dies ist aber eine ganz ‚andere Wahrheit‘. Hier geht es darum, dass im Rahmen einer ‚mathematischen Theorie‘ bestimmte ‚Grundannahmen‘ gemacht wurden (die mit einer konkreten Realität nichts zu tun haben müssen), und man dann ausgehend von diesen Grundannahmen mit Hilfe eines formalen Folgerungsbegriffs (der formalen Logik) andere Aussagen ‚ableitet‘. Eine ‚abgeleitete Aussage‘ (meist ‚Theorem‘ genannt), hat ebenfalls keinerlei Bezug zu einer konkreten Realität. Sie ist ‚logisch wahr‘ oder ‚formal wahr‘. Würde man die Grundannahmen einer mathematischen Theorie durch — sicher nicht ganz einfache — ‚Interpretationen‘ mit konkreter Realität ‚in Beziehung setzen‘ (wie z.B. in der ‚angewandten Physik‘), dann kann es unter speziellen Bedingungen sein, dass die formal abgeleiteten Aussagen einer solchen ‚empirisch interpretierten abstrakten Theorie‘ eine ‚empirische Bedeutung‘ gewinnen, die unter bestimmten Bedingungen vielleicht ‚korrelierbar‘ ist; dann würde man solche Aussagen nicht nur ‚logisch wahr‘ nennen, sondern auch ‚empirisch wahr‘. Wie die Geschichte der Wissenschaft und der Wissenschaftsphilosophie zeigt, ist der aber ‚Übergang‘ von empirisch interpretierten abstrakten Theorien zu empirisch interpretierbaren Folgerungen mit Wahrheitsanspruch nicht trivial. Der Grund liegt im benutzten ‚logischen Folgerungsbegriff‘. In der modernen formalen Logik gibt es mahezu ‚beliebig viele‘ verschiedene formale Folgerzungsbegriffe. Ob ein solcher formaler Folgerungsbegriff tatsächlich die Struktur empirischer Gegebenheiten über abstrakte Strukturen mit formalen Folgerungen ‚angemessen wiedergibt‘, ist keinesfalls gesichert! Diese Problemstellung ist in der Wissenschaftsphilosophie bislang nicht wirklich geklärt!

[6] Gerd Doeben-Henisch, 15.-16.Januar 2023, „chatGBT about Rationality: Emotions, Mystik, Unconscious, Conscious, …“, in: https://www.uffmm.org/2023/01/15/chatgbt-about-rationality-emotions-mystik-unconscious-conscious/

[7a] Der chatbot ‚Eliza‘ von Weizenbaum von 1966 war trotz seiner Einfachheit in der Lage, menschliche Benutzer dazu zu bringen, zu glauben, dass das Programm sie ‚versteht‘ selbst dann, wenn man ihnen erklärte, dass es nur ein einfacher Algorithmus sei. Siehe das Stichwort ‚Eliza‘ in wkp-de: https://de.wikipedia.org/wiki/ELIZA

[7b] Joseph Weizenbaum, 1966, „ELIZA. A Computer Program For the Study of Natural Language. Communication Between Man And Machine“, Communications of the ACM, Vol.9, No.1, January 1966, URL: https://cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf Anmerkung: Obwohl das Programm ‚Eliza‘ von Weizenbaum sehr einfach war, waren alle Benutzer fasziniert von dem Programm, weil sie das Gefühl hatten „Es versteht mich“, dabei spiegelte das Programm nur die Fragen und Aussagen der Benutzer. Anders gesagt: die Benutzer waren ‚von sich selbst‘ fasziniert mit dem Programm als eine Art ‚Spiegel‘.

[8] Ted Chiang, 2023, „ChatGPT Is a Blurry JPEG of the Web. OpenAI’s chatbot offers paraphrases, whereas Google offers quotes. Which do we prefer?“, The NEW YORKER, February 9, 2023. URL: https://www.newyorker.com/tech/annals-of-technology/chatgpt-is-a-blurry-jpeg-of-the-web . Anmerkung: Chang betrachtet das Programm chatGPT im Paradigma eines ‚Kompressions-Algorithmus‘: Die Fülle der Informationen wird ‚verdichtet/ abstrahiert‘, so dass ein leicht unscharfes Bild der Textmengen entsteht, keine 1-zu-1 Kopie. Dies führt beim Benutzer zum Eindruck eines Verstehens auf Kosten des Zugriffs auf Details und Genauigkeit. Die Texte von chatGPT sind nicht ‚wahr‘, aber sie ‚muten an‘.

[9] Dietmar Hansch, 2023, „Der ehrlichere Name wäre ‚Simulierte Intelligenz‘. An welchen Defiziten Bots wie chatGBT leiden und was das für unseren Umgang mit Ihnen heißen muss.“, FAZ, 1.März 2023, S.N1 . Bemerkung: Während Chiang (siehe [8] sich dem Phänomen chatGPT mit dem Konzept ‚Kompressions-Algorithmus‘ nähert bevorzugt Hansch die Begriffe ’statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘. Für Hansch ist Einsichtslernen an ‚Geist‘ und ‚Bewusstsein‘ gebunden, für die er im Gehirn ‚äquivalente Strukturen‘ postuliert. Zum Einsichtslernen kommentiert Hansch weiter „Einsichtslernen ist nicht nur schneller, sondern auch für ein tiefes, ganzheitliches Weltverständnis unverzichtbar, das weit greifende Zusammenhänge erfasst sowie Kriterien für Wahrheit und Wahrhaftigkeit vermittelt.“ Es verwundert dann nicht wenn Hansch schreibt „Einsichtslernen ist die höchster Form des Lernens…“. Mit Bezug auf diesen von Hansch etablierten Referenzrahmen klassifiziert er chatGPT in dem Sinne dass er nur zu ’statistisch-inkrementellem Lernen‘ fähig sei. Ferner postuliert Hansch für den Menschen, „Menschliches Lernen ist niemals rein objektiv, wir strukturieren die Welt immer in Bezug auf unsere Bedürfnisse, Gefühle und bewussten Zwecke…“. Er nennt dies den ‚Humanbezug‘ im menschlichen Erkennen, und genau diesen spricht er chatGPT auch ab. Für geläufige Bezeichnung ‚KI‘ als ‚Künstliche Intelligenz‘ postuliert er, dass der Terminus ‚Intelligenz‘ in dieser Wortverbindung nichts mit der Bedeutung zu tun habe, die wir im Fall des Menschen mit ‚Intelligenz‘ verbinden, also auf keinen Fall etwas mit ‚Einsichtslernen‘, wie er zuvor schon festgestellt hat. Um diesem Umstand mehr Ausdruck zu verleihen würde er lieber den Begriff ‚Simulierte Intelligenz‘ benutzen (siehe dazu auch [10]). Diese begriffliche Strategie wirkt merkwürdig, da der Begriff Simulation [11] normalerweise voraussetzt, dass es eine klare Sachlage gibt, zu der man ein vereinfachtes ‚Modell‘ definiert, mittels dem sich dann das Verhalten des Originalsystems in wichtigen Punkten — vereinfacht — anschauen und untersuchen lässt. Im vorliegenden Fall ist aber nicht ganz klar, was denn überhaupt das Originalsystem sein soll, das im Fall von KI simuliert werden soll. Es gibt bislang keine einheitliche Definition von ‚Intelligenz‘ im Kontext von ‚KI‘! Was die Begrifflichkeit von Hansch selbst angeht, so sind die Begriffe ‚statistisch-inkrementelles Lernen‘ sowie ‚Einsichtslernen‘ ebenfalls nicht klar definiert; der Bezug zu beobachtbarem menschlichen Verhalten geschweige den zu den postulierten ‚äquivalenten Gehirnstrukturen‘ ist beliebig unklar (was durch den Bezug zu bis heute nicht definierten Begriffen wie ‚Bewusstsein‘ und ‚Geist‘ nicht gerade besser wird).

[10] Severin Tatarczyk, 19.Februar 2023, zu ‚Simulierter Intelligenz‘: https://www.severint.net/2023/02/19/kompakt-warum-ich-den-begriff-simulierte-intelligenz-bevorzuge-und-warum-chatbots-so-menschlich-auf-uns-wirken/

[11] Begriff ‚Simulation‘ in wkp-de: https://de.wikipedia.org/wiki/Simulation

[12] Doris Brelowski machte mich auf folgenden Artikel aufmerksam: James Bridle, 16.März 2023, „The stupidity of AI. Artificial intelligence in its current form is based on the wholesale appropriation of existing culture, and the notion that it is actually intelligent could be actively dangerous“, URL: https://www.theguardian.com/technology/2023/mar/16/the-stupidity-of-ai-artificial-intelligence-dall-e-chatgpt?CMP=Share_AndroidApp_Other . Anmerkung: Ein Beitrag, der kenntnisreich und sehr differenziert das Wechselspiel zwischen Formen der AI beschreibt, die von großen Konzernen auf das gesamte Internet ‚losgelassen‘ werden, und was dies mit der menschlichen Kultur und dann natürlich mit den Menschen selbst macht. Zwei Zitate aus diesem sehr lesenwerten Artikel: Zitat 1: „The entirety of this kind of publicly available AI, whether it works with images or words, as well as the many data-driven applications like it, is based on this wholesale appropriation of existing culture, the scope of which we can barely comprehend. Public or private, legal or otherwise, most of the text and images scraped up by these systems exist in the nebulous domain of “fair use” (permitted in the US, but questionable if not outright illegal in the EU). Like most of what goes on inside advanced neural networks, it’s really impossible to understand how they work from the outside, rare encounters such as Lapine’s aside. But we can be certain of this: far from being the magical, novel creations of brilliant machines, the outputs of this kind of AI is entirely dependent on the uncredited and unremunerated work of generations of human artists.“ Zitat 2: „Now, this didn’t happen because ChatGPT is inherently rightwing. It’s because it’s inherently stupid. It has read most of the internet, and it knows what human language is supposed to sound like, but it has no relation to reality whatsoever. It is dreaming sentences that sound about right, and listening to it talk is frankly about as interesting as listening to someone’s dreams. It is very good at producing what sounds like sense, and best of all at producing cliche and banality, which has composed the majority of its diet, but it remains incapable of relating meaningfully to the world as it actually is. Distrust anyone who pretends that this is an echo, even an approximation, of consciousness. (As this piece was going to publication, OpenAI released a new version of the system that powers ChatGPT, and said it was “less likely to make up facts”.)“

[13] David Krakauer in einem Interview mit Brian Gallagher in Nautilus, March 27, 2023, Does GPT-4 Really Understand What We’re Saying?, URL: https://nautil.us/does-gpt-4-really-understand-what-were-saying-291034/?_sp=d9a7861a-9644-44a7-8ba7-f95ee526d468.1680528060130. David Krakauer, Evolutionstheoretiker und Präsident des Santa Fe Instituts für Complexity Science, analysiert die Rolle von Chat-GPT-4-Modellen im Vergleich zum menschlichen Sprachmodell und einem differenzierteren Verständnis dessen, was „Verstehen“ und „Intelligenz“ bedeuten könnte. Seine Hauptkritikpunkte stehen in enger Übereinstimmung mit der obigen Position. Er weist darauf hin, dass (i) man klar zwischen dem „Informationskonzept“ von Shannon und dem Konzept der „Bedeutung“ unterscheiden muss. Etwas kann eine hohe Informationslast darstellen, aber dennoch bedeutungslos sein. Dann weist er darauf hin (ii), dass es mehrere mögliche Varianten der Bedeutung von „Verstehen“ gibt. Die Koordinierung mit dem menschlichen Verstehen kann funktionieren, aber Verstehen im konstruktiven Sinne: nein. Dann setzt Krakauer (iii) GPT-4 mit dem Standardmodell der Wissenschaft in Beziehung, das er als „parsimony“ charakterisiert; chat-GPT-4 ist eindeutig das Gegenteil. Ein weiterer Punkt (iv) ist die Tatsache, dass die menschliche Erfahrung einen „emotionalen“ und einen „physischen“ Aspekt hat, der auf somato-sensorischen Wahrnehmungen im Körper beruht. Dies fehlt bei GPT-4. Dies hängt (v) mit der Tatsache zusammen, dass das menschliche Gehirn mit seinen „Algorithmen“ das Produkt von Millionen von Jahren der Evolution in einer komplexen Umgebung ist. Die GPT-4-Algorithmen haben nichts Vergleichbares; sie müssen den Menschen nur ‚überzeugen‘. Schließlich (vi) können Menschen „physikalische Modelle“ generieren, die von ihren Erfahrungen inspiriert sind, und können mit Hilfe solcher Modelle schnell argumentieren. So kommt Krakauer zu dem Schluss: „Das Narrativ, das besagt, dass wir das menschliche Denken wiederentdeckt haben, ist also in vielerlei Hinsicht falsch. Einfach nachweislich falsch. Das kann nicht der richtige Weg sein.“ Anmerkungen zum Text von Krakauer: Benutzt man das allgemeine Modell von Akteur und Sprache, wie es der Text oben annimmt, dann ergeben sich die Punkt (i) – (vi) als Folgerungen aus dem allgemeinen Modell. Die Akzeptanz eines allgemeinen Akteur-Sprache Modells ist leider noch nicht verbreitet.

[14] Von Marie-José Kolly (Text) und Merlin Flügel (Illustration), 11.04.2023, „Chatbots wie GPT können wunderbare Sätze bilden. Genau das macht sie zum Problem“. Künstliche Intelligenz täuscht uns etwas vor, was nicht ist. Ein Plädoyer gegen die allgemeine Begeisterung. Online-Zeitung ‚Republik‘ aus der SChweiz, URL: https://www.republik.ch/2023/04/11/chatbots-wie-gpt-koennen-wunderbare-saetze-bilden-genau-das-macht-sie-zum-problem? Hier einige Anmerkungen:

Der Text von Marie-José Kolly sticht hervor weil der Algorithmus mit Namen chatGPT(4) hier sowohl in seinem Input-Output Verhalten charakterisiert wird und zusätzlich ein Vergleich zum Menschen zumindest in Ansätzen vorgenommen wird.

Das grundsätzliche Problem des Algorithmus chatGPT(4) besteht darin (wie auch in meinem Text oben herausgestellt), dass er als Input-Daten ausschließlich über Textmengen verfügt (auch jene der Benutzer), die nach rein statistischen Verfahren in ihren formalen Eigenschaften analysiert werden. Auf der Basis der analysierten Regelmäßigkeiten lassen sich dann beliebige Text-Kollagen erzeugen, die von der Form her den Texten von Menschen sehr stark ähneln, so sehr, dass viele Menschen sie für ‚von Menschen erzeugte Texte‘ nehmen. Tatsächlich fehlen dem Algorithmus aber das, was wir Menschen ‚Weltwissen‘ nennen,es fehlt echtes ‚Denken‘, es fehlen ‚eigene‘ Werte-Positionen, und der Algorithmus ‚versteht‘ seine eigenen Text ’nicht‘.

Aufgrund dieses fehlenden eigenen Weltbezugs kann der Algorithmus über die verfügbaren Textmengen sehr leicht manipuliert werden. Eine ‚Massenproduktion‘ von ‚Schrott-Texten‘, von ‚Desinformationen‘ ist damit sehr leicht möglich.

Bedenkt man, dass moderne Demokratien nur funktionieren können, die Mehrheit der Bürger über eine gemeinsame Faktenbasis verfügt, die als ‚wahr‘ angenommen werden können, über eine gemeinsame Wissensmenge, über zuverlässige Medien, dann können mit dem Algorithmus chatGPT(4) genau diese Anforderungen an eine Demokratie massiv zerstört werden.

Interessant ist dann die Frage, ob chatGPT(4) eine menschliche Gesellschaft, speziell eine demokratische Gesellschaft, tatsächlich auch positiv-konstruktiv unterstützen kann?

Vom Menschen ist jedenfalls bekannt, dass dieser den Gebrauch seiner Sprache von Kindes Beinen an im direkten Kontakt mit einer realen Welt erlernt, weitgehend spielerisch, in Interaktion mit anderen Kindern/ Menschen. Für Menschen sind ‚Worte‘ niemals isolierte Größen sondern sie sind immer dynamisch eingebunden in ebenfalls dynamische Kontexte. Sprache ist nie nur ‚Form‘ sondern immer zugleich auch ‚Inhalt‘, und dies auf mannigfaltige Weise. Dies geht nur weil der Mensch über komplexe kognitiven Fähigkeiten verfügt, die u.a. entsprechende Gedächtnisleistungen wie auch Fähigkeiten zur Verallgemeinerung/ Generalisierung umfassen.

Die kulturgeschichtliche Entwicklung von gesprochener Sprache, über Schrift, Buch, Bibliotheken bis hin zu gewaltigen digitalen Datenspeichern hat zwar bezüglich der ‚formen‘ von Sprache und darin — möglicherweise — kodiertem Wissen Gewaltiges geleistet, aber es besteht der Eindruck, dass die ‚Automatisierung‘ der Formen diese in die ‚Isolation‘ treibt, so dass die Formen ihren Kontakt zur Realität, zur Bedeutung, zur Wahrheit immer mehr verlieren. Aus der Sprache als zentralem Moment der Ermöglichung von mehr komplexem Wissen und mehr komplexem Handeln wird damit zunehmend ein ‚Parasit‘, der immer mehr Raum beansprucht und dabei immer mehr Bedeutung und Wahrheit vernichtet.

[15] Gary Marcus, April 2023, Hoping for the Best as AI Evolves, Gary Marcus on the systems that “pose a real and imminent threat to the fabric of society.” Communications of the ACM, Volume 66, Issue 4, April 2023 pp 6–7, https://doi.org/10.1145/3583078 . Anmerkung: Gary Marcus schreibt anlässlich der Wirkungen von Systemen wie chatGPT(OpenAI), Dalle-E2 und Lensa über die ernst zunehmenden negativen Wirkungen, die diese Werkzeuge innerhalb einer Gesellschaft haben können, und zwar in einem Ausmaß, das eine ernsthafte Bedrohung für jede Gesellschaft darstellt! Sie sind inhärent fehlerhaft in den Bereichen Denken, Tatsachen und Halluzinationen. Mit nahezu Null Kosten lassen sich mit ihnen sehr schnell umfangreiche Desinformationskampagnen erstellen und ausführen. Am Beispiel der weltweit wichtigen Webseite ‚Stack Overflow‘ für Programmierer konnte (und kann) man sehen, wie der inflationäre Gebrauch von chatGPT aufgrund der inhärenten vielen Fehler dazu führt, dass das Management-Team von Stack Overflow seine Benutzer dringend bitten musste, den Einsatz von chatGPT komplett zu unterlassen, um den Zusammenbruch der Seite nach 14 Jahren zu verhindern. Im Falle von großen Playern, die es gezielt auf Desinformationen absehen, ist solch eine Maßnahme unwirksam. Diese Player zielen darauf ab, eine Datenwelt zu erschaffen, in der niemand mehr irgend jemandem vertrauen kann. Dies vor Augen stellt Gary Marcus 4 Postulate auf, die jede Gesellschaft umsetzen sollte: (1) Automatisch generierter Inhalt sollte komplett verboten werden; (2) Es müssen rechtswirksame Maßnahmen verabschiedet werden, die ‚Missinformationen‘ verhindern können; (3) User Accounts müssen fälschungssicher gemacht werden; (4) Es wird eine neue Generation von KI Werkzeugen gebraucht, die Fakten verifizieren können.

DER AUTOR

Einen Überblick über alle Beiträge von Autor cagent nach Titeln findet sich HIER.