sinnkultur
Weil Kultur Sinn macht

Philoblog

Blog zu Themen und Fragen aus Philosophie und Kultur. Ich poste hier rund alle zwei Wochen bzw. mindestens einmal im Monat.


27.11.2024

Philosophie als Gespräch (Selbstverständnis Philosophie #2)

DALLE 2024-11-27 10.20.00 - Gesprch.jpgAnfang November starb der Philosoph Herbert Schnädelbach in seinem 88. Lebensjahr. Seine ruhige und nachdenkliche Art zu philosophieren und sein Verständnis von Philosophie in der Moderne haben mich inspiriert.

In seiner Abschiedsvorlesung vom 18. Juli 2002 (HU Berlin) versuchte Schnädelbach, drei auffällige Besonderheiten der Philosophie der Moderne zu erklären: ihre besondere Bindung an die Philosophiegeschichte, ihre erstaunliche Unstetigkeit und Unübersichtlichkeit und die bemerkenswerte Konstanz einiger weniger Themen. Die drei Besonderheiten moderner Philosophie machen für Schnädelbach darum Sinn, weil er Philosophie als Gespräch versteht.

1️⃣ Philosophie als Gespräch sucht sich Gesprächspartner auch in der Vergangenheit: in der Philosophiegeschichte. Das ist kein Defizit, sondern eine kluge Strategie, da philosophische Klassiker wie Platon, Aristoteles oder Kant nicht veralten, sondern attraktive Gesprächspartner bleiben, von denen man immer wieder lernen kann.

2️⃣ Während in der Philosophie der Antike und des Mittelalters eine gewisse Kontinuität der Themen und Fragen spürbar ist, wirkt die Philosophie der Neuzeit wie ein diachrones Chaos. Die irritierende Vielfalt und Sprunghaftigkeit erklärt Schnädelbach als Folge der Modernisierung, in der kulturelle Dissoziation zunimmt. Ein interner Grund ist aber auch, weil die Philosophie das Gespräch der Nachdenklichen ist. Diese greifen Problemsituationen als Denk-Anlässe auf, die von aussen an sie herantreten (und nicht nur intern aus ihrer eigenen Disziplin bzw. Tradition).

3️⃣ Trotz aller Diskontinuitäten, Moden und thematischen Konjunkturschwankungen bleiben im Gespräch der Philosophie die Grundfragen und Kernthemen bemerkenswert konstant. Die vier Fragen Kants

Was kann ich wissen?
Was soll ich tun?
Was darf ich hoffen?
Was ist der Mensch? 

bleiben für Schnädelbach auch in der Philosophie der Moderne «Basisformeln philosophischer Nachdenklichkeit» (S. 18) – aber mit einer Einschränkung und einer Erweiterung: Die erste Frage ist für Schnädelbach nach dem Ende der Utopien «höchstens noch als religiöse und damit persönliche Frage» (S. 19) verstehbar. Und er ergänzt die drei Fragen mit der vierten Frage

Was können wir verstehen? (S. 20)

Damit holt er neben dem theoretischen und praktischen einen kommunikativen Weltbezug in das Gespräch der Philosophie.

💡 Fazit
Schnädelbachs Kern-Anliegen ist, dass Philosophie von ihrem hohen akademischen Ross herabsteigt, sich von ihrem Selbstverständnis als «oberste Patzanweiserin von Vernunft, Wissenschaft und Moral» (S. 10) verabschiedet und sich «unters Volk» (S. 10) mischt, «Orte des kulturellen bildenden Gesprächs» (S. 18) aufsucht und dort mitredet. Ziel dieses Gesprächs ist das Klarwerden der Gedanken. Damit ist nichts anderes gemeint als das sokratische Konzept von Philosophie als Aufklärung.

🍔 Take-aways
▶️ Philosophie ist ein Gespräch. Ziel des Gesprächs ist ein Klarwerden der Gedanken.
▶️ Philosophie soll vom hohen Ross runter und sich die Hände schmutzig machen, indem sie sich in den gesellschaftlichen Diskurs einmischt, mitredet und damit ihre aufklärerische Rolle wahrnimmt.

«Das Gespräch geht weiter»… beendet Schnädelbach seine Vorlesung (S. 22).

Pavel - 12:17 @ Philo-Blog | Kommentar hinzufügen

20.11.2024

Was von der Menschheit übrig bleibt: eine interstellare Zeitkapsel (Anthropologie #2)

The_Sounds_of_Earth_Record_Cover_-_GPN-2000-001978.jpgSeit 1977 sind die beiden Voyager-Sonden unterwegs. In der Zwischenzeit verliessen sie die Heliosphäre und sind aktuell die am weitesten von der Erde entfernten menschlichen Artefakte im Weltraum. An Bord neben vielen Apparaturen: «The Golden Record».

«Golden Record»: Eine 30 cm breite, vergoldete Kupferplatte, auf der die Daten gespeichert sind, die sozusagen die interstellare Visitenkarte des Planeten Erde bzw. der dort seit ca. fünftausend Erdrotationen dominierenden Spezies Homo sapiens sapiens darstellen sollen:

• 116 Bilder (analog gespeichert, u. a. die Erde und andere Planeten unseres Sonnensystems, Anatomie des Menschen inkl. Geschlechtsorgane, eine stillende Mutter etc.)
• gesprochene Grüsse (in 55 Sprachen, u. a. auch in Deutsch)
Geräusche (wie Wind, Donner und Tiergeräusche)
• 90 Minuten Musik (neben ethnischer Musik Stücke von Bach, Beethoven, Mozart, Chuck Berry, Louis Armstrong u. a.)
• eine geschriebene Nachricht (des amtierenden US-Präsidenten Jimmy Carter, *1924)
• eine Audiobotschaft (des damaligen UN-Generalsekretärs Kurt Waldheim, 1918–2007).

Die Auswahl der Daten erfolgte durch ein Forscherteam, das der Astrophysiker Carl Sagan (1934–1996) leitete. Das Team verstand die Datenplatten, die nicht mehr als 538 MB fassen konnten, als interstellare Zeitkapsel.

Auf der Vorderseite der Golden Record findet sich eine Art Gebrauchsanleitung und eine Karte, die die Position der Sonne in Relation zu 14 Pulsaren zeigt – im Falle des Falles, dass eine aussermenschliche Spezies die Daten erfolgreich decodiert und uns innerhalb der nächsten 500 Mio. Jahre (geschätzte Haltbarkeit der Platten) besuchen möchte (der 2018 verstorbene Physiker Stephen Hawking sah diese Besuchs-Option sehr kritisch).

Interstellare Visitenkarte menschliche Zivilisation, Stand 1977 n. u. Z., also:
• OHNE Internet, Web 2.0, soziale Medien, Mobiltelefonie, Smartphone, Big Data etc.
• OHNE Michael Jackson, Amy Winehouse, «Pulp Fiction», «LOTR», «Titanic» u. a.
• OHNE Globalisierung, schrumpfende Gletscher und abnehmende Biodiversität
• OHNE generative KI, LLM, ChatGPT u. a.
• OHNE Nanotechnologie, Quantencomputer, Elektroautos u. a.

Fragen: 
Wie würde sich die Menschheit heute – Stand 2024 – präsentieren?
Wer kann heute überhaupt für die ganze Menschheit sprechen?
Und was stünde auf der Visitenkarte? (Der beschränkte Speicherplatz von 1977 war vielleicht eher ein Vorteil)
Müsste auf einer neuen Golden Record nicht ein ehrliches, komplettes Bild der Menschheit gespeichert werden? Also (subjektive Auswahl) inklusive Hexenverfolgung, Kolonialisierung und Imperialismus, Holodomor, Holocaust, Hiroshima und Nagasaki, Biafra, Bhopal, Tschernobyl usw.?

PS: Falls keine neuen Visitenkarten der Menschheit ins All geschickt werden und die beiden Golden Records die menschliche Zivilisation überleben (was bei einer Haltbarkeit von 500 Mio. Jahren sehr wahrscheinlich ist), werden sie die beiden einzigen Artefakte sein, die von der menschlichen Zivilisation (wenigstens für 500 Mio. Jahre) erhalten bleiben: 116 Bilder, 55 Grüsse, ein paar Geräusche, eineinhalb Stunden Musik, ein präsidialer Text und eine kurze Ansprache in Englisch mit österreichischem Akzent.

Pavel - 12:06 @ Philo-Blog | Kommentar hinzufügen

24.10.2024

«Was hat das mit mir zu tun?» (Anthropologie #1)

Für eine Veranstaltung habe ich mir zur Impulsfrage «Was hat das mit mir zu tun?» folgende Gedanken gemacht:

1. Im Kern ist die Frage «Was hat das mit mir zu tun?» eine Synchronisierungsfrage: Zwei getrennte Grössen werden zueinander in Bezug gebracht: «ich» und «das».

2. Man kann die Frage «Was hat das mit mir zu tun?» schnell denken (Kahneman 2012). Dann ist sie eine praktische, oft auch moralische Frage, die sich mir immer wieder in Alltags- oder Berufssituationen stellt: Was haben die gesundheitlichen Probleme eines Freundes mit mir zu tun? Was hat die Baustelle meines Nachbars mit mir zu tun? Was haben die Umstrukturierungspläne in meinem Betrieb mit mir zu tun? Usw.

3. Man kann die Frage «Was hat das mit mir zu tun?» aber auch langsam denken (Kahneman 2012): Dann wird sie zu einer grundsätzlichen, existentiellen, ja philosophischen Frage: «Was hat das GANZE mit mir zu tun? Warum bin ich hier? Was mache ich hier?»

4. Eine solche Frage kann nur ein Wesen stellen, welches nicht von Natur aus mit seiner Umgebung verbunden ist (oder sich verbunden fühlt). Die Frage entsteht, weil Menschen (anthropologisch gesehen) nicht automatisch mit einer Situation oder einem Umfeld oder einer grundsätzlichen existentiellen Situation verbunden sind. Der Mensch ist ein exzentrisches Wesen (Plessner 1928), darum steht er immer wieder vor Synchronisierungsaufgaben. Überspitzt formuliert: Eigentlich machen wir unser Leben lang nichts anderes, als uns mit wechselnden Situationen zu syn-chro-ni-sie-ren: im praktischen Alltag, in Beziehungen, im Beruf, in der Politik usw.

5. Menschen müssen sich immer wieder In-Beziehung-Setzen, auch zu sich selbst: mit unserem Körper, mit unseren Gefühlen, mit unseren Bedürfnissen, mit unseren Wünschen, mit unseren Ideen. Das ist nicht selbstverständlich und auch nicht immer einfach. Für die permanente Synchronisierungsaufgabe braucht es Ressourcen. Wenn ich die Synchronisierung nicht oder nur teilweise schaffe, stellen sich Dissonanzen ein.

6. Wenn wir nicht-bewusste Wesen, also Entitäten ohne Bewusstsein wären, würden wir uns die Frage von heute abend (wohl) nicht stellen. Vielleicht ist die heutige Frage sogar die Kernfrage des Bewusstseins bzw. eines bewussten Wesens: «Was hat das mit mir zu tun?» Bewusstsein führt dazu, dass das bewusste Wesen sich mit seiner Umgebung in Relation setzen und synchronisieren muss.

Pavel - 17:40 @ Philo-Blog | Kommentar hinzufügen

14.10.2024

Hat Philosophie einen hohen ‹Schutzfaktor›? (Selbstverständnis Philosophie #1)

DALLE 2024 Schutzfaktor.jpgHans Jonas (1903–1993) war einer der zahlreichen, vom Denken Heideggers hingerissenen Philosophiestudenten. Von Heideggers Verstrickung mit dem Nationalsozialismus war Jonas doppelt betroffen: als Jude und als Philosoph. In Jonas’ Erinnerungen, auf die ich im letzten Monat zufällig stiess, hat mich neben seinem atypischen Werdegang als Philosoph vor allem seine grosse Enttäuschung über die «Kraft der Philosophie» beschäftigt.

Im ‹Fall Heidegger› wurde Jonas’ Glaube an die «Kraft der Philosophie» grundsätzlich erschüttert. Er spricht von einem «Debakel», einer «Blamage», ja einem «Bankrott philosophischen Denkens» (Jonas 2023: 299):

«Ich hegte damals die Vorstellung, vor so etwas sollte die Philosophie schützen, dagegen sollte die den Geist feien. Ja, ich war sogar überzeugt, dass der Umgang mit den höchsten, wichtigsten Dingen den Geist des Menschen adelt und auch die Seele besser macht.» (Jonas 2023: 299 f.)

Jonas’ Enttäuschung über die «Kraft der Philosophie» wirft die prinzipielle Frage auf:

Kann Philosophie vor Ideologien, Verschwörungstheorien, Antisemitismus u. a. schützen?
Oder metaphorisch gefragt:
Hat Philosophie an sich einen hohen ‹Schutzfaktor›?

Mit Jonas’ Annahme, dass der Umgang mit «höchsten, wichtigsten Dingen» bzw. «Geistigem» sozusagen automatisch «vor so etwas» schützt, kann man meines Erachtens ‹Phänomene› wie Heidegger nicht erklären. Jonas’ Position ist zu idealistisch – obwohl auch ich glaube, dass eine vertiefte Auseinandersetzung mit geistigen Inhalten bildend ist. Empirisch ist es aber offensichtich, dass ein enger Umgang mit «Geistigem» allein (falls das überhaupt die Aufgabe der Philosophie ist) nicht automatisch vor Ideologie oder Dogmatismus schützt.

Den ‹Schutzfaktor› der Philosophie muss man wohl anders konzeptualisieren. Ich denke, dass es darauf ankommt, wie man Philosophie versteht, welche Aufgabe man ihr zuschreibt und wie man sie ausübt.

Skizzenhaft formuliert, setzt sich für mich der ‹Schutzfaktor› aus folgenden Elementen zusammen:

Denken: kritisches Denken, d. h. Denken mit logischer Konsistenz und argumentativer Kohärenz, mit nachvollziehbaren Termini, mit einem abwägenden, dialektischen methodischen Vorgehen.
Sprache: eine möglichst klare, präzise, eher nüchterne Sprache und Begrifflichkeit. Nach einer gängigen Definition beginnt die Philosophie mit Staunen, versucht aber die Erfahrung (nicht wie die Dichter im Raunen) im Denken zu erfassen, zu strukturieren und allgemein nachvollziehbar zu machen.
Selbstreflexion: ein selbstkritisches Bewusstsein für die eigenen ‹blinde Flecken› wie z. B. kognitive Verzerrungen, kulturelle oder genderspezifische Perspektiven etc.; generell eine Haltung der Offenheit für andere Positionen.
Skepsis: eine angemessene Portion Skepsis im Sinne eines strategischen Zweifels – gegenüber einer komplizierten Sprache, gegenüber hohlen Argumenten, gegenüber der eigenen Perspektive und auch gegenüber einer finalen ‹Klärungsmacht› von Philosophie.

Philosophie hat nicht an sich einen hohen Schutzfaktor, sondern dann, wenn sie sich als eine pragmatische, skeptische, kritische, selbstreflexive Unternehmung versteht, die ihr Wirksamkeitsfeld nicht überdehnt. Gerade damit hat sie m. E. Glaubwürdigkeit, kann eine bedeutende Rolle im öffentlichen Diskurs einnehmen und «vor so etwas» schützen. Jonas schreibt «Ich hegte damals [kursiv von P. N.] die Vorstellung…» – vielleicht hat er seine Position später revidiert, ich weiss es nicht. Auf jeden Fall bekam er mit seinem Alterswerk Das Prinzip Verantwortung. Versuch einer Ethik für die technologische Zivilisation (1979) – unverhofft, wie er in seinen Erinnerungen schreibt – eine breite Plattform und grossen Einfluss in der ansetzenden öffentlichen und politischen Debatte über Technik, Umwelt und die Verantwortung der Menschheit für die Zukunft.

PS: Jonas kannte die Schwarzen Hefte Heideggers nicht. Diese erschienen erst ab 2014 im Rahmen der Gesamtausgabe und legten Heideggers Nähe zum Nationalsozialismus und seine antisemitischen Überzeugungen endgültig offen.

Jonas, H. (2023): Erinnerungen, 2. Auflage, Suhrkamp. 1. Auflage: 2003, Insel.

Pavel - 11:32 @ Philo-Blog | Kommentar hinzufügen

11.09.2024

9/11 und die Bilder (Bildethik #2)

Lederhandler 911.pngDie Bilder der Terroranschläge am 11. September 2001 in den USA sind ins kollektive Gedächtnis eingegangen. «Die Bilder kolonisieren unser Gedächtnis: Die Fotos des Aufpralls und der Explosion des zweiten Flugzeugs (UA 175) in den Südturm sind global zitierbare Bildikonen geworden» (Gassert 2021: 19).

Bilder, die ins kollektive Gedächtnis eingehen, vermitteln mehr als nur eine Momentaufnahme; sie lösen Emotionen aus, tragen eine tiefere symbolische Bedeutung, erzählen Geschichten. 9/11 schreibt auch als Medienereignis Mediengeschichte, die Welt wird zu Marshall McLuhans globalem Dorf.

«Die Nachricht von den Anschlägen verbreitet sich wie ein Lauffeuer um den Globus. Eine Stunde nach den Anschlägen haben 70 Prozent der Deutschen davon erfahren. Tags darauf ist die gesamte deutsche Bevölkerung informiert, Alte, Kranke, Jugendliche und Kinder eingeschlossen. In den USA verbreitet sich die Nachricht noch schneller. Dort wissen 60 Minuten nach dem Aufprall des ersten Flugzeugs 90 Prozent der Amerikaner Bescheid. So weit Fernsehen und Internet reichen, sehen Menschen weltweit dieselben schrecklichen Bilder.» (Gassert 2021: 17)

Bildhistorisch ist die These, dass es bei den Anschlägen nicht in erster Linie um die Tötung vieler Menschen, sondern «um die Erzeugung ‹grandioser› Bilder, mit denen die USA und die westliche Welt unter Schock gesetzt werden» (Paul 2009) ging, nicht von der Hand zu weisen. Die Terroranschläge vom 11. September 2001 sind ein medial inszenierter Massenmord (Schicha 2021: 95), sie sind als Medienkrieg zu verstehen (Schicha 2021: 100).

Bildethisch stellt sich auch bei 9/11 prinzipiell die Frage: Was zeigen vom Terrorakt? Nicht zeigen geht auch nicht, es war ein Ereignis mit globalen Dimensionen. Insgesamt haben die Medien viele Bilder, die durchaus vorhanden waren, aus ethischem Gründen nicht publiziert. Statt die Opfer direkt zu zeigen, publizierten sie die Reaktionen der Augenzeugen (Schicha 2021: 99).

In meinem Gedächtnis sind:
- Die brennenden Twin Towers von Marty Lederhandler (AP)
- «The Dusty Lady» von Stan Honda (AFP)
- «The Falling Man» von Richard Drew (AP)

Das Bild des «Falling man» von Richard Drew wurde zuerst gezeigt, aber nach kurzer Zeit nicht mehr, weil man es als ethisch nicht vertretbar anschaute (Schicha 2021).

Als Marty Lederhandler von AP sein Foto der brennenden Türme am Empire State Building vorbei schoss, war er sich nicht bewusst, dass das Empire State in kurzer Zeit wieder zum höchsten Gebäude in New York werden würde.

Quellen
Gassert, Philipp (2021): 11. September 2001.
Gerhard, Paul (2005): Die Geschichte hinter dem Foto.
Schicha, Christian (2021): Bildethik.

Pavel - 17:49 @ Philo-Blog | Kommentar hinzufügen

04.09.2024

Ist das Vucci-Foto des Trump-Attentats eine Medienikone? (Bildethik #1)

Foto Evan Vucci, AP, picture alliance.jpegFoto: Evan Vucci (AP).

In meinem letzten Medienethik-Modultag habe ich das Foto des AP-Fotografen und Pulitzer-Preisträgers Evan Vucci zum Attentat auf Trump (13. Juli 2024) gezeigt, das sofort als Medienikone bezeichnet wurde.

Lässt sich das Vucci-Foto wirklich als Medienikone einordnen?

Medienikonen (vgl. Paul 2005, 2009) werden folgende Merkmale zugeschrieben:

1. Suggestion von Authentizität
2. Verdichtung der Handlung
3. Dominanz einer Gebärdefigur im Bildzentrum
4. Evozierung einer synästhetischen Wahrnehmung
5. Erzeugung eines imaginären Bildraums im Off
6. Loslösung aus historischem Kontext
7. Referenz auf Vorbilder

Tatsächlich erfüllt das Vucci-Foto einige dieser Merkmale klar: das angeschnittene Bild, die Blutspuren im Gesicht, die erhobene Faust, die Authentizität suggerieren; die Security-Leute neben und vor Trump, die die Handlung verdichten; Trump klar als Gebärdefigur im Bildzentrum; der offene (schreiende) Mund, der Synästhesie evoziert, und die wehende Flagge oberhalb und hinter der Gebärdefigur, die einen imaginären Bildraum im Off erzeugt.

Beim Merkmal Authentizität muss man aber eine wichtige Einschränkung machen: Der medienaffine Hauptakteur hat sich (wie ebenfalls medial dokumentiert ist) instinktiv und geistesgegenwärtig selbst inszeniert, indem er sich nach ca. 80 Sekunden aufgerichtet, seine rechte Faust erhoben und «Fight!» gerufen hat. Trump betrieb sozusagen Impression Management in extremis. Schwierig zu beurteilen, wieviel Heroismus, wieviel kaltblütiges Kalkül darin steckten. Beim «Napalm-Girl» von Nick Ut (1972) leistet kein Kalkül der Authentizität des Bildes Abbruch, das 9-jährige Mädchen Phan Thị Kim Phúc rannte in Panik und voller Schmerz um ihr Leben.

Medienikonen brauchen zudem eine Inkubationszeit, in denen Narrative auf der Folie des Bildes gebildet bzw. das Bild quasi ‹überschrieben› und aus seinem historischen Kontext losgelöst wird. Beim Napalm-Girl-Foto war es die Kriegsmüdigkeit und die wachsende Ablehnung des Vietnam-Krieges in den USA, die sofort pazifistische Narrative beförderte. Das Vucci-Foto ist noch zu neu, um sich aus dem historischen Kontext gelöst haben zu können. Interessant war, wie schnell das Vucci-Foto an Aufmerksamkeit verlor, nachdem Biden am 21. Juli 2024, nur knapp eine Woche nach dem Trump-Attentat, seine Kandidatur zurückzog.

Bei der Frage nach Vorbildern denkt man in erster Linie an andere Attentate gegen US-Präsidenten: Kennedy 1963, Reagan 1981 u. a. Aber weder Kennedy noch Reagan waren überhaupt in der Lage, ihre Faust in die Höhe zu heben. Mit seiner erhobenen rechten Faust referiert Trump nicht auf historische Vorbilder, sondern allein auf sich selbst: Die erhobene rechte Faust ist eine Geste, die er (wie eine Bildrecherche zeigt) schon seit Jahrzehnten in seinem symbolischen Repertoire hat.

Fazit: Im Moment ist es noch zu früh, um beurteilen zu können, ob das Vucci-Foto als Medieninkone angesehen werden kann.

Quellen:
Gerhard Paul (2005): Die Geschichte hinter dem Foto.
Gerhard Paul (2009): Kriegsbilder – Bilderkriege.

Pavel - 09:59 @ Philo-Blog | Kommentar hinzufügen

25.06.2024

KI-Narrative (#3/3)

hommemachine.jpg1. Mensch-Maschine-Motiv
Sofern sich KI-Narrative auf Roboter beziehen, bilden sie einen Ast im Baum des Mensch-Maschine-Motivs. In der Literaturwissenschaft wird das Motiv unter dem Titel Der künstliche Mensch zusammengefasst (Frenzel 2008: 501–512). In der Antike enden die meisten Geschichten über das Erschaffen eines künstlichen Menschen unglücklich: «Entweder sind die Meister gezwungen, ihr eigenes, gefährlich werdendes Werk zu zerstören, oder es zerstört sich  selbst und oft den Schöpfer oder andere Menschen zugleich» (Frenzel 2008: 501). Eine Ausnahme bildet die Geschichte über den zyprischen Bildhauer Pygmalion, der eine Elfenbeinstatue, die wie eine lebendige Frau aussieht, erbaut und sich in sie verliebt sich. Mit Hilfe der Göttin Aphrodite wird die Galatea genannte Statue lebendig, Pygmalion heiratet sie und hat sogar Kinder mit ihr.
Im Mittelalter gilt die künstliche Erschaffung eines Menschen im jüdisch-christlichen Kontext als grundsätzlich verwerflich, da dies nur Gott vorbehalten ist. So warnt die bekannte Golem-Legende vor den Gefahren menschlicher Hybris und der Schöpfung von Leben ohne göttliche Autorität. Im Unterschied zu Galatea bleibt Golem ein seelenloses Wesen, das keine eigene Willenskraft besitzt (Frenzel 2008: 503).
Erst im Zeitalter der Aufklärung finden wir optimistische Varianten des Motivs. Der provokante Arzt Julien Offray de La Mettrie dreht das ganze Verhältnis um: In «L’Homme-Machine» (1748) postuliert er, dass der Mensch eine Maschine ist, und hält es für möglich und gut, dass «eines Tages rein mechanisch ein Androide gebaut werden würde, der stehen, gehen, sprechen und alle menschlichen Gebärden verrichten könne» (Frenzel 2008: 504).
Seit der Romantik dominieren aber wieder negative Versionen des Motivs: Frankenstein von Mary Shelley, Der Sandmann von E. T. A. Hoffmann u. a. Motivgeschichtlich betrachtet artikulieren sich Ängste gegenüber künstlichen Menschen bzw. künstlicher Intelligenz schon seit der Antike. Darum ist anzunehmen, dass sich in den negativen KI-Narrativen eine Urangst artikuliert, die man nicht einfach so – z. B. durch ein positives KI-Narrativ – zur Seite schieben kann.

2. West-Ost-Wahrnehmung von KI
Das 2018 bis 2022 durchgeführte internationale Forschungsprojekt Global AI Narratives (GAIN) untersuchte, wie verschiedene Kulturen und Regionen die Risiken und Vorteile von KI wahrnehmen, und versuchte die Einflüsse besser zu verstehen, die diese Wahrnehmungen prägen. Eines der wichtigen Ergebnisse aus dem Projekt war, dass künstliche Intelligenz bzw. Roboter in West und Ost unterschiedlich wahrgenommen werden: im Westen eher negativ-problematisierend, im Osten eher positiv-aufgeschlossen. Während Comics in den westlichen KI-Narrativen eine untergeordnete Rolle spielen, werden in Japan viele KI-Forschende vor allem von Mangas und Animes beeinflusst. KI- und Roboterfiguren werden entweder als buddy oder als extension kategorisiert. Die buddy-Figuren Astro Boy und Doraemon haben die Vorstellungen von KI und Robotern in Japan am stärksten geprägt (Quelle). Die extension-Figur Tetsujin-28 wiederum zeichnet sich dadurch aus, dass sie ausdrücklich blosses Werkzeug ist: Tetsujin ist nicht autonom, sondern ein Diener des Guten oder des Bösen, je nachdem, wer seine Fernsteuerung besitzt (Quelle).
Ein Erklärungsansatz für die unterschiedliche West-Ost-Wahrnehmung ist, dass in Japan das Verhältnis zwischen Mensch und Maschine bzw. zwischen menschlichen und nicht-menschlichen Entitäten graduell und als Kontinuum verstanden wird, während im Westen eine polar-dualistische Sicht (entweder Mensch oder Maschine) ohne Kontinuum bzw. Übergänge dominiert. Die polar-dualistische Sicht wurzelt im christlichen Unterbau bzw. Kontext. Trotz Säkularisierung wird im Westen die Erschaffung einer dem Mensch vergleichbaren, gleichwertigen oder gar überlegenen Intelligenz immer noch als Sakrileg verstanden.

3. Das Meta-Meta-Narrativ
Zu einer «digitalen Mündigkeit» (Noller 2024) gehört, dass wir verstehen, was generative KI ist, wie sie funktioniert und was mit ihr möglich ist (und was nicht). Prädiktive Technologien bzw. algorithmische Systeme – Begriffe, die das ungenaue Kofferwort «KI» vermeiden – können so nicht als Gegenspieler, sondern als (mögliche) Mitspieler aufgefasst werden (Hofmann 2022). Dann kann die Frage im Mittelpunkt stehen, wie diese Technologien und Systeme aus ethischem Blickwinkel entwickelt und eingesetzt werden können (vgl. z. B. Human Centered AI).
Hinter den diskutierten KI-(Meta)Narrativen versteckt sich ein Meta-Meta-Narrativ (das eine implizite Voraussetzung enthält): technologische Entwicklung bzw. Innovation als die treibende Kraft gesellschaftlicher Entwicklung anzusehen. Wir sollten diskutieren, ob tatsächlich neue Technologien die Haupttreiber gesellschaftlicher Entwicklung sind. Schreiben wir Technologien (wie z. B. aktuell generativer KI) eine zu grosse Wirkung zu? Gäbe es auch alternative Sichtweisen? Ist die Annahme eines Zusammenspiels mehrerer Triebkräfte (Innovation/Technologie, Ökonomie, Politik, Bildung/Wissenschaft) für eine adäquate Bewertung passender? To be discussed.

Bild: DALL-E prompted by PN.

Admin - 08:06 @ Philo-Blog | Kommentar hinzufügen

18.06.2024

KI-Narrative (#2/3)

DALLE 2024-06-18 09.33.54 - A grand library filled with many open books scattered around. The library features towering bookshelves filled with books, intricate wooden designs, a.jpgWie werden KI-Narrative aus einem ethischen Blickwinkel beurteilt? Dazu zwei Stimmen:

Petra Grimm (Stuttgart) bündelt in einem aktuellen Input KI-Narrative (am Beispiel ChatGPT) in zwei grosse Metanarrative, die sie mit den mythischen Figuren Prometheus und Pandora versinnbildlicht. Mit «Metanarrativen» sind Muster gemeint, «nach denen eine Kultur ihre Kommunikationen zu einem Thema bzw. einem Diskurs strukturiert» (Grimm). Beim Prometheus-Metanarrativ steht KI positiv für mehr Effektivität, Optimierung, Fülle/Glück, Heilung oder eine Weiterentwicklung der Menschheit; beim Büchse-der-Pandora-Metanarrativ dagegen steht KI negativ für Kontroll- und Autonomieverlust, mehr Überwachung, Destabilisierung, Arbeitsplatzverlust oder Einsatz im Krieg. 

Mark Coeckelbergh (Wien) wiederum unterstreicht, dass das Nachdenken über das Verhältnis von Menschen und Maschinen bzw. künstlichen Entitäten gar nicht neu, sondern sehr alt ist und seine Ursprünge bis in die Antike und weiter zurückverfolgt werden können (Coeckelbergh 2020). Dabei spiele im westlichen Kontext die Golem-Legende und Mary Shelleys Frankenstein-Erzählung eine prägende Rolle: «Moreover, as in Frankenstein and the Golem legend, a narrative of competition emerges: the artificial creation competes with the human. This narrative continues to shape our science fiction about AI, but also our contemporary thinking about technologies such as AI and Robotics» (Coeckelbergh 2020: 21). Das «competition narrative» – der Wettbewerb (bzw. Kampf) zwischen menschlicher und künstlicher Intelligenz – ist laut Coeckelbergh das dominierende Narrativ heute.

Tatsächlich weisen Umfragen darauf hin, dass KI in verschiedenen Ländern (AUS, CAN, F, D, UK, JP, SGP, USA) eher mit Misstrauen wahrgenommen wird (Gillespie et al. 2021). Dies stimmt für die USA auch damit überein, dass man die ‹AI-Awareness› in der US-Bevölkerung als durchzogen anschauen muss (Kennedy et al. 2023). Zwar wissen viele US-Amerikaner:innen über häufige Anwendungen von KI wie Chatbots und personalisierte Empfehlungen Bescheid, aber nur 30% erkennen KI in typischen Kontexten (Fitnesstracker, Chatbot, Produktempfehlungen, Sicherheitskameras, Spamfilter). Das Hintergrundwissen zu KI variiert je nach Bildungsstand und Einkommen, wobei höhere Levels mit grösserem Wissen korrelieren. Trotz häufiger Interaktionen mit KI bleibt die US-Öffentlichkeit vorsichtig: 38% sind mehr besorgt als begeistert über die zunehmende Rolle von KI, während 46% gemischte Gefühle haben.

Auch laut dem AI Index Report (Stanford University, 2023) sind sich Menschen der potenziellen Auswirkungen der KI bewusster – und nervöser. Für 2023 ist der Anteil derjenigen, die glauben, dass KI ihr Leben in den nächsten drei bis fünf Jahren dramatisch beeinflussen wird, von 60% auf 66% gestiegen ist. Darüber hinaus äussern 52% Nervosität gegenüber KI-Produkten und -Dienstleistungen (+13 % gegenüber 2022). In den USA geben 52% der Amerikaner:innen an, eher besorgt als begeistert über KI zu sein (+14% gegenüber 2022).

In der Schweiz zeigt eine repräsentative Umfrage der Digital Society Initiative in Kooperation mit der GFS Bern, dass die Skepsis gegenüber der Nutzung von KI steigt, doch gleichzeitig erhofft man sich eine grosse Entlastung für den Berufsalltag (DSI UZH 2024).

Auch in deutschsprachigen Medien, so mein Eindruck, wird mehrheitlich auf das Pandora-Narrativ bzw. das competition narrative referiert. Es ist durchaus plausibel, dass die Bilder und Projektionen aus dem filmischen Bedrohungsnarrativ ihre Wirkung auf die allgemeine Wahrnehmung von KI in der Gesellschaft entfalten. Ich vermute aber, dass dabei auch folgende Faktoren eine Rolle spielen:

1. Medienschaffende verfügen (noch) nicht über ausreichend informatisches bzw. technisches Hintergrundwissen zu KI bzw. KI-Systemen und bedienen sich bei den fiktionalen Narrativen. Fachlich gesehen fussen Medienberichte über KI immer wieder auf Fehlannahmen zu KI oder Missverständnissen (vgl. Rehak 2023). Das zeigt sich u. a. auch darin, dass sich die negativen KI-Narrative in der Regel gar nicht auf die aktuell hypende generative KI, sondern auf die «GOFAI» («Good Old-Fashioned Artificial Intelligence», Haugeland 1985) beziehen.

2. Beiträge in den Medien, die auf das Bedrohungs- bzw. Pandora-Narrativ referieren, versprechen nach dem ‹death sells›-Modell mehr Klicks bzw. Aufmerksamkeit, sind also aus kommerzieller Sicht attraktiver.

3. Der europäische «Techlash»: Europa hinkt im globalen KI-Rennen hinterher und hat es schwer, führende KI-Unternehmen hervorzubringen. KI wird in Europa stark mit den US-amerikanischen Big Five (GAMAM: Google, Apple, Meta, Amazon, Microsoft) in Verbindung gebracht (was ja durchaus Sinn macht), mit denen wiederum gerade in deutschsprachigen Medien gerne das Narrativ der profitgierigen US-Big-Tech-Firmen verknüpft wird.

Aus medienethischem Blickwinkel braucht es für die öffentliche Debatte andere KI-Narrative. Eine Bedingung für adäquatere Narrative ist (u. a.), genauer hinzusehen, wie generative KI funktioniert und wo sie wie genau zum Einsatz kommt. Mehr dazu im nächsten und letzten Post zu KI-Narrativen.

[Bild: DALL-E prompted by PN.]

Pavel - 09:05 @ Philo-Blog | Kommentar hinzufügen

11.06.2024

KI-Narrative (#1/3)

DALLE 2024-06-11 11.34.00 - An artistic representation of the theme Science fiction stories shape our worldview, depicting an open book at the center with futuristic illustrati.jpgFür mein Weiterbildungsformat Ethische Herausforderungen durch KI möchte ich KI-Narrative für einen Einstieg in die Thematik verwenden. Dass «Narrativ» kein scharfer Begriff ist, sehe ich für diesen Zweck als Vorteil. Narrative bzw. Metanarrative können als sinnstiftende Erzählungen verstanden werden, die einen starken Einfluss auf kulturelle und gesellschaftliche Entwicklungen haben (Lyotard 1979, Ricoeur 1984, Bruner 1986, Geertz 2002). Mit dem «narrative turn» hat sich Narrativität zu einem interdisziplinären Schlüsselbegriff entwickelt (Nünning 2011), der auch in die Medienforschung Eingang gefunden hat (vgl. Müller/Grimm 2016). Zwei Haupterkenntnisse meiner kleinen Recherche: 1. Fiktionale KI-Narrative haben einen grossen Einfluss auf nichtfiktionale KI-Narrative. Dieser Einfluss ist meistens nicht bewusst. 2. Im globalen Vergleich differieren KI-Narrative: im Westen eher negativ, im Osten eher positiv.

Mir sind KI-Narrative erstmals in der Jugend in SF-Büchern und -Filmen begegnet – meist in Robotergestalt wie C-3PO (Star Wars) oder T-800 (Terminator). Während C-3PO eher harmlos und lustig daherkommt, ist T-800 eine fast nicht zu stoppende, furchterregende Killer-KI. Nachhaltiger beunruhigt hat mich aber HAL-9000 (2001 Odyssee), der ganz ‹intelligent› (bzw. infam) auf einem Raumschiff unterwegs zum Jupiter einen Astronauten nach dem anderen auslöscht. In der Schlüsselszene des Films kann der einzige noch lebende Astronaut HAL-9000 im letzten Moment abschalten. Das von Stanley Kubrick filmisch meisterhaft geschilderte Duell zwischen menschlicher und maschineller Intelligenz blieb in meinem Gedächtnis hängen, weil HAL ganz anthropomorph auftritt. So ‹regrediert› er während des Abschaltprozesses und singt für sich – nachdem er realisiert hat, dass er den Abschaltprozess nicht stoppen kann – das Kinderlied Daisy Bell – wohl um sich zu beruhigen (so als ob eine KI ‹sterben› und vor ihrem ‹Tod› auch noch ‹Angst› verspüren könnte).

Dass fiktionale Erzählungen wie SF-Filme u. a. einen wichtigen Einfluss auf das kollektive Bewusstein (im Westen) haben, zeigt folgende Untersuchung auf: Nadine Hammele hat die narrative Struktur von 70 Science-Fiction-Filmen analysiert, die zwischen 1970 und 2020 veröffentlicht wurden, und daraus drei Metanarrative extrahiert (Hammele 2024):

• Das Bedrohungsnarrativ: Killerroboter und künstliche Superintelligenzen, die Menschenleben bedrohen (z.B. Terminator, Matrix, I, Robot).
• Das Befreiungsnarrativ: Menschenähnliche KI-Roboter, die nach Freiheit und Gleichstellung mit dem Menschen streben (z.B. Nummer 5 lebt!, Der 200 Jahre Mann)
• Das Beziehungsnarrativ: Liebesbeziehungen und Freundschaften zwischen Mensch und KI, die durch Konflikte auf die Probe gestellt werden (z. B. Her, A.I. – Künstliche Intelligenz, Robot & Frank).

Alle drei Metanarrative zeigen deutlich auf, welche Projektionen (Übertragungen) in Bezug auf Künstliche Intelligenz wirksam sind: die Angst, von einer Maschine beherrscht oder ausgelöscht zu werden, die Erwartung, dass künstliche Intelligenzen (Androide) menschlich werden, oder die Hoffnung, das Bedürfnis nach Zweisamkeit durch die Beziehung zu einer künstlichen Intelligenz auf neue, vielleicht umfassendere Art stillen zu können. Die Metanarrative zeigen ebenso auf, dass solche Projektionen durch Anthropomorphie zustandekommen. Nach meiner Interpretation führt genau dieser ‹Übertragungsmechanismus› zu den üblichen KI-Missverständnissen.

Die Untersuchung von Hammele korrespondiert mit den Befunden des GAIN-Projektes. Dieses untersuchte 2018 bis 2022 weltweit, wie KI in der Populärkultur dargestellt wurde und wird und welche Auswirkungen dies nicht nur auf Leser:innen und Kinobesucher:innen, sondern auch auf KI-Forscher:innen, militärische und staatliche Stellen sowie die breite Öffentlichkeit hat (vgl. auch Cave, Dihal & Dillon 2020). Ein wichtiges Ergebnis von GAIN ist, dass die eher negative Wahrnehmung von KI in westlichen Ländern stark von Filmerzählungen beeinflusst ist. «All the questions being raised about AI today have already been explored in a very sophisticated fashion, for a very long time, in science fiction», betont die GAIN-Leiterin Sarah Dillon (vgl. Roberts 2018). Ein weiteres auffälliges Ergebnis ist, dass es in der Wahrnehmung und Bewertung von KI deutliche interkulturelle Unterschiede gibt. So dominieren im Unterschied zu westlichen Ländern im ostasiatischen Kontext mehrheitlich positive KI-Narrative.

PS: In meinen nächsten Posts werde ich auf KI-Narrative aus der Sicht der Medienethik und auf Thesen zu den interkulturellen Unterschieden in der Wahrnehmung von KI eingehen.

Bild: DALL-E prompted by PN.

Pavel - 11:06 @ Philo-Blog | Kommentar hinzufügen

29.05.2024

ChatGPT ist eine Banane

DALLE 2024-05-29 08.08.54 - A vibrant comic-style image featuring a green banana with elements that suggest it is related to AI. The banana should have a futuristic look with cir.jpgVon «Bananensoftware» hörte ich das erste Mal vor 30 Jahren im Zusammenhang mit Windows 95. Das war wirklich eine grüne Banane, aber ist bei mir als Kunde nie ganz ausgereift.

Ist ChatGPT auch eine grüne Banane? Die NZZ (23.05.24) meint, dass Tech-Firmen im Hinblick auf KI-Systeme mit dem ‹Prinzip Hoffnung› arbeiten. Ich denke, dass bei der Lancierung von ChatGPT ab November 2022 nicht der deutsche Philosoph Ernst Bloch Pate stand, sondern das in der Software-Branche bekannte Perpetual-beta-Modell zur Anwendung kommt. Von «perpetual beta» spricht man in der Software-Entwicklung, wenn ein System ständig – basierend auf Nutzerrückmeldungen, neuen Forschungsergebnissen und technologischen Fortschritten – weiterentwickelt, verbessert und aktualisiert wird. Anders gesagt: Die noch grüne Banane reift beim Kunden aus. Dieses Vorgehen garantiert dem Nutzer einerseits ein stets optimiertes Produkt, kostet andererseits aber auch Nerven und birgt Risiken. Perpetual-Beta-Software wird für unternehmenskritische Systeme nicht empfohlen.

General Purpose AI (GPAI) wie ChatGPT als grüne Banane bzw. im Perpetual-beta-Modell auf die Menschheit loszuschicken und ein paar Monate nach der Lancierung mit Kassandrarufen in der Öffentlichkeit aufzutreten und ein KI-Moratorium zu fordern, riecht nach «double game». Die KI-Unternehmen wollen big money, aber sich auch als verantwortungsvolle Partner inszenieren, die die Interessen ihrer Nutzer ernst nehmen («… wir haben ja gewarnt, dass es schief gehen könnte»). Dass es auch intern – zum Beispiel bei OpenAI – Auseinandersetzungen um die Sicherheitskultur gibt, zeigen die aktuellen Abgänge von Ilya Sutskever und Jan Leike.

Was bei Bananen durchaus hingehen kann, bei einem Beriebssystem grenzwertig ist, verursacht bei GPAIs wie ChatGPT eher Stirnrunzeln. Kann man generative KI-Systeme weiterhin im Perpetual-Beta-Modell auf die Nutzer loslassen? Meine Hoffnung ist, dass hier der AI Act der EU eine wichtige Rolle spielen wird. Nach der zwölfmonatigen Übergangsfrist sind Unternehmen, die GPAI-Modelle releasen, unter anderem verpflichtet, die EU-Urheberrechtsrichtlinien einzuhalten und eine Zusammenfassung der für das Training ihres LLMs verwendeten Inhalte bereitzustellen. Da bin ich aber gespannt.

PS: Übrigens gelten GPAI-Modelle laut AI Act dann als systemgefährdend, wenn der kumulative Rechenaufwand für ihr Training mehr als 10^25 FLOPs (Floating Point Operations) beträgt. Das entspricht zehn Trilliarden Gleitkommaoperationen und damit weit mehr als bei den meisten gängigen GPAIs, die aktuell in Forschung und Industrie verwendet werden.

Bild: DALL-E prompted by PN.

Pavel - 11:25 @ Philo-Blog | Kommentar hinzufügen

E-Mail
Anruf
LinkedIn