Blog zu Themen und Fragen aus Philosophie und Kultur. Ich poste hier rund alle zwei Wochen bzw. mindestens einmal im Monat.
29.05.2024
Von «Bananensoftware» hörte ich das erste Mal vor 30 Jahren im Zusammenhang mit Windows 95. Das war wirklich eine grüne Banane, aber ist bei mir als Kunde nie ganz ausgereift.
Ist ChatGPT auch eine grüne Banane? Die NZZ (23.05.24) meint, dass Tech-Firmen im Hinblick auf KI-Systeme mit dem ‹Prinzip Hoffnung› arbeiten. Ich denke, dass bei der Lancierung von ChatGPT ab November 2022 nicht der deutsche Philosoph Ernst Bloch Pate stand, sondern das in der Software-Branche bekannte Perpetual-beta-Modell zur Anwendung kommt. Von «perpetual beta» spricht man in der Software-Entwicklung, wenn ein System ständig – basierend auf Nutzerrückmeldungen, neuen Forschungsergebnissen und technologischen Fortschritten – weiterentwickelt, verbessert und aktualisiert wird. Anders gesagt: Die noch grüne Banane reift beim Kunden aus. Dieses Vorgehen garantiert dem Nutzer einerseits ein stets optimiertes Produkt, kostet andererseits aber auch Nerven und birgt Risiken. Perpetual-Beta-Software wird für unternehmenskritische Systeme nicht empfohlen.
General Purpose AI (GPAI) wie ChatGPT als grüne Banane bzw. im Perpetual-beta-Modell auf die Menschheit loszuschicken und ein paar Monate nach der Lancierung mit Kassandrarufen in der Öffentlichkeit aufzutreten und ein KI-Moratorium zu fordern, riecht nach «double game». Die KI-Unternehmen wollen big money, aber sich auch als verantwortungsvolle Partner inszenieren, die die Interessen ihrer Nutzer ernst nehmen («… wir haben ja gewarnt, dass es schief gehen könnte»). Dass es auch intern – zum Beispiel bei OpenAI – Auseinandersetzungen um die Sicherheitskultur gibt, zeigen die aktuellen Abgänge von Ilya Sutskever und Jan Leike.
Was bei Bananen durchaus hingehen kann, bei einem Beriebssystem grenzwertig ist, verursacht bei GPAIs wie ChatGPT eher Stirnrunzeln. Kann man generative KI-Systeme weiterhin im Perpetual-Beta-Modell auf die Nutzer loslassen? Meine Hoffnung ist, dass hier der AI Act der EU eine wichtige Rolle spielen wird. Nach der zwölfmonatigen Übergangsfrist sind Unternehmen, die GPAI-Modelle releasen, unter anderem verpflichtet, die EU-Urheberrechtsrichtlinien einzuhalten und eine Zusammenfassung der für das Training ihres LLMs verwendeten Inhalte bereitzustellen. Da bin ich aber gespannt.
PS: Übrigens gelten GPAI-Modelle laut AI Act dann als systemgefährdend, wenn der kumulative Rechenaufwand für ihr Training mehr als 10^25 FLOPs (Floating Point Operations) beträgt. Das entspricht zehn Trilliarden Gleitkommaoperationen und damit weit mehr als bei den meisten gängigen GPAIs, die aktuell in Forschung und Industrie verwendet werden.
Bild: DALL-E prompted by PN.
Pavel - 11:25 @ Philo-Blog | Kommentar hinzufügen