Ich habe während meiner TakeCare-Residenz daran gearbeitet, künstliche Intelligenz und die Debatte um eine ostdeutsche Identität zu verbinden.
Weil künstliche Intelligenz sich wie Identität auf ein unklares Vergangenes beruft. Weil KI wie Identität mit historischen Daten Aussagen über die Zukunft treffen will. Weil sich ostdeutsche Identität zu westdeutscher Identität wie künstliche Intelligenz zu natürlicher Intelligenz verhält. Es stellt infrage, was vermeintlich selbstverständlich scheint und zwingt uns in einen Erklärungsprozess.
Die KI
Um diese Verbindungen zu illustrieren, habe ich mich entschieden, mit der vortrainierten KI StyleGAN2 (laut Wikipedia »ein generatives kontradiktorisches Netzwerk«) zu arbeiten. Die KI kann, wie die Website this-person-does-not-exist.com zeigt, durch jede Menge Training aus dem Nichts Bilder erzeugen, die den Bildern gleichen, mit denen sie zuvor hundert- oder tausendfach trainiert wurde.
Kurz: Ihr wurde also eine große Anzahl ähnlicher Bilder gezeigt und irgendwann weiß die KI so gut, wie diese Bilder aussehen, dass sie selbst imitieren kann und neue erzeugt: quasi ein Beltracchi für Gesichter.
Das Material
Ich hatte mir vorgenommen, den StyleGan auf ostdeutsche Architektur zu trainieren, um so imaginierte Landschaften erzeugen zu können. Dafür habe ich Martin Maleschka, wichtigster fotografischer Konservator von DDR-Architektur, gebeten, eine KI mit seinen Bildern füttern zu dürfen. Maleschkas Bilder sind herausragend und haben eine sehr klare, eigene Ästhetik: Es macht Spaß sie zu betrachten, weil sie nicht nur abbilden, sondern auszeichnen. In der Gesamtheit erzählen sie sogar ihre eigene Geschichte eines verblassenden Landes.
Learnings
Ein ähnlich großer Fan wie von Maleschka bin ich von Selbstüberschätzung. Ich dachte mir zu Beginn der Residenz: »Ach, so eine KI, die ein bisschen Fotos erzeugt, das kriegst du hin, gar kein Problem.« Dies war leider nicht so, was auch daran liegt, dass viele Paper eben nicht schreiben, was mit einem einzelnen Computer (aka GPU) innerhalb von ein paar Stunden geht, sondern was mit Rechenleistungen machbar ist, die, würde man sie mieten, 50.000 (yes, fünfzigtausend) Dollar aufwärts kosten. Am Ende habe ich es hinbekommen, allerdings waren dafür ein paar Unternehmungen notwendig:
1. Klein anfangen
Der wichtigste Punkt: Eine KI zu trainieren dauert lang, lang, länger. Noch länger dauert es, wenn man zu Beginn nicht darauf achtet, welche Größe die Bilder haben (siehe dazu auch Punkt 4). Ob 128×128 oder 1024×1024 Pixel macht einen enormen Unterschied. Die Funktionsweise bilderzeugender KIs kann man sich vorstellen wie ein »Malen nach Zahlen«: Jeder Pixel wird einzeln ausgemalt. Bei einem quadratischen 128×128-Bild hat die KI also 16.384 Felder auszumalen, bei 1024×1024 sind es 1.048.576 Felder usw. Die Rechenleistung bleibt aber gleich. Ein Bild, das die 8-fache Größe hat, braucht in der Erzeugung also eine 64-fache Rechenleistung und damit auch Zeit zum Training. Es ist also ratsam, ein bisschen kleiner anzufangen und dann höher zu skalieren. Wirklich. Auch wenn eine hohe Auflösung eigentlich toller ist.
2. Trainingsset aufbauen
Um an diese Bilder zu kommen, gibt es verschiedene Möglichkeiten. Man kann einen Image-Grabber dazu benutzen, der automatisch Bilder in rauen Mengen herunterlädt, die nicht immer copyrightfrei sind, aber nur im Trainingsset wieder auftauchen, oder man macht es in guter alter, ehrlicher Handarbeit: Rechtsklick, speichern unter. En masse. Die zweite Variante ist vor allem dann nötig, wenn die Bildauswahl nicht aus wahllosen Internet-Bildern bestehen soll.

3. Ran an den Code
Ich habe angefangen, die Programmiersprache Python zu lernen, um den Code zumindest lesen zu können. Dafür gibt es gratis jede Menge gute Online-Tutorials. Ich habe mir das hier ausgewählt: https://www.youtube.com/watch?v=rfscVS0vtbw&, gepaart mit der Python-Lernapp Mimo, die erstens süß aussieht und zweitens die Lektion der Gamification sehr verinnerlicht hat. Mit anderen gemeinsam in einer Liga? Ich muss mehr Punkte sammeln als die anderen? Durch Lernen? Für mich, dessen Aufmerksamkeitsspanne durch Tiktok und Instagram-Reels mit sieben Sekunden gut getroffen ist: perfekt.
4. Resize
Was mir nicht bewusst war und ich gern schon gewusst hätte: Die Bilder, aus denen die KI lernt, müssen quadratisch sein. Technical Requirements. Auch nicht irgendwie quadratisch, sondern in der Größe von Computer-Chips, sprich: 1×1, 2×2, 4×4, 8×8, 16×16, 32×32, 64×64, 128×128 usw.. Es hätte mir einige Tage Arbeit erspart, das von vornherein zu wissen. Für Image Resizing gibt es auch sehr nützliche Freeware und Browsersoftware. Denn das will wirklich niemand, niemand, niemand selbst machen.
5. Gute Tutorials finden
Mein Vorgehen in der Aneignung von Programmiertechniken ist eigentlich immer ähnlich: Ich gucke mir das prinzipielle Funktionsprinzip an, versuche es zu verstehen und gucke mir dann Tutorials an, um Anwendungsbeispiele zu finden. KI ist, noch mehr als andere Technologiebereiche, ein sehr dynamisches Feld. Das bedeutet: Onlinetrainings und Tutorials, die älter als ein bis anderthalb Jahre sind, sind eigentlich ein alter Hut. Ich habe mit der vortrainierten KI StyleGan2 gearbeitet, es gibt mittlerweile auch StyleGan3. StyleGan3 ist schneller, besser, sexyer. Dafür lohnt es sich, ein paar Youtube-Channels zu abonnieren; Tutorials betreffend kann ich Jeff Heaton empfehlen. Er bietet Tutorials zu den gängigsten KIs an.

6. Resume training: Grafikkarte und produktives Warten
Google CoLab ist für alle ohne Nvidia-Grafikkarte the place to go. Da kann der Großteil der Dinge getan werden, die man mit KIs derzeit so machen kann. Sorry für den Verweis und das Namedropping für eine Höllenfirma wie Google, ich habe leider nichts gefunden, was sonst auch nur nahe an Colab herankam – und selbst das nur mit Einschränkungen: Wer nicht für immer auf der langsamsten aller Nvidia-Grafikkarten, der T4, trainieren will, kommt um Premium nicht herum. Was soll ich sagen: 1.048.576 Pixel gingen leider nicht ohne Premium. Langsam anfangen lohnt sich also auch finanziell.
Das »Tolle« am Trainingsprozess einer KI ist: Während die KI trainiert, hat man Zeit. Viel Zeit. Man hat keine aktive Rolle im Prozess. Oder anders gesagt: Man ist überflüssig und kann nur warten, bis der nächste Tic abgelaufen ist. Ich habe daher die Zeit genutzt, um einen Kurs zu künstlicher Intelligenz bei Udemy oder Skillshare oder Coursera zu machen, um die dahinter liegenden Konzepte besser zu verstehen. Bei all diesen Seiten gibt es gratis Einstiegskurse zu Machine Learning 101. Ich habe mich für einen längeren Kurs entschieden, der über 60 Stunden ging. Das war super und ich bin seitdem noch dankbarer, dass es Leute gibt, die KIs vortrainieren. Die Grundprogrammierung ist nämlich wirklich, wirklich kompliziert.
Außerdem habe ich die Zeit, in der die KI ihre Lernrunden ablief, für die Lektüre von einigen Aufsätzen in diesem Buch genutzt: »(Ost)Deutschlands Weg. 80 Studien zur Lage des Landes«. Mir hat die Lektüre nochmal vor Augen geführt, wie defizitär Ostdeutschland oft wahrgenommen wird und wie sehr es dabei um den immer gleichen Generationenkonflikt geht. War die DDR nicht schon ein Ein-Generationen-Staat?
Ausblick
Nun war die KI soweit trainiert und das Resultat nach ungefähr 500 Trainingsrunden: eine eigene Ästhetik. Irgendwo wird das in zukünftigen Arbeiten auftauchen – als was genau, das ist noch nicht entschieden.
Fabian Raith stammt aus Regensburg und lebt und arbeitet in Berlin. Er ist Performer und Medienkünstler und experimentiert mit immersiven Theaterstücken und narrativen Räumen. Bevor er am Schauspielhaus in Hamburg arbeitete, studierte er Europastudien in Erfurt, Frankfurt (Oder) und Istanbul und beschäftigte sich mit Popmusik als politischem Ausdrucksfeld. 2021 schloss er das Masterstudium Spiel && Objekt an der Hochschule für Schauspielkunst »Ernst Busch« ab.