Von Lukas Vogelsang — Am 1. März 2023 fand in Bern im Mobiliar-Hauptsitz ein Round Table über «Die Emanzipation der künstlichen Intelligenz» statt. Teilgenommen haben: Professor Florian von Wangenheim (ETH Zürich), Tobias Gutmann (Künstler, Sai-Bot-Performer), Anna-Lena Köng (Risiko-Stiftung), Jérôme Koller (Leiter Arena-Steuerung, Mobiliar). Moderiert wurde der Anlass von Marta Kwiatkowski, Leiterin Gesellschaftsengagement, Mobiliar. Ich versuche hier, die wichtigsten Aussagen oder Teile davon wiederzugeben und mich als ehemaliger technischer Redaktor in die Diskussion einzumischen.
Zu Beginn erzählte Tobias Gutmann, wie er zur Idee kam, den Sai Bot zu «erfinden»: Es sei eine längere Geschichte, denn er habe ja 10 Jahre lang mit dem Face-o-mat weltweit analog Gesichter gezeichnet. Während dieser Zeit seien immer mehr Dinge durch Maschinen ersetzt worden. So sitze man im Zug auch nicht mehr mit Menschen, sondern mit Mobilephones zusammen. Alles sei im Wandel, und die Digitalisierung sei auch an ihm nicht spurlos vorbeigegangen. Diese analogen Face-o-mat-Geschichten wurden auf sozialen Medien und Blogs geteilt. Und irgendwann, nachdem er rund 5000 Porträts gezeichnet hatte, überlegte er, wie es wäre, wenn er diese Zeichentechnik einem digitalen Wesen lernen würde. Und so entstand Sai Bot.
War das auch eine Frage der Effizienz?
Tobias Gutmann: Am Rande schon. Beim Face-o-mat mochte ich ja genau die Langsamkeit und wusste, dass ich niemals alle Menschen in der Welt würde zeichnen können. Bei Sai Bot ist es das Gegenteil: In Theorie könnte ich eigentlich das Ding hochskalieren, und für die Maschine wäre das möglich. Ich als Mensch habe da keine Chance.
Am Anfang ging ich die Idee noch leicht ironisch an. Das sei doch nicht dasselbe, das gehe doch nicht, man könnte mich doch nicht kopieren … Aber dann war eben diese Challenge, das mal auszuprobieren. Und das hatte mich gereizt. Jetzt hat Sai Bot schon Tausende Gesichter gezeichnet.
Ich bin etwas entsetzt: Wie unbedarft die Idee, den Menschen zu ersetzen, zustande kam, ist für mich befremdend: «einfach mal ausprobieren», «eine Challenge», eine Idee. Was bedeutet noch menschliches Leben? Ist die Frage nach dem Sinn des Lebens so unlösbar, dass wir uns «ent-sinnen»? Die Diskussionsrunde ist stolz auf die Leistung von Sai Bot. 1300 Zeichnungen wurden in der Mobiliar-Ausstellung allein gezeichnet – 5000 hatte Tobias innerhalb von 10 Jahren analog hingemalt. Die Quantität ist aus meiner Sicht kein Indikator. Als ich die Ausstellung vor zwei Monaten besuchte, hörte ich Mobiliar-MitarbeiterInnen erzählen, dass KollegInnen mit dem Ergebnis der Zeichnungen nicht zufrieden gewesen seien und immer und immer wieder neue Porträts ausprobiert hätten. Ein interessantes Phänomen, das man in die Diskussion einbeziehen müsste: Der Mensch hat die Interpretation der Maschine bewertet und so oft wiederholt, bis er mit dem «Ergebnis» zufrieden war. Würden wir ein Porträt ablehnen, wenn uns eine Malerin oder ein Maler gemalt und interpretiert hätte? Wie hoch wäre die «Fehlerquote»?
Die Maschine interpretiert nur anhand von äusseren Merkmalen und nicht anhand menschlicher Werte. So mag das Ergebnis einer Maschine lustig, nett sein oder eben lobend – doch berührt es so was wie die Seele? Sind es nicht vielmehr einfach Striche und Formen auf einem Papier? Oder stellen wir die Frage anders: Wenn wir ein von einem Menschen gezeichnetes Porträt und ein Computer-Porträt nebeneinanderhalten – welches von den beiden hat für uns mehr Wert? Kommt nicht beim Computerbild unweigerlich der Reflex: Das ist reproduzierbar?
Florian von Wangenheim: Als man begonnen hat, über künstliche Intelligenz zu reden, hat man das ja bewusst getan, und da kam der Begriff Intelligenz aus dem Gedanken, dass man menschliche Intelligenz überträgt. Und das ist natürlich, was Tobias macht, wenn er versucht, der Maschine seinen eigenen Zeichnungsstil beizubringen. Also die Maschine ahmt menschliche Intelligenz nach. Gleichzeitig hat man sich wieder etwas davon verabschiedet, dass Maschinen wirklich intelligent werden können – oder man weiss es noch nicht so richtig. Der zweite Aspekt ist, dass wir künstliche Intelligenz, seit der Begriff aufgekommen ist – eigentlich aus der Science-Fiction-Literatur –, etwas damit verbinden, was in der Zukunft stattfindet. KI ist ja seit den 50er‑, 60er-Jahren auch in verschiedenen Maschinen drin und bestimmt zunehmend unser Leben. Aber es zeigt auf die Zukunft hin. Auf wissenschaftlichen Konferenzen begegnet man häufig der Definition, dass KI immer das ist, was in fünf Jahren möglich sein wird … Und der dritte wichtige Aspekt ist dieses fortwährende Lernen oder die Idee, dass Maschinen selbstständig lernen können. Ich vermute, dass Sai Bot noch nicht fähig ist, aus vergangenen Porträts, die es gemalt hat, und aus Reaktionen, welche Menschen daraufhin zeigten, lernen kann und in der Zukunft anders zeichnen würde. Das wäre der Lernaspekt, in den man viel Hoffnung reinsteckt – aber auch viele Ängste, dass sich die künstliche Intelligenz dann weiterentwickelt. Intelligenz hat ja damit was zu tun, dass man schlauer wird über die Zeit. Und das ist diese abstrakte Idee, dass man Maschinen durch den Aspekt des Lernens Intelligenz verleiht.
Tobias Gutmann entschärft: Er hat die Kontrolle über Sai Bot, das heisst, diese Maschine lernt nicht, sondern führt nur aus, was Tobias ihr gezeigt hat. Lernfähig ist sie nicht. Dafür bräuchte es Feedbacks wie Ratings, damit das System eine Wertung vollziehen kann. Feedbacks? Das kennen wir doch von all den Diensten und Services, die uns täglich nach jedem Kontakt zugestellt werden, damit wir eine Bewertung abgeben.
Tobias’ Antwort ist beruhigend, aber war schon zuvor klar, weil die Technik und die digitale Kapazität für ein solches Projekt noch immer gewaltig sind. Auf einem normalen Computer kann man den Anfang machen – doch die Lernkurve generiert überproportional so viele Daten, dass ein solche Software schlicht die Prozessoren überhitzt und sich die Maschine durch überproportionale Lernrechnungsaufgaben bis zum Stillstand verlangsamt. Deswegen sind die «intelligenten» Systeme auf Grossrechnern ausgelagert, die durch parallele Rechnerverbindungen weltweit operieren. Da geht’s um Rechnungskapazitäten, die wir uns nicht vorstellen können. ChatGPT und all diese «Spielmaschinen», die zurzeit in aller Munde sind, sind darauf ausgerichtet, von den Menschen zu lernen. Ein wichtiger Moment. Aber wer versucht, eine Frage zu stellen, steht oft lange in der digitalen Warteschlange. Das sind insofern gute Nachrichten, als unsere Autos deswegen noch nicht übermässig intelligent sein können. Oftmals sind KI-Ankündigungen schlicht nur Werbung für etwas, das vielleicht in fünf Jahren möglich sein könnte …
Wir hören auch diese Geschichten aus dem unternehmerischen Umfeld, wenn wir jetzt an IBM Watson denken. Vor einigen Jahren gab es die Geschichte, dass in Japan Watson in einer Versicherung eingesetzt worden ist. Was sind da die Potenziale?
Jérôme Koller: Der Fall Watson war damals eine Inspirationsquelle, die haben auch ziemlich viel Werbung gemacht dafür mit der Begründung, es werde sehr viel Effizienz bringen. Diese japanische Versicherung war die erste Firma, die meinte, sie werfe 30 Mitarbeiter raus, weil sie dachten, dass das System diese ersetzen wird. Das war natürlich für diese Versicherung gute Werbung.
Es gibt ein riesiges Potenzial diese Technologie bei uns einzusetzen. Wir bei der Mobiliar werfen natürlich deswegen keine Menschen auf die Strasse, aber wir verwenden solche Systeme. Wer ChatGPT kennt: Bei der Mobiliar setzen wird dieses System nicht ein, aber die Technologie, die darunter liegt, diese transformierenden Algorithmen, sind bei uns in der Tat auch im Einsatz. Aber nur für sehr gezielte Anwendungen. Ein Beispiel wäre: Technologien kann man in einem Unternehmen nutzen, um die Effizienz zu steigern. Aber das ersetzt keine Menschen. Gerade bei der Mobiliar sind die Kunden im Zentrum. So zum Beispiel werden diese Systeme beim Erfassen von Schadensmeldungen eingesetzt und vereinfachen diese Prozesse für die Kunden.
Viele erinnern sich noch an die Suchmaschine Yahoo. Vor 20 Jahren musste man sich auf dieser riesigen Seite durch Kategorien klicken und den Weg zu den Informationen selbst suchen. Doch alle wissen heute, dass Google einfach eine weisse Seite ist mit einem Logo und einem Suchfeld. Und das ist für mich die konzentrierte Macht dieser Technologie. Ich kann einfach schreiben, was ich will, und ich erhalte erste Antworten. ChatGPT macht hier das Potenzial noch grösser.
Eine gute, fachkundige Bemerkung, die Koller hier macht. Die Diskussion geht aber immer, wenn fachkundiges Wissen auftaucht, in die Vertrauensrichtung. Also die eigentliche Frage, die sich mir stellt: Können wir Maschinen vertrauen? Anna-Lena Köng, die einzige Fachfrau in der Runde, kommt erst nach 23 Minuten und 50 Sekunden zu Wort und sagt Wesentliches: Sie vergleicht das Vertrauensthema mit den ersten Flugzeugen. Da sei man auch nicht einfach gleich eingestiegen und in die Luft geflogen – das Vertrauen in die Maschine brauchte Zeit. Ich würde gerne noch anmerken: Bis heute ist die hunderprozentige Sicherheit beim Fliegen nicht gegeben und es stürzt immer wieder ein Flieger ab. Vielleicht ist mein Editorial dieser Ausgabe auch interessant: Vertrauen ist eine menschliche Eigenschaft. Vertrauen Maschinen uns? Oder ist das eine einseitige Liebesbeziehung? Wir sind noch sehr weit entfernt davon, dass eine Maschine echte Kultur verstehen und leben kann. Das macht sie als Bestandteil einer Gesellschaft unbrauchbar, höchstens als Sklave davon nützlich. Doch genau diese Passage wäre dringend zu überdenken. Man stelle sich vor, was passiert, wenn die Maschine es merkt!
Doch Köng sagt auch, dass sich die Entwicklung von automatisierten Prozessen hin zu autonomen Systemen verlagere. Das ist diese Neuentwicklung oder eben der Unterschied zu den 60er-Jahren, als man Maschinen pseudointelligent gemacht hat. Das ist eine Schlüsseldefinition von dieser Entwicklung oder davon, was wir zurzeit erleben. Köng meint zudem, dass es sehr kompliziert und schwierig sei, mit diesen neuen, autonomeren Maschinen mitzuhalten – als Menschen. Es brauche viele neue Regulierungen, das Bildungswesen rüttle es momentan stark auf, und wir müssten da viel schneller werden. Gleichzeitig sei es schwierig, jetzt schon Grenzen zu setzen. Das Militär wiederum erforsche sehr stark diese Mensch-Maschinen-Symbiose, und Köng meint dazu, dass wir uns noch viel mehr in diese Richtung entwickeln würden.
Bei einer These klingelten aber die Alarmglocken: Köng meinte – und ich weiss schon, wie sie es meinte –, dass Maschinen fehlerhaft bleiben sollten, damit wir Menschen nicht dieser Perfektion gegenüberstehen. Also eine «natürliche» Fehlerquote im Bordcomputer eines selbstfliegenden Flugzeugs? Sollen wir darauf vertrauen, dass die Maschine eine gleiche Fehleranfälligkeit aufweist wie der Mensch? Wollen wir das?
Und gut ist, dass wir eben genau über diese Ideen, Maschinen und unsere Zukunft diskutieren.
Das war jetzt knapp die Hälfe der Diskussion, die ich hier verarbeitet habe. Wer diese nachhören möchte, kann auf unserer Website oder bei Tobias Gutmann auf dem Instagram-Account nachsehen.
www.instagram.com/tobiasgutmann
Über Tobias Gutmann
Seit mehr als zehn Jahren porträtiert Tobias Gutmann (*1987) mit seiner Performance «Face-o-mat» Menschen. Er wurde bereits in namhafte Ausstellungshäuser wie das Centre Pompidou in Paris, das Platform L Contemporary Art Center in Seoul, das Haus Konstruktiv in Zürich und die Kunsthalle Bern eingeladen. 2019 begann der Künstler eine Zusammenarbeit mit Dazlus, um Sai Bot zu entwickeln. Der künstlichen Intelligenz wurde beigebracht, Gesichter zu lesen und zu interpretieren. Dabei hat Sai Bot gelernt, Brillen, Haare, Ohren und Muttermale zu analysieren. Im Gegensatz dazu sind herkömmliche Gesichtserkennungssoftwares auf die Erkennung von Augen und Mund spezialisiert. Nun porträtiert die künstliche Intelligenz im Stil von Tobias Gutmann Menschen in aller Welt.