Bedächtig Stille im Wohnzimmer. Knapp 50 Besucher*innen starren auf die aufgebaute Kinoleinwand. Es läuft Ex Machina, ein Film aus dem Jahr 2015, der eine Dystopie beschreibt, die die Köpfe rauchen lässt. Manch eine*r wirkt etwas müde, fast kann man sehen, wie die Gedanken aus den letzten Tagen noch in den Köpfen kreisen: »Was ist KI eigentlich? Wie machen wir das und was macht das mit uns?«.
Die sphärische Musik wird nur vom Knarzen der Toilettentür und dem Knuspern des Campus-Life Popcorns unterbrochen. Ava, die KI im Film soll einem Turing Test unterzogen werden und wie erwartet, läuft alles ziemlich aus dem Ruder. Zwischendurch fragt man sich: Wer testet hier eigentlich wen?
An diesem letzten Abend der Projektwoche soll es einen Ausblick geben: Was bringt die Zukunft für die KI und für uns?
Als der Film zu Ende ist und sofort geschäftiges Treiben im Wohnzimmer einsetzt, blickt man in fragende, aber auch interessierte Gesichter.
Marie Mikuteit begrüßt das Publikum und auch die zwei Diskussionsgäste. Fragen werden, wie an den anderen Abenden auch, mithilfe von sli.do gesammelt. Heute abend stehen die ethischen Fragen eindeutig im Vordergrund. »Kann KI Moral haben?«, »Kann KI sich selbst programmieren und welche Folgen hätte das?«, »Ist die menschliche Moral nicht auch nur ein Produkt aus den Daten, die einem Menschen im Laufe seines Lebens zugeführt werden?«. Markus Ahlers, Informatiker und Wissenschaftsphilosoph, reagiert locker: »Die KI erschafft ja nicht die Werte, die nachher zu einer Entscheidung führen. Sie kann nur auf Daten basieren, die sie von uns bekommt.« Es gebe zwei Theorien in der KI, die schwache und die starke. Starke KI, so wie Ava, sei Utopie. »Niemand bekommt für so einen Forschungsantrag heute Geld.« Die schwache jedoch baue auf KI-Systeme, die sich mit einer speziellen Aufgabe befassen, die sie dann eventuell einmal sehr effizient und gut lösen können. Dabei bleibe es dann der auch.
Eike Gräf, Politikwissenschaftler und Policy Advisor beim iRights.lab, stellt andere Fragen in den Raum: „Was ist denn überhaupt moralisch relevant?“ Als es um Verantwortung geht, stellt er fest, dass nur der*diejenige Verantwortung haben kann, der*die Moral besitze – und das seien wir Menschen.
Die Diskussion wird für Fragen aus dem Publikum geöffnet und es beginnt eine rege Diskussion darüber, ob der tägliche Umgang mit KI-Systemen unsere Persönlichkeit und unser Zusammenleben verändern könne.
Ahlers ist sich sicher: »Die Industrialisierung hat große Veränderungen fürs soziale Leben gebracht und genau das gleich e kann auch im Bezug auf KI passieren.«
Sein an diesem Abend viel diskutiertes Beispiel der WG-Spülmaschine wird ins rennen geschickt. »Ich kann mir vorstellen, dass WG-Klimata sich sehr positiv entwickelt haben, seit es Spülmaschinen gibt.« Spricht da etwa jemand aus Erfahrung?
Gräf und Ahlers sind sich am Ende einig: bevor wir uns mit Utopien wie Ava beschäftigen, sollten wir die aktuellen konkreten Probleme angehen. Beispielsweise das autonome Fahren, das schon viel mehr als nur Zukunftsvision ist. »Es klingt langweilig, aber: geht raus, nutzt die Demokratie, geht wählen dun mischt euch ein.«, nennt Ahlers immer wieder als Teil der Lösung.
Gräf gibt zum Schluss noch einen praktischen Tipp, den er mal von einem Informatiker bekommen hat: »Wenn ihr einen Turing-Test machen sollt, dann fragt immer: Was ist hinter dir? Das kriegt eine körperlose Software niemals raus.«
Die Projektwoche ist noch nicht ganz zu Ende. Wer Lust auf mehr hat, kann sich im Ilias für eines der Folgeseminare anmelden.
/lk