Allgemeines zur Projektwoche:
Wer sind wir?
Wir sind eine Gruppe von Studierenden unterschiedlicher Studienjahre, mit dem Ziel, die Auseinandersetzung mit der Thematik der Künstlichen Intelligenz in unseren Studienalltag zu integrieren. Die Projektwoche entsteht in enger Zusammenarbeit mit dem Kulturreferat des AStAs der MHH und mit weiteren Projektgruppen und Vereinen der MHH wie u.a. Campus Life e.V., MHHumor, StudiKunst.
Wir haben uns für die Organisation der Projektwoche zum Thema Künstliche Intelligenz zusammengeschlossen, da wir die Chancen und Risiken der aktuellen Entwicklungen im Bereich der Künstlichen Intelligenz den Studierenden mit möglichst vielen Perspektiven nahe bringen wollen. Es ist uns ein besonders wichtiges Anliegen, dass sich die Studierenden bewusst, informiert und kritisch mit der Thematik und den Folgen der Künstlichen Intelligenz auseinandersetzen können. So soll die Projektwoche mit ihren Rahmenveranstaltungen nur der Startpunkt sein, sowohl um die Thematik stärker in der MHH zu etablieren, als auch besonders für die persönliche Entwicklung der Studierenden im beruflichen und gesellschaftlichen Rahmen.
Was sind unsere Ziele?
Die Projektwoche zur Künstlichen Intelligenz wird vom 14. – 17. Mai 2018 in der MHH stattfinden. Wir Studierenden stehen vor den Herausforderungen der neuen Entwicklungen und Auswirkungen der Künstlichen Intelligenz sowohl in unserer beruflichen, als auch privaten und gesellschaftlichen Zukunft. Daher wollen wir mit der Projektwoche und dem Rahmenprogramm die Möglichkeit bieten, sich mit der Thematik auseinanderzusetzen und eigene Positionen sowie Ideen und auch Fragen zu entwickeln. Um der sehr umfassenden Thematik gerecht zu werden, haben wir für die Projektwoche verschiedene Schwerpunkte gewählt, welche sowohl den medizinischen als auch gesellschaftlichen Bezug abbilden.
Alle Veranstaltungen (bis auf den Science-Slam) sind für Studierende kostenlos! Wir hoffen auf die rege Teilnahme von vielen MHH-Studierenden, werden jedoch auch an den anderen Hochschulen Hannovers und der Leibniz Universität für unsere Projektwoche werben, um möglichst viele Studierende Hannovers zu erreichen.
Zum Verständnis der einzelnen Veranstaltung wird nicht erforderlich sein, alle vorherigen Veranstaltungen der Projektwoche besucht zu haben, da jede Veranstaltung für sich selbst steht und kein bestimmtes Wissen voraussetzt.
Grundsätzlich werden die Veranstaltungen keine besonderen Vorkenntnisse wie z.B. informatischer Art voraussetzen. Wir haben als Ziel die Studierenden mit den Veranstaltungen trotz unterschiedlicher Wissensstände zu erreichen. Die Veranstaltungen sollen die Informationsmöglichkeit bieten, um danach einige Fragen beantwortet, aber auch viele weitere aufgeworfen zu haben. Gerade diese Fragen werden hoffentlich die Zukunft der Studierenden prägen und sie dadurch auf einige davon Antworten finden können.
Daten der Projektwoche + Rahmenveranstaltungen
- Mai: Science Slam
7. Mai: Vernissage zur Ausstellung „DeepDreaming“ mit Erläuterung der Funktionsweise von „DeepDream“
14. Mai: Einführung in die Künstliche Intelligenz – Übersicht, Schwerpunkt auf neuronale Netze
15. Mai: Big Data – gesellschaftliche Dimensionen
16. Mai: Künstliche Intelligenz in der Medizin
17. Mai: Zukunft Künstliche Intelligenz: Filmvorführung und Diskussionsrunde21. Mai – 4. Juni: verschiedene vertiefende Seminare zu Big Data, Projekten der KI in der Medizin, weitere Informationen folgen
Begleitet durch:
- Sonderausgabe der Curare und journalistische Betreuung der Projektwoche
- Ausstellung im Wohnzimmer ab dem 7. Mai (genaueres siehe Informationen zur Ausstellung)
Informationen zur Ausstellung:
Bei der Auseinandersetzung mit dem Thema sind wir auf künstliche neuronale Netze aufmerksam geworden, die häufig als Grundlage für lernende Algorithmen verwendet werden, zum Beispiel bei Bilderkennungssoftware (u.a. bei Apples neuer Gesichtserkennung) oder bei AlphaGo, der KI, die 2015 den Go-Europameister besiegte. Diese künstlichen neuronalen Netze können jedoch nicht nur sehr gut Formen auf Bildern erkennen, sondern sie können auch dafür verwendet werden, selbst Bilder zu erzeugen oder bestehende Bilder zu ändern. Wie das ungefähr funktioniert, könnt ihr unten in der Mail nachlesen oder ihr schaut euch den TedTalk von Blaise Agüera y Arcas an, der diese kreative Seite von künstlicher Intelligenz super erklärt. (Hier der Link: http://tiny.cc/DeepDreamTed )
Anhand der Bilder lässt sich erstens nachvollziehen, wie überhaupt neuronale Netze arbeiten, zweitens das Ergebnis von einem trainierten neuronalen Netz überprüfen und drittens die beeindruckende, psychedelisch wirkende Kunst genießen. (Im Anhang findet ihr ein Beispiel)
Google hat vor einigen Jahren einige auf die Erkennung von Tieren trainierte künstliche neuronale Netze veröffentlicht, die für die Generierung solcher Bilder verwendet werden können. Nun kommt ihr ins Spiel:
Wir würden gerne im Rahmen der Projektwoche eine kleine Bilderausstellung organisieren, in der wir einige von künstlichen neuronalen Netzen produzierte (bzw. bearbeitete) Bilder ausstellen. Um an die Kunstwerke zu kommen, haben wir uns überlegt, einen kleinen Bilderwettbewerb auszuschreiben, der wie folgt funktioniert:
- Loggt euch auf der folgenden Seite ein um den DeepDream Generator zu benutzen: www.deepdreamgenerator.com
Um keine eigenen Daten dafür verwenden zu müssen, könnt ihr die folgenden Login-Daten nutzen. Mail: Passwort: mh-hannover.
- Auf der Seite findet ihr viele Beispielbilder, bei den meisten davon wurden jedoch nicht die DeepDream Technik benutzt, sondern ein Style Transfer, bei dem zwei Bilder hochgeladen werden und der Style des einen auf das andere übertragen wird. Dabei werden zwar auch neuronale Netze verwendet und die Resultate sehen auch nicht schlecht aus, bei dem Fotowettbewerb soll es aber um die DeepDream Technik gehen.
- Klickt auf „Generate“ und dann auf „DeepDream“
- Ladet ein selbst gemachtes Foto hoch
- Drückt auf „Settings“ und stellt die Resolution auf „Full HD“, die anderen Einstellungen könnt ihr natürlich beliebig ändern (Es können pro Stunde in jedem Account nur 10 Full-HD Bilder herstellt werden, falls es grad nicht funktionieren sollte, probiert es später nochmal)
- Lasst das neuronale Netz träumen!
- Bei Bedarf kann der Prozess bis zu fünfmal wiederholt werden um die neuen Strukturen weiter zu verstärken
- Downloadet das Bild und bearbeitet es bei Bedarf noch etwas (Am Ende sollte der DeepDream Effekt aber noch gut zu erkennen sein)
- Schickt es als Mail bis zum 16.04.18 an: .
Wir wählen dann 15 Bilder aus, drucken sie und hängen sie im Wohnzimmer aus. Am Montag den 07. Mai um 18:30 Uhr wird eine Vernissage zur Eröffnung der Ausstellung stattfinden, auf der Professor Grigull einen Einführungsvortrag halten wird und Herr Wolff die Funktionsweise der künstlichen neuronalen Netze vorstellen wird. Außerdem werden wir für gute Musik und leckeres Essen sorgen.
Wir freuen uns auf euch,
KI-Projektwochenorganisationsteam
Weitere Erläuterungen:
Wie funktioniert das ungefähr?
In Neuroanatomie haben wir gelernt, dass unser Gehirn aus Milliarden von Neuronen besteht, wobei jedes Neuron viele Dendriten und ein Axon besitzt und damit ein dichtes Netz an Verbindungen erzeugt wird. Es können neue Verbindungen entstehen und bestehende Verbindungen verstärkt/geschwächt werden, indem z.B. mehr oder weniger Neurotransmitter ausgeschüttet werden oder irgendwelche Kanäle nach häufiger Reizung aus irgendeinem Grund länger offenbleiben. Wichtig ist nur: Informationen werden über die Art der Verschaltung gespeichert.
Diese Idee haben sich Informatiker*innen und Mathematiker*innen bereits in den 60er Jahren abgeguckt und Neurone am Computer simuliert. Jedes digitale Neuron bekommt durch mehrere „Dendriten“ einen Input, verrechnet diese und schickt einen Output an das nächste Neuron. Was im Gehirn durch unterschiedliche Mengen an Neurotransmitterausschüttung oder Öffnungszeiten von Kanälen geregelt wird, kann im virtuellen Gehirn anhand von Wahrscheinlichkeitsfunktionen simuliert werden. So können Informationen auch anhand der Verschaltung gespeichert werden.
Bei der Bilderkennung ist zunächst jedem Pixel ein Neuron zugeordnet (Input Layer), welches dann die Informationen (z.B. Helligkeit des jeweiligen Pixels) an beliebig viele weitere Schichten überträgt, wobei die Anzahl an Neuronen abnimmt, so lange bis nur noch ein Neuron übrig ist (oder einige wenige, genannt Output Layer). Dann wird festgelegt: wenn das Neuron ein positives Signal erhält, ist auf dem Bild ein bestimmtes Objekt (z.B. eine Katze) zu sehen und wenn es ein negatives Signal erhält, ist das Objekt nicht abgebildet. Wird nun ein Bild dem nicht trainierten Netz angezeigt, ist es rein zufällig, ob beim letzten Neuron ein positives oder ein negatives Signal ankommt – noch kann das Netz also nichts erkennen. Werden dem Netz nun jedoch tausende oder Millionen von Bildern gezeigt und jedes Mal ein Feedback gegeben, ob es richtig oder falsch liegt, können die Wahrscheinlichkeitsfunktionen in den jeweiligen Neuronen „trainiert“ werden, ähnlich wie in unserem Gehirn bestimmte Verknüpfungen entstehen und so Informationen gespeichert werden. Da so ein Netz Dank großer Datenmengen extrem gut trainiert werden kann, wird es schnell sehr gut in der Erkennung. So wurde 2017 ein künstliches neuronales Netz mit ca. 130.000 Bildern von malignen Melanomen trainiert und erreichte dadurch die selbe Treffsicherheit wie ausgebildete Dermatolog*innen (Publiziert in Nature, doi: 10.1038/nature21056)
Eine Besonderheit an dieser Art von Algorithmen besteht darin, dass von außen nicht mehr erkannt wird, wie genau das Netz zu seiner Entscheidung kommt, da man nur einen Haufen von verknüpften Wahrscheinlichkeitsfunktionen sieht. Um sich jedoch vorstellen zu können, wie das Netz das Objekt erkennt, kann ihm zunächst irgendein willkürliches Bild gezeigt werden, woraufhin das Netz richtigerweise sagt, dass dort das gesuchte Objekt, zum Beispiel eine Katze, nicht zu sehen ist. Nun kann jedoch dem Netz befohlen werden, das Bild so zu verändern, dass es eine Katze darauf erkennen würde und durch diesen Optimierungsprozess kann visualisiert werden, wie für das Netz Katzen aussehen. Das Prinzip lässt sich natürlich nicht nur auf Bilder anwenden, sondern genauso auch auf Musik oder Gedichte – im Internet existieren viele Beispiele für beeindruckende Möglichkeiten der DeepDream Technologie.