Diese Woche fand das zweite Deep Learning Meetup Vienna statt und es war wieder ausgesprochen gut besucht. Ein klares Zeichen für die Qualität der Vorträge/Organisation und auch Interesse an dem Thema Deep Learning und Neuronale Netze. Dieses Mal gab es zwei Vorträge.

Den Beginn machte Alex Champandard zum Thema “Neural Networks for Image Synthesis”. Anschaulich erklärte er dabei, wie es mit Hilfe von neuronalen Netzen möglich ist photorealistische Bilder zu generieren und auch künstlerische Stile von einem Bild auf ein anderes zu übertragen. Der Vortrag bestand zu einem großen Teil aus einer Live Demo, die beeindruckend die Möglichkeiten dieser Algorithmen aufzeigte. Interessant dazu waren auch die Diskussionen betreffend konkreter Anwendungsgebiete. Die Spieleindustrie könnte durch die erst kürzlich gewonnenen Performanceverbesserungen der Algorithmen ein attraktives Betätigungsfeld werden.
Wer selbst mit diesen Algorithmen experimentieren will, sollte sich das Neural-Doodle Projekt anschauen, das dankenswerterweise von Alex als Open-Source auf Github zur Verfügung gestellt wurde. Darin finden sich auch zahlreiche Bespiele und Erklärungen zum Thema.

Der zweite Vortrag behandelte das Thema “Recurrent Neural Networks” und wurde von Gregor Mitscha-Baude präsentiert. Gregor erklärte die Motivation für das Verwenden dieser Art von neuronalen Netzen und stellte auch klar die Unterschiede zu klassischen Feedforward-Netzen dar. Rekurrente bzw. rückgekoppelte neuronale Netze arbeiten dabei ähnlich wie unser menschliches Gehirn und eignen sich dadurch auch sehr für Anwendung, die mit Sprache (Übersetzungen, Word Prediction) und Bildverarbeitung (Image und Video Capturing) zu tun haben.

Das nächste Deep Learning Meetup findet am 6. Juni statt. Die geplanten Präsentation werden die Software-Frameworks TensorFlow, Theano und Lasagne behandeln. Interessante Erfahrungsberichte und Diskussionen sind wieder zu erwarten.