Neural Embeddings, Latent Spaces und Autoencoder mit TensorFlow 2
Die Idee von Autoencodern und Embeddings ist, komplexe Daten oder Bilder in einen "Latent Space" mit deutlich weniger Dimensionen zu transformieren. Diese Art der Dimensionsreduktion ist deutlich flexibler als ein lineares Verfahren wie PCA und lässt sich auch auf nicht numerische Daten anwenden. Dies kann als eine Vorverarbeitungsstufe für Supervised oder Unsupervised Learning nützlich sein. Oder man nutzt den erzeugten Latent Space bei weniger als drei Dimensionen direkt für eine grafische Ausgabe.
In diesem Workshop lernst du dazu, wie
* Autoencoder komplexe Bilder in zwei Dimensionen übersetzen können,
* Neural Embeddings Kategorien wie Fußballspieler oder Fluglinien anhand beliebiger Eigenschaften vergleichbar machen.
Bei beiden Beispielen können wir sowohl Ähnlichkeiten und Gemeinsamkeiten, aber auch Ausreißer erkennen und weiter analysieren.
Vorkenntnisse
Dies ist ein fortgeschrittenes Training. Du solltest dich daher bereits mit TensorFlow beschäftigt haben oder zumindest verstehen, wie Neuronale Netze aufgebaut sind und trainiert werden.
Lernziele
Die Teilnehmer können erkennen, wo Embeddings oder Autoencoder sinnvoll eingesetzt werden können. Dazu erlernen sie Methoden, diese mit TensorFlow 2 umzusetzen.