🔍 Wort-Detektiv
Ein Zielwort ist vorgegeben. Gib Wörter ein, die du für bedeutungsähnlich hältst. Die KI berechnet, wie nah dein Wort im Vektorraum liegt — je höher der Score, desto näher bist du dran!
💡 Was passiert hier?
Jedes Wort ist als Zahlenvektor (50 Dimensionen) gespeichert. Der Score ist die Cosinus-Ähnlichkeit zwischen deinem Wort und dem Zielwort — ein Maß dafür, wie ähnlich die Richtungen der beiden Vektoren sind. Wörter aus ähnlichen Kontexten liegen nah beieinander, weil sie in den Trainingsdaten oft zusammen vorkamen.
⚡ Analogie-Labor
Wort-Vektoren können gerechnet werden! Wenn die Beziehung zwischen zwei Wörtern bekannt ist, kann das Modell sie auf andere übertragen. Finde das fehlende Wort!
🧪 Eigene Analogie ausprobieren
Gib drei Wörter ein. Das Modell berechnet: A verhält sich zu B wie C zu ____
💡 Was passiert hier?
Vektor-Arithmetik: B − A + C = ?. Das Modell berechnet die „Richtung" von A nach B und überträgt sie auf C. Wenn „König − Mann" die Richtung „königlich" ergibt, dann zeigt „Frau + königlich" auf „Königin". Das funktioniert, weil die Trainingsdaten diese Beziehungen als geometrische Muster in den Vektoren kodiert haben.
📐 Vektoren sichtbar machen
Sieh, wie die Analogie-Pfeile im 2D-Raum funktionieren. Gleiche Beziehungen = gleiche Richtung.
🗺️ Wort-Karte
Sieh dir an, wie Wörter im 2D-Raum zueinander liegen. Klick auf ein Wort, um seine Nachbarn zu sehen. Wörter aus ähnlichen Bedeutungsfeldern bilden Cluster.
💡 Was passiert hier?
Die 50-dimensionalen Vektoren werden per t-SNE (t-Distributed Stochastic Neighbor Embedding) auf 2 Dimensionen reduziert. Anders als PCA optimiert t-SNE speziell die lokalen Nachbarschaften: Wörter, die im hochdimensionalen Raum nah beieinander liegen, sollen auch in der 2D-Karte nah beieinander landen. Deshalb bilden sich so schöne Cluster.