🧠 KI-Labor

Lade 5.000 Wort-Vektoren …

🧠 Wörter im Vektorraum — KI-Labor

🔍 Wort-Detektiv

Ein Zielwort ist vorgegeben. Gib Wörter ein, die du für bedeutungsähnlich hältst. Die KI berechnet, wie nah dein Wort im Vektorraum liegt — je höher der Score, desto näher bist du dran!

Zielwort
Embedding-Vektor des Zielworts
Probier mal diese Wörter:
Versuche: 0
Bester Score: 0%

💡 Was passiert hier?

Jedes Wort ist als Zahlenvektor (50 Dimensionen) gespeichert. Der Score ist die Cosinus-Ähnlichkeit zwischen deinem Wort und dem Zielwort — ein Maß dafür, wie ähnlich die Richtungen der beiden Vektoren sind. Wörter aus ähnlichen Kontexten liegen nah beieinander, weil sie in den Trainingsdaten oft zusammen vorkamen.

⚡ Analogie-Labor

Wort-Vektoren können gerechnet werden! Wenn die Beziehung zwischen zwei Wörtern bekannt ist, kann das Modell sie auf andere übertragen. Finde das fehlende Wort!

Gelöst: 0

🧪 Eigene Analogie ausprobieren

Gib drei Wörter ein. Das Modell berechnet: A verhält sich zu B wie C zu ____

= → ?

    💡 Was passiert hier?

    Vektor-Arithmetik: B − A + C = ?. Das Modell berechnet die „Richtung" von A nach B und überträgt sie auf C. Wenn „König − Mann" die Richtung „königlich" ergibt, dann zeigt „Frau + königlich" auf „Königin". Das funktioniert, weil die Trainingsdaten diese Beziehungen als geometrische Muster in den Vektoren kodiert haben.

    📐 Vektoren sichtbar machen

    Sieh, wie die Analogie-Pfeile im 2D-Raum funktionieren. Gleiche Beziehungen = gleiche Richtung.

    🗺️ Wort-Karte

    Sieh dir an, wie Wörter im 2D-Raum zueinander liegen. Klick auf ein Wort, um seine Nachbarn zu sehen. Wörter aus ähnlichen Bedeutungsfeldern bilden Cluster.

    💡 Was passiert hier?

    Die 50-dimensionalen Vektoren werden per t-SNE (t-Distributed Stochastic Neighbor Embedding) auf 2 Dimensionen reduziert. Anders als PCA optimiert t-SNE speziell die lokalen Nachbarschaften: Wörter, die im hochdimensionalen Raum nah beieinander liegen, sollen auch in der 2D-Karte nah beieinander landen. Deshalb bilden sich so schöne Cluster.