Kosinus Ähnlichkeit

Rechner zur Berechnung der Kosinus Ähnlichkeit mit ausführlichen Formeln und Beispielen

Kosinus Ähnlichkeit Rechner

Was wird berechnet?

Die Kosinus Ähnlichkeit misst die Ähnlichkeit zwischen zwei Vektoren über den Kosinus des Winkels zwischen ihnen. Werte nahe 1 bedeuten hohe Ähnlichkeit, nahe 0 Orthogonalität.

Eingabevektoren

Werte durch Leerzeichen getrennt

Gleiche Anzahl Werte wie Vektor X

Ergebnis
Kosinus Distanz:
Basiert auf dem Winkel zwischen den Vektoren (richtungsbasiert)

Kosinus Info

Eigenschaften

Kosinus Ähnlichkeit:

  • Wertebereich: [-1, 1]
  • 1 = identische Richtung
  • 0 = orthogonale Vektoren
  • -1 = entgegengesetzte Richtung

Richtungsbasiert: Die Magnitude (Länge) der Vektoren wird ignoriert - nur die Richtung zählt.

Spezielle Fälle
Parallele Vektoren:
cos(0°) = 1 (maximale Ähnlichkeit)
Orthogonale Vektoren:
cos(90°) = 0 (keine Ähnlichkeit)
Antiparallele Vektoren:
cos(180°) = -1 (gegensätzlich)


Formeln der Kosinus Ähnlichkeit

Ähnlichkeitsformel
\[\text{sim}(x,y) = \frac{x \cdot y}{||x||_2 \cdot ||y||_2}\] Kosinus des Winkels
Distanzformel
\[d_{\cos}(x,y) = 1 - \frac{x \cdot y}{||x||_2 \cdot ||y||_2}\] Kosinus Distanz
Skalarprodukt
\[x \cdot y = \sum_{i=1}^n x_i y_i\] Dot Product
Euklidische Norm
\[||x||_2 = \sqrt{\sum_{i=1}^n x_i^2}\] L₂-Norm (Magnitude)
Winkelbeziehung
\[\cos(\theta) = \frac{x \cdot y}{||x|| \cdot ||y||}\] Winkel θ zwischen Vektoren
Normierte Vektoren
\[\cos(\theta) = \hat{x} \cdot \hat{y}\] Für Einheitsvektoren

Detailliertes Rechenbeispiel

Beispiel: Kosinus([3,5], [0,3]) berechnen

Gegeben:

  • x = [3, 5]
  • y = [0, 3]

Schritt 1 - Skalarprodukt:

\[x \cdot y = 3 \cdot 0 + 5 \cdot 3 = 15\]

Schritt 2 - Normen:

\[||x||_2 = \sqrt{3^2 + 5^2} = \sqrt{34}\] \[||y||_2 = \sqrt{0^2 + 3^2} = 3\]

Schritt 3 - Ähnlichkeit:

\[\text{sim} = \frac{15}{\sqrt{34} \cdot 3} = \frac{15}{3\sqrt{34}} = \frac{5}{\sqrt{34}}\]

Schritt 4 - Kosinus Distanz:

\[d_{\cos} = 1 - \frac{5}{\sqrt{34}} \approx 1 - 0.858 = 0.142\]

Interpretation: Die Vektoren haben einen Winkel von ca. 31° und sind relativ ähnlich (geringe Distanz).

Textanalyse-Beispiel

Beispiel: Dokumentenähnlichkeit mit TF-IDF

Dokument A:

"Katze sitzt auf Matte"
TF-IDF: [0.5, 0.3, 0.2, 0.0, 0.0]

Dokument B:

"Hund liegt auf Sofa"
TF-IDF: [0.0, 0.0, 0.3, 0.4, 0.3]

Berechnung:

\[\text{sim} = \frac{0.5 \cdot 0 + 0.3 \cdot 0 + 0.2 \cdot 0.3 + 0 \cdot 0.4 + 0 \cdot 0.3}{||(0.5,0.3,0.2,0,0)|| \cdot ||(0,0,0.3,0.4,0.3)||}\] \[= \frac{0.06}{\sqrt{0.38} \cdot \sqrt{0.34}} \approx \frac{0.06}{0.36} \approx 0.167\]

Ergebnis: Niedrige Ähnlichkeit wegen wenig gemeinsamer Begriffe (nur "auf").

Geometrische Interpretation

Winkel und Ähnlichkeit
0° (parallel)
cos = 1.0

Identische Richtung

45°
cos = 0.707

Hohe Ähnlichkeit

90° (orthogonal)
cos = 0.0

Keine Ähnlichkeit

180° (antiparallel)
cos = -1.0

Entgegengesetzt

Wichtig: Die Kosinus Ähnlichkeit ignoriert die Länge der Vektoren und konzentriert sich nur auf die Richtung.

Praktische Anwendungen

Information Retrieval
  • Dokumentenähnlichkeit
  • Suchmaschinen-Ranking
  • TF-IDF Vergleiche
  • Semantische Suche
Empfehlungssysteme
  • User-Item Matrizen
  • Kollaborative Filterung
  • Produktempfehlungen
  • Netflix-Algorithmus
Machine Learning
  • Feature-Vergleiche
  • Clustering-Algorithmen
  • Neuronale Netze
  • Similarity Learning

Mathematische Eigenschaften

Ähnlichkeitseigenschaften
  • Wertebereich: [-1, 1]
  • Symmetrie: sim(x,y) = sim(y,x)
  • Selbstähnlichkeit: sim(x,x) = 1
  • Richtungsbasiert: Ignoriert Magnitude
Geometrische Eigenschaften
  • Winkelmaß: Kosinus des eingeschlossenen Winkels
  • Projektionsbasiert: Verwendung des Skalarprodukts
  • Normierungsinvariant: Unabhängig von Vektorlängen
  • Linearität: Bezüglich Skalarprodukt
Wichtige Hinweise

Null-Vektoren: Kosinus ist undefiniert, wenn einer der Vektoren der Nullvektor ist

Skalierung: Multiplizieren mit positiven Skalaren ändert die Ähnlichkeit nicht

Vergleich: Kosinus vs. Pearson Korrelation

Für die Vektoren [1,2,3] und [2,4,6]

Kosinus Ähnlichkeit:

\[\text{sim} = \frac{(1 \cdot 2 + 2 \cdot 4 + 3 \cdot 6)}{\sqrt{14} \cdot \sqrt{56}} = \frac{28}{28} = 1.0\]

Identische Richtung (perfekte Ähnlichkeit)

Pearson Korrelation:

\[r = \frac{\sum(x_i - \bar{x})(y_i - \bar{y})}{\sqrt{\sum(x_i - \bar{x})^2}\sqrt{\sum(y_i - \bar{y})^2}} = 1.0\]

Perfekte lineare Korrelation

Unterschied: Kosinus ignoriert den Mittelwert, während Pearson die Abweichung vom Mittelwert berücksichtigt.