Minkowski Distanz (Lₚ-Norm)

Rechner zur Berechnung der Minkowski Distanz mit ausführlichen Formeln und Beispielen

Minkowski Distanz Rechner

Was wird berechnet?

Die Minkowski Distanz (auch Lₚ-Norm genannt) ist eine Verallgemeinerung der euklidischen und Manhattan-Distanz. Der Parameter p bestimmt die Art der Distanzmessung.

Eingabeparameter

p=1: Manhattan, p=2: Euklidisch, p=∞: Chebyshev

Koordinaten durch Leerzeichen getrennt

Gleiche Anzahl Koordinaten wie X

Ergebnis
Minkowski Distanz (Lₚ):
Allgemeine Distanzformel für verschiedene p-Werte

Minkowski Info

Eigenschaften

Minkowski Distanz:

  • Verallgemeinerte Lₚ-Norm
  • Parameter p ≥ 1 erforderlich
  • Spezialfälle: Manhattan, Euklidisch
  • Grenzwert: Chebyshev (p→∞)

Flexibilität: Durch Anpassung von p können verschiedene Distanztypen und Anwendungsszenarien abgedeckt werden.

Spezialfälle
p = 1
Manhattan-Distanz
p = 2
Euklidische Distanz
p = 3
Kubische Norm
p = ∞
Chebyshev-Distanz

Formeln der Minkowski Distanz

Grundformel (Lₚ-Norm)
\[d_p(x,y) = \left(\sum_{i=1}^n |x_i - y_i|^p\right)^{1/p}\] Allgemeine Minkowski-Distanz
Vektornorm
\[d_p(x,y) = \|x-y\|_p\] Lₚ-Norm der Differenz
Manhattan (p=1)
\[d_1(x,y) = \sum_{i=1}^n |x_i - y_i|\] L₁-Norm (Taxicab)
Euklidisch (p=2)
\[d_2(x,y) = \sqrt{\sum_{i=1}^n (x_i - y_i)^2}\] L₂-Norm (Standard)
Chebyshev (p→∞)
\[d_\infty(x,y) = \max_{i=1}^n |x_i - y_i|\] L∞-Norm (Maximum)
Gewichtete Form
\[d_{p,w}(x,y) = \left(\sum_{i=1}^n w_i |x_i - y_i|^p\right)^{1/p}\] Mit Gewichten wᵢ

Detailliertes Rechenbeispiel

Beispiel: Minkowski([3,4,5], [2,3,6], p=3) berechnen

Gegeben:

  • Punkt A = [3, 4, 5]
  • Punkt B = [2, 3, 6]
  • Parameter p = 3

Schritt 1 - Absolute Differenzen:

  • |3 - 2| = 1
  • |4 - 3| = 1
  • |5 - 6| = 1

Schritt 2 - Potenzierung (p=3):

  • 1³ = 1
  • 1³ = 1
  • 1³ = 1

Schritt 3 - Summe und Wurzel:

\[d_3 = (1 + 1 + 1)^{1/3} = 3^{1/3} \approx 1.442\]

Interpretation: Die kubische Minkowski-Distanz beträgt etwa 1.442, zwischen Manhattan (3.0) und Euklidisch (1.732).

p-Wert Vergleich

Für die Punkte [0,0] und [3,4] bei verschiedenen p-Werten
p = 1 (Manhattan)
7.000

|3| + |4| = 7

p = 2 (Euklidisch)
5.000

√(3² + 4²) = 5

p = 3 (Kubisch)
4.498

(3³ + 4³)^(1/3)

p = ∞ (Chebyshev)
4.000

max(3, 4) = 4

Beobachtung: Mit steigendem p nähert sich die Distanz dem Maximum-Wert an.

\[\lim_{p \to \infty} \left(\sum_{i=1}^n |x_i - y_i|^p\right)^{1/p} = \max_{i=1}^n |x_i - y_i|\]

Einheitskugel-Formen

Wie sich die Einheitskugel mit p verändert

2D Einheitskugeln (d ≤ 1):

  • p = 1: Diamant/Rhombus ♦
  • p = 2: Kreis ●
  • p = 4: Superellipse (abgeflacht)
  • p = ∞: Quadrat ■

3D Einheitskugeln (d ≤ 1):

  • p = 1: Oktaeder (8 Flächen)
  • p = 2: Kugel (sphärisch)
  • p = 4: Supersphäre
  • p = ∞: Würfel (kubisch)

Trend: Kleinere p-Werte → "spitzere" Formen, größere p-Werte → "eckigere" Formen

Praktische Anwendungen

Machine Learning
  • k-Nearest Neighbors (verschiedene p)
  • Clustering-Algorithmen
  • Ähnlichkeitsmessung
  • Feature Matching
Datenanalyse
  • Ausreißer-Erkennung
  • Datenqualität
  • Multivariate Statistik
  • Dimensionsreduktion
Computergrafik
  • Collision Detection
  • Pathfinding
  • Texture Matching
  • 3D Modellierung

Mathematische Eigenschaften

Norm-Eigenschaften (p ≥ 1)
  • Positivität: ‖x‖ₚ ≥ 0, ‖x‖ₚ = 0 ⟺ x = 0
  • Homogenität: ‖αx‖ₚ = |α|‖x‖ₚ
  • Dreiecksungleichung: ‖x+y‖ₚ ≤ ‖x‖ₚ + ‖y‖ₚ
  • Monotonie: ‖x‖∞ ≤ ‖x‖ₚ ≤ ‖x‖₁ für p ≥ 1
Konvergenz-Eigenschaften
  • Grenzwert: lim[p→∞] ‖x‖ₚ = ‖x‖∞
  • Stetigkeit: ‖x‖ₚ ist stetig in p
  • Monotoniebeziehung: p₁ < p₂ ⟹ ‖x‖ₚ₂ ≤ ‖x‖ₚ₁
  • Hölder-Ungleichung: Basis für Dreiecksungleichung
Beziehungen zwischen Normen

Allgemeine Beziehung:
‖x‖∞ ≤ ‖x‖ₚ ≤ n^(1/p) ‖x‖∞

Spezifische Ungleichungen:
‖x‖₂ ≤ ‖x‖₁ ≤ √n ‖x‖₂

p-Parameter Auswahlhilfe

Wann welchen p-Wert verwenden?

p = 1 (Manhattan):

  • Stadtplanung, Navigation
  • Robust gegen Ausreißer
  • Sparse Data, LASSO
  • Diskrete/rasterbasierte Probleme

p = 2 (Euklidisch):

  • Physikalische Distanzen
  • Standard ML-Algorithmen
  • Gausssche Verteilungen
  • "Natürliche" geometrische Distanz

p > 2 (Höhere Normen):

  • Dominante Dimensionen betonen
  • Weniger Ausreißer-sensitiv
  • Spezialisierte Anwendungen
  • Nähert sich Maximum-Norm

p = ∞ (Chebyshev):

  • Worst-case Szenarien
  • Approximationstheorie
  • Schachbrett-Distanz
  • Uniform-Normen

Ist diese Seite hilfreich?            
Vielen Dank für Ihr Feedback!

Das tut uns leid

Wie können wir die Seite verbessern?