Banner der Website mathematik.de. Motiv: Überall ist Mathematik

Differentiation im Zweidimensionalen

Worum gehts?

Die Differentialrechnung für Funktionen \(f:[a,b]\rightarrow \R \) hat sich als mächtiges Werkzeug, zum Beispiel bei der Lösung von Extremalproblemen, erwiesen. In diesem Artikel soll das Konzept der Differenzierbarkeit auch auf den Fall von Funktionen mehrerer Veränderlicher verallgemeinert werden. Es geht also um Funktionen \(f:U\rightarrow \R \), wobei U eine "geeignete" Teilmenge des \(\R^n\) ist; darauf werden wir unten noch genauer eingehen.
Wie im Artikel über eindimensionale Differentialrechnung bemerkt, ist es dafür nützlich, sich in Erinnerung zu rufen, dass Ableiten bedeutet, die beste lineare Approximation lokal in einem Punkt zu finden. Im Unterschied zur Einführung über Differentialquotienten ist nämlich diese Idee ohne Einschränkung auf den mehrdimensionalen Fall verallgemeinerbar. Aber auch unser Wissen über Differentialquotienten wird sich als hilfreich erweisen, im Fall "schöner" Funktionen werden wir das mehrdimensionale Ableiten auf mehrfaches eindimensionales Differenzieren - einmal nach jeder Variablen - zurückführen. Wir werden jeweils beispielhaft eine Ableitung berechnen.

Inhaltsverzeichnis

Die Ableitung im Mehrdimensionalen

In diesem Abschnitt wollen wir die Ableitung - zu verstehen als lineare Approximation - für reelle Funktionen mehrerer Veränderlicher definieren. Wir werden hier nur den Fall zweier Veränderlicher betrachten, da er das Vorgehen auch für den allgemeinen Fall veranschaulicht und man in der Ebene noch Graphen zeichnen kann.

Definitionsbereiche

Dazu müssen wir uns zunächst einmal überlegen, welche Funktionen wir überhaupt ableiten wollen, es sollen Funktionen zweier Veränderlicher sein, sie werden also auf einer Teilmenge U der Ebene (die wir mit \(\R^2\) bezeichnen) definiert sein. Differenzieren bedeutet doch, die Funktion in der Nähe eines Punktes durch eine lineare Funktion zu approximieren. Das ist doch nur dann sinnvoll, wenn die Funktion in der "Nähe" jedes Punktes ihres Definitionsbereiches noch definiert ist. Was soll das nun heißen, wie soll es präzisiert werden? Nun, wir wollen nur solche Definitionsbereiche betrachten, die im folgenden Sinne keinen Rand haben: Zu jedem Punkt \(\hat{x}\) unseres Definitionsbereichs U soll es ein kleines Rechteck geben, das auch noch im Definitionsbereich liegt

Solche Mengen U wollen wir offen nennen, sie werden Definitionsbereiche unserer zu differenzierenden Funktionen sein.

Der Differentiationsbegriff

Wie schon mehrfach bemerkt, soll Differenzierbarkeit weiterhin lineare Approximierbarkeit bedeuten. Für Funktionen \(f:U\rightarrow \R\) mit einer offenen Menge U können wir uns das wie folgt veranschaulichen:
Wie im Eindimensionalen die Tangente, so wollen wir hier die Tangentialebene an den Graphen bestimmen, differenzierbar wird eine Funktion dann sein, wenn wir wie in folgendem Bild eine Ebene an den Graphen "anschmiegen" können:

Nach den Approximanden nun noch ein Wort zu den Approximierenden: Lineare Funktionen \(g:\R^2\rightarrow \R\) haben die Form1)

\[ g: x=(x_1,x_2)\mapsto a_1\ x_1 + a_2\ x_2 \]

mit reellen Zahlen a1 und a2.
Obige Tangentialebene ist dann der Graph einer verschobenen linearen Funktion

\[ x \mapsto f(\hat{x}) + g(x - \hat{x}) \]

wobei g linear ist.
Nun aber zur Definition der Differenzierbarkeit: Es sei \(f:U\rightarrow \R\), wobei U eine offene Teilmenge des \(\R^2\) bezeichne, und \(\hat{x}\) ein Punkt von U. Die Funktion f heißt in \(\hat{x}\) differenzierbar, wenn es eine lineare Abbildung \(g:\R^2\rightarrow \R\) gibt, so dass2)

\[ \lim_{h\to 0} \frac{f(\hat{x}+h) - f(\hat{x}) - g(h)}{|h|} = 0 \]

gilt. Man kann zeigen, dass ein solches g dann eindeutig bestimmt ist, es heißt Ableitung oder Differential von f im Punkt \(\hat{x}\) und wird mit \(D\,f(\hat{x})\), \(d\,f(\hat{x})\) oder \(f\ '(\hat{x})\) bezeichnet.

Beispiele

Im Folgenden wollen wir die Ableitung einiger Funktionen \(f:U\rightarrow \R\) berechnen. Dabei werden wir immer nach folgendem Schema vorgehen: Wir betrachten die Differenz

\[ f(\hat{x} + h) - f(\hat{x}) \]

und versuchen, sie in einen in h linearen Teil g(h) und einen "Rest" r(h) zu zerlegen:

\[ f(\hat{x} +h) - f(\hat{x}) = g(h) + r(h) \]

Wir zeigen dann

was nach der Definition der Ableitung gerade

\[ g = d\,f \]

bedeutet. Nun aber in medias res:

  • Als erstes Beispiel wollen wir die Funktion \[ f: \R^2 \to \R, \quad x \mapsto x_1^2\ x_2 \] betrachten.
    Wir bemerken zunächst, dass \(\R^2\) eine offene Menge ist und wir so berechtigt sind, Differenzierbarkeit zu untersuchen. Sei nun \(\hat{x}\) ein Punkt des \(\R^2\) und h ein Element des \(\R^2\), dann ist \[ \begin{eqnarray*} f(\hat{x} + h) - f(\hat{x}) &=& (\hat{x}_1 + h_1)^2\ (\hat{x}_2 + h_2) - \hat{x}_1^2\ \hat{x}_2\\ &=& \bigl(\hat{x}_1^2 + 2\ \hat{x}_1\ h_1 + h_1^2\bigr)\ (\hat{x}_2 + h_2) - \hat{x}_1^2\ \hat{x}_2\\ &=& \hat{x}_1^2\ \hat{x}_2 + \hat{x}_1^2\ h_2 + 2\ \hat{x}_1\ \hat{x}_2\ h_1 + 2\ \hat{x}_1\ h_1\ h_2 + h_1^2\ \hat{x}_2 + h_1^2\ h_2 - \hat{x}_1^2\ \hat{x}_2\\ &=& 2\ \hat{x}_1\ \hat{x}_2\ h_1 + \hat{x}_1^2\ h_2 \quad + \quad h_1^2\ h_2 + 2\ \hat{x}_1\ h_1\ h_2 + \hat{x}_2 \ h_1^2 \\ &=:& g(h) \quad + \quad r(h) \end{eqnarray*} \] Dabei ist \[ g(h) = 2\ \hat{x}_1\ \hat{x}_2\ h_1 + \hat{x}_1^2\ h_2 \] linear in h, und \[ r(h) = h_1^2\ h_2 + 2\ \hat{x}_1\ h_1\ h_2 + \hat{x}_2\ h_1^2\] ist unser Rest. Wir müssen nun das Verhalten des Restes für kleine h untersuchen, dabei ist es oft hilfreich, den Betrag des Restes zu betrachten, es ist \[ \begin{eqnarray*} |r(h)| &=& |h_1^2\ h_2 + 2\ \hat{x}_1\ h_1\ h_2 + \hat{x}_2\ h_1^2|\\ &\le& |h_1|^2\ |h_2| + 2\ |\hat{x}_1|\ |h_1|\ |h_2| + |\hat{x}_2|\ |h_1|^2\\ &\le& |h|^3 + 2\ |\hat{x}|\ |h|^2 + |\hat{x}|\ |h|^2 \end{eqnarray*} \] und damit ist \[ \frac{|r(h)|}{|h|} \le \bigl(|h| + 2\ |\hat{x}| + |\hat{x}|\bigr) \cdot |h| \] und das geht mit h gegen Null.
    Also ist f in \(\hat{x}\) differenzierbar mit \[ d\,f(\hat{x}): \R^2 \to \R, \quad h \mapsto 2\ \hat{x}_1\ \hat{x}_2\ h_1 + \hat{x}_1^2\ h_2 \] Hier noch einmal ein Bild des Graphen unserer Beispielfunktion mit der Tangentialebene im Punkt \(\hat{x} = (1,3)\):
  • Als zweites Beispiel wollen wir die Funktion \[ f: \R^2 \to \R, \quad x \mapsto x_1 + x_2 \] untersuchen. Wir gehen wie im ersten Beispiel vor und haben für Elemente \(\hat{x}\) und h des \(\R^2\): \[ \begin{eqnarray*} f(\hat{x} + h) - f(\hat{x}) &=& (\hat{x}_1 + h_1) + (\hat{x}_2 + h_2) - \hat{x}_1 - \hat{x}_2\\ &=& h_1 + h_2 \end{eqnarray*} \] Offenbar ist die Differenz selbst linear in h, unser Restterm also Null, d.h. f ist in \(\hat{x}\) differenzierbar mit Differential \[ d\,f(\hat{x}): \R^2 \to \R, \quad h \mapsto h_1 + h_2 \] also \(d\,f = f\). Das sollte nicht sonderlich überraschen, wenn man sich an die Idee der Differentiation erinnert: Da f selbst linear ist, ist natürlich f selbst eine lineare Approximation an sich.
    Allgemeiner gilt (mit einer ähnlichen Rechnung): Ist \(g:\R^2\rightarrow\R\) linear, so ist g in jedem Punkt differenzierbar und \(d\,g = g\).
  • Als weiteres Beispiel wollen wir die Funktion \[ f: \R^2 \to \R, \quad x \mapsto |x| = \sqrt{x_1^2 + x_2^2} \] im Punkt \(\hat{x} = 0\) untersuchen. Ein Blick auf den Graphen

    lässt uns vermuten, dass f in 0 nicht differenzierbar ist, da man den Graphen in der Nähe der Null anscheinend nicht durch eine Ebene approximieren kann, also f in 0 nicht differenzierbar ist.
    Das wollen wir nun beweisen. Sei dazu \(g:\R^2\rightarrow\R\) irgendeine lineare Abbildung. Wäre d f(0) = g(0), so müsste doch wegen f(0) = 0
    sein. Betrachtete man nun speziell h = (h1,0), so folgt
    Nun ist nach Definition von f aber \[ \frac{f(h_1,0)}{|h_1|} = \frac{|h_1|}{|h_1|} = 1 \] für jedes h1. Für die lineare Funktion g müsste also \[ \frac{g(h_1,0)}{|h_1|} \to 1, \quad h_1 \to 0 \] gelten, was wegen \[ \frac{g(h_1,0)}{|h_1|} \to 0, \quad h_1 \to 0 \] nicht möglich ist.

Ableitungsregeln

Wie auch für Funktionen \(f: [a,b]\rightarrow \R \), so gibt es auch für Funktionen \(f: U \rightarrow \R \) Ableitungsregeln. Wir wollen einige im Folgenden auflisten, ohne die Regeln zu beweisen:

  • Summen: Sind \(f,g: U \rightarrow \R \) im Punkt \(\hat{x}\) differenzierbar, so auch f+g und es gilt \[ d(f+g)(\hat{x}) = d\,f(\hat{x}) + d\,g(\hat{x}) \]
  • Vielfache: Ist a eine reelle Zahl und ist \(f: U \rightarrow \R \) in \(\hat{x}\) differenzierbar, so auch a f, und es gilt \[ d(a\ f)(\hat{x}) = a \cdot d\,f(\hat{x}) \]
  • Produkte: Sind \(f,g: U \rightarrow \R \) in \(\hat{x}\) differenzierbar, so auch f g und es ist für jedes h \[ d(f\ g)(\hat{x})\ h = d\,f(\hat{x})\ h \cdot g(\hat{x}) + f(\hat{x}) \cdot d\,g(\hat{x})\ h \]
  • Quotienten: Sind \(f,g: U \rightarrow \R \) in \(\hat{x}\) differenzierbar, ist g überall von Null verschieden, so ist \(\frac{f}{g}\) in \(\hat{x}\) differenzierbar und für jedes h \[ d\left(\frac{f}{g}\right)(\hat{x})\ h = \frac{d\,f(\hat{x})\ h \cdot g(\hat{x}) - f(\hat{x}) \cdot d\,g(\hat{x})\ h}{g(\hat{x})^2}\]
  • Verkettungen: Ist \(f: U \rightarrow \R \) in \(\hat{x}\) differenzierbar, [a,b] ein Intervall, das f(U) umfasst, \(g: [a,b]\rightarrow \R\) in \(f(\hat{x})\) differenzierbar, so ist \(f\circ g: U \rightarrow \R \) in \(\hat{x}\) differenzierbar und \[ d(g\circ f)(\hat{x}) = g'\bigl(f(\hat{x})\bigr) \cdot d\,f(\hat{x}). \]

Partielle Ableitungen

In diesem Abschnitt wollen wir uns damit beschäftigen, wie wir das, was wir schon für Abbildungen \(f:[a,b]\rightarrow \R \) wissen, auf unseren mehrdimensionalen Fall übertragen können. Dazu werden wir das Konzept der partiellen Ableitung betrachten, mit dem es uns gelingen wird, die Differentiale gegebener Abbildungen \(f:U\rightarrow \R\) zu berechnen.

Definition

Betrachten wir als Einstieg einmal den Graphen einer Funktion \(f:U\rightarrow \R\) und eine Parallele zur x1-Achse.

Wenn wir nun den Teil des Graphen über der Parallelen anschauen, haben wir

und das ist doch der Graph einer Funktion über einem Intervall, die wir schon differenzieren können. Da man hier die Änderung der Funktion nur in x1-Richtung betrachtet, nennt man die Ableitung dieser Funktion die partielle Ableitung von f nach x1.
Genauer definiert man: Ist U eine offene Teilmenge des \(\R^2\), \(\hat{x}\) ein Punkt in U, so heißt der Grenzwert

\[ \frac{\partial f}{\partial x_1}(\hat{x}) := \lim_{h\to 0}\frac{f(\hat{x}_1 + h, \hat{x}_2)}{h} \]

im Falle seiner Existenz die partielle Ableitung von f nach x1 in \(\hat{x}\). Hier wird einfach die Funktion über der Parallelen zur x1-Achse durch \(\hat{x}\) betrachtet und diese differenziert:

Analog nennt man den Grenzwert

\[ \frac{\partial f}{\partial x_2}(\hat{x}) := \lim_{h \to 0} \frac{f(\hat{x}_1, \hat{x}_2 + h)}{h} \]

im Falle der Existenz die partielle Ableitung nach x2.
Die partiellen Ableitungen haben im Gegensatz zur Ableitung den Vorteil, dass wir zu ihrer Berechnung die gesamte uns bekannte Maschinerie der eindimensionalen Differentialrechnung zur Verfügung haben. Um eine partielle Ableitung zu berechnen, muss man (wenn man die obigen Definitionen noch einmal betrachtet), doch nur eine der Komponenten von x fixieren und nach der anderen wie gewohnt differenzieren. Um das zu üben, hier einige

Beispiele

  • Wir wollen die partiellen Ableitungen der Funktion \[ \quad\, f: \R^2 \to \R, \quad x \mapsto x_1^2\ x_2 \] bestimmen.
    Um die partielle Ableitung nach x1 zu bestimmen, musste man doch für ein festes x2 ganz gewöhnlich nach x1 ableiten, wir müssen also \[ x_1 \mapsto x_1^2\ x_2 \] differenzieren und erhalten \[ \frac{\partial f}{\partial x_1}(x) = 2\ x_1\ x_2. \] Auf ähnliche Weise erhalten wir x1 festhaltend, dass \[ \frac{\partial f}{\partial x_2}(x) = x_1^2. \] Vergleichen Sie dieses Ergebnis doch mal mit dem oben berechneten Differential dieser Funktion. Mehr zu dem Zusammenhang finden Sie unten.
  • Als zweites Beispiel wollen wir eine Funktion betrachten, für die uns die Berechnung des Differentials wohl schwer gefallen wäre, wir wollen \[ f: \R^2 \to \R, \quad x \mapsto \exp\bigl(x_1\ \sin(x_2)\bigr)\cdot x_2 \] partiell differenzieren.
    Wir erhalten mit der (eindimensionalen) Kettenregel, dass \[ \begin{eqnarray*} \frac{\partial f}{\partial x_1}(x) &=& \exp\bigl(x_1\ \sin(x_2)\bigr)\cdot \sin(x_2) \cdot x_2\\ &=& x_2\ \sin(x_2) \cdot \exp\bigl(x_1 \sin(x_2) \bigr) \end{eqnarray*} \] Und für die andere partielle Ableitung erhalten wir \[ \begin{eqnarray*} \frac{\partial f}{\partial x_2}(x) &=& \exp\bigl(x_1 \sin(x_2)\bigr) \cdot x_1\ \cos(x_2) \cdot x_2 + \exp\bigl(x_1\ \sin(x_2)\bigr)\\ &=& \bigl(x_1\ x_2\ \cos(x_2) + 1\bigr)\ \exp\bigl(x_1\ \sin(x_2)\bigr). \end{eqnarray*} \] Die partiellen Ableitungen können doch erneut als Funktionen \[ \frac{\partial f}{\partial x_1}, \frac{\partial f}{\partial x_2}: U \to \R \] aufgefasst werden. Insbesondere können wir sie wiederum partiell ableiten, man schreibt \[ \frac{\partial^2 f}{\partial x_1^2} := \frac{\partial \frac{\partial f}{\partial x_1}}{\partial x_1} \] und nennt dies die zweite partielle Ableitung von f nach x1. Die Ableitung \[ \frac{\partial^2 f}{\partial x_2\partial x_1} := \frac{\partial \frac{\partial f}{\partial x_1}}{\partial x_2} \] nennt man eine gemischte partielle Ableitung. Wir wollen nun die zweiten partiellen Ableitungen unserer Funktion bestimmen: \[ \begin{eqnarray*} \frac{\partial^2 f}{\partial x_1^2}(x) &=& x_2\ \sin(x_2) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) \cdot \sin(x_2)\\ &=& x_2\ \sin^2(x_2) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr)\\ \frac{\partial^2 f}{\partial x_2\partial x_1} &=& \bigl(\sin(x_2) + x_2\ \cos(x_2)\bigr) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) + x_2\ \sin(x_2) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) \cdot x_1\ \cos(x_2)\\ &=& \bigl(\sin(x_2) + x_2\ \cos(x_2) + x_1\ x_2\ \sin(x_2)\ \cos(x_2)\bigr) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr)\\ \frac{\partial^2 f}{\partial x_2^2}(x) &=& \bigl(x_1\ \cos(x_2) - x_1\ x_2\ \sin(x_2)\bigr) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) + \bigl(x_1\ x_2\ \cos(x_2) + 1\bigr) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) \cdot x_1\ \cos(x_2)\\ &=& \bigl(2\ x_1\ \cos(x_2) - x_1\ x_2\ \sin(x_2) + x_1^2\ x_2\ \cos^2(x_2)\bigr) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr)\\ \frac{\partial^2 f}{\partial x_1\partial x_2}(x) &=& x_2\ \cos(x_2) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) + \bigl(x_1\ x_2\ \cos(x_2) + 1\bigr)\ \exp\bigl(x_1\ \sin(x_2)\bigr) \cdot \sin(x_2)\\ &=& \bigl(\sin(x_2) + x_2\ \cos(x_2) + x_1\ x_2\ \sin(x_2)\ \cos(x_2)\bigr) \cdot \exp\bigl(x_1\ \sin(x_2)\bigr) \end{eqnarray*} \] Es fällt auf, dass \[ \frac{\partial^2 f}{\partial x_1\partial x_2} = \frac{\partial^2 f}{\partial x_2\partial x_1} \] das ist jedoch nicht immer richtig, aber zumindest dann, wenn die zweiten partiellen Ableitungen stetig sind.
  • Im letzten Beispiel wollen wir noch einmal darauf hinweisen, dass Namen Schall und Rauch sind. Wir können die Komponenten der Elemente des Definitionsbereichs auch anders bezeichnen, z.B. - was durchaus üblich ist - mit x und y. Wir wollen \[f: \mathbb R^2 \to \mathbb R, \quad (x,y) \mapsto \sin x + \cos y \] partiell differenzieren. Es ist \begin{eqnarray*} \frac{\partial f}{\partial x}(x,y) &=& \cos x\\ \frac{\partial f}{\partial y}(x,y) &=& -\sin y \end{eqnarray*}

Zusammenhang der partiellen Ableitungen mit dem Differential

Rufen wir uns noch einmal die jeweils ersten Beispiele zu Differentialen und partiellen Ableitungen in Erinnerung. Wir hatten die Funktion

\[ f: \R^2 \to \R, \qquad x \mapsto x_1^2\ x_2 \]

betrachtet und berechnet, dass für jeden Punkt x der Ebene

\[ d\,f(x)\ h = 2\ x_1\ x_2\ h_1 + x_1^2\ h_2 \]

und

\[ \frac{\partial f}{\partial x_1}(x) = 2\ x_1\ x_2, \quad \frac{\partial f}{\partial x_2}(x) = x_1^2 \]

gilt. Wir beobachten, dass

\[ d\,f(x)\ h = \frac{\partial f}{\partial x_1}(x)\cdot h_1 + \frac{\partial f}{\partial x_2}(x) \cdot h_2 \]

ist. Das mag auf den ersten Blick verwundern, da partielle Ableitungen und Differential recht unterschiedlich definiert sind, auf den zweiten Blick aber hoffentlich nicht: Das Differential stellte doch eine approximierende Ebene an unsere Funktion dar, die partiellen Ableitungen waren Steigungen von Tangenten in bestimmte Richtungen, diese Tangenten liegen (natürlich) in der Tangentialebene:

Dieser Zusammenhang ist jedoch nicht immer richtig, es müssen einige (schwache) Zusatzbedingungen erfüllt sein, die wir nun nennen wollen:
Sei \(f: U \rightarrow \R\)

  • Ist f in einem Punkt \(\hat{x}\) differenzierbar, so existieren dort auch die partiellen Ableitungen und es gelten3) \[ \frac{\partial f}{\partial x_1}(\hat{x}) = d\,f(\hat{x})\ e_1, \quad \frac{\partial f}{\partial x_2}(\hat{x}) = d\,f(\hat{x})\ e_2 \]
  • Existieren die partiellen Ableitungen von f in einer Umgebung (d.h. in einer kleinen Kreisscheibe) um \(\hat{x}\) und sind in \(\hat{x}\) stetig, so ist f in dieser Umgebung differenzierbar und für alle x aus dieser Umgebung gilt \[ d\,f(x)\ h = \frac{\partial f}{\partial x_1}(x)\cdot h_1 + \frac{\partial f}{\partial x_2}(x) \cdot h_2. \]

Dieser Zusammenhang gibt uns in vielen Fällen eine einfachere Möglichkeit, das Differential einer Funktion zu bestimmen, auch dafür einige

Beispiele

  • Wir hatten oben (Beispiele zu partiellen Ableitungen) die partiellen Ableitungen der Funktion \[ \quad f: \R^2 \to \R, \quad x \mapsto \exp\bigl(x_1\ \sin(x_2)\bigr) \cdot x_2\] berechnet und \[ \frac{\partial f}{\partial x_1}(x) = x_2\ \sin(x_2)\ \exp\bigl(x_1\ \sin(x_2)\bigr), \quad \frac{\partial f}{\partial x_2}(x) = \bigl(x_1\ x_2\ \cos(x_2) + 1\bigr)\ \exp\bigl(x_1\ \sin(x_2)\bigr) \] erhalten. Da diese Funktionen stetig sind, wissen wir nun: f ist in jedem Punkt \(\hat{x}\) differenzierbar und das Differential ist gegeben durch \[ d\,f(\hat{x})\ h = \hat{x}_2\ \sin(\hat{x}_2)\ \exp\bigl(\hat{x}_1\ \sin(\hat{x}_2)\bigr) \cdot h_1 + \bigl(\hat{x}_1\ \hat{x}_2\ \cos(\hat{x}_2 + 1\bigr)\ \exp\bigl(\hat{x}_1\ \sin(\hat{x}_2)\bigr) \cdot h_2 \]
  • Auch die partiellen Ableitungen der Abbildung \[ \quad f: \R^2 \to \R, \quad x\mapsto \sin(x_1) + \cos(x_2) \] hatten wir oben berechnet und \[ \frac{\partial f}{\partial x_1}(x) = \cos(x_1), \quad \frac{\partial f}{\partial x_2}(x) = -\sin(x_2) \] erhalten. Also existiert die Ableitung in jedem Punkt und ist durch \[ d\,f(\hat{x})\ h= \cos(\hat{x}_1) \cdot h_1 - \sin(\hat{x}_2) \cdot h_2 \] gegeben.
  • Nun wollen wir noch einmal auf die Abbildung \(x \rightarrow |x|\) zu sprechen kommen, die wir anfangs als Beispiel einer nicht differenzierbaren Abbildung erkannt haben. Dies können wir nun auch einfacher einsehen: Wäre sie im Punkt Null differenzierbar, würde insbesondere die partielle Ableitung nach x1 existieren, also die Ableitung der Funktion \[ x_1 \mapsto \bigl|(x_1,0)\bigr| = \sqrt{x_1^2 + 0^2} = |x_1| \] im Punkt Null, und die Betragsfunktion ist in Null nicht differenzierbar.

Wozu?

Anwendungen der Differentialrechnung sind wie auch im eindimensionalen Fall Legion, ein Beispiel ist die Lösung mehrdimensionaler Extremalprobleme, mehr dazu hier


1) Punkte des \(\R^2\) notieren wir als x = (x1,x2).
2) Für ein Element h des \(\R^2\) bezeichne \[ |h| := \sqrt{h_1^2 + h_2^2} \] den Abstand von h zum Nullpunkt.
3) Es sei e1 = (1,0) und e2 = (0,1).