Unterabschnitte


Anhang über Variationsrechnung

In diesem Anhang werden die Problemstellung und die Lösungsmethoden der Variationsrechnung kurz erläutert und mit denen der gewöhnlichen Maximum-Minimum-Rechnung verglichen.

Eine abhängige Variable

Maximum-Minimum-Rechnung
Gegeben ist eine Funktion

$\displaystyle f(x)$   gegeben.

Variationsrechnung
Gegeben ist ein bestimmtes Integral

$\displaystyle \int^{t_{1}}_{t_{0}} F(x(t), \dot{x}(t),t)  dt$   gegeben,

worin $ F(x,\dot{x},t)$ als Funktion seiner Argumente $ x,\dot{x},t$ bekannt ist.

Gesucht ist ein Wert $ x_{0}$, für den $ f(x)$ einen Extremwert annimmt.


$\displaystyle f(x_0)  =  $   Extr.

Gesucht ist eine Funktion $ x = x(t)$, die in das obige Integral eingesetzt, diesem einen extremen Wert verleiht:

$\displaystyle \int^{t_{1}}_{t_{0}} F(x(t), \dot{x}(t),t)  dt  =  $   Extr. (121)


Lösungsvorschift: Die Werte $ x_{0}$ suchen, für die die erste Ableitung der Funktion Null ist:

$\displaystyle f'(x_0)  \stackrel{!}{=}  0.
$

Lösungsvorschift: Die erste Variation des Integrals muß Null sein:

$\displaystyle \delta  \int^{t_{1}}_{t_{0}} F(x(t), \dot{x}(t),t)  dt  \stackrel{!}{=}  0.$ (122)


Wie unten gezeigt wird, ist das der Fall, wenn die Funktion $ x(t)$ Lösung der Eulerschen Differentialgleichung des Variationsproblems ist:

$\displaystyle \frac{d}{dt} \frac{\partial F}{\partial \dot{x}}  -  \frac{\partial F}{\partial x}  =  0.$ (123)



Die Problemstellung der Variationsrechnung soll zunächst am Beispiel der Brachystochrone (Abb. A.2(b)) erläutert werden: Ein Teilchen bewegt sich in einer vertikalen Ebene auf einer vorgeschriebenen Kurve unter dem Einfluß der Schwerkraft. Welche Kurve muß man wählen, damit die Laufzeit vom gegebenen Anfangspunkt $ x_0, y_0$ zum gegebenen Endpunkt $ x_1$, $ y_1$ möglichst kurz ist?

Dazu wird der Energiesatz für ein Teilchen der Masse $ m$ im Schwerefeld nach der Geschwindigkeit aufgelöst

$\displaystyle E  =  T  +  U  =  \frac{m}{2}  (\dot{x}^2  +  \dot{y}^2)  +  mg   y  = \
\frac{m}{2}   v^2  +  mg   y   ,
$

$\displaystyle v  =  \frac{ds}{dt}  =  \sqrt{\frac{2E}{m}  -  2g   y}   , \qquad
ds  =  \sqrt{dx^2 + dy^2}  =  \sqrt{1 + {y'}^2}  dx.
$

Die Bahnkurve soll so gewählt werden, daß die Laufzeit $ T$ ein Extremum ist:

$\displaystyle T  =  \int_{t_0}^{t_1} dt  =  \int_{t_0}^{t_1} \frac{ds}{v} \...
...  2g  y}}   dx  :=  \int_{x_0}^{x_1} F(y, y',x)   dx  \stackrel{!}{=}  $   Extr. (124)


Die Methode zur Lösung des Variationsproblems (A.1) besteht darin, daß das Variationsproblem auf ein gewöhnliches Maximum-Minimum-Problem zurückgeführt wird. Dazu wird angenommen, daß die Lösung $ x(t),$ die dem Integral in Gl. (A.1) einen extremalen Wert verleiht, schon bekannt ist. Der mit der Lösung $ x(t)$ berechnete Wert des Integrals (A.1), nämlich

$\displaystyle I_{0}  := \int_{t_{0}}^{t_{1}} F(x(t),\dot x(t),t)  dt
$

wird verglichen mit den Werten, die man erhält, wenn man in das Integral (A.1) die folgenden Vergleichsfunktionen

$\displaystyle y(t,\varepsilon)  :=  x(t)  +  \varepsilon  \eta (t), \qquad 0 \leq \varepsilon \ll 1$ (125)

einsetzt. Diese sollen in der Nähe von $ x(t)$ liegen (daher $ \varepsilon \ll 1 $ !) und durch denselben Anfangs- und Endpunkt gehen wie die Lösung (vgl. Abb. A.1), d.h.

$\displaystyle \eta (t_0)  =  \eta (t_1)  =  0.$ (126)

Abbildung: Die Lösung $ x(t)$ -- und zwei Vergleichsfunktionen $ y(t,\varepsilon) := x(t) + \varepsilon   \eta (t)    (-)$.
\includegraphics[height=5.6cm]{K11A4}

Einsetzen der Vergleichsfunktionen in das Integral (A.1) gibt:

$\displaystyle I(\varepsilon)  := \int_{t_{0}}^{t_{1}} F(y(t,\varepsilon), \dot y(t,\varepsilon),t)  dt$ (127)

Es ist klar, daß $ I(\varepsilon = 0) = I_{0}$ ist. Weil $ x(t)$ die Lösung des Variationsproblems ist, also dem Integral (A.1) den extremalen Wert verleiht, muß aber auch gelten:

$\displaystyle \frac{dI}{d \varepsilon} \bigg\vert _{\varepsilon = 0}  =  0.
$

Durch diese Vorgangsweise mit dem Ansatz (A.5) und dessen Einsetzen in (A.1) ist das Variationsproblem in ein gewöhnliches Extremalproblem bezüglich des Parameters $ \varepsilon $ transformiert worden. Dies wird nun weiter im Integral (A.7) ausgeführt:

$\displaystyle \frac{dI}{d \varepsilon}  =  \int_{t_{0}}^{t_{1}}
\left[ \frac...
...tial y} \eta  + \
\frac{\partial F}{\partial \dot y} \dot \eta
\right]  dt.
$

Für $ \varepsilon \rightarrow 0 $ folgt daraus gemäß (A.4)

$\displaystyle \int_{t_{0}}^{t_{1}} \left[ \frac{\partial F}{\partial x}  \eta ...
...nt_{t_{0}}^{t_{1}} \frac{\partial F}{\partial \dot x}  \dot \eta  dt  =  0.$ (128)

Im zweiten Integral wird die Zeitableitung durch partielle Integration überwälzt:

$\displaystyle \int_{t_{0}}^{t_{1}} \frac{\partial F}{\partial \dot x}  \dot \e...
...t_{t_{0}}^{t_{1}} \eta  \frac{d}{dt} \frac{\partial F}{\partial \dot x}  dt.
$

Wegen (A.5) ist der integrierte Anteil Null. Durch Einsetzen der gerade berechneten Relation in das Integral (A.8) wird dieses auf folgende Form gebracht:

$\displaystyle \frac{dI}{d \varepsilon} \bigg\vert _{\varepsilon = 0}  = \
\in...
...al x}  - \
\frac{d}{dt} \frac{\partial F}{\partial \dot x} \right]  dt = 0.
$

Die Funktion $ \eta$ ist in hohem Maße willkürlich. Deswegen kann das vorstehende Integral nur dann Null sein, wenn der Ausdruck in der Klammer Null ist. Dies gibt die Eulersche Differentialgleichung des Variationsproblems (A.1):

$\displaystyle \frac{d}{dt} \frac{\partial F}{\partial \dot x} - \frac{\partial F}{\partial x}  =  0.
$

Deren Lösung $ x(t)$ ist die gesuchte Funktion, die dem Integral (A.1) seinen extremalen Wert verleiht.

In dem wichtigen Spezialfall, daß die Funktion $ F(x,\dot{x},t)$ nicht explizit von der unabhängigen Variablen $ t$ abhängt, ist folgende einfachere Bedingung, das Jacobiintegral, der Eulerschen Differentialgleichung äquivalent:

$\displaystyle F(x,\dot{x})  -  \dot{x}  \frac{\partial F(x,\dot{x}) }{\partial\dot{x}}  =  $   const. (129)

Aus $ \partial F/ \partial t = 0 $ und aus Gl. (A.3) folgt nämlich
$\displaystyle \frac{d}{dt} \left[ F(x,\dot{x})  -  \dot{x}  \frac{\partial F(x,\dot{x})
}{\partial \dot{x}}
\right]  $ $\displaystyle =$ $\displaystyle  \underbrace{\frac{\partial F}{ \partial t}}_{=  0}  + \
\fra...
...} }_{=  0}  -  \dot{x} \
\frac{d}{dt}  \frac{\partial F}{\partial \dot{x}}$  
  $\displaystyle =$ $\displaystyle \dot{x} \left[ \frac{\partial F}{\partial x}  -  \frac{d}{dt}
\frac{\partial F}{\partial \dot{x}} \right]
 =  0.$  

Diese Resultate werden nun zur Lösung des Beispiels, Gl. (A.4), verwendet. Zur Anfangsbedingung

$\displaystyle t =t_{0} : \quad x_{0} = y_{0} = v_{0} = 0
$

gehört $ E = 0$, sodaß wir schreiben können
$\displaystyle \sqrt{2g}   T  =  \int^{x_{1}}_{x_{0}} \sqrt{\frac{1 + y'^2}{-y}}   dx$ $\displaystyle =$ $\displaystyle \int^{x_{1}}_{x_{0}} F(y, y', x)  dx  \stackrel{!}{=}  $   Extr.$\displaystyle ,$  
$\displaystyle F(y, y', x)$ $\displaystyle =$ $\displaystyle \sqrt{\frac{1 + y'^2}{-y}}  .$  

Es ist sehr langwierig, zu diesem Variationsproblem die Eulersche Differentialgleichung (A.3) aufzustellen und zu lösen. Da $ F$ nicht explizit von $ x$, der unabhängigen Variablen, abhängt, kann Formel (A.9) verwendet werden, was wesentlich günstiger ist. Diese lautet hier:
$\displaystyle F(y,y') - y' \frac{\partial F(y,y')}{\partial y}  $ $\displaystyle =$ const.$\displaystyle ,$  
$\displaystyle \sqrt{\frac{1+y'^{2}}{-y}}  -  \sqrt{\frac{y'^{2}}{-y(1+y'^{2})}} =
\frac{1}{\sqrt{-y(1+y'^{2}}}$ $\displaystyle =$ const.$\displaystyle   := \frac{1}{A} .$  

Diese Differentialgleichung kann durch Separation der Variablen gelöst werden

$\displaystyle \int \sqrt{ \frac{- y}{A^{2}+y} }  dy  =  x - B .
$

Das Integral wird mittels der nachfolgenden Substitution für $ y$ ausgewertet. Damit folgt dann aus der obigen Gleichung auch ein Ausdruck für $ x$.
$\displaystyle y  $ $\displaystyle =$ $\displaystyle - A^{2} \cos^{2} \frac{u}{2}  =  -  \frac{A^{2}}{2}  (1 + \cos
u),$ (1210)
$\displaystyle x$ $\displaystyle =$ $\displaystyle \frac{A^{2}}{2}  (u + \sin u)  +  B .$ (1211)

Diese Lösung ist eine Parameterdarstellung einer gewöhnlichen Zykloide (s. Gl. (6.11)). Die noch unbestimmten Konstanten ( $ A$, $ B$, $ u_{0}$, $ u_{i}$) werden durch den vorgeschriebenen Anfangspunkt $ (x_0,
y_0 ) := (0,0) $ und Endpunkt $ (x_1, y_1) := (a, -b),      (b \geq 0)$ festgelegt. $ u_{0}$ und $ u_{i}$ legen den Bereich des Parameters $ u$ fest, $ u_{0}  \leq  u  \leq  u_{i}$.

\begin{displaymath}\begin{array}{lclclclcl} 0 & = & y_{0} & = & \frac{A^2}{2} (1...
...\Rightarrow & A^2 & = & \frac{2b}{1 + \cos u_{i}} . \end{array}\end{displaymath} (1212)

Division der vorletzten Gleichung durch die letzte gibt nach Umordnen

$\displaystyle b  \sin u_{i}  -  a  \cos u_{i}  =  a  +  b  \pi  -  b  u_{i} .
$

Diese Gleichung wird durch Einführung von Hilfsvariablen $ (\xi   $   und $ \alpha) $ umgeformt.
  $\displaystyle \sin\alpha  :=  \frac{a}{\sqrt{a^2 + b^2}}, \qquad \cos\alpha \...
...2}}, \qquad
\xi  :=  u_{i}  -  \alpha \qquad (0 < \alpha < \frac{\pi}{2}) ,$    
  $\displaystyle -  \xi   \cos\alpha  +  \sin\alpha  +  (\pi - \alpha)  \cos\alpha
 =  \sin\xi .$    

$ \alpha $ wird durch die obige Definition festgelegt. Die letzte Gleichung ist eine transzendente Gleichung in $ \xi$, das seinerseits das gesuchte $ u_{i}$ gibt. Die Lösungen $ \xi_{0}$, $ \xi_{1}$, $ \xi_{2}$, ... sind die Schnittpunkte der Geraden

$\displaystyle \eta  =  - \xi \cos \alpha  +  (\pi - \alpha)   \cos\alpha  +  \sin\alpha
$

mit der Sinuskurve $ \eta  =  \sin \xi$, (s. Abb. A.2):

$\displaystyle \xi_{0}  =  \pi - \alpha, \qquad u_{0} = \pi
$

gibt den Anfangspunkt. Die übrigen Wurzeln (für $ \alpha < \pi /2 $ endlich viele) geben zum Endpunkt passende Parametergrenzen $ u_{1}, u_{2}, \dots $. Aus $ u_{i}$ folgt dann $ A_{i}^{2}/2 $ gemäß der letzten Gl. (A.12). Damit und mit (A.10), (A.11) ist die Brachystrochrone (A.4) vollständig bestimmt.

Aus Abb. A.2(a)) ersieht man: Für $ \alpha < 1.3518 ...$ gibt es neben $ \xi_{0}$ nur eine Wurzel $ \xi_{1}$, ( $ \pi - \alpha < \xi_{1} < 3\pi - \alpha$); für 1.3518 ... $ < \alpha < 1.4421...$ gibt es $ \xi_{1}$, $ \xi_{2}$, $ \xi_{3}$, ( $ 3\pi - \alpha < \xi_{2}$, $ \xi_{3} < 5\pi - \alpha$). Die zu $ u_{2}$, $ u_{3}$ gehörigen Zykloiden (s. Abb. A.2(b)) haben längere Laufzeiten als die zu $ u_{1}$ gehörige. Sie sind wegen der Reibung praktisch nicht realisierbar.

Abbildung: Links: a) Die Lösungen $ \xi _{0},  \xi _{1},  \xi _{2},  \dots $ für einen bestimmten Wert von $ \alpha $ sind die Schnittpunkte der zu diesem $ \alpha $ gehörigen Geraden mit $ \sin\xi $. Rechts: b) Zu jedem Wert $ u_i  =  \xi _i + \alpha $ gehört eine Brachystochrone.
\includegraphics[width=16cm]{K11Bra}

Mehrere abhängige Variable

Die oben gebrachte Variationsrechnung läßt sich für den Fall von $ n$ abhängigen Variablen $ x_{i}(t)$ verallgemeinern: Gesucht sind die Funktionen $ x_{i}(t)$, sodaß das Integral

$\displaystyle \int_{t_{0}}^{t_{1}} F(x_{1}(t), x_{2}(t), \ldots , x_{n}(t); \dot{x}_{1}(t), \dot{x}_{2}(t), \ldots, \dot{x}_{n}(t); t)  dt  =  $   Extr. (1213)

ein Extrem wird, wobei $ F$ eine bekannte Funktion der Argumente ist. Dies bedeutet also

$\displaystyle \delta \int_{t_{0}}^{t_{1}} F(x_{1}(t), x_{2}(t), \ldots , x_{n}(t);
\dot{x}_{1}(t), \dot{x}_{2}(t), \ldots , \dot{x}_{n}(t); t)  dt  =  0.
$

Eine Schlußweise ganz wie die im Falle einer unbekannten abhängigen Variablen führt zu dem System von Eulerschen Gleichungen

$\displaystyle \frac{d}{dt} \frac{\partial F}{\partial \dot{x}_{i}} - \frac{\partial F}{\partial x_{i}}  =  0, \qquad \qquad i = 1,2,\dots,n .$ (1214)

Es wird dazu angenommen, die $ x_{i}(t)$ seien die gesuchten Funktionen, die dem Integral seinen extremen Wert verleihen. Setzt man die Vergleichsfunktionen

$\displaystyle x_{i}(t)  +  \varepsilon  \eta_{i}(t), \qquad \qquad \varepsilon  \ll  1 ,
$

die durch den gleichen Anfangs- und Endpunkt gehen sollen wie die Lösungen, d.h.

$\displaystyle \eta_{i}(t_{0})  =  \eta_{i}(t_{1})  =  0,$ (1215)

in das Integral (A.13) ein, dann ist das Variationsproblem wieder auf ein gewöhnliches Extremalproblem für das folgende Integral zurückgeführt:
$\displaystyle I(\varepsilon)$ $\displaystyle =$ $\displaystyle \int_{t_{0}}^{t_{1}} F(x_{1} + \varepsilon  \eta_{1},
\dots x_{n...
... \dot{\eta}_{1}, \dots,
\dot{x}_{n} + \varepsilon  \dot{\eta}_{n};  t)  dt,$  
$\displaystyle I'(\varepsilon = 0) \stackrel{!}{=} 0$ $\displaystyle =$ $\displaystyle \int_{t_{0}}^{t_{1}} \sum_{i=1}^{n} \left\{ \frac{\partial F}{\pa...
...}} \
\dot{\eta}_{i} + \frac{\partial F}{\partial x_{i}}  \eta_{i} \right\} dt$  
  $\displaystyle =$ $\displaystyle \int_{t_{0}}^{t_{1}} dt \sum_{i=1}^{n} \left\{ \frac{\partial F}{...
...\partial x_{i}}
\underbrace{\eta_{i} \bigg\vert _{t=t_{o}}^{t=t_{1}}}_{=0}   .$  

Die Ableitung des Integrals ist partiell integriert worden. Der integrierte Term ist wegen Bedingung (A.15) Null. Wegen der Willkürlichkeit und der Unabhängigkeit der $ \eta_{i}$ muß jede geschweifte Klammer für sich Null sein. Das gibt die oben bereits angeführten Eulerschen Gleichungen (A.14).

Variationsprobleme mit Nebenbedingungen

Als letztes behandeln wir Variationsprobleme mit Nebenbedingungen. In der gewöhnlichen Maximum-Minimum-Rechnung sollen die Argumente $ x_{1},\ldots,x_{n}$ aufgesucht werden, die der Funktion $ f(x_{1},\ldots,x_{n})$ einen extremen Wert verleihen. Dabei sind diese Argumente durch Nebenbedingungen eingeschränkt.

$\displaystyle f(x_{1},x_{2}, \ldots,x_{n})$ $\displaystyle =$ Extr.  
$\displaystyle G_{\alpha}(x_{1},x_{2}, \dots, x_{n})$ $\displaystyle =$ $\displaystyle 0, \qquad \alpha = 1,2, \dots , K.$  

Die Lösungsvorschrift ist (ohne Beweis): Mittels Lagrangescher Multiplikatoren $ \lambda_{\alpha}$ bilde man die Funktion

$\displaystyle f^{+} := f +  \sum_{\alpha} \lambda_{\alpha} G_{\alpha}
$

und suche deren Extrema gemäß

\begin{displaymath}
\begin{array}{cccclcl}
&& \frac{\partial f^{+}}{\partial x_{...
...{\alpha} & = & 0,
& \qquad & \alpha = 1,2,\ldots,K.
\end{array}\end{displaymath}

Der zweite Satz von Bedingungen sind gerade die Nebenbedingungen, die in formaler Weise ebenfalls als Ableitungen ausgedrückt worden sind. Aus den obigen $ n + k$ Gleichungen können die $ n + k$ Unbekannten $ x_{1},\ldots,x_{n},
\lambda_{1},\ldots,\lambda_{k}$ bestimmt werden.

Das analoge Problem der Variationsrechnung ist wieder: die Funktionen $ x_{i}(t)$ zu finden, so daß

$\displaystyle \int_{t_{0}}^{t_{1}} F(x_{1}(t),x_{2}(t), \ldots x_{n}(t);
\dot{x}_{1}(t),\dot{x}_{2}(t), \ldots \dot{x}_{n}(t); t)dt$ $\displaystyle =$ Extr. (1216)
$\displaystyle G_{\alpha} (x_{1},x_{2}, \ldots x_{n}; \dot{x}_{1},\dot{x}_{2}, \ldots \dot{x}_
{n}; t)$ $\displaystyle =$ $\displaystyle 0.$ (1217)

Diese Funktionen, $ x_{i}(t)$, werden durch die Nebenbedingungen $ G_{\alpha} = 0$ eingeschränkt. Kommen in den $ G_{\alpha}$ keine Ableitungen vor, heißen die Nebenbedingungen holonom, sonst anholonom. Die Lösungsvorschrift ist in beiden Fällen die gleiche: Man bilde die Funktion

$\displaystyle F^{+} (x_{1},x_{2},\ldots, x_{n},\lambda_{1},\lambda_{2},\ldots, ...
...},\ldots,\dot{x}_{n},t) = F + \sum_{\alpha =1}^{K} \lambda_{\alpha} G_{\alpha}.$ (1218)

Die gesuchten Funktionen $ x_{i}(t)$ und die Lagrangeschen Multiplikatoren $ \lambda_{\alpha}(t)$ sind die Lösungen der Eulerschen Differentialgleichungen

$\displaystyle \frac{d}{dt} \frac{\partial F^{+}}{\partial \dot{x}_{i}} -
\frac{...
...dot{\lambda}_{\alpha}} -
\frac{\partial F^{+}}{\partial \lambda_{\alpha}} = 0.
$

Daher kann man das Variationsproblem (A.16) und (A.17) auch schreiben als

$\displaystyle \delta \int_{t_{0}}^{t_{1}} F^{+}(x_{1}(t), \ldots, x_{n}(t); \la...
...ot{x}_{n}(t); \dot{\lambda}_{1}(t), \ldots, \dot{\lambda}_{K}(t); t)dt  =  0.$ (1219)

Die strenge mathematische Behandlung der Variationsrechnung ist ungleich schwieriger als die der gewöhnlichen Maximum-Minimum-Rechnung. Insbesondere ist die Existenz von stationären Werten der Integrale (dieser Begriff ist allgemeiner und zutreffender als der des Extremums) nicht immer gesichert. Auch der Beweis der Methode der Lagrangeschen Multiplikatoren ist sehr kompliziert. Auf diese Schwierigkeiten kann hier nicht eingegangen werden.

Literatur zur Variationsrechnung

O. Bolza: Vorlesung über Variationsrechnung, B.G.Teubner, Leipzig,1909

Christian Sommer 2003-01-27