|  |  |  |  |  |  |  |  | 
|  |  |  |  |  |  |  |  | 
|  |  | 
 Im ersten Kapitel über das Differenzieren haben wir viele nützliche Dinge besprochen, 
            waren aber in manchen Punkten etwas oberflächlich. Dieses zweite 
            Kapitel ist nun der Vertiefung der begrifflichen Grundlagen
            gewidmet, stellt daher höhere Ansprüche hinsichtlich
            Abstraktion und Exaktheit als das erste. Wir beginnen damit, genauer zu definieren,
            wann wir eine Funktion als differenzierbar bezeichnen und was die Ableitung ist.
 
 Ableitung
 
 |  |  |  | 
 
  Differenzieren 1
 |  | 
|  |  | Die Ableitung einer reellen Funktion f an einer gegebenen Stelle 
            x ist ein "lokales" Konzept, das auf einem Vergleich
            des Funktionswerts f(x)
            mit Funktionswerten an nahe benachbarten Stellen beruht. Wie "nahe" diese Vergleichsstellen bei
            x liegen, ist dabei gleichgültig 
            - wichtig ist aber, dass es sich um ein Kontinuum von
            Vergleichsstellen handelt.
            Wir formulieren diese Idee genauer, indem wir verlangen, dass es eine reelle Zahl
            a > 0 gibt, so dass
            das (offene) Intervall 
            (x - a, x + a)
            ganz im Definitionsbereich von f liegt, d.h.
            dass von jedem Element x' dieses
            Intervalls der Funktionswert f(x')
            wohldefiniert ist. Ein offenes Intervall, in dem x
            liegt, bezeichnen wir als Umgebung von x.
            Wir verlangen also, dass f in
            einer Umgebung von x wohldefiniert ist.
            Mit J bezeichnen wir die Menge aller Punkte
            des Intervalls (x - a, x + a),
            
            die ungleich x sind. |  |  |  |  Umgebung
 (in Vorbereitung)
 |  | 
|  |  | 
 
      | Definition: f heißt an der Stelle x
        differenzierbar, wenn es eine reelle Zahl c
        mit folgender Eigenschaft gibt: Für jede Folge 
        (x1, x2, ...)
        reeller Zahlen
        xn Î J,
        die gegen x konvergiert, gilt
 
 
          | 
               
                |  |  | f(xn) 
                    - f(x) xn - 
                    x
 | =  
                  c . |   
                | lim |   
                  | n ® ¥ |  | (1) |  Wir nennen dann c die Ableitung von
        f an der Stelle x
        und bezeichnen sie mit f '(x).
 |  Bemerkungen:
 
            Besonders wichtig an dieser Definition ist das Wort "jede".
            Der Ausdruck
            (f(xn) - f(x))/(xn - x)
            ist der Differenzenquotient 
            bezüglich der Stellen x und
            xn.
            Geometrisch interpretiert, stellt er den Anstieg der Geraden (Sekante) durch die Punkte
            (x, f(x)) und
            (xn, f(xn)) dar.
            Falls der Grenzwert (1) für jede der in Frage kommenden Folgen existiert,
            schreiben wir  symbolisch
 
    | 
           
            |  |  |  | f(x' ) 
              - f(x) x' - 
              x
 | . |   
            | f '(x)   = | lim |   
            |  | x' ® x |  | (2) |  Intuitiv deutet diese Schreibweise an, dass x'
            der Stelle x immer näher kommt.
            Genau genommen dürfen wir uns das aber nicht bloß als einen Annäherungsprozess vorstellen
            (das entspräche dem Grenzwert (1) für eine Folge). Wichtig ist, dass das Resultat von der Art und Weise,
            wie sich x' an x
            annähert, nicht abhängen soll.
            Die exakte Formulierung dieser Forderung ist die obige Definition.
Mit  e = x' - x
            erhalten wir aus (2) die  Schreibweise
 
    | 
           
            |  |  |  | f(x 
              + e) - f(x) e
 | , |   
            | f '(x)   = | lim |   
            |  | e ® 0 |  | (3) |  die wir im ersten Differenzieren-Kapitel verwendet haben.
Es gibt eine der Definition (1) gleichwertige Formulierung, die
            den Bezug die Begriffe der Folge und der Konvergenz vermeidet. 
            Sie können sie mit dem nebenstehenden Button aufrufen.
 |  |  |  |  Schreibweise mit e
 
 
 alternative
 
  
 
 |  | 
|  |  | Die meisten "elementaren" mathematischen Funktionen
            (insbesondere Polynome, rationale Funktionen, Potenz-, Winkel-, Exponential- und Logarithmusfunktionen)
            sind innerhalb ihres Definitionsbereichs differenzierbar
            (wobei zunächst über Randstellen nichts gesagt wird, mehr dazu weiter unten).
            Mit dem nebenstehenden Button können Sie als Beispiel die genaue Argumentation, die auf die
            Differenzierbarkeit und die Ableitung der Funktion
            f(x) = x2
            führt, aufrufen. 
 Aufpassen sollten Sie bei abschnittsweise (stückweise) termdefinierten Funktionen und
            bei Termen, die die Betragsfunktion enthalten.
            Hier ein paar Beispiele von Funktionen, deren die Differenzierbarkeit nicht an allen Stellen
            gegeben ist:
 
Beispiel 1: Die  Funktion
  
      | 
           
            |  | { |  | x1/3 | wenn 
              x ³ 0 |   
            | f(x)   = |   
            |  | -(-x)1/3 | wenn 
              x < 0 |  | (4) |  ist die Inverse der Funktion
            g(x) = x3.
            Sie ist an der Stelle 0 nicht differenzierbar.
            Beweis: Für die Folge
            xn = 1/n gilt
            (f(xn) - f(0))/(xn - 0) =
            n2/3, was für
            n ® ¥
            klarerweise nicht konvergiert. Daher kann es die in der Definition (1) verlangte Zahl c
            nicht geben. Der geometrische Grund für dieses Verhalten wird klar, wenn Sie sich den
			Graphen von f ansehen (z.B. indem Sie den Ausdruck
			(abs(x)/x)*abs(x)^(1/3) in den Funktions-Plotter eingeben):
			Er besitzt zwar im Punkt (0, 0) eine Tangente, aber diese ist "vertikal", hat also keinen endlichen
             Anstieg.
 
 Beispiel 2: Die Betragsfunktion f(x) = |x| ist an der Stelle
            0 nicht differenzierbar.
            Für jede von oben (d.h. von rechts = von positiven Werten) gegen 0 konvergierende
            Folge (xn) ist die linke Seite der Formel
            (1) gleich 1, für jede von unten (d.h. von links = von negativen Werten)
            gegen 0 konvergierende Folge ist sie gleich -1,
            und für Folgen, wie zwischen positiven und negativen Werte oszillieren, existiert der
            Grenzwert nicht. Daher kann es die in der Definition (1) verlangte Zahl c
            nicht geben. Der geometrische Grund dafür ist hier der Knick im Graphen
            (geben Sie abs(x) in den Funktions-Plotter ein),
            der die Existenz einer (eindeutigen) Tangente im Punkt (0, 0)
            verhindert.
 |  |  |  | 
 
 
 |  | 
|  |  | Eine präzise Definition der Differenzierbarkeit ist aber nicht nur 
            für praktische Rechnungen wichtig, sondern auch, um mathematische Aussagen, 
            in denen die Ableitung vorkommt (wie z.B. die in einem früheren Kapitel diskutierte
            Regel von de l'Hospital) verlässlich beweisen bzw. die genauen
            Voraussetzungen, unter denen sie gelten, angeben zu können . 
 Rechts- und linksseitige Ableitung
 Manchmal möchte man zwar die Formel (1) beibehalten, aber nur Folgen betrachten, 
            die sich von "oben" (d.h. von "rechts") oder von "unten" (d.h. von "links") an
            x annähern. Zudem kann 
            der Definitionsbereich von f
            ein Intervall und x eine
            Randstelle dieses Intervalls sein. Dann gibt es keine Umgebung von
            x, die ganz im Definitionsbereich
            von f läge, und
            die obige Konstruktion ist genau genommen nicht möglich.
 
 Für solche Situationen definiert man die rechtsseitige (linksseitige) 
            Differenzierbarkeit wie oben, mit dem einzigen Unterschied, dass
            J auf ein
            Intervall der Form
            (x, x + a)
            bzw.
            (x - a, x)
            eingeschränkt wird. Die Aussage
            xn Î J,
            die in der Definition vorkommt, bedeutet dann im ersten Fall, dass die Folge
            (xn)
            von oben (d.h. von rechts) gegen x konvergiert,
            im zweiten Fall, dass sie von unten (d.h. von links) 
            gegen x konvergiert.
            Wenn der Grenzwert (1) für alle diese
            rechtsseitigen (linksseitigen) Folgen existiert, nennt man ihn 
            rechtsseitige (linksseitige) Ableitung von
            f an der Stelle
            x.
 
 
 
Beispiel 1:
            Die Funktion
            f(x) = 1 - x2
            wird auf dem abgeschlossenen Intervall [0, 1] betrachtet.
            Sie ist - im Sinn von Definition (1)
            - im offenen Intervall (0, 1) differenzierbar,
            ihre Ableitung ist dort durch
            f '(x) = -2x gegeben.
            Weiters existiert an der linken Randstelle die rechtsseitige Ableitung und an der rechten Randstelle die linksseitige
            Ableitung. Falls wir für diese ebenfalls die 
            Bezeichnung f ' verwenden,
            können wir schreiben: f '(0) = 0 und
            f '(1) = -2,
            und in diesem Sinn gilt die Formel
            f '(x) = -2x
            im gesamten abgeschlossenen Intervall [0, 1].Besitzt x eine Umgebung, die ganz im Definitionsbereich
            von f liegt, und ist f an der Stelle 
            x differenzierbar, so existiert
            auch die rechts- und die linksseitige Ableitung, und beide stimmen mit der Ableitung
            überein. Umgekehrt folgt aus der Existenz und Übereinstimmung der rechts- und 
            linksseitigen Ableitungen an einer Stelle x,
            dass f dort differenzierbar ist.
 Beispiel 2: Die Wurzelfunktion f(x) = x1/2
            ist für alle
            x ³ 0
            definiert. Sie ist im Sinn der Definition (1) 
            für alle x > 0
            differenzierbar. Die Randstelle x = 0
            besitzt keine Umgebung, die ganz im Definitionsbereich läge, daher können wir
            an ihr nur nach der Existenz der rechtsseitigen Ableitung fragen
            - eine kurze Rechnung zeigt, dass diese nicht existiert.
            (Führen Sie die Rechnung selbst durch, indem Sie die Folge
            xn = 1/n
            verwenden! Was ist der geometrische Grund für dieses Verhalten?)
 
 Beispiel 3: Die Funktion f(x) = x3/2
            ist für alle
            x ³ 0
            definiert. Sie ist im Sinn der Definition (1) 
            für alle x > 0 differenzierbar. Die Randstelle x = 0
            besitzt keine Umgebung, die ganz im Definitionsbereichs läge, daher können wir
            an ihr nur nach der Existenz der rechtsseitigen Ableitung fragen.
            Diese existiert und hat den Wert 0.
            Beweis: Ist (xn) eine von rechts gegen 0 konvergierende
            Folge (d.h. xn > 0), so gilt
            (f(xn) - f(0))/(xn - 0) =
            (xn3/2 - 0)/(xn - 0) =
            xn1/2,
            was für
            n ® ¥
            gegen 0 konvergiert.
 
 Beispiel 4: Die Betragsfunktion f(x) = |x| ist,
            wie oben erwähnt, an der Stelle
            0 nicht differenzierbar. Aber sowohl die 
            rechtsseitige Ableitung (sie hat den Wert 1)
            als auch die linksseitige Ableitung (sie hat den Wert -1)
            existieren an dieser Stelle.
 
 Differenzierbarkeit impliziert Stetigkeit
 |  |  |  |  Regel von
 de l'Hospital
 |  | 
|  |  | Intuitiv gesprochen, erkennt man eine stetige Funktion daran, dass ihr Graph keine Sprungstellen hat.
            Da - ebenso intuitiv gesprochen - 
            der Graph einer differenzierbaren Funktion keine Knicke hat, ist zu erwarten, dass
            eine differenzierbare Funktion stetig ist - denn was sollte
            der Anstieg des Graphen an einer Sprungstelle sein? Diese Vermutung ist tatsächlich richtig,
            auch wenn ein präziserer Begriff der Stetigkeit zugrunde gelegt wird.
 |  |  |  |  |  | 
|  |  | Satz: Ist f an der Stelle x
            differenzierbar, so ist f dort auch stetig.
 
Der Beweis dieser Behauptung ist fast trivial: Sei f an der Stelle x
            differenzierbar, und sei (xn)
            eine Folge reeller Zahlen xn Î J,
            die gegen x konvergiert, d.h. für 
             die
 gilt. Dann existiert der Grenzwert (1),  und wenn wir die linken Seiten von 
            (1) und (5) miteinander multiplizieren, ergibt
             sich
 
 
  | 
         
          |  |  | ( f(xn) 
              - f(x)) | =  0, |   
          | lim |   
          | n ® ¥ |  | (6) |  was auch  in der Form
 
 geschrieben werden kann. Das drückt aber gerade die Stetigkeit von
              f an der Stelle x
              aus: Wann immer eine Folge gegen x konvergiert,
              so konvergiert die Folge der Funktionswerte gegen f(x).
              Damit ist der Satz bewiesen.
 |  |  |  |  Stetigkeit
 (in Vorbereitung)
 |  | 
|  |  | Eine Variante des Satzes lautet:
            Existiert an einer Stelle die rechtsseitige (linksseitige) Ableitung einer Funktion, so ist diese dort
            rechtsstetig (linksstetig). Sie kann genauso bewiesen werden,
            mit dem einzigen Unterschied, dass
			J auf ein
			Intervall der Form
			(x, x + a)
			bzw.
			(x - a, x)
            eingeschränkt wird, d.h. dass nur Folgen, die von rechts (links) gegen x konvergieren,
            betrachtet werden. 
 
 |  |  |  |  rechts- und linksstetig
 (in Vorbereitung)
 |  | 
|  |  |  |  |  |  | Zum Seitenanfang |  | 
|  |  | 
 Wir besprechen nun ein Phänomen, das der Intuition ein bisschen zuwiderläuft: Die Ableitung einer
            Funktion - die ja selbst wieder eine Funktion ist -
            ist nicht unbedingt stetig. Daher formulieren wir zunächst eine
 
 Definition: Eine in einem offenen Intervall A differenzierbare 
            reelle Funktion heißt an der Stelle 
            x Î A
            stetig differenzierbar, wenn ihre Ableitungsfunktion an der Stelle
            x stetig ist.
 
 Funktionen, die nicht stetig differenzierbar sind, kommen beim Lösen praktischer Aufgaben
            selten vor. Um aber den Begriff der Differenzierbarkeit besser zu verstehen, sehen wir uns ein Beispiel an:
 
 
 
Beispiel: Gegeben sei die auf ganz R definierte  Funktion
  Dieses Beispiel zeigt auch, dass der Begriff der "Tangente an den Graphen" seine Tücken
            hat. Hätten Sie aufgrund einer Betrachtung des Graphen der Funktion
            (8) schließen können, dass er im Punkt (0, 0)
            eine wohldefinierte Tangente besitzt und wie groß ihr Anstieg ist?
            Versuchen Sie, die Unstetigkeit der Ableitung dieser Funktion vom Standpunkt der "Ableitung als Anstieg der Tangente" zu
            verstehen!
      | 
           
            |  | { |  | x2 
               sin(1/x) | wenn 
              x ¹ 0 |   
            | f(x)   = |   
            |  | 0 | wenn 
              x = 0. |  | (8) |  Sehen Sie sich zuerst einmal ihren Graphen an (z.B. im Funktions-Plotter
            - geben Sie einfach x^2*sin(1/x) ein und
            zoomen Sie sich ein bisschen näher.
            Hilfreich ist es auch, gleichzeitig die Graphen von
            x^2 und -x^2 anzuzeigen).
            Sie oszilliert in der Nähe der Stelle 0 sehr 
            stark: Da der Sinus auf 1/x angewandt wird,
            werden in gewisser Weise alle Oszillationen der Sinusfunktion ins Endliche geholt und häufen sich
            nahe 0.
            Die Funktion f wird dort aber auch sehr klein - das besorgt der
            Faktor x2.
            (Er "dämpft" die Oszillationen, wenn man so will). Vergewissern wir uns nun, dass f differenzierbar ist.
            Ist x ¹ 0, so berechnen wir
            mit Hilfe der Produkt- und der Kettenregel
            f '(x) = 
            2x sin(1/x) -
            cos(1/x).
            An der Stelle 0 müssen wir gemäß 
            Definition (1) vorgehen: Sei (xn)
            eine Folge reeller Zahlen xn ¹ 0,
            die gegen 0 konvergiert.
            Dann ist 
            (f(xn) - f(0))/(xn - 0) =
            xn
            sin(1/xn).
            Da der Sinus-Anteil immer zwischen -1
            und 1 beschränkt bleibt, konvergiert diese
            Folge der Differenzenquotienten gegen 0,
            gleichgültig, welche Folge (xn) man gewählt hat.
            Daher ist f überall differenzierbar, und die
            Ableitungsfunktion ist  durch
 
      | 
           
            |  | { |  | 2x 
                sin(1/x) 
              - cos(1/x) | wenn 
              x ¹ 0 |   
            | f '(x)   = |   
            |  | 0 | wenn 
              x = 0 |  | (9) |  gegeben. Sehen Sie sich deren Graphen ebenfalls an! Wie f
            oszilliert f ' stark in der Nähe der Stelle
            0, wird aber im Gegensatz zu
            f nahe 0            
            nicht klein. Das können wir auch dem Ausdruck (9) ansehen, in dem der
            Cosinus-Term nicht mit einer positiven Potenz von x multipliziert vorkommt
            und daher ("ungedämpft") zwischen -1
            und 1 oszilliert, wenn sich
            x an 0
            annähert.
 
 f ' scheint also nicht stetig zu sein.
            Zum formalen Beweis
            betrachten wir die gegen 0 konvergierende Folge
            xn = (2pn)-1
            und berechnen 
            f '(xn) = 
            (pn)-1
            sin(2pn) -
            cos(2pn) =
            -1.
            Diese (konstante) Folge konvergiert gegen -1,
            was nicht f '(0) ist.
            Daher ist f ' an der Stelle
            0 unstetig.
 
 
 |  |  |  |  |  | 
|  |  |  |  |  |  | Zum Seitenanfang |  | 
|  |  | 
 Nun wenden wir uns einem Extremfall zu, der die geometrische Anschauung noch stärker irritiert als
            die oben besprochenen Funktionen, deren Ableitung nicht stetig ist:
            Es gibt Funktionen, die zwar stetig, aber an keiner Stelle ihres Definitionsbereichs differenzierbar sind!
 
Beispiel 1:
            Wir gehen von der so genannten Sägezahnfunktion g aus.
            Im Intervall 
            [-1/2, 1/2]
            stimmt sie mit der Betragsfunktion überein und wird mit Periode 
            1 für alle reellen Zahlen fortgesetzt.
            Nun betrachten wir nacheinander die folgenden Funktionen:
 |  |  |  |  Periode
 
 
 |  | 
|  |  | 
            
             f0(x) = g(x) Das ist die Sägezahnfunktion selbst. Sie ist überall stetig. Ihr Graph besitzt an allen 
            ganzzahligen Vielfachen von 1/2
            (d.h. an den Stellen 0,
            ±1/2,
            ±1,
            ±3/2, ...) Knicke. An diesen Stellen ist
            f0 nicht differenzierbar.
 
 f1(x) = g(x) + g(2x)/2 Sie kommt zustande, indem eine um den Faktor 2 "verkleinerte" und um denselben Faktor in
            x-Richtung "geschrumpfte" 
            Version der Sägezahnfunktion
            zu f0 addiert wird. Ihr Graph besitzt
            nun auch an (allerdings nicht allen) ganzzahligen Vielfachen von 1/4
            Knicke. Insgesamt liegen die Knickstellen von f1
            bereits etwas dichter als jene von
            f0.
 
 f2(x) = g(x) + g(2x)/2 + g(4x)/4 Sie kommt zustande, indem eine um den Faktor 4 "verkleinerte" und um denselben Faktor in
            x-Richtung "geschrumpfte" 
            Version der Sägezahnfunktion
            zu f1 hinzuaddiert wird. Ihr Graph besitzt
            nun auch an (allerdings nicht allen) ganzzahligen Vielfachen von 1/8
            Knicke. Insgesamt hat sich die Dichte der Knickstellen im Vergleich zu
            f1 erhöht.
 
 f3(x) = g(x) + g(2x)/2 + g(4x)/4 + g(8x)/8 Und so geht es nach dem gleichen Schema weiter.
            f3 ist an vielen
            (allerdings nicht allen) ganzzahligen Vielfachen von 1/16
            nicht differenzierbar, f4 besitzt zahlreiche
            Knickstellen an ganzzahligen Vielfachen von 1/32, usw.
            Nach jedem Schritt liegen die Knickstellen dichter.
 
 |  |  |  |  |  | 
|  |  | 
Die Funktion, um die es uns geht, ist der Grenzwert von
            fn(x) für
            n ® ¥,
            d.h. die Reihe  ("unendliche Summe")
 
    | 
           
            |  | ¥ |  | 2-n 
              g(2n x) . |  |   
            | f(x)   = | S |   
            |  | n = 0 |  | (10) |  Diese Funktion ist für alle reellen Zahlen wohldefiniert und stetig. 
            Ihren Graphen (siehe Button) können wir uns nicht gut vorstellen, aber dennoch ist er
            eine wohldefinierte Punktmenge in der Zeichenebene. Dass die Reihe
            für alle x existiert, ergibt sich daraus, dass 
            g zwischen 
            0 und 1/2
            beschränkt ist und die unendliche Summe über alle
            2-n
            endlich ist. (Sie hat den Wert 2).
            Das liefert eine obere Schranke für die Summen
            fn(x), die
            auch für große n
            nicht überschritten wird. Auf den Beweis der Stetigkeit gehen wir hier nicht ein.
            Man kann aber auch zeigen, dass f an keiner Stelle differenzierbar ist.
            Intuitiv lässt sich das so verstehen, dass sich die Zahl der Knicke durch jede hinzuaddierte
            
            Version der Sägezahnfunktion erhöht, bis sie schließlich so dicht liegen,
            dass dadurch die Existenz jeglicher Tangente an den Graphen verunmöglicht wird.
 
 Die Funktion (10) besitzt übrigens die interessante Eigenschaft der 
(näherungsweisen) Selbstähnlichkeit: Wir können die Reihe in der Form
f(x) = g(x) + (1/2) × (g(2x) + g(4x)/2 + g(8x)/4 + ...)
schreiben. Der hervorgehobene Klammerausdruck ist aber nichts anderes als f(2x),
woraus sich  ergibt:
 
 Der letzte Term stellt eine um den Faktor 2 "verkleinerte" und um denselben Faktor in
            x-Richtung "geschrumpfte" 
            Version von f dar.
            Das bedeutet, dass f
            die Summe aus der Sägezahnfunktion g
            und einer "kleiner skalierten" Version von sich selbst ist! All die Feinstruktur,
            die der Graph von f
            aufweist, findet sich in verkleinerter Form in ihm selbst wieder!
            Sehen wir ihn uns durch eine Lupe mit Vergrößerungsfaktor 2 an,
            so wird er ähnlich aussehen wie nicht vergrößerte Graph, und
            dasselbe gilt bei einer weiteren Vergrößerung um den Faktor 2
            usw. Eine Punktmenge mit dieser Eigenschaft nennen wir ein (selbstähnliches) Fraktal.
            Hier haben wir einen schönen Unterschied zwischen den Graphen 
            überall differenzierbarer und nirgends differenzierbarer Funktionen.
            Während sich erstere unter genügend starker Vergrößerung
            kaum von Geraden unterscheiden, werden an letzteren auch bei fortwährendem "Näherzoomen"
            immer wieder neue Strukturen sichtbar, die die Existenz von Tangenten verhindern.
 
Beispiel 2: Nach einem ganz ähnlichen Strickmuster wird eine andere (auf Karl Weierstraß zurückgehende)
            stetige, aber nirgends differenzierbare Funktion konstruiert. Wir verzichten auf eine ausführliche Herleitung und
            schreiben sie einfach als Reihe  hin:
 
    | 
           
            |  | ¥ |  | 2-n/2 
              sin(2n x) . |  |   
            | w(x)   = | S |   
            |  | n = 0 |  | (12) |  Ihre Bestandteile, die Funktionen
            2-n/2 
            sin(2n x),
            sind überall differenzierbar, und ihr Graph (genauer: der Graph einer Summe bis zu einem
            großen aber endlichen n, wie er auf einem
            Bildschirm oder Blatt Papier gerade noch dargestellt werden kann) sieht atemberaubend aus:
            Geben Sie nacheinander die ersten drei dieser Summen
 
             und dann den Ausdruck für die siebente Summesin(x)
             sin(x) + 2^(-1/2)*sin(2*x)
             sin(x) + 2^(-1/2)*sin(2*x) + 2^(-1)*sin(4*x)
 
 (mit Kopieren & Einfügen) in den Funktions-Plotter ein!
            Sehen Sie sich auch den zuletzt addierten Beitrag
            2^(-3)*sin(64*x) an!
 
 Auch die Funktion (12) genügt einer zu (11) analogen 
             Beziehung
 
 
                |                     
            | w(x)  =  sin x + 2-1/2 w(2x) , |  | (13) |  die erweist, dass ihr Graph ein selbstähnliches Fraktal ist.
 |  |  |  |  Reihe
 (in Vorbereitung)
 
 
 |  | 
|  |  | Im Applet rechts können Sie das schrittweise Entstehen der Graphen dieser beiden
            Beispiele mitverfolgen. 
 Dass die Differenzierbarkeit einer Funktion durch deren Stetigkeit nicht garantiert ist, wurde erst im 
            19. Jahrhundert erkannt. Aus der geometrischen Anschauung
            heraus glaubte man lange Zeit, dass der Graph einer stetigen Funktion
            überall (außer in einzelnen isolierten Punkten) eine Tangente besitzt.
            Erst durch die Präzisierung der Begriffe Stetigkeit und Differenzierbarkeit
            und durch die Konstruktion von Beispielen wie den beiden gerade vorgeführten,
            wurden diese Irrtümer erkannt.
 
 
 |  |  |  | Applet Nirgends
 differenzierbare
 Funktionen
 |  | 
|  |  |  |  |  |  | Zum Seitenanfang |  | 
|  |  | 
 In diesem Kapitel haben wir nur reelle Funktionen untersucht, d.h. solche, deren Definitions- und Wertebereich
            Teilmengen der Menge der reellen Zahlen sind.
            Die Begriffe der Differenzierbarkeit und der Ableitung können aber in mehrfacher Hinsicht 
            auch auf andere Klassen von Funktionen verallgemeinert werden. 
            Einige dieser Verallgemeinerungen werden in anderen Kapitel zumindest gestreift.
 
            In den meisten dieser Gebiete werden die Differenzierbarkeitseigenschaften reeller Funktionen 
            und der Zusammenhang mit dem Stetigkeitsbegriff benutzt. Was wir in diesem Kapitel besprochen haben,
            steht also Pate für zahlreiche Weiterentwicklungen der Mathematik.Für Funktionen in mehreren Variablen lässt sich auf 
                natürliche Weise eine Verallgemeinerung des Ableitungsbegriffs definieren:
                Die partiellen Ableitungen einer Funktion 
                f º f(x, y)
                werden berechnet, indem eine Variable konstant gehalten und nach der anderen differenziert wird.
            Im Rahmen der komplexen Zahlen ergibt sich ein Differenzierbarkeitsbegriff, der sich vom
                hier besprochenen erheblich unterscheidet. Er führt auf den Begriff der analytischen Funktionen.
            In der Variationsrechnung wird die Ableitung zur so genannten Funktionalableitung verallgemeinert, d.h.
                für Funktionen, die auf Mengen von Funktionen definiert sind.
            In der Konstruktion zahlreicher anderer mathematischer Strukturen und Räume
                (wie zum Beispiel der so genannten verallgemeinerten Funktionen) spielt die Idee der
                Ableitung eine wichtige Rolle.
            Die kovariante Ableitung von Objekten, die "Tensoren" genannt werden und Verallgemeinerungen von Vektoren
                darstellen, ist für die moderne Physik unverzichtbar geworden.
 
 
 |  |  |  | 
 
 
  partielle Ableitung
 (in Vorbereitung)
 
 
  analytische Funktionen
 (in Vorbereitung)
 
 
  Funktionalableitung
 (in Vorbereitung)
 verallgemeinerte
 Funktionen
 (in Vorbereitung)
 kovariante Ableitung
 (in Vorbereitung)
 
 |  | 
|  |  | Zuletzt sei noch erwähnt, dass im Fall von Funktionen, die auf diskreten Mengen (auf endlichen
            Mengen oder auf der Menge der natürlichen Zahlen) definiert sind, die Differenzenquotienten
            einen gewissen Ersatz für die Ableitung darstellen. Die mit ihrer Hilfe formulierten
            Differenzengleichungen werden häufig dazu benutzt, um
            dynamische Prozesse zu modellieren und zu simulieren. 
 
 |  |  |  |  Differenzengleichungen
 (in Vorbereitung)
 
 
 |  |