Computational Intelligence, SS08
2 VO 442.070 + 1 RU 708.070 last updated:
General
Course Notes (Skriptum)
Online Tutorials
Practical Course Slides
Homework
Exams
Animated Algorithms
Interactive Tests
Machine Learning
Neural Networks
Classification Algorithms
Adaptive Filters
Gaussian Statistics
Hidden Markov Models
Key Definitions
Downloads
Literature and Links
News
mailto:webmaster
 Interactive Tests   previous   Contents  next

Neuronale Netze

Mit einem linearen Schwellengatter $g(\vec{x}) = \mathrm{sign} ( \vec{w} \cdot \vec{x} + w_o )$ kann bei geeigneter Wahl von $\vec{w}$ und $w_o$ jede Boole'sche Funktion $f:\{-1,1\}^n \rightarrow \{-1,1\}$ berechnet werden.
True False
Ein 3-schichtiges ANN mit einem Output, welches nur aus linearen Gattern besteht, kann durch ein einzelnes lineares Gatter simuliert werden.
True False
Jede stetige Funktion $f:\mathbb{R}\rightarrow (0,1)$ kann von einem vorwärtsgerichteten ANN aus sigmoiden Gattern mir einer hidden Schicht beliebig genau approximiert werden.
True False
Die $\Delta$-Regel findet für ein binäres Klassifikationsproblem immer eine Lösung, falls die Daten linear trennbar sind.
True False
Falls die Daten eines binären Klassifikationsproblems nicht linear trennbar sind, so ist die $\Delta$-Regel nicht anwendbar.
True False
Mit Hilfe eines linearen Programms kann man auch für den nicht linear trennbaren Fall die Gewichte eines linearen Schwellengatters "`trainieren"'.
True False
Bei der Berechnung der Fisher Diskriminante wird jener Richtungsvektor ermittelt, auf dem die projizierten Daten die größte Varianz aufweisen.
True False
Die mittels Pseudo-Inverse ermittelten Gewichte für ein Schwellengatter sind optimal in Bezug auf die Anzahl der falsch klassifizierten TBs.
True False
Der durch eine SVM mit linearem Kernel bestimmte Gewichtsvektor $\left<w_1, \ldots, x_n \right>$ eines Schwellengatters ist eine Linearkombination der TBs.
True False
Bei einem linear trennbaren Klassifikationsproblem bezeichnet man jene trennende Hyperebene als die optimale Hyperebene, welche den maximalen Abstand zu den TBs aufweist.
True False
Beim Trainieren einer SVM werden mittels gradient descent die Gewichte eines Schwellengatters bestimmt.
True False
Der Backprop-Alg. findet garantiert jene Gewichte für ein ANN, die ein globales Minimum der Fehlerfunktion darstellen.
True False
weight-decay ist eine Heuristik, um overfitting beim Trainieren von ANNs zu vermeiden.
True False
Bei ungünstiger Einstellung der Parameter bei Backprop mit adaptiver Lernrate kann es sein, daß der Gewichtsvektor zu oszillieren beginnt.
True False
Gradient descent ist eine speziell für ANNs entwickelte Technik zum Minimieren von quadratischen Fehlerfunktionen.
True False
Der Vorteil von Backprop mit Momentum ist, daß der Lernvorgang in "`Plateaus"' der Fehlerfunktion beschleunigt wird.
True False
Quasi-Newton und conjugate gradient Verfahren unterscheiden sich nur in der Art wie die Hess'sche Matrix berechnet wird.
True False
Nach dem whitening von Daten gibt es keine empirisch meßbaren linearen Abhängikeiten mehr zwischen verschiedenen Attributen.
True False