Skip to content

Commit

Permalink
rename nn
Browse files Browse the repository at this point in the history
  • Loading branch information
cagix committed Jul 10, 2024
1 parent bfaea3c commit 86e7ee7
Show file tree
Hide file tree
Showing 14 changed files with 37 additions and 36 deletions.
8 changes: 4 additions & 4 deletions homework/sheet10.md → homework/sheet-nn-backprop.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
---
archetype: assignment
title: "Blatt 10: Backpropagation"
title: "Übungsblatt: Backpropagation"
author: "Canan Yıldız (Türkisch-Deutsche Universität)"
points: "10 Punkte"

Expand All @@ -10,7 +10,7 @@ hidden: true



## A10.1: Gewichtsupdates für versteckte Schichten (2P)
## NN.Backprop.01: Gewichtsupdates für versteckte Schichten (2P)

In der Vorlesung wurde(n) die Gewichtsupdates bei der Backpropagation für die Ausgabeschicht und die davor liegende letzte versteckte Schicht hergeleitet, wobei in der Ausgabeschicht die Sigmoid und in der versteckten Schicht die ReLU Aktivierungsfunktionen eingesetzt wurden.
Leiten Sie die Gewichtsupdates für die erste versteckte Schicht (für ein Netz mit zwei echten versteckten Schichten) her. Verwenden Sie dabei die Sigmoid Funktion als Aktivierung in allen Schichten.
Expand All @@ -19,7 +19,7 @@ Leiten Sie die Gewichtsupdates für die erste versteckte Schicht (für ein Net



## A10.2: Forward- und Backpropagation (2P)
## NN.Backprop.02: Forward- und Backpropagation (2P)

Betrachten Sie das folgende MLP mit einer versteckten Schicht mit zwei Zellen. Die Gewichte sind an den Kanten angegeben. Das Netz erhält den skalaren Input $x$ und berechnet daraus die Ausgabe $y$. Beide Zellen verwenden die Aktivierungsfunktion
$\sigma(z) = \frac{1}{ 1 + e^{−z} }$.
Expand All @@ -32,7 +32,7 @@ $\sigma(z) = \frac{1}{ 1 + e^{−z} }$.



## A10.3: MLP und Backpropagation (6P)
## NN.Backprop.03: MLP und Backpropagation (6P)

Implementieren Sie ein Feedforward MLP mit mindestens einer versteckten Schicht. Nutzen Sie die Cross-Entropy Verlustfunktion.

Expand Down
10 changes: 5 additions & 5 deletions homework/sheet09.md → homework/sheet-nn-mlp.md
Original file line number Diff line number Diff line change
@@ -1,29 +1,29 @@
---
archetype: assignment
title: "Blatt 09: Overfitting & MLP"
title: "Übungsblatt: Overfitting & MLP"
author: "Canan Yıldız (Türkisch-Deutsche Universität)"
points: "10 Punkte"

hidden: true
---


## A09.1: Perzeptron-Netze (2P)
## NN.MLP.01: Perzeptron-Netze (2P)

Konstruieren Sie ein Netz mit drei Perzeptrons, welches für zwei Eingabevariablen $x_1$ und $x_2$ die in der folgenden Abbildung blau-grau dargestellten Bereiche mit +1 klassifiziert. Benutzen Sie die $\operatorname{sign}$-Funktion als Aktivierungsfunktion.

![Abbildung 1](images/perzeptron_netz.png){width="60%"}


## A09.2: Vorwärtslauf im MLP (2P)
## NN.MLP.02: Vorwärtslauf im MLP (2P)

Gegeben sei ein MLP mit 25 Zellen in der Eingangsschicht, 64 Zellen in der ersten versteckten Schicht, 32 Zellen in der zweiten versteckten Schicht und 4 Zellen in der Ausgabeschicht (die Bias-Zellen nicht mitgezählt). In allen Zellen wird die ReLU Aktivierungsfunktion verwendet.

* Was sind die Dimensionen der Gewichtsmatrizen $W^{[1]}$, $W^{[2]}$ und $W^{[3]}$ und der Bias-Vektoren $b^{[1]}$, $b^{[2]}$ und $b^{[3]}$?
* Wie wird die Ausgabe berechnet? Schreiben Sie den Vorwärtslauf in Matrix-Notation auf. Wie könnte man die Ausgabe deuten; welches Problem könnte durch dieses Netzwerk möglicherweise gelöst werden?


## A09.3: Tensorflow Playground (6P)
## NN.MLP.03: Tensorflow Playground (6P)

Benutzen Sie den [Neural Network Playground](https://playground.tensorflow.org/), um die unten gelisteten Experimente durchzuführen. Achten Sie bei allen Experimenten auf das Verhalten der Trainings- und Testkosten. Sie können mit Hilfe der Checkbox unter der Ausgabezelle (ganz rechts, unten) die Testdaten ein- und ausblenden. Der Play-Knopf startet dabei das Training und der Reload-Knopf setzt das Netzwerk zurück.

Expand All @@ -33,7 +33,7 @@ Benutzen Sie den [Neural Network Playground](https://playground.tensorflow.org/)
* einer versteckten Schicht mit 2 Neuronen,
* einer versteckten Schicht mit 3 Neuronen,
* einer versteckten Schicht mit 5 Neuronen,
* zwei versteckten Schichten mit jeweils 5 Neuronen pro Schicht
* zwei versteckten Schichten mit jeweils 5 Neuronen pro Schicht
* drei versteckten Schichten mit jeweils 7 Neuronen pro Schicht
* vier versteckten Schichten mit jeweils 7 Neuronen pro Schicht

Expand Down
8 changes: 4 additions & 4 deletions homework/sheet07.md → homework/sheet-nn-perceptron.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
---
archetype: assignment
title: "Blatt 07: Perzeptron"
title: "Übungsblatt: Perzeptron"
author: "Canan Yıldız (Türkisch-Deutsche Universität)"
points: "10 Punkte"

Expand All @@ -9,7 +9,7 @@ hidden: true



## A07.1: Entscheidungsgrenze (2P)
## NN.Perzeptron.01: Entscheidungsgrenze (2P)

* (1P) Betrachten Sie das durch den Gewichtsvektor $(w_0,w_1,w_2)^T = (2,1,1)^T$ gegebene Perzeptron. Zeichnen Sie die Trennebene und markieren Sie den Bereich, der mit $+1$ klassifiziert wird.
* (1P) Welche der folgenden Perzeptrons haben die selbe Trennebene? Welche weisen exakt die gleiche Klassifikation auf?
Expand All @@ -22,7 +22,7 @@ hidden: true



## A07.2: Logische Funktionen als Perzeptron (2P)
## NN.Perzeptron.02: Logische Funktionen als Perzeptron (2P)

* (1.5P) Das Perzeptron kann zur Ausführung zahlreicher logischer Funktionen verwendet werden. Implementieren Sie die binären Logikfunktionen UND, ODER und KOMPLEMENT und demonstrieren Sie Ihre Implementierung in der Übung/im Praktikum.
* (0.5P) Eine grundlegende Einschränkung des Perzeptrons besteht darin, dass es die EXKLUSIV-ODER-Funktion nicht implementieren kann. Erklären Sie den Grund für diese Einschränkung.
Expand All @@ -31,7 +31,7 @@ hidden: true



## A07.3: Perzeptron Lernalgorithmus (6P)
## NN.Perzeptron.03: Perzeptron Lernalgorithmus (6P)

Ziel dieser Aufgabe ist es, mit Hilfe eines Experiments ein Gefühl für die Laufzeit des Perzeptron-Lernalgorithmus zu bekommen und eine Art empirische Approximation zu bestimmen.

Expand Down
8 changes: 4 additions & 4 deletions homework/sheet08.md → homework/sheet-nn-regression.md
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
---
archetype: assignment
title: "Blatt 08: Lineare / Logistische Regression & Gradientenabstieg"
title: "Übungsblatt: Lineare / Logistische Regression & Gradientenabstieg"
author: "Canan Yıldız (Türkisch-Deutsche Universität)"
points: "10 Punkte"

Expand All @@ -10,7 +10,7 @@ hidden: true



## A08.1: Lineare Regression & Gradientenabstieg (3P)
## NN.Regression.01: Lineare Regression & Gradientenabstieg (3P)

Es sind folgende Trainingsdaten gegeben:

Expand All @@ -22,7 +22,7 @@ $$ J(\mathbf{w}) = \frac{1}{2m} \sum^{m}_{j=1} (h(x^{(j)}) - y^{(j)} )^2 $$

* (1P) Geben Sie $n$ und $m$ an und schreiben Sie die Kostenfunktion für die gegebenen Datenpunkte explizit auf. Berechnen Sie den Gradientenvektor $\nabla J$ und beschreiben Sie die Bedeutung dieses Vektors.

* (2P) Seien die Gewichte in einem Iterationsschritt $w_0 = 1, w_1 = 1$. Führen Sie für die Lernraten $\alpha=0.01$, $\alpha=0.1$ und $\alpha=1$ jeweils fünf aufeinanderfolgende Iterationen des Gradientenabstieg (Gradient Descent) Algorithmus durch.
* (2P) Seien die Gewichte in einem Iterationsschritt $w_0 = 1, w_1 = 1$. Führen Sie für die Lernraten $\alpha=0.01$, $\alpha=0.1$ und $\alpha=1$ jeweils fünf aufeinanderfolgende Iterationen des Gradientenabstieg (Gradient Descent) Algorithmus durch.

Erstellen Sie eine Tabelle mit den Spalten $w_0$, $w_1$, $J(\mathbf{w})$, $\nabla J(\mathbf{w})$, $\alpha \cdot \nabla J(\mathbf{w})$ und notieren Sie die zugehörigen Werte für jede Iteration. Erklären Sie, wie die Gewichtsaktualisierungen durchgeführt werden und geben Sie die dafür verwendete Formel an.

Expand All @@ -33,7 +33,7 @@ $$ J(\mathbf{w}) = \frac{1}{2m} \sum^{m}_{j=1} (h(x^{(j)}) - y^{(j)} )^2 $$
*Thema*: Verständnis und Ablauf Gradientenabstieg und Lernrate


## A08.2: Logistische Regression & Gradientenabstieg (7P)
## NN.Regression.02: Logistische Regression & Gradientenabstieg (7P)

### Datensatz (1P)
* Konstruieren Sie Ihren eigenen Datensatz $\mathcal{D}$ mit $m=100$ gleichförmig verteilten Zufallspunkten aus dem Bereich $\mathcal{X}=[−1, 1]\times[−1, 1]$.
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -18,7 +18,7 @@ quizzes:
- link: "https://www.hsbi.de/elearning/goto.php?target=tst_1106589&client_id=FH-Bielefeld"
name: "Selbsttest Intro ML (ILIAS)"
assignments:
- topic: sheet07
- topic: sheet-nn-perceptron
youtube:
- link: "https://youtu.be/IJdiwITTC9Y"
name: "NN1.1 - Einführung"
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -18,7 +18,7 @@ quizzes:
- link: "https://www.hsbi.de/elearning/goto.php?target=tst_1106590&client_id=FH-Bielefeld"
name: "Selbsttest Lineare Regression (ILIAS)"
assignments:
- topic: sheet08
- topic: sheet-nn-regression
youtube:
- link: "https://youtu.be/f-DTaKMnkj4"
name: "NN2.1 - Lineare Regression - Intro"
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -17,7 +17,7 @@ quizzes:
- link: "https://www.hsbi.de/elearning/goto.php?target=tst_1106591&client_id=FH-Bielefeld"
name: "Selbsttest Logistische Regression (ILIAS)"
assignments:
- topic: sheet08
- topic: sheet-nn-regression
youtube:
- link: "https://youtu.be/GpJmjrqA5RY"
name: "NN3.1 - Logistische Regression - Intro"
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -15,7 +15,7 @@ quizzes:
- link: "https://www.hsbi.de/elearning/goto.php?target=tst_1106595&client_id=FH-Bielefeld"
name: "Selbsttest Overfitting (ILIAS)"
assignments:
- topic: sheet09
- topic: sheet-nn-mlp
youtube:
- link: "https://youtu.be/KJLT-h_ChRo"
name: "NN4.1 - Nichtlineare Modelle"
Expand Down
2 changes: 1 addition & 1 deletion lecture/nn/nn5_mlp.md → lecture/nn/nn5-mlp.md
Original file line number Diff line number Diff line change
Expand Up @@ -16,7 +16,7 @@ quizzes:
- link: "https://www.hsbi.de/elearning/goto.php?target=tst_1106592&client_id=FH-Bielefeld"
name: "Selbsttest Multilayer Perzeptron (ILIAS)"
assignments:
- topic: sheet09
- topic: sheet-nn-mlp
youtube:
- link: "https://youtu.be/7ltwa5WWuKI"
name: "NN5.1 - MLP Forward Propagation"
Expand Down
3 changes: 2 additions & 1 deletion lecture/nn/nn6_backprop.md → lecture/nn/nn6-backprop.md
Original file line number Diff line number Diff line change
Expand Up @@ -16,7 +16,7 @@ quizzes:
- link: "https://www.hsbi.de/elearning/goto.php?target=tst_1106593&client_id=FH-Bielefeld"
name: "Selbsttest Backpropagation (ILIAS)"
assignments:
- topic: sheet10
- topic: sheet-nn-backprop
youtube:
- link: "https://youtu.be/G9x75THjueQ"
name: "NN6.1 - MLP Backpropagation 1"
Expand All @@ -25,6 +25,7 @@ youtube:
- link: "https://youtu.be/uvT4WPIIkwQ"
name: "NN6.3 - MLP Zusammenfassung"
attachments:

- link: "https://raw.githubusercontent.com/Artificial-Intelligence-HSBI-TDU/KI-Vorlesung/master/lecture/nn/files/NN6-MLP_Backpropagation.pdf"
name: "NN6-MLP_Backpropagation.pdf"
---
Expand Down
File renamed without changes.
File renamed without changes.
File renamed without changes.
26 changes: 13 additions & 13 deletions readme.md
Original file line number Diff line number Diff line change
Expand Up @@ -273,15 +273,15 @@ Für die Vergabe von Übungspunkten ist eine **erfolgreiche Teilnahme an der Üb
[Entropie]: lecture/dtl/dtl5-entropy.md
[ID3 und C4.5]: lecture/dtl/dtl6-id3.md

[Perzeptron]: lecture/nn/nn1_perceptron.md
[Lineare Regression]: lecture/nn/nn2_linear_regression.md
[Logistische Regression]: lecture/nn/nn3_logistic_regression.md
[Overfitting]: lecture/nn/nn4_overfitting.md
[Multilayer Perceptron]: lecture/nn/nn5_mlp.md
[Backpropagation]: lecture/nn/nn6_backprop.md
[Training & Testing]: lecture/nn/nn7_training_testing.md
[Performanzanalyse]: lecture/nn/nn8_testing.md
<!-- [Large Language Models]: lecture/nn/nn9_llm.md -->
[Perzeptron]: lecture/nn/nn1-perceptron.md
[Lineare Regression]: lecture/nn/nn2-linear-regression.md
[Logistische Regression]: lecture/nn/nn3-logistic-regression.md
[Overfitting]: lecture/nn/nn4-overfitting.md
[Multilayer Perceptron]: lecture/nn/nn5-mlp.md
[Backpropagation]: lecture/nn/nn6-backprop.md
[Training & Testing]: lecture/nn/nn7-training-testing.md
[Performanzanalyse]: lecture/nn/nn8-testing.md
<!-- [Large Language Models]: lecture/nn/nn9-llm.md -->

[Wahrscheinlichkeitstheorie]: lecture/naivebayes/nb1-probability.md
[Naive Bayes]: lecture/naivebayes/nb2-naivebayes.md
Expand Down Expand Up @@ -337,10 +337,10 @@ Für die Vergabe von Übungspunkten ist eine **erfolgreiche Teilnahme an der Üb
[B04]: homework/sheet-csp.md
[B05]: homework/sheet-dtl.md
[B06]: homework/sheet-nb.md
[B07]: homework/sheet07.md
[B08]: homework/sheet08.md
[B09]: homework/sheet09.md
[B10]: homework/sheet10.md
[B07]: homework/sheet-nn-perceptron.md
[B08]: homework/sheet-nn-regression.md
[B09]: homework/sheet-nn-mlp.md
[B10]: homework/sheet-nn-backprop.md


## Förderungen und Kooperationen
Expand Down

0 comments on commit 86e7ee7

Please sign in to comment.