🟦 FeedForward Layer

🧩 Wat doet de FeedForward-laag?

In de Transformer-encoder zit na de attention-laag een klein MLP-blok:

$$ FFN(x) = \max(0, xW_1 + b_1)\,W_2 + b_2 $$

Belangrijke punten:


🏗️ Hoe we dit bouwen

We maken een eigen Keras-laag:


🧱 Implementatie

✅ Volledige code van de FeedForward-laag