Ontwikkel een TensorFlow Model voor Geavanceerde Tijdreeksvoorspelling
description
Met deze prompt kan je een op maat gemaakt TensorFlow model ontwikkelen dat specifiek gericht is op tijdreeksvoorspelling, een gebied dat niet direct wordt gedekt door bestaande prompts. Het helpt je om complexe tijdsafhankelijke data te verwerken en voorspellingen te maken die voldoen aan jouw unieke eisen, zoals realtime inzichten of omgaan met seizoensinvloeden. Zo verbeter je nauwkeurigheid en relevantie van je modellen voor praktische toepassingen.
prompt
Help me een TensorFlow model te ontwerpen dat geavanceerde tijdreeksvoorspellingen kan doen voor mijn specifieke dataset. Type tijdreeksgegevens: <beschrijf het type en de kenmerken van je tijdreeksgegevens> Voorspellingsdoelen: <specificeer wat je wilt voorspellen en voor welke periode> Huidige ...
try_prompt
generate_helper
disclaimerOnPageApi
tags
ai_answers
provider: openai
model: gpt-4.1-nano
no_answer_for_language
error: Generation failed [openai] prompt_id=3709 locale=nl err=OpenAI connection/timeout | Generation failed [openai] prompt_id=3709 locale=en err=OpenAI connection/timeout | Generation failed [openai] prompt_id=3709 locale=de err=OpenAI connection/timeout | Generation failed [openai] prompt_id=3709 locale=fr err=OpenAI connection/timeout | Generation failed [openai] prompt_id=3709 locale=pt err=OpenAI connection/timeout | Generation failed [openai] prompt_id=3709 locale=es err=OpenAI connection/timeout | Generation failed [openai] prompt_id=3709 locale=zh err=OpenAI connection/timeout
provider: deepseek
model: deepseek-chat
Voor uw temperatuurvoorspellingsmodel met TensorFlow raad ik een **LSTM-architectuur met aandachtmechanisme (attention)** aan. Hier is een gedetailleerd ontwerp:
## Modelarchitectuur
```python
import tensorflow as tf
from tensorflow.keras.models import Model
from tensorflow.keras.layers import LSTM, Dense, Input, Dropout, Attention
from tensorflow.keras.optimizers import Adam
# Input laag
input_layer = Input(shape=(30, 1)) # 30 dagen historie
# LSTM lagen met return_sequences=True voor attention
lstm1 = LSTM(64, return_sequences=True, activation='relu')(input_layer)
dropout1 = Dropout(0.2)(lstm1)
lstm2 = LSTM(32, return_sequences=True)(dropout1)
# Attention mechanisme
attention = Attention()([lstm2, lstm2])
lstm3 = LSTM(16)(attention)
# Output laag voor 7 dagen voorspelling
output_layer = Dense(7)(lstm3)
model = Model(inputs=input_layer, outputs=output_layer)
model.compile(optimizer=Adam(learning_rate=0.001),
loss='mse',
metrics=['mae'])
```
## Belangrijke aanpassingen voor uw dataset:
1. **Seizoensinvloeden**: Gebruik `sin/cos` transformatie voor dag/maand cycli
2. **Plotse pieken**: Robust loss function (Huber loss)
3. **Multi-step forecasting**: Sequence-to-sequence aanpak
## Feature engineering:
```python
# Seizoensfeatures toevoegen
data['day_sin'] = np.sin(2 * np.pi * data['day_of_year']/365.25)
data['day_cos'] = np.cos(2 * np.pi * data['day_of_year']/365.25)
data['year_progress'] = data['day_of_year'] / 365.25
```
## Real-time voorspellingen:
Implementeer een **sliding window approach** met:
- 30 dagen historie als input
- 7 dagen toekomst als output
- Model hertraining elke 2 weken met nieuwe data
## Factor-uitleg (XAI):
Integreer **SHAP values** of **LIME** voor interpretatie:
```python
import shap
# Voorbeeld met SHAP
explainer = shap.DeepExplainer(model, training_data)
shap_values = explainer.shap_values(input_sample)
```
## Aanbevolen preprocessing:
1. **Seizoensdecompositie** voor trend/seasonality scheiding
2. **Differentiatie** voor stationariteit
3. **Robust scaling** i.p.v. standaard normalisatie
## Training strategie:
- **Walk-forward validation**
- **Early stopping** met patience=10
- **Learning rate reduction** op plateau
Dit model houdt rekening met seizoenspatronen, kan plotse veranderingen leren en biedt inzicht in welke historische datapunten het meest bijdragen aan voorspellingen.