slogan3

Verbeter mijn Cursor-integratie met aangepaste AI-workflows

description

Met deze prompt leer je hoe je Cursor kunt inzetten voor het creëren van aangepaste AI-gestuurde workflows die zijn afgestemd op jouw programmeertaal en ontwikkelbehoeften. Dit helpt je repetitieve taken te automatiseren, de efficiëntie te verhogen en je ontwikkelproces te stroomlijnen, wat anders niet direct mogelijk is met standaard Cursor-functionaliteit.

prompt

Help me een efficiëntere ontwikkelworkflow te creëren door gepersonaliseerde AI-gestuurde taken in Cursor te integreren. Mijn programmeertaal: <voer je programmeertaal in>. Specifieke on ...

try_prompt

generate_helper
disclaimerOnPageApi

ai_answers

provider: openai
model: gpt-4.1-nano
Zeker! Hier zijn stappen en suggesties om een efficiëntere ontwikkelworkflow te creëren door AI-gestuurde taken in Cursor te integreren, gericht op het automatisch genereren van unit tests voor je Python-functies: 1. Begrijp Cursor en AI-integraties: - Verken de mogelijkheden van Cursor voor het automatiseren van taken en het integreren van AI-modules. - Identificeer of Cursor ondersteuning biedt voor API-koppelingen of scripting voor AI-diensten (bijvoorbeeld OpenAI API). 2. Stel een AI-model in voor code-analyse: - Configureer een AI-model (zoals GPT-4 via OpenAI API) dat code kan analyseren en unit tests kan genereren. - Maak een API-sleutel en documenteer de benodigde authenticatiegegevens. 3. Ontwikkel een Python-script voor automatisering: - Schrijf een Python-script dat: a. Je functies uit je codebase ophaalt. b. Deze functies verstuurt naar de AI voor het genereren van unit tests. c. De gegenereerde tests opslaat in je testbestand(en). - Voorbeeldstructuur: ```python import openai openai.api_key = 'JOUW_API_SLEUTEL' def genereer_unit_test(function_code): prompt = f"Genereer een Python unittest voor de volgende functie:\n{function_code}" response = openai.Completion.create( engine="gpt-4", prompt=prompt, max_tokens=200 ) return response.choices[0].text.strip() # Functie om code uit bestand te halen en tests toe te voegen ``` 4. Integreer dit script in Cursor: - Voeg een custom taak toe in Cursor die het script automatisch uitvoert bij het opslaan of op commando. - Configureer Cursor om de functies te detecteren (bijvoorbeeld via AST parsing) en automatisch tests te genereren. 5. Automatisering en workflow optimaliseren: - Stel triggers in (bijvoorbeeld bij elke commit, pull request, of save) om tests te genereren. - Implementeer een reviewproces: laat de gegenereerde tests controleren en aanpassen indien nodig. 6. Verbeter en verfijn: - Verzamel feedback over de kwaliteit van de gegenereerde tests. - Pas prompts aan voor betere resultaten. - Automatiseer ook het toevoegen van gegenereerde tests aan je testbestanden. 7. Documentatie en onderhoud: - Documenteer je workflow in een README of interne handleiding. - Houd API-sleutels en scripts up-to-date. Door deze stappen te volgen, werk je efficiënter met AI-gestuurde testgeneratie binnen Cursor, waardoor je ontwikkeltijd vermindert en je codekwaliteit verbetert.
provider: deepseek
model: deepseek-chat
Zeker! Hier is een stapsgewijze handleiding om AI-gestuurde unit testgeneratie te integreren in je Cursor workflow voor Python: ### 1. Cursor Instellen met AI-modellen - Installeer Cursor (cursor.sh) en configureer je voorkeurs-AI-model (OpenAI GPT-4, Claude 3, etc.) - Zorg dat je API-sleutels correct zijn ingesteld in Cursor → Settings → AI Models ### 2. Testgeneratie Workflow Configuratie **Stap 1: Code Context Bieden** - Houd je functies goed gedocumenteerd met docstrings - Voorbeeld: ```python def bereken_totaal(prijzen: list[float], btw_percentage: float) -> float: """ Bereken het totaalbedrag inclusief BTW Args: prijzen: Lijst met prijzen btw_percentage: BTW percentage (0-100) Returns: Totaalbedrag inclusief BTW """ totaal = sum(prijzen) return totaal * (1 + btw_percentage / 100) ``` **Stap 2: AI Prompt Template Maken** Maak een `.cursorrules` bestand in je projectroot: ```json { "unit_test_prompt": "Genereer pytest unit tests voor deze functie. Gebruik: \n- @pytest.mark.parametrize voor edge cases\n- Mock externe dependencies\n- Test zowel happy path als exception cases\n- Gebruik duidelijke testnamen\n\nFunctie: {code}" } ``` ### 3. Automatische Testgeneratie Commands **Optie A: Via Cursor Chat** - Selecteer je functiecode - Open Cursor Chat (Cmd+K) - Gebruik prompt: "Genereer pytest unit tests voor deze functie met edge cases" **Optie B: Snelkoppeling Maken** Voeg toe aan `keybindings.json`: ```json { "key": "ctrl+shift+t", "command": "cursor.chat.add", "args": { "message": "Genereer complete pytest tests voor de geselecteerde code" } } ``` ### 4. Test Template Optimalisatie Maak een `test_template.py` in je project: ```python import pytest from unittest.mock import Mock, patch # AI zal deze template herkennen en volgen def test_template(): """AI-generated test template""" # Arrange # Act # Assert pass ``` ### 5. CI/CD Integratie Voeg toe aan je `pytest.ini`: ```ini [pytest] addopts = -v --tb=short -x testpaths = tests/ ``` ### 6. Quality Control Workflow **Pre-commit Hook** (.pre-commit-config.yaml): ```yaml repos: - repo: local hooks: - id: ai-test-validation name: Validate AI-generated tests entry: pytest -x --tb=short language: system stages: [pre-commit] ``` ### 7. Geavanceerde Configuratie **Cursor Rules Verfijning**: ```json { "testing": { "framework": "pytest", "coverage_target": 90, "prefer_mocking": true, "test_pattern": "test_*.py" } } ``` ### 8. Voorbeeld Workflow 1. Schrijf je Python functie 2. Selecteer de functiecode 3. Gebruik Cmd+K → "Genereer unit tests met mocks" 4. Review gegenereerde tests 5. Voer tests uit met: `pytest -v` ### Tips voor Optimalisatie: 1. **Context Beheer**: Houd imports en dependencies zichtbaar in je bestand 2. **Iteratieve Verbetering**: Gebruik "Regenerate" tot tests correct zijn 3. **Custom Instructions**: Stel specifieke testvoorkeuren in bij Cursor Settings 4. **Pattern Herkenning**: Cursor leert van je bestaande teststructuren ### Troubleshooting: - Bij inconsistente resultaten: geef meer context of splits complexe functies - Gebruik `@pytest.fixture` hints voor betere mock setup - Check altijd gegenereerde tests op correcte assert statements Deze workflow vermindert handmatig testwerk aanzienlijk terwijl je consistente testdekking behoudt! 🚀