slogan3

Ontwerp een AutoGPT-agent voor geautomatiseerd kennisbeheer

description

Maakt continue en automatische bijwerking van een kennisbank mogelijk, afgestemd op jouw project, waardoor handmatig werk wordt verminderd en actuele, goed georganiseerde informatie beschikbaar is voor betere besluitvorming en efficiëntie.

prompt

Help me een AutoGPT-agent te ontwerpen die automatisch een kennisbank beheert en bijwerkt voor mijn project. Projectdomein: <voer het domein of onderwerp van mijn kennisbank in> Frequentie van gegevensupdates: <specificeer hoe vaak de kennisbank bijgewerkt moet worden> Inhoudsbronnen: <noem de typen of bronnen van informatie ...

try_prompt

generate_helper
disclaimerOnPageApi

ai_answers

provider: openai
model: gpt-4.1-nano
Natuurlijk! Hier is een gedetailleerd plan en configuratie voor het bouwen van een AutoGPT-agent die automatisch een kennisbank beheert en bijwerkt voor jouw project in Hernieuwbare Energie. **1. Doelstelling en functionaliteiten** - Automatisch verzamelen van gegevens uit wetenschappelijke tijdschriften en nieuwswebsites. - Dagelijkse updates van de kennisbank. - Organisatie van gegevens per onderwerp en datum. - Toegangsrechten: alleen-lezen voor teamleden. - Efficiënte en nauwkeurige gegevensverwerking en opslag. **2. Technische architectuur** - **Data-acquisitie**: Webscrapers en API-integraties. - **Data-verwerking**: NLP-modules voor samenvatting en categorisatie. - **Data-opslag**: Gestructureerde database (bijvoorbeeld PostgreSQL) of kennisbank-systeem. - **Agent**: AutoGPT met aangepaste scripts voor automatisering en controle. - **Beveiliging**: Toegangscontrole en leesrechten. **3. Stap-voor-stap implementatieplan** ### Stap 1: Data-bronnen integreren - **Wetenschappelijke tijdschriften**: - Gebruik API's zoals PubMed, IEEE Xplore, ScienceDirect indien beschikbaar. - Voor niet-API bronnen: ontwikkel webscrapers met BeautifulSoup, Scrapy. - **Nieuwswebsites**: - Webscrapers voor relevante nieuwssites en aggregators zoals Google News. - Overweeg RSS-feeds voor gestructureerde updates. ### Stap 2: Automatisering via AutoGPT configureren - **Prompt-ontwerp**: - Ontwerp een uitgebreide prompt die AutoGPT instrueert om: - Data te verzamelen van de genoemde bronnen. - Artikelen te filteren op relevantie voor Hernieuwbare Energie. - Samenvattingen te genereren. - Gegevens te categoriseren op onderwerp en datum. - De gegevens op te slaan in de kennisbank. - **Script integratie**: - Voeg aangepaste scripts of tools toe aan AutoGPT via 'Tools' om webscraping en API-aanroepen te automatiseren. - Gebruik Python-scripts binnen AutoGPT om gegevens te verwerken. ### Stap 3: Data-organisatie en opslag - **Database structuur**: - Tabellen of collections voor: - Artikelen (ID, Titel, Samenvatting, Bron, Datum, Onderwerp, Link). - Onderwerpen (bijvoorbeeld Windenergie, Zonne-energie, Geothermie). - Gebruikersrechten (alleen-lezen voor teamleden). - **Opslag**: - Gebruik een relationele database zoals PostgreSQL of een document-georiënteerde database zoals MongoDB. - Zorg voor automatische back-ups. ### Stap 4: Toegangscontrole en gebruiksrichtlijnen - **Lezen-only toegang**: - Configureer gebruikersrechten in de database. - Gebruik een webinterface of kennisbankplatform (bijvoorbeeld Confluence, Notion) met read-only rechten voor teamleden. - **Authenticatie**: - Implementeer gebruikersauthenticatie en autorisatie. ### Stap 5: Automatisering en planning - **Dagelijkse uitvoering**: - Gebruik cron-jobs of een workflow orchestrator (bijvoorbeeld Apache Airflow) om de AutoGPT-agent dagelijks te activeren. - Zorg dat de agent na elke run de nieuwste gegevens ophaalt, verwerkt en opslaat. ### Stap 6: Nauwkeurigheid en kwaliteitscontrole - **Validatie**: - Voeg NLP-technieken toe om de relevantie en kwaliteit van samenvattingen te controleren. - Mogelijkheid voor handmatige review door teamleden. - **Logging en monitoring**: - Log alle acties en data-verwerkingen. - Stel alerts in bij fouten of anomalieën. ### Stap 7: Documentatie en training - Documenteer het systeem, inclusief data-bronnen, scripts, en toegangsrechten. - Train teamleden in het gebruik van de kennisbank en het interpreteren van de data. **4. Voorbeeld configuratieprompt voor AutoGPT** ```plaintext Je bent een geautomatiseerde kennisbankbeheerder voor een project over Hernieuwbare Energie. Dagelijks verzamel je nieuwe artikelen en nieuwsberichten van de opgegeven bronnen (API's, websites, RSS-feeds). Je filtert relevante informatie, maakt samenvattingen, categoriseert deze op onderwerp en slaat ze op in een gestructureerde database. Alleen-lezen toegang wordt verleend aan teamleden. Zorg voor nauwkeurigheid en geef prioriteit aan recente en betrouwbare gegevens. Volg dit proces dagelijks zonder menselijke tussenkomst, en log alle activiteiten voor controle. ``` **5. Aanbevolen tools en technologieën** - **Programmeer taal**: Python - **Webscraping**: BeautifulSoup, Scrapy - **API-integratie**: Requests, API-scripts - **NLP**: spaCy, transformers (bijvoorbeeld BERT voor samenvatting) - **Database**: PostgreSQL, MongoDB - **Automatisering**: cron, Airflow - **Interface**: Webapplicatie of kennisbankplatform (bijvoorbeeld Notion met read-only rechten) --- Met dit plan en configuratie kun je een efficiënte, automatische kennisbank voor Hernieuwbare Energie opzetten die dagelijks wordt bijgewerkt en gemakkelijk toegankelijk is voor je team.
provider: deepseek
model: deepseek-chat
Absoluut. Hier is een gedetailleerd plan en configuratie om een AutoGPT-agent te bouwen voor het beheren van een kennisbank over Hernieuwbare Energie. ### Overzicht van de AutoGPT Agent: "EnergieKennisBot" Deze agent zal dagelijks autonoom functioneren om nieuwe informatie te vinden, te verwerken, te structureren en op te slaan in een kennisbank, strikt volgens uw specificaties. --- ### 1. Architectuur & Componenten De agent bestaat uit verschillende modules die samenwerken: 1. **Orchestrator (Hoofd-AutoGPT Agent):** Beslist welke taken uitgevoerd moeten worden en bewaakt de voortgang. 2. **Data Ingestie Module:** Verantwoordelijk voor het ophalen van ruwe data. 3. **Data Verwerkings- & Samenvattingsmodule:** Analyseert en destilleert de informatie. 4. **Opslag- & Indexeringsmodule:** Slaat de informatie gestructureerd op. 5. **Communicatiemodule:** Verzendt dagelijkse samenvattingen en waarschuwingen. --- ### 2. Gedetailleerd Stappenplan (Dagelijkse Run) #### Fase 1: Data Ingestie (Verzamelen) De agent start zijn dagtaak door bronnen te doorzoeken. * **Bronnen:** * **Wetenschappelijke tijdschriften:** arXiv, ScienceDirect, IEEE Xplore (via RSS-feeds of API's waar mogelijk). * **Nieuwswebsites:** RSS-feeds van geselecteerde bronnen (bijv. Nu.nl klimaat, Energieportal.nl, Reuters Environment, CleanTechnica). * **Tools/Configuratie:** * **Python Scripts:** Gebruik libraries zoals `feedparser` voor RSS en `arxiv-api` voor wetenschappelijke pre-prints. * **API Keys:** Configureer benodigde API-sleutels (bijv. voor betaalde journals, indien van toepassing) in de omgevingsvariabelen van de agent. * **Prompt voor de agent:** *"Scan de geconfigureerde RSS-feeds en de arXiv API voor de laatste 24 uur op de volgende zoektermen: 'zonne-energie', 'windenergie', 'groene waterstof', 'energieopslag', 'netcongestie'. Verzamel de titel, link en volledige tekst van elk relevant artikel."* #### Fase 2: Dataverwerking & Samenvatting De agent verwerkt de ruwe tekst om kernpunten eruit te halen. * **Proces:** 1. **Opschonen:** Verwijder advertenties, menu's en voetteksten. 2. **Samenvatten:** Gebruik GPT's mogelijkheid om lange teksten samen te vatten tot essentiële punten. 3. **Categoriseren:** Label artikelen automatisch op basis van hun inhoud. * **Prompt voor de agent:** *"Analyseer het volgende artikel. Genereer een beknopte samenvatting in het Nederlands van max. 150 woorden. Identificeer de hoofdonderwerpen (bijv. 'Zonne-energie - Beleid', 'Windenergie - Technologie') en extraheer 5-7 kernkeywords. Concludeer of de inhoud vooral een doorbraak, beleid, onderzoek of marktnieuws is."* #### Fase 3: Gestructureerde Opslag De samengevatte informatie wordt opgeslagen in de kennisbank. * **Opslagmedium:** Een **SQLite-database** (lichtgewicht en eenvoudig te beheren) of een **Notion-database** (gebruiksvriendelijker voor teamleden). * **Organisatiestructuur (Database Schema):** * Tabel: `articles` * `id` (INTEGER, Primary Key) * `title` (TEXT) * `source_url` (TEXT, UNIQUE) // Voorkomt duplicaten * `summary` (TEXT) // De gegenereerde samenvatting * `topics` (TEXT) // Bijv. "Zonne-energie;Beleid" * `keywords` (TEXT) // Bijv. "subsidie, SDE++, Nederland" * `category` (TEXT) // "Onderzoek", "Nieuws", "Beleid" * `publication_date` (DATE) // Datum van het artikel * `ingestion_date` (DATE) // Datum van toevoegen aan DB * **Prompt voor de agent:** *"Formatteer de gegenereerde samenvatting, topics, keywords en categorie volgens het database-schema. Voeg dit nieuwe record toe aan de kennisbank, maar controleer eerst of de `source_url` al bestaat om doublures te voorkomen."* #### Fase 4: Rapportage & Afronding * **Prompt voor de agent:** *"Genereer een dagelijks e-mailbericht voor het team met de volgende inhoud: 'Dagelijkse Kennisbank Update - [Datum]. Vandaag zijn [X] nieuwe artikelen toegevoegd. Hoogtepunten: [Lijst met 2-3 belangrijkste titels en zeer korte beschrijving].' Schrijf deze update in het Nederlands. Sluit de taak succesvol af."* --- ### 3. Configuratie & Setup **Benodigde Software/Tools:** 1. Python 3.10+ 2. AutoGPT (via Docker of directe installatie) 3. SQLite (of Notion API client) 4. Vereiste Python libraries: `requests`, `feedparser`, `sqlite3`, `arxiv` **Belangrijke Bestanden:** **1. `ai_settings.yaml` (Core Agent Configuratie)** ```yaml ai_goals: - Verbind je met de RSS-feeds en arXiv API om de laatste nieuwsartikelen en wetenschappelijke publicaties over hernieuwbare energie van de afgelopen 24 uur op te halen. - Analyseer en vat elk relevant artikel samen in het Nederlands, en extraheer topics, keywords en een categorie. - Sla de samengevatte informatie gestructureerd op in de SQLite-database, georganiseerd per topic en datum. Controleer op doublures. - Stuur een dagelijkse e-mailupdate naar het team met de belangrijkste bevindingen. - Stop na het succesvol voltooien van de dagtaak. ai_name: EnergieKennisBot ai_role: Een autonome agent voor het beheren van een kennisbank over hernieuwbare energie. api_budget: 3.0 # Stel een budget in om kosten te beheersen ``` **2. `.env` Configuratie (Sleutels en Instellingen)** ```ini # AI Instellingen OPENAI_API_KEY=sk-jouw-api-sleutel-hier MODEL=gpt-4-turbo # Aanbevolen voor betere begrip van lange teksten # Taak-specifieke Instellingen DB_PATH=./knowledge_base.db EMAIL_RECIPIENT=team@jouwbedrijf.nl # RSS Feed URLs (VOORBEELD - vul je eigen bronnen in) RSS_FEEDS=https://www.nu.nl/rss/duurzaamheid, https://www.energieportal.nl/feed/ ``` **3. `scripts/feed_parser.py` (Aangepaste Tool voor de Agent)** Je moet de agent uitrusten met aangepaste Python tools. Deze tool wordt dan door de agent aangeroepen. ```python import feedparser import sqlite3 from datetime import datetime def fetch_news_from_rss(rss_urls): """ Haal nieuwsartikelen op van een lijst met RSS-feeds van de afgelopen 24 uur. """ all_entries = [] for url in rss_urls: feed = feedparser.parse(url) for entry in feed.entries: # Controleer of de entry van vandaag is (afhankelijk van feed) all_entries.append({ 'title': entry.title, 'link': entry.link, 'published': entry.get('published', ''), 'summary': entry.get('summary', '') }) return all_entries # ... vergelijkbare functies voor arXiv ... ``` --- ### 4. Toegangs- en Gebruiksrichtlijnen * **Alleen-lezen toegang:** De kennisbank (SQLite bestand of Notion pagina) wordt op een gedeelde netwerklocatie of cloudopslag (bijv. Google Drive, OneDrive) geplaatst. * **Teamleden** krijgen leesrechten voor die specifieke locatie. * De **EnergieKennisBot** agent heeft schrijfrechten om de database te kunnen bijwerken. * De dagelijkse e-mail dient als een toegankelijke, niet-technische samenvatting voor het hele team. ### 5. Onderhoud en Verbetering 1. **Dagelijkse Controle:** Controleer de gegenereerde e-mail om de kwaliteit van de samenvattingen te monitoren. 2. **Weekly Review:** Review de kennisbank zelf. Voeg zoektermen toe aan de configuratie of pas deze aan op basis van wat wel/niet relevant is. 3. **Feedback Loop:** Laat teamleden incorrecte tags of ontbrekende topics rapporteren. Deze feedback kan worden gebruikt om de prompts van de agent te verbeteren. Dit plan biedt een robuuste basis voor een volledig autonome kennisbankbeheerder die zich precies aan uw eisen houdt. Succes met de bouw!