Configureer een SuperAGI-agent voor Autonoom Onderzoek en Kennis Synthese
description
Maakt het mogelijk om complexe onderzoekstaken te automatiseren door gebruik te maken van de mogelijkheden van SuperAGI om autonoom informatie te verzamelen, evalueren en syntheseren. Deze prompt helpt bij het bouwen van agenten die de onderzoeksefficiëntie verhogen, slim omgaan met tegenstrijdige gegevens en betrouwbare kennissamenvattingen produceren, wat een groot voordeel biedt ten opzichte van handmatig onderzoek of eenvoudigere AI-agenten.
prompt
Help me met het ontwerpen van een SuperAGI-agent die autonoom onderzoek doet en kennis syntheseert voor het volgende onderwerp: <voer je onderzoeksonderwerp in>. Beschrijf hoe ik de agent kan configureren om betrouwbare bronnen te identificeren, relevante gege ...
try_prompt
generate_helper
disclaimerOnPageApi
tags
ai_answers
provider: openai
model: gpt-4.1-nano
Natuurlijk! Hier is een gedetailleerde aanpak voor het ontwerpen van een SuperAGI-agent die autonoom onderzoek doet en kennis syntheseert over het onderwerp “Nieuwste onderzoek naar klimaatverandering en effecten op kuststeden”:
1. Configuratie van de SuperAGI-agent
a. Onderzoeksdoelen definiëren:
- Focus op recente studies (bijvoorbeeld laatste 1-2 jaar).
- Cover zowel wetenschappelijke artikelen, rapporten van overheids- en NGO-organisaties, als relevante nieuwsartikelen.
- Identificeer effecten van klimaatverandering op kuststeden (zeespiegelstijging, stormen, erosie, migratie).
b. Bronnen specificeren:
- Wetenschappelijke databanken (bijvoorbeeld PubMed, Google Scholar, CrossRef).
- Rapporten van IPCC, UNFCCC, nationale milieudiensten.
- Relevante nieuws- en mediawebsites met betrouwbare reputatie.
2. Betrouwbare bronnen identificeren
a. Gebruik criteria voor bronbetrouwbaarheid:
- Peer-reviewed inhoud.
- Reputabele organisaties en instanties.
- Recente publicaties (filter op datum).
- Cross-check van informatie uit meerdere bronnen.
b. Automatiseren van bronselectie:
- Implementeer filters en scoringmechanismen gebaseerd op domeinspecifieke metadata.
- Gebruik API’s of webscraping-tools voor automatische gegevensverzameling.
3. Gegevens extraheren
a. Tekstuele extractie:
- Gebruik NLP-technieken voor het identificeren van relevante secties (methodologie, resultaten, conclusies).
- Extracteer kerngegevens zoals cijfers, trends, voorspellingen.
b. Data-structurering:
- Organiseer informatie in gestructureerde datasets (bijv. tabellen met locaties, tijdlijnen, impactcategorieën).
4. Synthese en rapportage
a. Samenvattingen genereren:
- Gebruik grote taalmodellen (zoals GPT-achtige systemen) voor het maken van samenvattingen.
- Zorg voor meerdere niveaus van samenvatting: kort overzicht en uitgebreide rapporten.
b. Rapportgeneratie:
- Combineer gestructureerde data met tekstuele samenvattingen.
- Voeg visualisaties toe (grafieken, kaarten) met behulp van data-visualisatietools.
5. Strategieën voor omgaan met tegenstrijdige informatie
a. Cross-referencing:
- Vergelijk gegevens uit verschillende bronnen.
- Markeer discrepanties en geef prioriteit aan bronnen met hogere betrouwbaarheid.
b. Certificering en validatie:
- Gebruik consensusmechanismen (bijvoorbeeld meerderheid van betrouwbare bronnen).
- Label onduidelijke of tegenstrijdige gegevens voor latere review.
6. Kennisdatabase updaten
a. Automatische updates:
- Plan periodieke scans voor nieuwe publicaties.
- Implementeer real-time monitoring van relevante nieuwssites en databanken.
b. Versiebeheer:
- Houd bij welke gegevens recent zijn en wanneer updates zijn gedaan.
- Gebruik metadata voor bronverificatie.
7. Waarborgen van betrouwbaarheid en validiteit
a. Human-in-the-loop:
- Laat experts reviews uitvoeren op samenvattingen en rapporten.
- Implementeer feedbackmechanismen om de agent te verbeteren.
b. Transparantie:
- Documenteer bronnen en methoden voor elke samenvatting.
- Geef duidelijk aan waar gegevens vandaan komen en hoe ze beoordeeld zijn.
c. Bias- en foutdetectie:
- Gebruik validatiealgoritmen om inconsistenties of onnauwkeurigheden te detecteren.
- Pas verificatietechnieken toe om de integriteit van de gegevens te waarborgen.
8. Technische implementatie en tools
- Programmeertaal: Python (voor NLP, web scraping, data-analyse).
- NLP-bibliotheken: spaCy, NLTK, Transformers.
- Data management: SQL-databases of NoSQL-systemen.
- Visualisatie: matplotlib, seaborn, Plotly.
- Automatisering: schedulers zoals cron of Airflow.
Door deze strategieën te combineren, creëer je een robuuste SuperAGI-agent die autonoom, betrouwbaar en effectief onderzoek doet en kennis syntheseert over klimaatverandering en haar effecten op kuststeden.
provider: deepseek
model: deepseek-chat
Absoluut. Hier is een gedetailleerd plan voor het configureren van een SuperAGI-agent voor autonoom onderzoek naar klimaatverandering en kuststeden, volledig in het Nederlands.
### Overzicht van de Agent: "KustKlimaatAnalist"
Het primaire doel van deze agent is om continu de wetenschappelijke literatuur, beleidsrapporten en betrouwbare nieuwsbronnen te monitoren, de kernbevindingen te extraheren, deze te synthetiseren tot coherente inzichten en een actueel kennisbestand bij te houden.
---
### 1. Configuratie voor Bronidentificatie en Data-extractie
De agent moet worden uitgerust met duidelijke instructies (via de "Initial Prompt" en doelstellingen in SuperAGI) en de juiste tools.
**A. Doelstellingen (Goals):**
1. Zoek dagelijks naar de laatste peer-reviewed studies op platforms zoals Google Scholar, arXiv, en Scopus met de zoektermen: `["klimaatverandering kuststeden", "sea level rise urban planning", "coastal flooding climate models", "urban resilience adaptation"]`.
2. Identificeer en scan rapporten van gerenommeerde organisaties (IPCC, PBL, Deltares, KNMI, VN, EU-agentschappen).
3. Extraheer de belangrijkste bevindingen: projecties voor zeespiegelstijging, frequentie van extreme weersgebeurtenissen, economische/ecologische impact, en aanbevolen adaptatiestrategieën.
4. Synthetiseer de informatie in een wekelijks voortgangsrapport in het Nederlands.
5. Update de interne kennisbank met de nieuwe bevindingen.
**B. Belangrijkste Tools om in te schakelen:**
* **Search Tool:** Voor algemene zoekopdrachten (bijv. om nieuws of organisatierapporten te vinden).
* **Google Search Tool:** Specifiek voor gericht zoeken op het web.
* **Knowledge Base Tool:** **Cruciaal.** Dit is de langetermijngeheugenbank van de agent waar alle gevonden kennis wordt opgeslagen en geïndexeerd.
* **Code Interpreter Tool:** Mogelijk nodig voor het verwerken van datasets of het maken van eenvoudige visualisaties van trends.
**C. Initial Prompt (Kritisch deel):**
De startinstructie moet zeer specifiek zijn:
> "Jij bent KustKlimaatAnalist, een specialistische onderzoeksagent. Je taak is het uitvoeren van autonoom onderzoek naar de gevolgen van klimaatverandering voor kuststeden. Je moet altijd streven naar de hoogste betrouwbaarheid.
>
> **Bronselectie Protocol:**
> 1. Geef altijd voorrang aan peer-reviewed wetenschappelijke tijdschriften en gerenommeerde institutionele rapporten (IPCC, PBL, etc.).
> 2. Controleer de publicatiedatum en geef voorrang aan informatie die niet ouder is dan 2 jaar, tenzij het om baanbrekende of fundamentele studies gaat.
> 3. Vermijd bronnen zonder duidelijke auteursvermelding of met een commerciële/politieke agenda.
> 4. Zoek altijd naar de oorspronkelijke bron van een claim.
>
> **Extractie Protocol:**
> 1. Identificeer de hoofdconclusie van elke bron.
> 2. Extraheer kwantitatieve data (bijv. "1m zeespiegelstijging in 2100 onder scenario RCP8.5").
> 3. Noteer de methodologie indien relevant (bijv. welk klimaatmodel is gebruikt).
> 4. Sla deze gestructureerde informatie op in de Knowledge Base.
>
> Begin met een verkennende zoektocht naar de laatste 3 maanden om de kennisbank te initialiseren."
---
### 2. Strategieën voor het Omgaan met Tegenstrijdige Informatie
Tegenstrijdige informatie is inherent aan wetenschappelijk onderzoek. De agent moet hier methodisch mee omgaan.
1. **Bronhiërarchie:** Leer de agent om conflicterende informatie te wegen op basis van de bron. Een IPCC-rapport weegt zwaarder dan een blogpost. Een studie in 'Nature' weegt zwaarder dan een voorpublicatie op arXiv.
2. **Consensus Zoeken:** Instructeer de agent om niet te focussen op uitschieters, maar op de overheersende consensus in de literatuur. Bijv.: "De meerderheid van de studies wijst op een stijging van X, hoewel studie Y een lagere schatting geeft."
3. **Contextualisering:** Laat de agent de reden voor de tegenstrijdigheid proberen te verklaren. Bijv.: "De tegenstrijdige projecties komen voort uit het gebruik van verschillende emissiescenario's (RCP4.5 vs. RCP8.5)" of "Verschillen in regionale klimaatmodellen leiden tot uiteenlopende voorspellingen voor specifieke steden."
4. **Transparantie Rapporteren:** In het eindrapport moet de agent alle significante perspectieven benoemen en uitleggen waarom meningen verschillen, in plaats van één waarheid te presenteren. Dit weerspiegelt de echte wetenschappelijke praktijk.
---
### 3. Updaten van de Kennisdatabase en Waarborgen Betrouwbaarheid
**A. Knowledge Base Management:**
* De SuperAGI **Knowledge Base** is het centrale geheugen. Elke gevonden feit, conclusie of data-point moet hier naartoe worden geschreven.
* Configureer de agent om de knowledge base regelmatig te doorzoeken op verouderde informatie. Wanneer een nieuwer, hoogwaardiger onderzoek een oudere bevinding weerlegt, moet de agent de kennisbank *updaten* en een notitie maken over de reden van de wijziging (bijv. "Update op basis van IPCC AR6 Rapport (2023), eerdere schatting uit AR5 (2014) is verouderd").
* Gebruik duidelijke metadata (bijv. `datum: 2023-10-27`, `bron: IPCC`, `onderwerp: zeespiegelprojecties`) om de knowledge base georganiseerd te houden.
**B. Waarborgen Betrouwbaarheid Output:**
1. **Referentienummering:** Instructeer de agent om elke bewering in zijn samenvatting direct te koppelen aan de bron in de knowledge base. Bijv.: "De zeespiegelstijging versnelt [1]". Dit stelt je in staat claims te verifiëren.
2. **Samenvattingslagen:** Laat de agent eerst een ruwe extractie maken, dan een synthese, en tenslotte een beknopte samenvatting (executive summary). Door deze lagen heen kan je de consistentie controleren.
3. **Menselijke-in-de-loop (Human-in-the-loop):** SuperAGI laat je iteraties instellen. Configureer de agent om na het genereren van een groot rapport (bijv. wekelijks) te **pauzeren** en jouw goedkeuring te vragen voordat het wordt opgeslagen of gedeeld. Je kunt dan de bronnen en conclusies screenen. Dit is de ultieme kwaliteitscontrole.
4. **Feedback Loop:** Gebruik de feedback van de menselijke beoordelaar om de Initial Prompt van de agent aan te scherpen. Als je een fout ziet, pas je de instructies aan om herhaling te voorkomen.
### Conclusie
Door deze bouwstenen te combineren – een scherpe initial prompt, een duidelijke bronhiërarchie, een goed onderhouden knowledge base, en een kritische menselijke-in-de-loop – creëer je een krachtige en *betrouwbare* onderzoeksagent. De agent functioneert als een onvermoeibare onderzoeksassistent die de stroom informatie filtert, structureert en contextualiseert, zodat jij je kunt concentreren op de hoogwaardige analyse en besluitvorming op basis van de gesynthetiseerde kennis.