Home Blog Massenabfrage Firmendaten API

Firmendaten Massenabfrage: 1000 Domains auf einmal anreichern

Tausende Domains auf einmal mit Firmendaten anreichern. CSV hochladen, API abfragen, angereicherte Daten herunterladen. Für große Lead-Listen und Datenbank-Projekte.

📅 2026-04-20 ⏱ 3 Min. Lesezeit DACH Enrichment
```html

Firmendaten Massenabfrage: 1000 Domains auf einmal anreichern

Wer mit B2B-Listen arbeitet, kennt das Problem: Hunderte oder Tausende Domains, aber die Kontaktdaten sind unvollständig. Namen der Geschäftsführer fehlen, Telefonnummern sind veraltet, E-Mail-Adressen stimmen nicht. Die manuelle Recherche pro Domain kostet Stunden. Eine Massenabfrage Firmendaten API löst dieses Problem automatisiert – und spart dabei massive Zeit.

Die DACH Enrichment API extrahiert alle relevanten Firmendaten aus deutschen Impressum-Seiten und liefert strukturierte Daten für unbegrenzte Domains auf einmal zurück. Wir zeigen dir, wie du 1000 Domains mit Python in unter einer Minute verarbeitest.

Warum eine Massenabfrage Firmendaten API sinnvoll ist

Firmendaten sind das Fundament jeder B2B-Akquisition. Ohne korrekte Kontakte, Geschäftsführer-Namen oder Handelsregister-Nummern verlieren deine Outreach-Kampagnen an Glaubwürdigkeit und Relevanz.

Traditionelle Methoden sind ineffizient:

  • Google-Suche: 2–3 Minuten pro Domain, fehleranfällig
  • Manuelle Recherche im Impressum: Seitenstruktur unterscheidet sich überall, konsistente Datenextraktion unmöglich
  • Handische Excel-Verwaltung: Keine Aktualisierung, keine Validierung
  • Scraping: Rechtlich fragwürdig, kompliziert zu implementieren, langsam

Eine spezialisierte Massenabfrage Firmendaten API macht das in Sekunden: Domains rein, strukturierte Daten raus. Kein Scraping, sondern direkte Abfrage der offiziellen Impressum-Daten.

Was die DACH Enrichment API liefert

Die API extrahiert folgende Felder aus deutschen Impressum-Seiten:

  • Firmenname und Rechtsform
  • Vollständige Adresse (Straße, Hausnummer, PLZ, Ort)
  • E-Mail und Telefon
  • Name(n) des/der Geschäftsführer
  • Handelsregister-Nummer und -Gericht
  • Umsatzsteuer-Identifikationsnummer (USt-IdNr.)

Die Daten werden mit 30 Tagen gecacht, DSGVO-konform verarbeitet und auf EU-Servern gespeichert. Du zahlst nur für neue Anfragen – wiederholte Abfragen derselben Domain kosten keine Credits.

Massenabfrage mit CSV-Upload und Async-Processing

Für größere Listen (50+ Domains) ist Async-Processing die richtige Methode. Statt jede Domain einzeln zu queuen, uploadst du eine CSV-Datei, die API verarbeitet asynchron im Hintergrund und du kannst die Ergebnisse später abrufen.

So sieht der Workflow aus:

  1. CSV-Datei mit Domain-Liste vorbereiten (eine Domain pro Zeile)
  2. File via API hochladen
  3. Batch-ID erhalten
  4. Status abfragen und auf Completion warten
  5. Ergebnisse als JSON oder CSV herunterladen

Bei 1000 Domains dauert die Verarbeitung typischerweise 5–15 Minuten, abhängig von der aktuellen Auslastung. Manuell würde die gleiche Arbeit 2000–3000 Minuten dauern.

Python-Beispiel: 1000 Domains mit der Massenabfrage Firmendaten API verarbeiten

Hier ist ein praktisches Python-Skript, das zeigt, wie du einen Batch mit 1000 Domains hochlädst, den Status überwachst und die Ergebnisse verarbeitest:

import requests
import time
import csv

API_KEY = "dein_api_key_hier"
BASE_URL = "https://api.dach-enrichment.de/api"

# Schritt 1: CSV mit 1000 Domains vorbereiten
domains = []
with open("domains_1000.csv", "r") as f:
    reader = csv.reader(f)
    for row in reader:
        domains.append(row[0].strip())

print(f"[INFO] {len(domains)} Domains geladen")

# Schritt 2: Batch hochladen
files = {"file": open("domains_1000.csv", "rb")}
headers = {"Authorization": f"Bearer {API_KEY}"}

response = requests.post(
    f"{BASE_URL}/batch/upload",
    files=files,
    headers=headers
)

batch_data = response.json()
batch_id = batch_data["batch_id"]
print(f"[INFO] Batch hochgeladen: {batch_id}")

# Schritt 3: Status überwachen
while True:
    status_response = requests.get(
        f"{BASE_URL}/batch/{batch_id}/status",
        headers=headers
    )
    
    status = status_response.json()
    print(f"[STATUS] Verarbeitet: {status['processed']}/{status['total']}")
    
    if status["status"] == "completed":
        print("[INFO] Verarbeitung abgeschlossen!")
        break
    
    time.sleep(10)  # Alle 10 Sekunden checken

# Schritt 4: Ergebnisse abrufen
results_response = requests.get(
    f"{BASE_URL}/batch/{batch_id}/results",
    headers=headers
)

results = results_response.json()

# Schritt 5: Ergebnisse in neue CSV schreiben
with open("ergebnisse_angereichert.csv", "w", newline="", encoding="utf-8") as f:
    writer = csv.DictWriter(f, fieldnames=[
        "domain", "firma", "rechtsform", "email", 
        "telefon", "geschaeftsfuehrer", "ust_id", "adresse"
    ])
    writer.writeheader()
    
    for item in results["data"]:
        writer.writerow({
            "domain": item.get("domain"),
            "firma": item.get("firma"),
            "rechtsform": item.get("rechtsform"),
            "email": item.get("email"),
            "telefon": item.get("telefon"),
            "geschaeftsfuehrer": ", ".join(item.get("geschaeftsfuehrer", [])),
            "ust_id": item.get("ust_id"),
            "adresse": item.get("adresse")
        })

print("[INFO] Ergebnisse gespeichert in ergebnisse_angereichert.csv")

Wichtige Parameter und Best Practices:

  • Batch-Größe: Bis zu 10.000 Domains pro Upload möglich
  • Polling-Intervall: Nicht unter 5 Sekunden, um die API nicht zu überlasten
  • Error Handling: Bei fehlgeschlagenen Anfragen solltest du Retry-Logik einbauen
  • Rate Limits: Die API erlaubt bis zu 100 parallele Batch-Uploads. Bei höherer Last erhältst du automatisch einen Backlog

Vergleich: Zeitersparnis durch Massenabfrage Firmendaten API

Bereit loszulegen?

Teste DACH Enrichment kostenlos — 10 Credits ohne Kreditkarte.

Jetzt kostenlos starten →
Methode Zeit für 1000 Domains Kosten Genauigkeit Skalierbarkeit
Manuelle Google-Suche 2000–3000 Min 0€ + 33–50h Arbeitszeit 70–80% Nicht praktikabel
Web Scraping (DIY) 200–500 Min 100–500€ Setup + Server 60–75% Komplex, wartungsaufwendig
Generische Data API 20–30 Min 500–2000€ (Overpaying) 75–85% Gut, aber teuer für D/A/CH