-
FinalScoutWebsite besuchenFinde verifizierte Geschäftsemails via LinkedIn. KI schreibt Akquise-Mails.
0Website Freemium Kostenlose Testversion Kostenpflichtig Preisanfrage -
Mehr erfahren
Was ist FinalScout AI
FinalScout AI ist eine Plattform zur B2B-Lead-Recherche, die professionelle E-Mail-Adressen findet und mit Hilfe von ChatGPT passgenaue Outreach-Mails erstellt. Nutzer können LinkedIn-Profile und LinkedIn Sales Navigator auslesen, E-Mails scrapen und verifizieren, um Zustellbarkeit zu erhöhen. Der Dienst gibt an, bis zu 98% Zustellbarkeit zu erreichen, unterstützt beim Kontaktmanagement und berücksichtigt GDPR/CCPA-Anforderungen. So lassen sich personalisierte Kampagnen schneller vorbereiten, Leads qualifizieren und Conversion-Potenziale effizienter ausschöpfen.
Hauptfunktionen von FinalScout AI
- E-Mail-Finder & Verifizierung: Findet berufliche E-Mail-Adressen und prüft sie zur Minimierung von Bounces und zur Verbesserung der Zustellrate.
- LinkedIn- und Sales-Navigator-Scraping: Extrahiert Kontakt- und Profilinformationen aus LinkedIn-Profilen sowie Sales Navigator für präzises B2B-Prospecting.
- KI-gestütztes E-Mail-Schreiben: Erstellt mit ChatGPT personalisierte, kontextbezogene Outreach-Texte für höhere Antwortquoten.
- Zustellbarkeit optimieren: Der Anbieter gibt bis zu 98% Zustellbarkeit an, unterstützt durch Validierung und Datenbereinigung.
- Kontaktmanagement: Organisiert, segmentiert und aktualisiert Leads zentral, inklusive Export in gängige Workflows.
- Compliance: Funktionen zur Unterstützung von GDPR/CCPA-konformer Nutzung und verantwortungsvollem Datenhandling.
-
POKYWebsite besuchenEin-Klick-Import zu Shopify/WooCommerce/Wix, inkl. Chrome-Erweiterung.
0Website Kostenlose Testversion Kostenpflichtig -
Mehr erfahren
Was ist POKY AI
POKY AI ist ein KI-gestützter Produktimporter für E‑Commerce, mit dem sich Artikel aus Quellen wie Shopify, WooCommerce, Amazon, eBay, Etsy, Shein, Temu, Google Shopping, Target, AliExpress oder Mercardolive per Ein‑Klick‑Import in Shopify‑, WooCommerce‑ und Wix‑Shops übertragen lassen. Das Tool bietet unbegrenzte Produktimporte, eine Chrome‑Erweiterung zum Importieren und Bearbeiten, einen flexiblen Scraper Builder für nicht unterstützte Websites, ChatGPT‑Integration zur Optimierung und Übersetzung von Texten sowie eine Lieferantensuche. Ergebnis: schneller Katalogaufbau, bessere Produktdaten und deutliche Zeitersparnis.
Hauptfunktionen von POKY AI
- Ein‑Klick‑Import: Produkte aus Amazon, eBay, Etsy, Shein, Temu, Google Shopping, Target, AliExpress, Mercardolive u. a. direkt in Shopify, WooCommerce oder Wix übernehmen.
- Unbegrenzte Produktimporte: Ohne Mengenlimit große Kataloge aufbauen und aktualisieren.
- Chrome‑Erweiterung: On‑Page‑Import mit Editor für Titel, Beschreibung, Bilder, Varianten und Tags – auch als Bulk‑Import nutzbar.
- Scraper Builder: Eigene Scraper für nicht unterstützte Plattformen erstellen (Felder definieren, Selektoren festlegen, Vorlagen speichern).
- ChatGPT‑Integration: Produkttexte verbessern, SEO‑Beschreibungen generieren und Inhalte automatisch übersetzen.
- Lieferantensuche: Passende Bezugsquellen für gelistete Artikel identifizieren und vergleichen.
-
BrowserlessWebsite besuchenSkalierbare Browser-Automatisierung mit API, Proxys und Captcha.
5Website Freemium Kostenpflichtig Preisanfrage -
Mehr erfahren
Was ist Browserless AI
Browserless AI ist eine Plattform für Browser-Automatisierung und Web Scraping, die auf Skalierbarkeit und Robustheit gegenüber gängigen Bot-Schutzmechanismen ausgelegt ist. Über eine API stellt der Dienst Browsers as a Service bereit, ergänzt durch Proxys und integriertes CAPTCHA-Handling. So lassen sich automatisierte Workflows, Datenerfassung und Tests zuverlässig in der Cloud ausführen, ohne eigene Headless-Infrastruktur zu betreiben. Der Fokus liegt auf stabilen, reproduzierbaren Sessions und performanter Parallelisierung – unter Beachtung rechtlicher Vorgaben und Nutzungsbedingungen der Zielseiten.
Hauptfunktionen von Browserless AI
- API-first: Steuern Sie Headless-Browser über eine schlanke API für Scraping, Tests und Automatisierung.
- Browsers as a Service: Cloudbasierte Ausführung ohne eigene Serverpflege oder Browser-Updates.
- CAPTCHA-Lösung: Integriertes CAPTCHA-Handling zur Verarbeitung von Challenge-Seiten in automatisierten Flows.
- Proxy-Management: Nutzung von Proxys zur Lastverteilung und zur Reduktion von Blockierungen.
- Skalierbarkeit: Parallelisierung von Sessions für hohe Volumina und schnelle Durchlaufzeiten.
- Kompatibilität: Unterstützung gängiger Stacks wie Puppeteer, Playwright oder ähnliche Headless-Frameworks.
- Stabilität: Robuste Sessions, Timeouts und Wiederholungen für verlässliche Ergebnisse.
- Beobachtbarkeit: Protokolle und Metriken zur Analyse von Runs und Fehlersuche.
-
ScrapingdogWebsite besuchenAll-in-one Web-Scraping-API mit Proxy-Rotation, Headless, CAPTCHA, JSON.
5Website Kostenlose Testversion Kostenpflichtig -
Mehr erfahren
Was ist Scrapingdog AI
Scrapingdog AI ist eine All-in-one Web Scraping API, die Proxys, Headless-Browser und CAPTCHAs automatisch verwaltet. So extrahieren Teams strukturierte Daten schnell und zuverlässig, ohne eigene Infrastruktur betreiben zu müssen. Neben einem universellen Endpunkt bietet Scrapingdog dedizierte APIs für Google Search, LinkedIn-Profile und Amazon-Produktdaten, die Ergebnisse als geparstes JSON zurückliefern. Das reduziert Komplexität, erhöht Erfolgsraten und beschleunigt Data Pipelines vom Prototyp bis zur Produktion.
Hauptfunktionen von Scrapingdog AI
- Automatisches Proxy-Management: Rotierende Proxys werden nahtlos verwaltet, um Blockaden zu vermeiden und stabile Abrufe zu gewährleisten.
- Headless-Browser-Steuerung: Realitätsnahe Browser-Umgebungen für dynamische Seiten und JavaScript-lastige Inhalte.
- CAPTCHA-Handhabung: Eingebaute Mechanismen reduzieren Abbrüche durch Anti-Bot-Schutz.
- Dedizierte Endpunkte: APIs für Google Search, LinkedIn-Profile und Amazon-Produktdaten liefern zielgenaue, strukturierte Ergebnisse.
- Geparste JSON-Ausgabe: Fertig strukturierte JSON-Responses vereinfachen Parsing, Speicherung und Weiterverarbeitung.
- Einfache Integration: Schlanke HTTP/REST-Aufrufe für eine schnelle Einbindung in bestehende Data-Workflows.
-
ThunderbitWebsite besuchen[KI-Webscraper ohne Selektoren: Vorlagen, Unterseiten, Export.]
5Website Freemium Preisanfrage -
Mehr erfahren
Was ist Thunderbit AI
Thunderbit AI ist ein KI-gestütztes Web-Scraping- und Automatisierungs-Tool für Geschäftsanwender. Es extrahiert strukturierte Daten aus Websites, PDFs, Dokumenten und Bildern – ganz ohne CSS‑Selektoren oder komplexe Programmierung. Mit vorgefertigten Vorlagen für beliebte Seiten, Subpage-Scraping und Datenanreicherung lassen sich wiederkehrende Recherche- und Erfassungsprozesse effizient abbilden. Ergebnisse können direkt nach Google Sheets, Airtable oder Notion exportiert werden. So beschleunigen Sales-, Operations- und Marketing-Teams Lead-Generierung, Wettbewerbsmonitoring sowie Content- und SEO-Analysen.
Hauptfunktionen von Thunderbit AI
- KI-basiertes Scraping ohne Code: Extrahiert Daten aus Webseiten, PDFs, Dokumenten und Bildern ohne CSS-Selektoren oder Skripting.
- Vorgefertigte Vorlagen: Starten Sie schneller mit Templates für populäre Websites und typische Anwendungsfälle.
- Subpage-Scraping: Erfasst Daten über verlinkte Unterseiten und paginierte Listen, um vollständige Datensätze aufzubauen.
- Datenanreicherung: Ergänzt und normalisiert Felder, um Kontaktinformationen und Firmendaten zu vervollständigen.
- Export-Workflows: Direkter Export in Google Sheets, Airtable und Notion für nahtlose Weiterverarbeitung.
- Automatisierung von Prozessen: Mapping, Extraktion und Weiterleitung in wiederholbaren, standardisierten Abläufen.
- Lead-Generierung & Recherche: Identifiziert Kontaktinformationen, sammelt Prospects und unterstützt Outreach.
- Monitoring & Analyse: Beobachtet Wettbewerber, Inhalte und Metriken für Content-Marketing und SEO.
-
GumloopWebsite besuchenNo-Code KI-Automatisierung: Daten verbinden, Workflows sicher skalieren.
5Website Freemium Kostenpflichtig Preisanfrage -
Mehr erfahren
Was ist Gumloop AI
Gumloop AI ist eine No‑Code‑Plattform zum Aufbau und Hosting von KI‑gestützten Geschäftsautomationen. Teams verbinden Datenquellen, orchestrieren KI‑Tools und automatisieren End‑to‑End‑Workflows, die per E‑Mail, Slack oder Webhook ausgelöst werden. Dank vorgefertigter Workflows starten Sie schnell; über Custom Nodes lassen sich individuelle Schritte ergänzen. Die Plattform legt Wert auf einfache Bedienung, Skalierbarkeit und Sicherheit mit Enterprise‑fähiger Compliance – ideal, um wiederkehrende Prozesse zuverlässig zu standardisieren, zentral zu betreiben und ohne Code produktiv bereitzustellen.
Hauptfunktionen von Gumloop AI
- Visueller Flow‑Builder: Workflows per Drag‑and‑Drop modellieren, verbinden und testen – ohne Programmierung.
- Datenquellen verbinden: Verschiedene interne und externe Quellen integrieren, um Prozesse datengetrieben zu steuern.
- KI‑Tools einbinden: Analyse, Klassifikation, Extraktion oder Generierung als wiederverwendbare Schritte nutzen.
- Flexible Trigger: Flows per E‑Mail, Slack oder Webhooks starten – manuell, geplant oder ereignisgesteuert.
- Vorgefertigte Workflows: Templates für häufige Anwendungsfälle beschleunigen die Umsetzung.
- Custom Nodes: Eigene, maßgeschneiderte Knoten für spezielle Unternehmenslogik erstellen.
- Hosting & Skalierung: Automationsläufe sicher bereitstellen und bei wachsendem Volumen performant betreiben.
- Sicherheit & Compliance: Plattform mit Enterprise‑Ready‑Ausrichtung für Governance‑Anforderungen.
-
Website besuchen
-
Mehr erfahren
Was ist Exa AI
Exa AI ist eine Web‑Search‑API und ein AI Web Researcher, der aktuelle, quellengestützte Informationen aus dem offenen Web für Ihre Anwendungen verfügbar macht. Das Tool kombiniert Suche, Crawling und LLM‑Answers, um Daten in Echtzeit zu finden, zu extrahieren und in Antworten aufzubereiten. Mit Funktionen wie kuratierbaren Websets ermöglicht Exa AI business‑taugliche Recherche‑Workflows: zielgenaue Abfragen, strukturiertes Anreichern von Datensätzen und belastbare Quellenangaben für RAG und Automationspipelines. So lassen sich Webdaten effizient durchsuchen, filtern und in Produkte, interne Wissensdatenbanken oder Analyseprozesse integrieren.
Hauptfunktionen von Exa AI
- Web Search API: Präzise Websuche mit relevanzbasierter Sortierung, um die besten, aktuellen Quellen für Ihre Anwendung zu finden.
- Crawling auf Abruf: Inhalte und Metadaten von Webseiten abrufen und extrahieren, um Webdaten in strukturierte Form zu überführen.
- LLM Answers: Antworten generieren, die durch Exa‑Suchergebnisse informiert sind – inklusive nachvollziehbarer Quellenbezüge.
- Websets: Kuratierte Sammlungen von Domains/URLs zum gezielten Suchen, Datenanreichern und Aktualisieren Ihrer Datengrundlage.
- Echtzeit‑Fokus: Zugriff auf frische Webinhalte, um Entscheidungen und Modelle mit aktuellen Informationen zu speisen.
- RAG‑Integration: Exa als Retriever für LLM‑Workflows nutzen und Antworten mit verifizierbaren Quellen untermauern.
- API‑First: Einheitliche JSON‑Ergebnisse für einfache Einbindung in Pipelines, Produkte und interne Tools.
-
OctoparseWebsite besuchenNo-Code Web-Scraping mit KI: Daten erfassen und automatisieren.
5Website Freemium Kostenlose Testversion Kostenpflichtig Preisanfrage -
Mehr erfahren
Was ist Octoparse AI
Octoparse AI ist ein No‑Code Web‑Scraping- und Web‑Crawler-Tool, das Webseiten in wenigen Klicks in strukturierte Daten verwandelt. Nutzer können ohne Programmierkenntnisse Inhalte erkennen, extrahieren und als CSV, Excel oder JSON exportieren. Mit AI‑gestützter Erkennung, vorgefertigten Templates und Automatisierungsfunktionen unterstützt Octoparse die schnelle Erstellung wiederholbarer Datenpipelines. Das Tool eignet sich für Datenextraktion, Monitoring und Recherche und hilft Unternehmen, datengetriebene Entscheidungen effizienter zu treffen.
Hauptfunktionen von Octoparse AI
- No‑Code Point‑and‑Click: Elemente auf Webseiten per Klick auswählen und ohne Code Regeln erstellen.
- AI‑gestützte Mustererkennung: Automatisches Erkennen von Listen, Detailseiten und Feldern für präzise Datenextraktion.
- Vorgefertigte Templates: Startvorlagen für gängige Seitentypen beschleunigen die Einrichtung von Projekten.
- Automatisierung & Planung: Crawls zeitgesteuert ausführen lassen und wiederkehrende Aufgaben automatisieren.
- Datenexport: Ergebnisse in CSV, Excel oder JSON exportieren und in bestehende Workflows integrieren.
- Vorschau & Qualitätskontrolle: Extraktion testen, Felder prüfen und Regeln iterativ verbessern.
- Datenservices: Auf Wunsch Managed‑Extraction und Unterstützung bei komplexen Projekten.
- Skalierbarkeit: Projekte von Einzelabfragen bis zu größeren Datensammlungen aufsetzen.
-
TaskadeWebsite besuchenTeam-Workspace mit KI-Agenten für Planung und Automatisierung von Aufgaben
5Website Freemium -
Mehr erfahren
Was ist Taskade AI
Taskade AI ist ein einheitlicher Arbeitsbereich für Aufgaben, Notizen und Team‑Kollaboration, der mit KI‑Agenten komplexe Workflows vereinfacht. Teams können Agenten bauen, trainieren und steuern, die planen, recherchieren und Aufgaben erledigen – direkt im Projektkontext. Flexible Ansichten wie Liste, Board, Kalender oder Mindmap, kombiniert mit Chat, Kommentaren und Vorlagen, bringen Ordnung in jede Phase. So verwandelt Taskade AI Ideen schneller in Ergebnisse und steigert die Produktivität durch agentische Workflows in Echtzeit.
Hauptfunktionen von Taskade AI
- KI‑Agenten: Agenten erstellen, trainieren und bereitstellen, die selbstständig recherchieren, planen und Aufgaben ausführen.
- Aufgabenverwaltung: Prioritäten, Fälligkeiten, Abhängigkeiten und Zuweisungen für klare Verantwortlichkeiten.
- Mehrere Ansichten: Liste, Kanban‑Board, Kalender und Mindmap für unterschiedliche Arbeitsstile.
- Dokumente & Notizen: Gemeinsame Outlines, Meeting‑Notizen und Wissenssammlungen im selben Workspace.
- Echtzeit‑Kollaboration: Live‑Bearbeitung, Chat, Kommentare und Erwähnungen für schnelle Abstimmung.
- Vorlagen & Workflows: Wiederverwendbare Templates für Onboarding, Sprints, Kampagnen u. v. m.
- Automatisierung: Agentische Workflows, die wiederkehrende Aufgaben und Übergaben beschleunigen.
- Suche & Organisation: Tags, Filter und Projektstruktur für schnelles Auffinden von Inhalten.
- Plattformübergreifend: Nutzung im Browser und auf mobilen/desktop Geräten für nahtlose Arbeit.
-
ThordataWebsite besuchen60M+ Residential-Proxies, SERP-API und Datensätze für stabiles Scraping.
5Website Kostenlose Testversion Kostenpflichtig -
Mehr erfahren
Was ist Thordata AI
Thordata AI ist ein hochwertiger Proxy-Dienst für Web Data Scraping. Mit einem globalen Netzwerk von über 60 Mio. Residential Proxies und 99,7% Verfügbarkeit ermöglicht die Plattform stabile, zuverlässige Datenerfassung für KI, BI und automatisierte Workflows. Neben Residential Proxies bietet Thordata AI Static ISP Proxies, Datacenter Proxies und Unlimited Proxy Servers. Ergänzend stehen Scraping-Produkte wie SERP API und Web Scraper API bereit. Über den Dataset Marketplace sind vorab gesammelte Daten aus 100+ Domains verfügbar – ideal für schnelle Analysen und Prototypen.
Hauptfunktionen von Thordata AI
- Globales Residential-Netzwerk: Über 60M+ IPs mit 99,7% Verfügbarkeit für verlässliches, großskaliges Scraping.
- Vielzahl an Proxy-Typen: Residential, Static ISP, Datacenter sowie Unlimited Proxy Servers für unterschiedliche Anforderungen.
- Stabile Datenerfassung: Auf Zuverlässigkeit und Kontinuität ausgelegt, um Scraping-Jobs ohne Unterbrechungen zu betreiben.
- SERP API: Programmgesteuerter Zugriff auf Suchergebnisse zur Unterstützung von SEO- und Marktanalysen.
- Web Scraper API: Extraktion webbasierter Inhalte über eine API für strukturierte Datenpipelines.
- Dataset Marketplace: Vorab gesammelte Datensätze aus 100+ Domains für schnellen Zugriff ohne eigenen Crawl.
- Unterstützung für KI/BI-Workflows: Optimiert für datengetriebene Prozesse, Dashboards und Modelle.
-
Browser UseWebsite besuchenKI steuert deinen Browser: Seiten ohne API automatisiert, Daten extrahiert.
5Website Freemium Kostenpflichtig Preisanfrage -
Mehr erfahren
Was ist Browser Use AI
Browser Use AI ist ein KI-gestütztes Automations-Framework, das den Browser kontrolliert und so Websites für AI‑Agenten zugänglich macht. Das Tool erkennt interaktive Elemente, automatisiert Klicks, Formulareingaben und Navigation und extrahiert dabei strukturierte Daten. Über eine API verwandelt es Webseiten ohne eigene Schnittstelle in nutzbare Endpunkte. Ergänzend unterstützt es fortgeschrittenes Bot‑Protection‑Handling, Mobile Proxies für stabile Sessions sowie eine UI für unbegrenzte Aufgaben, Datei‑Upload/‑Download und Human‑in‑the‑Loop‑Kontrolle.
Hauptfunktionen von Browser Use AI
- Browser-Automatisierung: KI-gesteuerte Klicks, Scrolling und Formularaktionen, um wiederkehrende Webaufgaben zuverlässig auszuführen.
- Elementerkennung: Identifiziert Buttons, Eingabefelder und Tabellen, um Interaktionen stabil zu skripten – ohne fragile Selektoren.
- Strukturiertes Datenauslesen: Extrahiert Inhalte sauber als Tabellen/JSON für Reporting, BI und Datenpipelines.
- API für Webseiten ohne API: Macht Weboberflächen via API ansprechbar und integriert sie in bestehende Workflows.
- Bot‑Protection‑Handling: Stabilere Sessions und weniger Abbrüche, unter Beachtung von Richtlinien und Nutzungsbedingungen.
- Mobile Proxies: Flexible Konnektivität und Länderauswahl für belastbare Automationsläufe.
- UI für Tasks: Unbegrenzte Aufgaben starten, verwalten und überwachen; Dateien hoch- und herunterladen.
- Human‑in‑the‑Loop: Menschliche Freigabe an kritischen Schritten für Qualität, Compliance und Kontrolle.
-
ApifyWebsite besuchenApify AI: Web-Scraping, KI-Agenten und Automation mit Proxies.
5Website Freemium Preisanfrage -
Mehr erfahren
Was ist Apify AI
Apify AI ist ein umfassendes Full-Stack-Ökosystem für Web Scraping, Datenextraktion und Automatisierung. Entwickler und Teams können damit Web‑Scraper, KI‑Agenten und Automations‑Workflows bauen, deployen und veröffentlichen. Die Plattform stellt fertige Tools, Code‑Vorlagen und maßgeschneiderte Lösungen bereit, unterstützt Open‑Source‑Projekte wie Crawlee und bietet Anti‑Blocking‑ sowie Proxy‑Optionen. So lassen sich skalierbare Datapipelines samt Scheduling, Monitoring und API‑Zugriff zuverlässig betreiben – von einmaligen Extraktionen bis zu kontinuierlichen Crawls in Produktionsqualität.
Hauptfunktionen von Apify AI
- Vorgefertigte Scraper & Tools: Bibliothek mit sofort einsatzbereiten Web-Scraping-Jobs und Automationen für gängige Websites und Anwendungsfälle.
- Code‑Vorlagen & SDK-Unterstützung: Starten Sie eigene Projekte mit Templates und dem Open‑Source‑Framework Crawlee für robuste Crawler.
- Deployment & Scheduling: Workflows in der Cloud ausführen, planen, wiederholen und zuverlässig skalieren.
- Anti‑Blocking & Proxies: Integrierte Proxy-Optionen und Anti‑Blocking‑Mechanismen für höhere Erfolgsraten.
- API & Webhooks: Ergebnisse per API abrufen, Webhooks nutzen und Daten nahtlos in bestehende Systeme integrieren.
- Datenexport: Ausgaben in gängigen Formaten (z. B. JSON, CSV) für Analytics, BI und Data Pipelines.
- Monitoring & Logs: Laufzeit‑Metriken, Protokolle und Fehlermanagement für stabile Datenextraktion.
- Teamfunktionen: Projekte teilen, Berechtigungen steuern und Versionen nachvollziehen.
-
Website besuchen
-
Mehr erfahren
Was ist Browse AI
Browse AI ist eine KI-gestützte Plattform für Datenextraktion, die es ermöglicht, Informationen von nahezu jeder Website ohne Programmierung zu erfassen und zu überwachen. Per Point-and-Click markieren Nutzer gewünschte Elemente, erstellen automatisierte Bots und richten Website-Monitoring für Änderungen ein. Zudem lässt sich aus Websites eine API generieren, um Daten in bestehende Systeme zu integrieren. So erhalten Unternehmer, Teams und Einzelpersonen skalierbare, verlässliche Datenpipelines für Recherche, Lead-Generierung, Marktbeobachtung und Reporting.
Hauptfunktionen von Browse AI
- Point-and-Click-Datenextraktion: Elemente direkt auf Webseiten auswählen und strukturierte Datensätze ohne Code erzeugen.
- Website-Monitoring: Änderungen an Inhalten automatisch erkennen, protokollieren und Benachrichtigungen erhalten.
- API aus Websites erstellen: Erfasste Daten als API-Endpunkt bereitstellen, um Anwendungen und Dashboards zu speisen.
- Integrationen mit Apps & Tools: Daten nahtlos in Workflows und Automatisierungen einbinden.
- Skalierung & Zeitpläne: Extraktionen periodisch ausführen und große Datenmengen zuverlässig verarbeiten.
- Datenexport: Ergebnisse in gängige Formate und Zielsysteme exportieren, z. B. für Analytics, CRM oder BI.
- Benachrichtigungen: Alerts bei neuen Datensätzen oder relevanten Änderungen einrichten.













