<aside> 💡

Im Rahmen unserer KI Features können Sie ggf. automatisiert Daten Ihrer Website einlesen. Dazu erfasst unser System mittels Crawling die relevanten Daten und speichert sie in Lime Connect. Dieser Artikel erklärt, warum es mitunter nicht möglich ist, bestimmte URLs zu erfassen.

</aside>

Gründe, warum Crawling nicht möglich ist

  1. Robots.txt-Sperre
  2. Meta-Tags / Header
  3. Technische Sperren
  4. Fehlende Erreichbarkeit
  5. Dynamische Inhalte
  6. Zugriffsrechte / Authentifizierung

Wichtige HTTP-Statuscodes beim Crawling