Das Problem war eine fehlerhafte robots.txt die ich drei Wochen zuvor aktualisiert hatte. Ein simpler Syntax-Fehler blockierte den Googlebot für ganze Verzeichnisse.
So habe ich das Problem gelöst:
Zuerst habe ich die robots.txt mit dem Google Testing Tool geprüft. Der Fehler war eine fehlende Leerzeile zwischen zwei Disallow-Anweisungen die der Bot als einzelne ungültige Regel interpretierte.
Dann musste ich die Indexierung wiederherstellen. Ich habe eine XML-Sitemap mit allen betroffenen URLs erstellt und über die Search Console neu eingereicht. Gleichzeitig habe ich das URL-Inspection-Tool genutzt um kritische Seiten direkt anzufordern.
Die vollständige Wiederherstellung dauerte vier Wochen. Rankings kamen langsam zurück aber nicht alle auf das ursprüngliche Niveau.
Was ich anders machen würde: Jede robots.txt Änderung erst in einer Staging-Umgebung testen. Die Search Console täglich überwachen nicht nur wöchentlich. Ein Monitoring-Tool einrichten das mich bei plötzlichen Index-Verlusten sofort benachrichtigt.
Seitdem teste ich jede technische Änderung dreimal bevor sie live geht.