ha nem tévedek, új xml sitemaphez is validálnod kéne a domaint, és lehet, hogy még az sem oldaná meg a fenti problémát (bár valószínű).
szvsz vetesd fel ezt az új rekordot, vagy ha nem tudod, akkor ideiglenesen vagy a logolást kapcsold ki ezen a site-on, vagy a robots.txt-vel tiltsd ki a googlebotot.
https://developers.google.com/search/reference/robots_txt - "A robots.txt request is generally cached for up to one day, but may be cached longer in situations where refreshing the cached version is not possible (for example, due to timeouts or 5xx errors). The cached response may be shared by different crawlers. Google may increase or decrease the cache lifetime based on max-age Cache-Control HTTP headers."
https://www.youtube.com/watch?v=I2giR-WKUfY - ez elég régi video, tapasztalatom szerint már nem érvényes, de ebben arról is volt szó, hogy 100 page hit után kéri mindig le. szvsz ma már a fentebbi idézet az igaz, és a google tiszteletben tartja a robots.txt-re beállított max-age cc headert.