this post was submitted on 01 Nov 2023
16 points (100.0% liked)
Teknologi
198 readers
9 users here now
For debat og nyheder omkring teknologi af alle former.
founded 1 year ago
MODERATORS
you are viewing a single comment's thread
view the rest of the comments
view the rest of the comments
Jeg måtte i sin tid permanent blokere Netarkivets webcrawler; de brugte vist en anden den gang.
Crawleren respekterede ikke robots.txt-filen, som fortæller hvor crawlere og botter må bevæge sig hen på en hjemmeside.
De udførte nærmest et overbelastningsangreb mod min server, ved at sende en masse requests på kort tid til mine "tungeste" PHP-websider (dem som de ikke måtte besøge), i stedet for at sprede requestene ud over et længere tidsrum, som alle andre gjorde og gør.
Efter kommunikation med dem om problemet, var min opfattelse at de ikke anede hvad de foretog sig og var ligeglade med konsekvenserne. Forhåbentlig har de mere kompente folk på opgaven nu om stunder.
Spændende. De ignorerer stadig robots.txt da den, deres udsagn, ville forhindre dem i at opsamle nok af siderne til at kunne gendanne dem ordentligt. Dog skriver de at de som udgangspunkt laver mindre crawls for at lure om siden er aktiv og hvis den er det så besøger de den oftere
Det kan godt være det er en fordom fra min side men jeg tror desværre det er sådan i meget offentligt software/IT. Det offentlige betaler jo ikke nok til at få gode folk fra den branche ind.