Funziona così:
Uno Spider (Web-Crawler) scannerizza il sito alla ricerca di tutte le pagine che contiene (seguendo i links).
Trovata una nuova pagina la notifica ad un ascoltatore.
Nell'ascoltatore viene avviato il Parsing della pagina allo scopo di cercare delle form, la action, e i relativi parametri.
Se il Parsing ha successo viene passato tutto al PageCracker che si occupa di generare stringhe da inviare come parametri alla action precedentemente trovata. Fa ad esempio 5 Thread per pagina con 20 flood di form per Thread.
Quello che si avrebbe nel complesso è, in pochi minuti, un sito pieno di fuffa immessa nel sito attraverso le form.
In siti senza controlli specifici (sul tempo o sul contenuto dei parametri) farebbe un disastro.
Bello no ? Allora commento tutto il codice per spiegare come funziona.
Dove potrei mettere dei "blocchi"? In quale fase del programma?
|