![]() |
Хотел собрать по теме 10k уникальных имён, но насобиралось 5.5k доменов и 1.5k запросов связаных с ключевым словом. Для старта поиска я использовал одно слово, остальные запросы подсказал google. Скажу сразу: "Процесс 3a:E6blBaeT" потому что много копипаста, но есть два плюса: первый - google не верищит что ты робот и не банит твой ip, второй - выработался алгоритм плавной выгрузки выдачи, который с помощью vnc можно автоматизировать.
У меня нет американских прокси для гугла, поэтому в настройках поисковика я переключил язык на английский и выбрал регион United State. Если хотите поискать на картинках автомобили, дорожные знаки или мосты выбирайте "выдавать 100"; 1k доменов махом наберёте. Процесс получения доменов и запросов прост и банален: Делаем запрос, сохраняем результат, парсим результат, получаем домены и следующие запросы. Что бы парсить результат я написал скрипт, он обрабатывает страницы сохранёные firefox'ом как Text File. Интересное наблюдение: когда firefox сохраняет файл в виде html он его заново загружает и результат выдачи другой, но если сохранять как текстовый файл, то текст формируется из уже загруженной страницы. Скрипты необходимые для сбора https://github.com/ckpunmkug/tools/tree/v0001 tools/functions/google/parse_google_text_page.php - функция которая парсит файл сохранёный firefox'ом как текст. Код:
Code:Код:
Code: |
Блин, у меня есть Xrumer и там есть утилита вроде как раз для этого, но я даже там туплю пока)
|
У kali в pkg есть googler, им можно грузить результаты выдачи размером в 100 сылок и на автомате. Только нужно подобрать паузу между запросами ( для загрузги 500 запросов уходит примерно 2 дня )
|
| Время: 01:36 |