Ух как давно меня не было на форуме 
Вообщем что за мультитул такой и откуда у меня возникла идея его сделать?
Всего есть 7 функций:
1. Directory Bruteforce - брутит директории сайта
2. Subdomain Bruteforce - брутит поддомены сайта
3. Crawl website pages - собирает доступные страницы на сайте
4. Crawl pages and forms - собирает страницы и доступные формы ввода на них
5. Crawl for IPs in responses - собирает host/ip ответа от сайта
6. Full Scan - сканирует полностью
7. Сохранение собранной информации
7 пункт достаточно интересный, потому что здесь я имею ввиду не вывод информации о завершенном скане в отдельный файл, а сохранение прям как у скульмапа!) прикольно, ага? Собрал часть информации, закрыл скрипт, а потом запустил опять и старую информацию уже собирать не будет
Чем же он отличается от других скриптов? Да ни чем, я просто делюсь с вами своим творение, которое надеюсь в будущем буду развивать.
Зачем я его сделал? Сейчас я пишу статью для конкурса, и решил сделать фишечку кодинга всех софтов самостоятельно) дада я немного ебанутый(надеюсь вообще успеть дописать). Ну и вот, там будет этот софт.
Зачем выкладываю сейчас, а не в конкурсной статье? Что бы узнать мнение и отзывы конечно же) софтик прикольный, да и от одного выложенного - ничего не поменяется.
Теперь как он вообще работает.
1 и 2 функции думаю объяснять не нужно, просто перебор.
3:
Открывает сайт и переходит по всем видимым страницам. Из настроек - потоки, максимальное кол-во страниц
4:
Делает почти то же самое что и 3 функция, но в дополнение сохраняет все формы для ввода. Создает 2 файла.
5:
Как видите работает криво, но на некоторых сайтах может что то и найдет(по идее бесполезная функция, но почему бы и нет)
Вообщем и целом жду ваши отзывы и пожелания) без негатива ребят, только конструктивную критику пожалуйста
Вообщем что за мультитул такой и откуда у меня возникла идея его сделать?
Всего есть 7 функций:
1. Directory Bruteforce - брутит директории сайта
2. Subdomain Bruteforce - брутит поддомены сайта
3. Crawl website pages - собирает доступные страницы на сайте
4. Crawl pages and forms - собирает страницы и доступные формы ввода на них
5. Crawl for IPs in responses - собирает host/ip ответа от сайта
6. Full Scan - сканирует полностью
7. Сохранение собранной информации
7 пункт достаточно интересный, потому что здесь я имею ввиду не вывод информации о завершенном скане в отдельный файл, а сохранение прям как у скульмапа!) прикольно, ага? Собрал часть информации, закрыл скрипт, а потом запустил опять и старую информацию уже собирать не будет
Чем же он отличается от других скриптов? Да ни чем, я просто делюсь с вами своим творение, которое надеюсь в будущем буду развивать.
Зачем я его сделал? Сейчас я пишу статью для конкурса, и решил сделать фишечку кодинга всех софтов самостоятельно) дада я немного ебанутый(надеюсь вообще успеть дописать). Ну и вот, там будет этот софт.
Зачем выкладываю сейчас, а не в конкурсной статье? Что бы узнать мнение и отзывы конечно же) софтик прикольный, да и от одного выложенного - ничего не поменяется.
Теперь как он вообще работает.
1 и 2 функции думаю объяснять не нужно, просто перебор.
3:
Открывает сайт и переходит по всем видимым страницам. Из настроек - потоки, максимальное кол-во страниц
4:
Делает почти то же самое что и 3 функция, но в дополнение сохраняет все формы для ввода. Создает 2 файла.
5:
Как видите работает криво, но на некоторых сайтах может что то и найдет(по идее бесполезная функция, но почему бы и нет)
Вообщем и целом жду ваши отзывы и пожелания) без негатива ребят, только конструктивную критику пожалуйста
http://**************************************************************/d/5YuXwt4EImBnAasF3s9T1W
пароль - наш любимый форум