Rawr - kali unelte linux

Descriere RAWR

Evaluarea rapidă a resurselor web.

  • Un CSV configurabil care conține informațiile ordonate colectate pentru fiecare gazdă cu un câmp pentru crearea de note etc.
  • Elegant, cu posibilitate de căutare, jQuery-enabled raport în format HTML care prezintă capturi de ecran, diagrame și alte informații.

Rawr - kali unelte linux







  • Raportați anteturile de securitate corespunzătoare (utilizând parserul SmeegeSec).
  • Chestionarele pentru matricea CSV pentru o vedere de ansamblu simplă a porturilor deschise pentru toate porturile reprezentate (utilizați -a pentru a afișa toate porturile)

Rawr - kali unelte linux

  • Un dicționar pentru fiecare gazdă, care cuprinde toate cuvintele găsite în răspunsuri (inclusiv scanarea în cazul în care a fost folosit).
  • Alegerea parolelor standard prin verificarea serviciului CPE pentru potriviri din baza de date DPE.
  • Baza de date cu toate informațiile colectate de la gazdă (o funcție de comparație este planificată).
  • Analiza metadatelor în documente și fotografii utilizând module personalizate.
  • Suport pentru utilizarea proxy-urilor (Burp, Zap, W3aF)
  • Imaginile de ecran ale interfețelor RDP și VNC pot fi făcute fără o parolă.
  • Va efectua mai multe apeluri web bazate pe lista utilizatorilor de agenți utilizator.
  • Capturați / salvați certificate SSL, module cookie și Cross-domain.xml
  • [Opțional] Notificați prin poștă sau SMS atunci când scanarea este finalizată.
  • [Opțional] Crawler personalizabil (scaner) pentru a colecta legături în cadrul domeniului gazdă.
  • [Opțional] Diagrama din PNG a fost găsită în timpul traversării paginii.

Rawr - kali unelte linux

  • [Opțional] Lista de legături colectate într-un format pe mai multe niveluri.
  • [Opțional] Listă de documente văzute pe fiecare site.
  • [Opțional] Friendly pentru a automatiza ieșirea (șir JSON)

RAWR Ajutor

Manualul RAWR

Pagina lipsește.

  • Folosirea datelor din scanările anterioare
  • rawr.py <файл, csv список файлов, директория>
  • Programul înțelege următoarele formate:
  • NMap - XML ​​(necesită -sV)
  • PowerSploit - scanare port XML
  • Nessus - XML ​​v2 (necesită plug-in "Detectarea serviciului")
  • Metasploit - CSV
  • Qualys - Raport privind serviciile portuare CSV
  • Qualys - Căutare XML a activelor (necesită QID-uri 86000,86001,86002)
  • Nexpose - XML ​​simplu, XML, XML v2
  • OpenVAS - XML
  • Utilizarea NMap
  • RAWR acceptă linii de intrare valide NMap (CIDR, etc.) ca argument
  • rawr.py <файл> pot fi folosite pentru a alimenta o listă împărțită în șiruri care conțin intervale NMap sau nume de gazde.
  • utilizați-t și / sau-s <исходный порт>
  • utiliza -p pentru a specifica portul # (e), toate pentru 1-65353, sau fuzzdb pentru utilizarea porturilor populare FuzzDB
  • --udp va adăuga -sU la comanda nmap, ceea ce înseamnă efectuarea unei verificări TCP și UDP în timpul scanării.
  • --SSL va apela enum-ciphers.nse pentru date SSL mai profunde.
  • Utilizarea configurației preliminare de scanare
  • rawr.py <файл RAWR .cfg>
  • .fișierele cfg conțin setările de scanare create pentru fiecare lansare.
  • Toate opțiunile de pe linia de comandă vor suprascrie setările corespunzătoare din fișierul .cfg.
  • Aceasta vă permite să executați aceeași scanare fără a construi o comandă de fiecare dată.






  • În [conf / settings.py], "flist" definește câmpurile care vor fi în CSV, precum și raportul.
  • Secțiunea din partea de jos - "Coloane dezactivate" este o listă de aspecte interesante ale datelor care nu sunt afișate în mod implicit.
  • --rd încearcă să facă capturi de ecran ale interfețelor RDP și VNC în timpul enumerării.
  • --DNS va face interogări în Bing pentru a determina alte nume de gazde și pentru a le adăuga la coadă.
  • (Planificat) Dacă IP nu este rutat, RAWR va efectua o solicitare AXFR folosind 'dig'
  • Aceasta este pentru resursele externe - cele care nu se pot roti.
  • Rezultatele sunt rulate pentru timpul de scanare pentru a împiedica interogările inutile.
  • -o. -r. și -x efectuați solicitări suplimentare pentru a colecta, respectiv, OPȚIUNI HTTP. robots.txt. și crossdomain.xml
  • Încercați - redimensionați pentru a implementa interogări cu HTTP / 1.0
  • Este posibil să obțineți mai multe informații din versiunea "chatty"
  • Capturile de ecran se fac încă prin HTTP / 1.1
  • --noss va pierde colecția de capturi de ecran
  • Raportul HTML este încă funcțional, dar va afișa imaginea "!" pentru toate gazdele.
  • Proxy-urile sunt folosite cu -proxy =<[имя пользователя:пароль@]ip:порт[+тип] | файл>.
  • Tipuri: șosete, http, bază și digest.
  • Fișierul trebuie să conțină informații despre proxy în forma [username: password @] ip: port [+ type]
  • Adăugați -proxy-auth pentru a solicita acreditări la pornirea RAWR.
  • Exemplu - nume de utilizator: [email protected]: 8080 + http
  • Acest lucru funcționează bine cu BurpSuite, Zap sau W3aF.
  • Omiterea (scanarea) site-ului cu opțiunea - spider. merită fișiere și documente în directorul jurnalului "hărți".
  • Implicit. [conf / settings.py] urmează subdomenii, 3 linkuri profunde, un timp de expirare de 3 minute, o limită de 300 de url
  • Dacă sunt instalate graficele graphviz și python-graphviz, va genera o diagramă PNG a fiecărui site scanat.
  • Începeți mici și acționați în funcție de circumstanțe. Aveți grijă să evitați problemele.
  • Utilizați -S <1-5> pentru a aplica una dintre presetări (setări prestabilite) la intensitatea scanării. Valoarea implicită este 3.
  • --oglinda este la fel ca și --spider, dar în timpul scanării va fi făcută și o copie a fiecărui site.
  • Folosiți -spider-opts pentru a seta opțiunile în zbor.
  • 's' = 'urmați subdomeniile', 'd' = adâncimea, 't' = timeout, 'l' = limita url
  • Nu toate sunt necesare, de asemenea, ordinea este indiferentă
  • Exemplu: - spider-opts s: false, d: 2, l: 500
  • De asemenea, pentru crawling, --alt-domains <домены> Adăugați domenii în lista albă pe care doriți să o urmați în timpul accesării cu crawlere.
  • În mod implicit, domeniul original nu va mai rămâne.
  • Exemplu: - domain-uri domainal.ro, domain2.com, domain3.com
  • --lista neagră-url-uri <список ввода> Adăugați domenii pe care nu doriți să le scanați în lista neagră.
  • --useragent <строка|файл> instalează agentul utilizator.
  • Este nevoie de șirul specificat sau face cereri web sau face apeluri web cu fiecare agent de utilizator specificat din listă.
  • Setările implicite sunt definite în setările.py.
  • Avertisment: Aceasta va duce la o creștere exponențială a numărului de apeluri web și a interfețelor de returnare!
  • -u pornește actualizarea și solicită să se actualizeze dacă există o versiune mai actualizată a fișierului.
  • Fișierele defpass.csv și Ip2Country.tar.gz sunt descărcate.
  • Verifică fantoma și o încarcă după cerere.
  • -U pornește actualizarea și descarcă fișierele menționate mai sus, indiferent de versiunea lor și fără solicitări.

Exemple de lansare a RAWR

Evaluați gazda suip.biz. inclusiv SSL (-sslv). Se descarcă fișierul robots.txt (-r) lista toate URL-ul în HTML-țintă, de a crea o diagramă a aspectului site-ului (--spider).

Instalați RAWR

Instalare în Kali Linux

Instalarea în BlackArch

Programul este preinstalat în BlackArch.







Articole similare

Trimiteți-le prietenilor: