본문 바로가기
[보안 Archive] ~2017/<인터넷 해킹과 보안> 정리

일반적인 웹 해킹 절차

by Joy L. 2020. 4. 30.
반응형

해킹을 하는 2가지 방법:

  1. 직관적으로 취약점이 있는 부분을 발견하는 방법
  2. 발견할 있는 공격 표면을 모두 찾고, 하나씩 공격 시도하는 방법

 

일반적인 해킹 절차

공격 대상 선정 --> 정보 수집 --> 취약점 분석 --> 공격 --> 리포트 흔적 제거

공격 대상 선정

공격 대상을 주로 대중성이 있는 프로그램 혹은 웹 사이트로 선정된다. 사용자가 많을수록 해킹으로 인한 파급력이 높기 때문이다. 대중성이 있는 대상 중 취약해 보이는 것을 공격 대상으로 선정한다.

 

정보 수집

공격 대상을 선정한 후에는 공격 대상에 대한 조사를 한다. 정보 수집을 할 때에는 공격 대상이 가지고 있는 특성과 취약한 부분을 찾는다. 공격 대상에 대한 정보가 많을수록 공격 벡터를 쉽게 파악할 수 있게 때문이다. 웹 해킹의 경우, 웹 어플리케이션을 개발할 때 사용한 언어, 웹 사이트 내 주요 공격 대상의 기능, 웹 서버의 종류 등이 있다. 정보는 웹 사이트를 방문하고 웹 스캐너를 통해 정보를 수집하는 등 다양한 방법으로 얻을 수 있다.

 

취약점 분석

점보 수집 단계에서 취약점을 발견하면, 해당 취약점에 대한 분석을 시작한다. 예를 들어, 특정 기능이 취약하다고 판단되면 해당 기능에 대한 분석을 한다. 그 기능이 무엇을 하는 기능인지, 어떤 파일 형식을 사용하는지, 어떤 함수를 사용하는지 등을 파악한다. 해당 취약점의 파급력도 고려한다.

 

공격

취약점 분석이 끝나면 분석내용을 기반으로 공격을 한다. 발견된 취약점을 이용하여 공격 대상을 exploit하기 위한 공격을 시작한다. 공격 방법은 취약점 종류에 따라 달라진다. 예를 들어, SQL Injection 취약점이 발견된 경우, 공격을 위한 query문을 작성하여 대입한다.

 

보고 및 흔적 제거

공격이 끝나면 모의해킹의 경우, 발견된 취약점과 취약점 공격에 대한 보고서를 작성하고, 악의적인 해커의 경우 자신의 공격의 흔적을 제거한다.

 

검색 엔진을 통한 정보 수집

검색 엔진의 검색을 피하기 위해 robots.txt 만들어서 검색할 없게 만들 있음. Robots.txt 파일을 만들면, 구글 검색 엔진은 robots.txt 있는 디렉터리들을 검색하지 않는다. Robots.txt User-agent Disallow 구성되어있는데, 사용방법은 다음과 같다.

User-agent: googlebot 이라고 하면 googlebot 검색을 하게 된다.

Disallow: dbconn.ini 라고 하면 해당 파일을 검색하지 못하게 된다. 파일명 대신 디렉터리를 추가할 수도 있다.

 

스캐닝 툴을 사용한 정보 수집

스캐닝은 사이트를 조사하는 방법이다.

반응형

댓글