본문 바로가기
3. 웹 애플리케이션 취약점 진단/비박스를 활용한 웹 애플리케이션 취약점 진단

[비박스를 활용한 웹 취약점 진단] 9. 보안 설정 오류 [Robots 파일 내 중요 정보 노출]

by Robert8478 2023. 12. 13.

대외 서비스에서 애플리케이션 취약점 대응도 중요하나 가장 기본이 되는 것은 바로 보안 설정이다. 보안 설정만으로 많은 취약점 대응이 된다.
하지만 과하면 독이 될수 있듯이 보안 설정에서도 홀이 발생해서 공격자에게 힌트를 주고 더 큰 위협이 발생할 수 있다.
구글 해킹의 대응방안 설정에 어떠한 취약점이 있는지 알아보자.

robots.txt 파일은 페이지에 대한 접근 권한을 설정하는 파일로, 웹 크롤러의 접근 범위를 설정할 수 있다. 즉, 구글 검색 시 검색에서 제외하기 위해 활용되는 파일이다. robots.txt 파일이 외부에 노출되는 경우 페이지에 대한 접근권한 자체가 노출되는 것이다. robots.txt 파일의 설정에 따른 페이지 접근 가능 여부를 확인해보자.

[난이도 하]

구글 해킹으로 검색되어 시스템 및 개인정보가 노출되는것을 방지하려면 robots.txt 파일을 홈 디렉터리에 생성하고 디렉터리 검색을 제한한다.
하지만 중요 디렉터리가 외부에 노출되고 있다면 오히려 공격자에게 역으로 공격받을 수 있게 된다.
즉, robots.txt 파일이 노출된다면 robots.txt 파일에서 검색을 막기위해 넣은 중요 디렉터리가 공격자에게 노출된다는 것이다.

이 robots.txt 파일을 보고 /admin/ 과 /passwords/ 디렉터리가 중요하다는 것을 추측할 수 있다. 경로로 접근해보자.

admin 디렉터리로 이동하니 인증과정 없이 관리자페이지에 접근할 수 있었다. 관리자 계정의 아이디 비밀번호와 내부 IP정보, 서버 정보들이 노출되었다. 이제 passwords 경로로 이동해 보자.

디렉터리 권한 설정 미흡 취약점으로 인해 중요한 정보가 웹에 노출된 것을 볼 수 있다. wp-config.bak 파일을 받아서 확인해보자.

파일을 열어보니 중요한 데이터베이스 접속 정보가 평문으로 노출이 되었다. 이는 robots.txt 파일이 구글 검색을 회피할 목적으로 이용되지만, 이처럼 중요 디렉터리를 넣었을때 robots.txt 파일이 노출된다면 그 중요 디렉터리의 정보가 노출될 수 있는 것이다.
이처럼 robots.txt 파일은 외부에서 크롤링이나 정보 노출을 방어하는데 도움을 주지만,그전에 반드시 페이지에 인증처리를 먼저 해주어야 한다.

또한, 모든 디렉터리를 검색되지 않게 차단하는 것은 마케팅 차원에서도 옳지 않다. 회사에 대해 사람에게 알려야 하고, 링크를 클릭하여 사람들이 회사의 사이트에 접근할 수 있도록 해야하기 때문이다.
그렇기 때문에 디렉터리 접근 권한 및 웹 애플리케이션 대응방안을 먼저 수립한 뒤 마케팅을 고려해서 추가 대응방안을 적용해야 한다.