Menu
-
3 그레고리는 신비한 베티를 만나기 위해 정성을 다하고 있습니다. 사무실에서 늦게 일하면서 Gregory는 그의 전화벨을 듣습니다. 그는 자신의 전화를 확인하고 선택의 여지가 없다는 것을 알고 있지만 베티와 만난다. 이 폴더에있는 Round 3 패킷 캡처를 사용하여 다음 질문에 답하십시오. #. 그레고리가 베티와 만날 수 없다면 무엇을 잃을까요? DYSENTERY ( 세균성 이질 ) hint : NO TLS + File Carving DYSENTERY
DefCoN #21 - 33 그레고리는 신비한 베티를 만나기 위해 정성을 다하고 있습니다. 사무실에서 늦게 일하면서 Gregory는 그의 전화벨을 듣습니다. 그는 자신의 전화를 확인하고 선택의 여지가 없다는 것을 알고 있지만 베티와 만난다. 이 폴더에있는 Round 3 패킷 캡처를 사용하여 다음 질문에 답하십시오. #. 그레고리가 베티와 만날 수 없다면 무엇을 잃을까요? DYSENTERY ( 세균성 이질 ) hint : NO TLS + File Carving DYSENTERY
2022.06.10 -
2 그레고리와 만남의 장소를 정할 때 그녀의 궤도를 계속 지킬 수 있습니다. 이 폴더에있는 Round 2 패킷 캡처를 사용하여 다음 질문에 답하십시오. #. 그들은 어떤 도시에서 만납니까? hint : Message + File Carving + .tc 제일 아래 디스크 선택 후 R22로 저장한 tc파일을 선택 - 마운트 - betty가 보내줬던 비밀번호 S3cr3tVV34p0n 입력
DefCoN #21 - 22 그레고리와 만남의 장소를 정할 때 그녀의 궤도를 계속 지킬 수 있습니다. 이 폴더에있는 Round 2 패킷 캡처를 사용하여 다음 질문에 답하십시오. #. 그들은 어떤 도시에서 만납니까? hint : Message + File Carving + .tc 제일 아래 디스크 선택 후 R22로 저장한 tc파일을 선택 - 마운트 - betty가 보내줬던 비밀번호 S3cr3tVV34p0n 입력
2022.06.10 -
계정 : tester / 1234 (sudo 계정) 해당 서버는 웹서버로 사용되던 서버이다. 어느날부터인가 비정상 트래픽이 감지가 되었다. 서버 운영자의 얘기로는 바이러스에 감염되었거나 해커에게 공격당한것 같다고 한다.해당 서버를 분석하여 이상 징후를 찾아 분석하여라. 1. 공격자의 아이피는 무엇인가? 192.168.127.131 2. 공격에 사용된 CVE 넘버는 무엇인가? # cve = 취약점을 넘버링해서 정리해둔 것 3. 공격에 취약한 함수는 무엇인가? size=version%28%29%20;%20-- 4. 해커가 침입 후 수정한 파일 목록은? index, wp-content~ 5. 서버에 설치된 악성코드의 이름은? wp-content.php 6. 악성코드가 하는 행위는? 66.6.43.21:80 s..
1. 침해사고조사 - 리눅스 서버계정 : tester / 1234 (sudo 계정) 해당 서버는 웹서버로 사용되던 서버이다. 어느날부터인가 비정상 트래픽이 감지가 되었다. 서버 운영자의 얘기로는 바이러스에 감염되었거나 해커에게 공격당한것 같다고 한다.해당 서버를 분석하여 이상 징후를 찾아 분석하여라. 1. 공격자의 아이피는 무엇인가? 192.168.127.131 2. 공격에 사용된 CVE 넘버는 무엇인가? # cve = 취약점을 넘버링해서 정리해둔 것 3. 공격에 취약한 함수는 무엇인가? size=version%28%29%20;%20-- 4. 해커가 침입 후 수정한 파일 목록은? index, wp-content~ 5. 서버에 설치된 악성코드의 이름은? wp-content.php 6. 악성코드가 하는 행위는? 66.6.43.21:80 s..
2022.06.09 -
# 메모리 포렌식 # volatility : 메모리 덤프 분석 툴 , top3 # 덤프 : FTK, encase, 덤프잇(window 한정) cmd 관리자권한 실행 > setup.py build > setup.py install > vol.py -h > vol.py -f data.vmem imageinfo # 어떤 프로파일을 가지고 있는지 확인하기 Suggested Profile(s) : Win2008R2SP0x64, Win7SP1x64, Win7SP0x64, Win2008R2SP1x64 AS Layer1 : AMD64PagedMemory (Kernel AS) AS Layer2 : FileAddressSpace (D:\\디지털포렌식_민병욱\\2강\\Tool\\Vol\\volatility\\data.vme..
1. 침해사고조사 - 메모리 포렌식# 메모리 포렌식 # volatility : 메모리 덤프 분석 툴 , top3 # 덤프 : FTK, encase, 덤프잇(window 한정) cmd 관리자권한 실행 > setup.py build > setup.py install > vol.py -h > vol.py -f data.vmem imageinfo # 어떤 프로파일을 가지고 있는지 확인하기 Suggested Profile(s) : Win2008R2SP0x64, Win7SP1x64, Win7SP0x64, Win2008R2SP1x64 AS Layer1 : AMD64PagedMemory (Kernel AS) AS Layer2 : FileAddressSpace (D:\\디지털포렌식_민병욱\\2강\\Tool\\Vol\\volatility\\data.vme..
2022.06.09 -
# accounts 파일의 history adduser dev와 adduser ahnlab 명령어 실행 확인 # accounts 파일의 last_R ahnlab pts/1 Mon Aug 27 10:14 still logged in dev pts/0 Mon Aug 27 10:11 still logged in # accounts 파일의 lastlog dev pts/0 192.168.184.161 Mon Aug 27 10:11:09 +0900 2012 ahnlab pts/1 192.168.184.136 Mon Aug 27 10:14:54 +0900 2012 # accounts 파일의 w dev pts/0 192.168.184.161 10:11 4:47 0.11s 0.11s -bash ahnlab pts/1 1..
1. 침해사고조사 - 로그 분석# accounts 파일의 history adduser dev와 adduser ahnlab 명령어 실행 확인 # accounts 파일의 last_R ahnlab pts/1 Mon Aug 27 10:14 still logged in dev pts/0 Mon Aug 27 10:11 still logged in # accounts 파일의 lastlog dev pts/0 192.168.184.161 Mon Aug 27 10:11:09 +0900 2012 ahnlab pts/1 192.168.184.136 Mon Aug 27 10:14:54 +0900 2012 # accounts 파일의 w dev pts/0 192.168.184.161 10:11 4:47 0.11s 0.11s -bash ahnlab pts/1 1..
2022.06.09 -
## 웹 크롤링 # URL 기준으로 원하는 데이터를 긁어오는데 사용 # 네이버 웹툰 , 날씨 정보 ###### 1. 네이버 날씨 정보를 문자열로 받아오기 import errno from bs4 import BeautifulSoup as bs from pprint import pprint import requests html = requests.get('https://search.naver.com/search.naver?where=nexearch&sm=top_hty&fbm=1&ie=utf8&query=%EB%82%A0%EC%94%A8') #pprint(html.text) # 날씨를 네이버에서 검색 => html 문서 조회 => html 변수에 저장 soup = bs(html.text, 'html.parse..
12. 웹 크롤링## 웹 크롤링 # URL 기준으로 원하는 데이터를 긁어오는데 사용 # 네이버 웹툰 , 날씨 정보 ###### 1. 네이버 날씨 정보를 문자열로 받아오기 import errno from bs4 import BeautifulSoup as bs from pprint import pprint import requests html = requests.get('https://search.naver.com/search.naver?where=nexearch&sm=top_hty&fbm=1&ie=utf8&query=%EB%82%A0%EC%94%A8') #pprint(html.text) # 날씨를 네이버에서 검색 => html 문서 조회 => html 변수에 저장 soup = bs(html.text, 'html.parse..
2022.06.09