Darkweb search engine
1.0.0
Elasticsearch 클러스터는 HA 및로드 밸런싱을위한 2 개의 Elasticsearch 인스턴스로 구성됩니다. 폐기 된 페이지 데이터가 저장되고 검색됩니다.
포트 5601에서 실행되며 Elasticsearch에서 데이터를 확인하는 데 사용할 수 있습니다.
도메인 검색 엔진 용 웹 인터페이스. 포트 7000에서 실행됩니다
도메인, 페이지 URL, 비트 코인 주소 등을 저장합니다.
양파 페이지에 액세스하는 데 사용됩니다. 10 개의 프록시 컨테이너가 배포되어 있으며 Haproxy는 트래픽을 배포하는 데 사용됩니다.
MySQL DB, 수확 페이지 및 새 도메인에서 TOR 프록시를 통해 도메인 목록을 가져오고 Domains 및 Page 데이터를 Elasticsearch 및 MySQL에 저장합니다. Python Scrapy 프레임 워크를 기반으로합니다.
프로젝트를 복제하고 Docker-Compose와 관련된 Docker 이미지를 작성하십시오.
docker-compose build
docker-compose up -d
스크레이퍼를 만들고 실행하십시오.
docker build --tag scraper_crawler ./
스크레이퍼를 실행하십시오.
docker run -d --name darkweb-search-engine-onion-crawler --network=darkweb-search-engine_default scraper_crawler /opt/torscraper/scripts/start_onion_scrapy.sh
첫 배포 후 Elasticsearch에서 인덱스를 초기화해야합니다.
docker exec darkweb-search-engine-onion-crawler /opt/torscraper/scripts/elasticsearch_migrate.sh
초기 도메인 목록을 가져옵니다
docker exec darkweb-search-engine-onion-crawler /opt/torscraper/scripts/push_list.sh /opt/torscraper/onions_list/onions.txt &