Eine einseitige Anwendungs-Comic-Site, die mit ReactJS + Python/Flask + SQLite + Scrapy erstellt wurde, verwendet auch die Python-Management- und Bereitstellungswerkzeuge von Gunicorn und Fabric. Es wurde verwendet, als ich die automatische Bereitstellung selbst erstellt habe.



Vorkondition Node.js, Python3
npm install
pip install -r requirements.txt
cd server python web_server.py
npm start
Besuchen Sie localhost:3000 über ...
soul_manga_spider.py definiert drei Krabbeln. REQ_TYPE entspricht verschiedenen URL -Typen: einzelne Comics, alle Comics auf einer einzelnen Seite und allen Comics. Es gibt auch einen is_update -Parameter, um anzuzeigen, ob nur die kürzlich aktualisierte Seiten -URL gekrabbt und dann inkrementelle Aktualisierungen durchführen. Als ich es selbst einsetzte, war es im Grunde genommen genug, crontab zu verwenden, um alle 12 Stunden einmal zu kriechen. Der Standard is_update ist falsch, und REQ_TYPE ist standardmäßig nichts, und die Standardeinstellung besteht darin, die DB zu verwenden, die ich gekrabbt habe. Die Protokollebene passt LOG_LEVEL und LOG_FILE der setting.py an. Py entsprechend Ihren Anforderungen