Archiwizacja (poufnych 😉) stron internetowych
Jak zarchiwizować pojedynczą stronę (url), którą podejrzewamy, że może szybko zniknąć ? Najlatwiej przez internowe archiwum https://web.archive.org .
A jak zrobić to samo ale z całym serwisem (czyli treść, media, skrypty) ?
Np narzędziem wget - dostępnym standardowo w (prawie) każdej dystrybucji linuxa:
$ wget \
--recursive \
--wait=1
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains poufnarozmowa.com \
--no-parent \
https://poufnarozmowa.com
#poufnarozmowa #mafiapis
A jak zrobić to samo ale z całym serwisem (czyli treść, media, skrypty) ?
Np narzędziem wget - dostępnym standardowo w (prawie) każdej dystrybucji linuxa:
$ wget \
--recursive \
--wait=1
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains poufnarozmowa.com \
--no-parent \
https://poufnarozmowa.com
#poufnarozmowa #mafiapis
Ten wpis został zedytowany (3 lata temu)
Piotr Sikora lubi to.
crusomudostępnił to.
Michał SP6MR
•harce
•@miklo
Makary lubi to.
Piotr Sikora
•MiKlo:~/citizen4.eu$💙💛
Czyli trochę inny zestaw niż powyżej.