]> git.openstreetmap.org Git - chef.git/blob - cookbooks/planet/templates/default/planetdump.erb
c6b060358611b0a6f5177ab1e38822cb111a3372
[chef.git] / cookbooks / planet / templates / default / planetdump.erb
1 #!/bin/bash
2
3 # DO NOT EDIT - This file is being maintained by Chef
4
5 # Exit on error
6 set -e
7
8 # Get the name of the file and the expected pattern
9 file="$1"
10 pattern="^osm-([0-9]{4})-([0-9]{2})-([0-9]{2})\.dmp$"
11
12 # Give up now if the file isn't a database dump
13 [[ $file =~ $pattern ]] || exit 0
14
15 # Save the year and date from the file name
16 year="${BASH_REMATCH[1]}"
17 date="${year:2:2}${BASH_REMATCH[2]}${BASH_REMATCH[3]}"
18
19 # Check the lock
20 if [ -f /tmp/planetdump.lock ]; then
21     if [ "$(ps -p `cat /tmp/planetdump.lock` | wc -l)" -gt 1 ]; then
22         echo "Error: Another planetdump is running"
23         exit 1
24     else
25         rm /tmp/planetdump.lock
26     fi
27 fi
28
29 # Redirect this shell's output to a file. This is so that it
30 # can be emailed later, since this script is run from incron
31 # and incron doesn't yet support MAILTO like cron does. The
32 # command below appears to work in bash as well as dash.
33 logfile="/tmp/planetdump.log.$$"
34 exec > "${logfile}" 2>&1
35
36 # Create lock file
37 echo $$ > /tmp/planetdump.lock
38
39 # Define cleanup function
40 function cleanup {
41     # Remove the lock file
42     rm /tmp/planetdump.lock
43
44     # Send an email with the output, since incron doesn't yet
45     # support doing this in the incrontab
46     if [[ -s "$logfile" ]]
47     then
48         mailx -s "Planet dump output: ${file}" zerebubuth@gmail.com < "${logfile}"
49     fi
50
51     # Remove the log file
52     rm -f "${logfile}"
53 }
54
55 # Remove lock on exit
56 trap cleanup EXIT
57
58 # Change to working directory
59 cd /store/planetdump
60
61 # Cleanup
62 rm -rf users
63 rm -rf changesets changeset_tags changeset_comments
64 rm -rf nodes node_tags
65 rm -rf ways way_tags way_nodes
66 rm -rf relations relation_tags relation_members
67
68 # Run the dump
69 time nice -n 19 /opt/planet-dump-ng/planet-dump-ng \
70      --max-concurrency=4 \
71      -c "pbzip2 -c" -f "/store/backup/${file}" --dense-nodes=1 \
72      -C "changesets-${date}.osm.bz2" \
73      -D "discussions-${date}.osm.bz2" \
74      -x "planet-${date}.osm.bz2" -X "history-${date}.osm.bz2" \
75      -p "planet-${date}.osm.pbf" -P "history-${date}.osm.pbf"
76
77 # Function to create bittorrent files
78 function mk_torrent {
79   type="$1"
80   format="$2"
81   dir="$3"
82   s_year="$4"
83   web_dir="${dir}${s_year}"
84   name="${type}-${date}.osm.${format}"
85   web_path="${web_dir}/${name}"
86   rss_web_dir="https://planet.openstreetmap.org/${dir}"
87   rss_file="${type}-${format}-rss.xml"
88   torrent_file="${name}.torrent"
89   torrent_url="${rss_web_dir}${s_year}/${torrent_file}"
90
91   # create .torrent file
92   mktorrent -l 22 "${name}" \
93      -a udp://tracker.opentrackr.org:1337 \
94      -a udp://tracker.datacenterlight.ch:6969/announce,http://tracker.datacenterlight.ch:6969/announce \
95      -a udp://tracker.torrent.eu.org:451 \
96      -a udp://tracker-udp.gbitt.info:80/announce,http://tracker.gbitt.info/announce,https://tracker.gbitt.info/announce \
97      -a http://retracker.local/announce \
98      -w "https://planet.openstreetmap.org/${web_path}" \
99      -w "https://ftp5.gwdg.de/pub/misc/openstreetmap/planet.openstreetmap.org/${web_path}" \
100      -w "https://ftpmirror.your.org/pub/openstreetmap/${web_path}" \
101      -w "https://mirror.init7.net/openstreetmap/${web_path}" \
102      -w "https://free.nchc.org.tw/osm.planet/${web_path}" \
103      -w "https://ftp.fau.de/osm-planet/${web_path}" \
104      -w "https://ftp.spline.de/pub/openstreetmap/${web_path}" \
105      -w "https://osm.openarchive.site/${name}" \
106      -w "https://downloads.opencagedata.com/planet/${name}" \
107      -w "https://planet.osm-hr.org/${web_path}" \
108      -c "OpenStreetMap ${type} data export, licensed under https://opendatacommons.org/licenses/odbl/ by OpenStreetMap contributors" \
109      -o "${torrent_file}" > /dev/null
110
111   # create .xml global RSS headers if missing
112   torrent_time_rfc="$(date -R -r ${torrent_file})"
113   test -f "${rss_file}" || echo "<x/>" | xmlstarlet select --xml-decl --indent \
114         -N "atom=http://www.w3.org/2005/Atom" \
115         -N "dcterms=http://purl.org/dc/terms/" \
116         -N "content=http://purl.org/rss/1.0/modules/content/" \
117         --encode "UTF-8" \
118         --template \
119         --match / \
120         --elem "rss" \
121                 --attr "version" --output "2.0" --break \
122                 --attr "atom:DUMMY" --break \
123         --elem "channel" \
124         --elem "title" --output "OpenStreetMap ${type} ${format} torrent RSS" --break \
125         --elem "link"  --output "${rss_web_dir}" --break \
126         --elem "atom:link" \
127                 --attr "href" --output "${rss_web_dir}/${rss_file}" --break \
128                 --attr "rel" --output "self" --break \
129                 --attr "type" --output "application/rss+xml" --break \
130                 --break \
131         --elem "description" --output "${type}.osm.${format}.torrent RSS feed" --break \
132         --elem "copyright" --output "Source: OpenStreetMap contributors, under ODbL 1.0 licence" --break \
133         --elem "generator" --output "OpenStreetMap xmlstarlet powered shell script v1.0" --break \
134         --elem "language" --output "en" --break \
135         --elem "lastBuildDate" --output "${torrent_time_rfc}" \
136         > "${rss_file}"
137
138   # add newly created .torrent file as new entry to .xml RSS feed, removing excess entries
139   torrent_size="$(stat --format="%s" ${torrent_file})"
140   xmlstarlet edit --inplace \
141         -a "//lastBuildDate" -t elem -n item -v ""  \
142         -s "//item[1]" -t elem -n "title" -v "${torrent_file}" \
143         -s "//item[1]" -t elem -n "guid" -v "${torrent_url}" \
144         -s "//item[1]" -t elem -n "link" -v "${torrent_url}" \
145         -s "//item[1]" -t elem -n "pubDate" -v "${torrent_time_rfc}" \
146         -s "//item[1]" -t elem -n "category" -v "OpenStreetMap data" \
147         -s "//item[1]" -t elem -n "enclosure" \
148                 -s "//item[1]"/enclosure -t attr -n "type" -v "application/x-bittorrent" \
149                 -s "//item[1]"/enclosure -t attr -n "length" -v "${torrent_size}" \
150                 -s "//item[1]"/enclosure -t attr -n "url" -v "${torrent_url}" \
151         -s "//item[1]" -t elem -n "description" -v "OpenStreetMap torrent ${torrent_file}" \
152         -u /rss/channel/lastBuildDate -v "${torrent_time_rfc}" \
153         -d /rss/@atom:DUMMY \
154         -d "//item[position()>5]" \
155         "${rss_file}"
156 }
157
158 # Function to install a dump in place
159 function install_dump {
160   type="$1"
161   format="$2"
162   dir="$3"
163   year="$4"
164   name="${type}-${date}.osm.${format}"
165   latest="${type}-latest.osm.${format}"
166   rss_file="${type}-${format}-rss.xml"
167
168   md5sum "${name}" > "${name}.md5"
169   mkdir -p "${dir}/${year}"
170   mv "${name}" "${name}.md5" "${dir}/${year}"
171   ln -sf "${year:-.}/${name}" "${dir}/${latest}"
172   test -f "${name}.torrent" && mv "${name}.torrent" "${dir}/${year}" && ln -sf "${year:-.}/${name}.torrent" "${dir}/${latest}.torrent"
173   test -f "${rss_file}" && xmllint --noout "${rss_file}" && cp -f "${rss_file}" "${dir}"
174   rm -f "${dir}/${latest}.md5"
175   sed -e "s/${name}/${latest}/" "${dir}/${year}/${name}.md5" > "${dir}/${latest}.md5"
176 }
177
178 # Create *.torrent files
179 mk_torrent "changesets" "bz2" "planet" "/${year}"
180 mk_torrent "discussions" "bz2" "planet" "/${year}"
181 mk_torrent "planet" "bz2" "planet" "/${year}"
182 mk_torrent "history" "bz2" "planet/full-history" "/${year}"
183 mk_torrent "planet" "pbf" "pbf"
184 mk_torrent "history" "pbf" "pbf/full-history"
185
186 # Move dumps into place
187 install_dump "changesets" "bz2" "<%= node[:planet][:dump][:xml_directory] %>" "${year}"
188 install_dump "discussions" "bz2" "<%= node[:planet][:dump][:xml_directory] %>" "${year}"
189 install_dump "planet" "bz2" "<%= node[:planet][:dump][:xml_directory] %>" "${year}"
190 install_dump "history" "bz2" "<%= node[:planet][:dump][:xml_history_directory] %>" "${year}"
191 install_dump "planet" "pbf" "<%= node[:planet][:dump][:pbf_directory] %>"
192 install_dump "history" "pbf" "<%= node[:planet][:dump][:pbf_history_directory] %>"
193
194 # Remove pbf dumps older than 90 days
195 find "<%= node[:planet][:dump][:pbf_directory] %>" "<%= node[:planet][:dump][:pbf_history_directory] %>" \
196      -maxdepth 1 -mindepth 1 -type f -mtime +90 \
197      \( \
198      -iname 'planet-*.pbf' \
199      -o -iname 'history-*.pbf' \
200      -o -iname 'planet-*.pbf.md5' \
201      -o -iname 'history-*.pbf.md5' \
202      \) \
203      -delete